CEO を雇い、チームを雇い、CEO を復帰させ、取締役会に加わらせる - Microsoft はOpenAI を運営し続けるためにあらゆる手段を講じるつもりです。 「Microsoft が OpenAI を救わなければならない理由」より翻訳。 スター生成AI企業であるOpenAIの混乱した崩壊は、最初は些細なことに思えたが、非常に激しくなった感謝祭前の家族の口論のようなものだ。おそらく、マイクロソフトの、大人らしい、断固として、しかし友好的な介入が、すべてのもつれに終止符を打ったのであり、おそらく、さらなる紆余曲折があるだろう。しかし、こうした浮き沈みを経て、OpenAI 自体ではなくとも、Microsoft が介入して同社の技術を安定させることが不可欠になった。 お金だけではないマイクロソフトが最近 OpenAI に 100 億ドルを投資したことは決して小さな金額ではない (ただし、その一部は大規模な全社的なレイオフで賄われ、CEO のサティア ナデラが同社にもたらした印象的な企業文化の変革を台無しにしている)。しかし、これは一種の資金スパイラルであることが証明されており、マイクロソフトの OpenAI への数年にわたる投資のかなりの部分が、OpenAI の大規模言語モデルを実行するための (Azure) クラウド コンピューティングにすでに費やされているようだ。 決して実現しないかもしれない、汎用人工知能を作成するという遠い計画については忘れてください。マイクロソフトは、自社を「Windows企業」ではなく「AI企業」、特に「Copilot企業」として認識してもらいたいと考えており、2021年にNuanceに支払った金額の約半分、つまり2019年にGitHubに費やした75億ドル(インフレ調整済み)よりわずかに少ない金額でChatGPTの技術基盤を取得する予定だ。この資金のすべてがクラウドに費やされたわけではないが、マイクロソフトの設備投資は2023年第1四半期だけで78億ドルに達した。
ナデラ氏は、Ignite カンファレンスのオープニング基調講演で、GPT-4 Turbo モデルのプレビューを含め、OpenAI について繰り返し言及しました。 Microsoft 独自の製品にも OpenAI テクノロジが満載されており、多くの Copilot の中核には OpenAI テクノロジが採用されています。 基礎モデルの経済的実現可能性の達成大規模な言語モデルやその他の基本モデルをトレーニングするには、大量のデータ、時間、計算能力が必要です。 Microsoft の解決策は、それらをプラットフォームとして扱い、一度にいくつかのモデルを構築し、それらをカスタマイズして特化した方法で繰り返し再利用することです。
GitHub Copilotを皮切りに、ほぼすべての Microsoft 製品ラインに Copilot 機能が搭載されるようになりました。これは、Microsoft 365 Copilot、Windows Copilot、Teams、Dynamics、新しく命名された Bing Chat などの消費者やオフィス ユーザー向けの生成 AI だけでなく、Power BI にインテリジェントなサポートを提供する GPT ツールも含まれます。Copilot は、セキュリティ製品の Microsoft Defender 365 から Azure インフラストラクチャ、Microsoft が新たにリリースしたインフラストラクチャ製品まで、あらゆるところに浸透しています。 Microsoft の顧客も、同じテクノロジー スタック上に独自のカスタム Copilot を構築しています。ナデラ氏は、AirbnbやBTからNVidiaやChevronまで、いくつかの例を挙げた。新しいCopilot Studioは、企業が独自のデータとJIRA、SAP ServiceNow、Trelloなどの一般的なツールのプラグインを使用してカスタムCopilotを簡単に構築できるようにするローコードプラットフォームであり、OpenAIを普及させる可能性がある。 この目標を達成するために、Microsoft は、OpenAI から新しい基本モデルを取得し、Power Platform や Bing などの小規模なサービスでテストし、そこから得た教訓を活用して、開発者が利用できるより専門的な AI サービスにそれらのモデルを組み込む社内パイプラインを構築しました。セマンティック カーネルとプロンプト プロセスを標準化し、Python や C# などの従来のプログラミング言語を使用して AI サービスを調整できます (開発者向けに使いやすい新しいフロントエンド Azure AI Studio ツールを構築しました)。これらのツールは、開発者が大規模な言語モデルを理解していなくても、大規模な言語モデルに基づくアプリケーションを構築および理解するのに役立ちますが、その基盤となる OpenAI モデルに関する Microsoft の専門知識に依存しています。 ハードウェアは真の約束もちろん、Microsoft は OpenAI が依存する主要なハードウェアである Nvidia および AMD GPU に多額の投資を行っており、またノード間の高帯域幅 InfiniBand ネットワークや、昨年の Lumensity 買収を通じて獲得した低遅延中空繊維 (HFC) 製造技術にも投資しています。これらはすべて、AI システムを構築するために不可欠なコンポーネントです。 マイクロソフトは、Top500 スーパーコンピュータ リストに定期的に登場する Nvidia 搭載 AI スーパーコンピュータでのコラボレーションだけでなく、Maia 100 の最適化の一部にも貢献したとして OpenAI の功績を高く評価しています。 Microsoft はこれらの Azure スーパーコンピューターを OpenAI に販売しただけでなく、他の顧客が同様のインフラストラクチャを購入する (またはその上で実行されるサービスを購入する) ための強力な口実としてそれらを利用しました。今日のほぼすべての Microsoft 製品とサービスは、このインフラストラクチャに依存しています。 これまで、マイクロソフトは AI を加速する主な手段として FPGA を利用してきました。これは、FPGA が非常に柔軟性が高いためです。当初 Azure ネットワークを高速化するために使用されていたハードウェアは、後に Bing 検索の AI 推論エンジンとなり、その後、開発者が独自のディープ ニューラル ネットワークを AKS に拡張できるサービスへと進化しました。新しい AI モデルや手法が登場すると、Microsoft は、すぐに時代遅れになる新しいハードウェア アクセラレータを構築するのではなく、FPGA をより迅速に再プログラムしてソフト カスタム プロセッサを作成することで、それらを加速できます。 FPGA を使用すると、Microsoft は今後数年間、AI のシステム アーキテクチャ、データ タイプ、演算子を選択する必要がなくなります。必要なときにいつでもソフトウェア アクセラレータの機能を更新でき、タスクの実行中に FPGA 回路の一部を再ロードすることもできます。 しかし先週、マイクロソフトは初のカスタム シリコン チップである Azure Maia AI アクセラレータを発表しました。これは、特に「大規模言語モデルのトレーニングと推論」用にカスタム チップ レベルの液体冷却システムとラックが組み込まれており、Bing、GitHub Copilot、ChatGPT、Azure OpenAI サービス用の OpenAI モデルを実行します。これは、OpenAI モデルのトレーニングと実行にかかるコスト (および水の使用量) を大幅に削減する重要な投資です。また、こうしたコスト削減は、OpenAI モデルのトレーニングと実行が引き続き主要なワークロードである場合にのみ達成されます。
車輪を回し続けるマイクロソフトは長年にわたりこのアイデアをほのめかしていたものの、当初はOpenAIを買収するつもりはなかった。同社は、構築中の AI トレーニングおよび推論プラットフォームが自社のニーズだけでなくそれ以上のものも考慮に入れるように、意図的に社外のチームと協力することを選択しました。 しかし、OpenAI のモデルが競合他社を上回り続けるにつれて、マイクロソフトの賭けは拡大している。 ChatGPT は発売からわずか 1 年で週あたり 1 億人のユーザーを獲得したと主張しましたが、新規ユーザー数がシステム容量を超えたため、OpenAI は ChatGPT Plus のユーザー登録を停止しなければなりませんでした。これには、Microsoft の直接顧客による OpenAI の使用は含まれていません。
理論的には、主要な競合他社のインフラストラクチャ モデルのほとんどがすでに Azure 上で実行されているため、Microsoft は撤退して別のインフラストラクチャ モデルに移行する可能性があります。しかし、途中で変更することは混乱を招き、費用がかかるだけでなく、リーダーシップの喪失につながり、株式市場や顧客の間での会社の評判を損なう可能性も高くなります。 OpenAI テクノロジーが今後も存続し、繁栄し続けるためには、確かにこれがより良い選択です。 OpenAI の開発者リレーション チームは、ビジネスは継続しており、システムは稼働しており、エンジニアリング チームは待機していると顧客に安心させているが、OpenAI の顧客は競合他社の Anthropic や Google に連絡を取り始めていると報じられている。これらの顧客には、Microsoft が失いたくない Azure OpenAI の顧客も含まれる可能性がある。 Azure OpenAI サービスと緊密に統合された LLM ベースのアプリケーションを作成するためのフレームワークを構築しているスタートアップの LangChain が、Azure OpenAI サービスとの主要な統合を発表しました。同社は開発者にアドバイスを提供し、別の LLM に切り替えるには大幅なヒント エンジニアリングの変更が必要になることを指摘しています (ほとんどの例は現在 OpenAI モデルを対象としています)。 ほぼすべての部門と製品ラインにまたがるマイクロソフトの顧客が同様の社内会話を行っている場合、OpenAI の専門知識を可能な限り社内に取り込むことで、OpenAI 自体が分裂したり衰退したりした場合に必要となる移行を容易にするのに役立つだろう。 確かに、マイクロソフトは、AGI(もし実現すれば)まで、そしてたとえOpenAIとの提携が終了したとしても、CFOのエイミー・フッド氏が言うところの「OpenAIの知的財産に対する広範かつ永続的なライセンス」を保有しているが、生成AIは急速に進歩しており、現在のモデルを稼働させ続けるだけでは十分ではないだろう。 Microsoft は、GPT-5 のような将来の言語モデルにアクセスできるようにする必要があります。 名前に「オープン」という言葉が含まれているにもかかわらず、OpenAI は主にオープンソース組織ではなく、個別のリリースのみを行っており、その中核となる大規模言語モデルはオープンソースではありませんでした。これは、Microsoft が段階的にオープンソースを採用してきたことと比較する価値があります。PowerShell や VS Code などのコア プロジェクトをオープンソースとしてリリースしたのはほんの始まりに過ぎませんでしたが、本当の鍵は、Windows Server と Azure 向けの Docker や Kubernetes などのオープンソース プロジェクトに依存し始めたことです。 対照的に、OpenAIへの依存はさらに深く、予想以上に不安定で管理が弱い依存であることが判明した。いずれにしても、マイクロソフトは OpenAI の重要な貢献が継続されることを保証します。 |
<<: LLM の 3 つの大きな欠点のうちどれをご存知ですか?
[[382638]]モバイル デバイス、スマート デバイス、IoT 製品からのデータが家庭や企業に溢...
今日は、非常に有名な Python の簡潔で効率的かつ便利なコードを見てみましょう。そのスタイルを見...
ディープラーニングは急速に発展していますが、過去 2 年間に登場した多くのディープラーニング フレー...
そうです、グラフィックカードを作っている会社、NVIDIA です。 NV はグラフィック カード メ...
人工知能に関しては、人々は複雑な感情を抱くことが多い。映画ファンなら、ウィル・スミスが『アイ、ロボッ...
人工知能の分野では、大規模なモデルを使用してインテリジェントエージェントを制御することは避けられない...
コンピュータサイエンスとエレクトロニクスの急速な発展により、顔認証は現在、指紋に次いで世界第2位の市...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
[51CTO.com オリジナル記事] 韓国 IT ブリーフィング (3 月第 3 週)今回のKor...
スマートシティが理論的な概念から正式な計画と建設へと進化するにつれて、スマートストアはスマートシティ...