マイクロソフト、NvidiaとIntelに対抗する2つのカスタムAIチップをリリース

マイクロソフト、NvidiaとIntelに対抗する2つのカスタムAIチップをリリース


マイクロソフトは最近、シアトルで開催されたIgniteカンファレンスで2つのAIチップをリリースした。 1 つ目は Maia 100 AI チップで、これは Nvidia の大いに宣伝されている AI GPU と競合します。2 つ目は Cobalt 100 Arm チップで、これは一般的なコンピューティング タスクに使用され、Intel プロセッサと競合します。

マイクロソフト副社長のラニ・ボルカー氏はメディアとのインタビューで、コバルトチップ上で動作する仮想マシンインスタンスが2024年にマイクロソフトのAzureクラウドプラットフォームを通じて商用化される予定だと述べたが、マイア100のリリース時期については明らかにしなかった。

現在、資金力のあるテクノロジー企業は、クラウド コンピューティング インフラストラクチャを使用してアプリケーションを実行する顧客に、より多くのクラウド コンピューティング オプションを提供し始めています。 Alibaba、Amazon、Google は長年これを行ってきました。 10月末時点で推定1440億ドルの現金を保有していたマイクロソフトは、2022年には世界のクラウド市場で21.5%のシェアを持ち、アマゾンに次ぐ第2位となる。

Google は 2016 年に AI 向け TPU をリリースしました。 AWS は 2018 年に Graviton Arm ベースのチップと Inferentia AI チップをリリースし、2020 年にはトレーニング モデル用の Trainium チップを発表しました。

GPU が不足している場合は、クラウド コンピューティング プロバイダーのカスタム AI チップが需要を満たすのに役立つ可能性があります。しかし、Nvidia や AMD とは異なり、Microsoft とそのクラウド コンピューティング ベンダーは、ユーザーが自社のチップを搭載したサーバーを購入することを意図していません。

ボルカー氏は、マイクロソフトが顧客からのフィードバックに基づいてAIコンピューティング用のチップを開発したと説明した。マイクロソフトは、Bing 検索エンジンの AI チャットボット (現在は Bing Chat ではなく Copilot と呼ばれています)、GitHub Copilot コーディング アシスタント、およびマイクロソフトが支援する OpenAI の大規模言語モデル GPT-3.5-Turbo のニーズを Maia 100 がどのように満たせるかをテストしています。

GPT-3.5-Turbo モデルは、昨年の発売後すぐに人気を博した OpenAI の ChatGPT アシスタントで使用されています。 OpenAI はその後すぐに同様のチャット機能を自社のソフトウェアに追加し、GPU の需要が増加しました。

9月、NvidiaのCFOコレット・クレス氏はニューヨークで開催されたEvercoreカンファレンスで次のように述べた。「当社は供給状況の改善と多くの顧客のサポート、そして顧客のニーズに応えるために、さまざまなサプライヤーと包括的に協力してきました。」

OpenAI は以前、Azure の Nvidia GPU を使用してモデルをトレーニングしました。

Microsoft は、Maia チップの設計に加えて、Maia サーバーの横のラックに取り付けることができる Sidekicks と呼ばれるカスタム液体冷却ハードウェアも設計しました。マイクロソフトの広報担当者は、顧客はコンピュータルームを改造することなく、サイドキックをラックに設置できると述べた。

Amazon の経験を参考にすると、Microsoft による Cobalt プロセッサの採用は Maia AI チップの採用よりも早い可能性があります。 Microsoft は、Cobalt 上で Teams アプリケーションと Azure SQL データベース サービスをテストしています。マイクロソフトによれば、スタートアップ企業Ampereが開発したAzureの既存のArmチップよりも、これまでのところ40%優れたパフォーマンスを提供しているという。

過去 1 年間に価格と金利が上昇したため、多くの企業がクラウド コンピューティング支出の効率を改善する方法を模索しており、AWS の顧客である Graviton もその 1 つです。 AWS副社長のデイブ・ブラウン氏は、AWSの上位100社の顧客が現在Armベースのチップを使用しており、これにより価格性能比が40%向上すると述べた。

それでも、GPU から AWS Trainium AI チップへの移行は、Intel Xeon から Graviton への移行よりも複雑になる可能性があります。すべての AI モデルには独自の問題があります。ブラウン氏は、モバイルデバイスにおけるArmの人気により、多くの人がさまざまなツールをArm上で動作させるために懸命に取り組んでいるが、AIチップに関しては状況が異なると述べた。しかし、彼は、時間が経つにつれて、多くの企業がGPUと比較してTrainiumの価格性能比が同様に改善されることに気づくだろうと述べた。

「我々はエコシステム内の多くのパートナーとこれらの仕様を共有しており、これはAzureの顧客全員に利益をもたらすだろう」とマイクロソフトのラニ・ボルカー副社長は述べた。しかし、彼女はMaiaがNvidiaのH100などの代替品と比べてどう機能するかについては詳しく述べなかった。

<<:  アルトマン氏は、GPT-5 が加速トレーニングを受けていることを初めて明らかにしました。 GPT-4よりも複雑であることが示唆されており、真の能力は予測できない

>>:  NVIDIA が TensorRT-LLM の新バージョンをプレビュー: 推論能力が 5 倍に向上、8GB 以上のグラフィック カードがローカルで実行可能、OpenAI の Chat API をサポート

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

ボストン・ダイナミクスのロボット犬が再び進化:自分でルートを計画することを学習

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

自動運転車を巡る最大の論争の一つは、それが保険業界にどのような影響を与えるかということだ。

自動運転車は新しい概念ではありません。ほぼすべての大手自動車メーカーが何らかの形の自動運転車を開発し...

AIサークルが爆発した!マイクロソフトがトランスフォーマーのブロックを解除、シーケンスの長さが10億以上に拡大

ビッグデータダイジェスト制作AIサークルが爆発した! Microsoft が立ち上げた LONGNE...

Google Brainは、T5の最大7倍の事前トレーニング速度を備えた簡素化されたスパースアーキテクチャを提案しています。

先ほど、Google Brainのシニア研究科学者であるBarret Zoph氏が、言語モデルのパラ...

ストリームPETRを超えて! BEVNeXt: 高密度 BEV 認識のための新しいフレームワーク

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

人工知能がITを変える5つの方法

IT サービス デスクからデータ分析の最前線、新しいツール、戦略、関係まで、AI は IT 組織をど...

データ ガバナンスは AI 疲労の問題を解決できるか?

データ ガバナンスと AI 疲労は 2 つの異なる概念のように聞こえるかもしれませんが、この 2 つ...

あなたは人工知能の前で「透明な人」ですか?

プライバシーがないと感じる人が増えているのは紛れもない事実です。最も直接的な例は、買い物をしたい場合...

動的計算グラフとGPU対応操作

[[409431]]動的計算グラフディープラーニングに PyTorch を使用する主な理由の 1 つ...

プログラマーにとって「朗報」:AI が人間のコード作成を支援することは信頼できるのか?

[[264055]]データマップ:ゲーム会社のプログラマー。写真提供:ユー・チン、中国新聞社午前9...

清華大学がサッカーAIを開発:初めて10人の選手を同時にコントロールして試合を完了し、勝率は94.4%

[[434349]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...

...

ネイチャー誌の年間トップ10科学者・イベント:天問1号の主任設計者、張栄橋氏がリスト入り

Nature の年間トップ 10 科学者およびトップ 10 科学イベントが発表されました。今年の科学...

LZ77 圧縮アルゴリズム エンコーディング Python 実装原理図

序文LZ77 アルゴリズムは、1977 年にイスラエルの Abraham Lempel によって公開...

...