最新の MLPerf トレーニング ベンチマークでは、H100 GPU が 8 つのテストすべてで新記録を樹立しました。 NVIDIA H100 は今日ではほぼすべてのカテゴリーで優位を占めており、新しい LLM ベンチマークで使用される唯一の GPU です。 写真 3,584 個の H100 GPU のクラスターは、GPT-3 に基づく大規模なベンチマークをわずか 11 分で完了しました。 MLPerf LLM ベンチマークは、1,750 億個のパラメータを含む OpenAI の GPT-3 モデルに基づいています。 Lambda Labs は、このような大規模なモデルをトレーニングするには約 3.14E23 FLOPS の計算が必要であると見積もっています。 GPT-3を11分で訓練したモンスターはいかにして作られたかLLM および BERT 自然言語処理 (NLP) ベンチマークでトップランクにランクされたシステムは、NVIDIA と Inflection AI が共同で開発しました。 エンタープライズ グレードの GPU アクセラレーション ワークロードに特化したクラウド サービス プロバイダーである CoreWeave がホストします。 このシステムは、3,584 個の NVIDIA H100 アクセラレータと 896 個の Intel Xeon Platinum 8462Y+ プロセッサを組み合わせています。 写真 NVIDIA は H100 に新しい Transformer エンジンを導入しました。このエンジンは、Transformer モデルのトレーニングと推論を高速化するように特別に設計されており、トレーニング速度が 6 倍向上します。 CoreWeave がクラウドから提供するパフォーマンスは、Nvidia がローカル データ センターで稼働する AI スーパーコンピューターから提供できるパフォーマンスに非常に近いものです。 これは、CoreWeave が使用する NVIDIA Quantum-2 InfiniBand ネットワークの低遅延ネットワーキングによって可能になります。 トレーニングに関与する H100 GPU の数が数百から 3,000 以上に増加しました。 適切な最適化により、技術スタック全体が、要求の厳しい LLM テストにおいてほぼ線形のパフォーマンス スケーリングを実現できるようになります。 GPU の数を半分に減らすと、同じモデルをトレーニングする時間は 24 分に増加します。 これは、GPU の数が増えるにつれて、システム全体の効率性が極めて直線的になることを示しています。 主な理由は、NVIDIA が GPU 設計の初期段階からこの問題を考慮し、NVLink テクノロジを使用して GPU 間の通信を効率的に実現したことです。 写真 テストされた 90 のシステムのうち、82 はアクセラレーションに NVIDIA GPU を使用しました。 写真 シングルカードトレーニングの効率 写真 システムクラスターのトレーニング時間の比較 テストされた Intel システムでは、64 ~ 96 個の Intel Xeon Platinum 8380 プロセッサーと 256 ~ 389 個の Intel Habana Gaudi2 アクセラレーターが使用されていました。 しかし、Intel の GPT-3 への提出ではトレーニングに 311 分かかりました。 結果は NVIDIA と比べると少しひどいです。 アナリスト:Nvidiaの優位性は大きすぎる業界アナリストは、GPU における Nvidia の技術的優位性は非常に明白であると考えています。 AI インフラストラクチャ プロバイダーとしての業界における同社の支配的な地位は、NVIDIA が長年にわたって構築してきたエコシステムの粘り強さにも反映されています。 AIコミュニティもNvidiaのソフトウェアに大きく依存しています。 ほぼすべての AI フレームワークは、NVIDIA が提供する基盤となる CUDA ライブラリとツールに基づいています。 写真 また、フルスタックの AI ツールとソリューションも提供しています。 Nvidia は、AI 開発者のサポートに加えて、ワークロードとモデルを管理するためのエンタープライズ グレードのツールへの投資も継続しています。 Nvidia の業界におけるリーダーとしての地位は、近い将来、非常に堅固なものとなるでしょう。 アナリストらはさらに指摘した。 MLPerf テスト結果に示されているように、クラウドで AI トレーニングを実施する際の NVIDIA システムの強力な機能と効率性は、「未来のために戦う」 NVIDIA の最大の資産です。 次世代Ada Lovelace GPU、2025年にリリースTom's Hardware のフリーランス ライターである Zhiye Liu 氏も最近、次世代の Nvidia Ada Lovelace グラフィック カードの計画を紹介する記事を公開しました。 H100 が大規模モデルをトレーニングする能力については疑いの余地はありません。 GPT-3 モデルは、わずか 3584 個の H100 を使用してわずか 11 分でトレーニングできます。 最近の記者会見で、Nvidia は、現在入手可能な最高のゲーミング グラフィック カードである GeForce RTX 40 シリーズ Ada Lovelace GPU の後継機を含む、次世代製品の詳細を示す新しいロードマップを公開しました。 写真 ロードマップによると、Nvidiaは2025年に「Ada Lovelace-Next」グラフィックカードを発売する予定だ。 現在の命名方式が引き続き使用される場合、次世代の GeForce 製品は GeForce RTX 50 シリーズとして発売されるはずです。 南米の団体LAPSU$が入手した情報によると、ホッパー・ネクストはブラックウェルと名付けられる可能性が高い。 消費者向けグラフィック カードの場合、NVIDIA は 2 年ごとに更新のペースを維持しています。 彼らは2016年にPascal、2018年にTuring、2020年にAmpere、2022年にAda Lovelaceをリリースしました。 Ada Lovelaceの後継機が2025年に発売されれば、Nvidiaは間違いなく通常のリズムを崩すことになるだろう。 写真 最近の AI の爆発的な増加により、最新の H100 であれ、前世代の A100 であれ、NVIDIA GPU に対する需要が急増しています。 報道によると、大手メーカーは今年、10億ドル相当のNvidia GPUを注文したという。 輸出制限にもかかわらず、私の国は依然としてNvidiaにとって世界最大の市場の一つです。 (深セン華強北電子市場では、Nvidia A100が少量販売されており、1台あたり2万ドルと通常の2倍の値段が付けられているという。) これに対応して、Nvidia は AI 製品の一部を微調整し、輸出要件を満たす H100 や A800 などの特定の SKU をリリースしました。 Zhiye Liu 氏は、別の観点から見ると、輸出規制はチップメーカーの顧客が同じパフォーマンスを得るために元の GPU のより多くのバリエーションを購入しなければならないことを意味するため、実際には Nvidia にとって有利であると分析しました。 これは、Nvidia がゲーム用 GPU ではなくコンピューティング用 GPU の世代を優先する理由も説明しています。 最近の報告によると、Nvidia はコンピューティングクラスの GPU の生産を増加したとのことです。 AMD の RDNA 3 製品スタックからの深刻な競争や、Intel による GPU 複占への深刻な脅威に直面していないため、Nvidia は消費者側で足踏みする余裕がある。 Nvidia は最近、GeForce RTX 4060 と GeForce RTX 4060 Ti を追加し、GeForce RTX 40 シリーズ製品スタックを拡張しました。 GeForce RTX 4050、そして最上位の RTX 4080 Ti や GeForce RTX 4090 Ti などには、いずれも潜在能力があります。 必要であれば、Nvidia は古い Turing バージョンの製品を採用し、Ada Lovelace を更新して「Super」処理を施し、Ada のラインナップをさらに拡張することもできます。 最後に、Zhiye Liu 氏は、Lovelace アーキテクチャは少なくとも今年か来年までは本格的に更新されないだろうと述べました。 |
<<: ChatGPTの不正行為から逃れるのは難しいです! 99%のヒット検出、カンザス大学の新しいアルゴリズム、Cellジャーナルに掲載された研究
>>: 研究によると、話題が真実か虚偽かに関係なく、AIが書いたマイクロブログは実際の人間よりも説得力があるという。
「会話型 AI」という用語には確かに重みがありますが、最終的にはそれがビジネスに実際にどのような影...
[[387145]]基本的な紹介1. スタックはFILO(先入れ後出し)順序付きリストです2. ス...
論文「NeuRAD: 自動運転のためのニューラル レンダリング」は、Zenseact、チャルマース工...
編集者注: 有名なベストセラー作家のバーナード・マー氏は最近、「2018 年に私たちの世界を定義する...
最近、大規模なニューラル ネットワークが生成モデルに革命をもたらし、高解像度画像内のすべてのピクセル...
2017年、『エコノミスト』誌は、石油ではなくデータが世界で最も価値のある資源になったと宣言しました...
医療画像データと他の日常的な画像との最大の違いの 1 つは、DICOM シリーズ データを扱う場合、...
1 ChatGPT は誰の目にも単なるチャットボット ツールに見えます。質問に答え、テキスト情報を生...
[[189573]]今日の目標は、Caffe を使用してディープラーニング トレーニングの全プロセス...
今年の春節祝賀会には、有名人よりも人気のある特別な俳優たちがいます。書道をしたり、ダンスをしたり、腕...
誰もが教室でデータサイエンス、人工知能、機械学習を学ぶ時間があるわけではありませんし、誰もがこれらの...
2020年が過ぎようとしています。今年、人工知能の分野ではどんな大きな進展がありましたか?以下で一緒...