昨日、Lao Huangが再び「勝利」しました! なぜ?最新の MLPerf ベンチマークでは、NVIDIA の H100 GPU チップセットが以下の 8 つのベンチマークすべてで新記録を樹立し、すべてのテストを完了した唯一のハードウェア プラットフォームとなったことが判明しました。 最新の MLPerf Training v3.0 には、生成 AI 機能に重点を置いた GPT-3 175B に基づく大規模言語モデル (LLM) テストが含まれていると報告されています。 画像ソース: MLPerf ベンチマーク。 LLM トレーニング テストでは、GPU アクセラレーションを専門とするクラウド コンピューティング サービス プロバイダーである CoreWeave が提供する NVIDIA HGX H100 インフラストラクチャも使用し、複数のスケールで LLM ワークロードを共同で送信しました。 結果は素晴らしいものでした。896個の Intel Xeon Platinum 8462Y と 3584 個の NVIDIA H100 チップの連携により、GPT-3 ベースの LLM トレーニング タスクがわずか 11 分で完了しました。 写真 突然、AIコミュニティは黄氏の勝利を喜ぶ声で満たされた。 しかし、これが本当に結果なのでしょうか?今日、誰かがこの件について疑問を呈しました。 まず、PyTorchの創設者であるSoumith Chintala氏は、GPT-3は11分ではトレーニングできないと考えていました。 GPT-3 アーキテクチャは、3584 個の H100 GPU を使用して、C4 データセットを 11 分でトレーニングし、対数確率は 2.69 でした。 ここでは「11 分」だけに注目しないでください。これは「ResNet-50 が 5 秒で MNIST (実際には CIFAR100 を意味していました) で 80% の精度にトレーニングされた」と言っているようなものです。 写真 Twitterユーザーの@abhi_venigallaさんも、生成AIスタートアップMosaicMLで働くSoumithさんの意見に賛同した。彼は、MLPerf ベンチマークで GPT-3 をトレーニングするのにかかる時間は 2 日になる可能性が高いと考えています。 彼の見解では、ベンチマークは完全な GPT-3 ではない。 MLPerf の LLM ベンチマークは開始チェックポイントのみを提供し、その後は目標損失に到達する必要があります。 したがって、GPT-3 を 11 分で実行するベンチマークは、3000 億トークン全体ではなく、12 億トークンのみをカバーします。また、540 TFLOPs/H100 に近いようで、構成からは FP8、約 27% MFU のようです。 しかし、H100 のソフトウェア ライフサイクルの初期段階であることを考えると、この規模でこのレベルのパフォーマンスを達成できたことは非常に驚くべきことだと彼は認めました。 写真 では、最新の MLPerf ベンチマークで GPT-3 が 11 分でトレーニングされたという主張は誤解なのでしょうか?コメント欄の友達も自分の意見を述べることができます。 |
<<: LLaMA モデルは過去 3 か月間でどのように進化しましたか?指導の微調整の中心的な問題は何ですか?
>>: 1000ステップ未満の微調整で、LLaMAコンテキストは32Kに拡張されました。これは、Tian Yuandongチームの最新の研究です。
サイバーセキュリティにおける人工知能をめぐる誇大宣伝は、多くの専門家の間で不満を引き起こしています。...
最近、北京は「科学技術革新の加速と人工知能産業の育成に関する指導意見」を発表し、北京の人工知能発展ス...
【51CTO.com クイック翻訳】調査機関Forrester Researchが最近発表した調査レ...
人類はロボットの時代に突入している。ロボット工学の専門家や哲学者の中には、将来、高度に知能化されたロ...
[[253094]]がんの早期発見から国境を越えた人間の言語理解、リアルタイムの高解像度ビデオでの顔...
ドム・クッドウェル著ノアが編集制作:51CTO テクノロジースタック(WeChat ID:blog)...
従来、パラメータの数が満たすべき方程式の数より多い場合は常に、パラメータ化されたモデルを使用してデー...
[51CTO.comよりオリジナル記事] 2019年6月22日、WOT2019グローバル人工知能技...
強力なパフォーマンスと汎用性を備えた大規模言語モデルは、オーディオやビデオなどの多数の大規模マルチモ...
[[320546]]人工知能技術には良い影響と悪い影響の両方があり、人類に利益をもたらす一方で、さま...
MIT の研究者は、ディープ ニューラル ネットワーク アクセラレータの最適な設計を効率的に特定し、...
10月16日、OpenAIはひっそりと「コアバリュー」のリストを変更し、これまで明示的に挙げられてい...