世界がH100を奪い合っている! Nvidia が GPU の優位性を達成、主任科学者が成功の 4 つの要素を明らかに

世界がH100を奪い合っている! Nvidia が GPU の優位性を達成、主任科学者が成功の 4 つの要素を明らかに

現在、NVIDIA は GPU の優位性の座にしっかりと座っています。

ChatGPT の誕生により、生成 AI が爆発的に増加し、コンピューティング能力をめぐる世界的な戦いが勃発しました。

少し前に、H100の世界需要が43万枚を超え、この傾向は少なくとも2024年末まで続くだろうという記事が出ました。

過去 10 年間で、Nvidia は AI タスクにおけるチップのパフォーマンスを 1000 倍に向上させることに成功しました。

1兆ドル規模の市場に参入したばかりの企業は、どのようにして成功を収めるのでしょうか?

最近、Nvidia の主任科学者 Bil​​l Dally 氏がシリコンバレーで開催された IEEE 2023 Hot Chips シンポジウムで高性能マイクロプロセッサに関する基調講演を行いました。

彼のプレゼンテーションの PPT の 1 ページには、これまでの Nvidia の成功につながった 4 つの要素がまとめられていました。

ムーアの法則は、Nvidia の「魔法の魔法」のほんの一部に過ぎず、新しい「デジタル表現」が大部分を占めています。

Nvidia が 10 年間で AI タスク向け GPU パフォーマンスを 1000 倍向上させた方法

上記のすべてを合わせると、黄の法則が得られます。

黄暁明氏はかつて、「グラフィックス プロセッサの出現により、ムーアの法則はもはや維持できなくなり、新しい超強力な法則に取って代わられた」と述べました。

デジタル表現:16倍の改善

ダリー氏は、全体として、私たちの最大の利益は「数字の表現」の向上から生まれたと語った。

これらの数値は、ニューラル ネットワークの「主要なパラメータ」を表します。

これらのパラメータの 1 つは重み、つまりモデル内のニューロン間の接続の強さです。

もう 1 つは活性化です。これは、ニューロンへの重み付けされた入力の合計に何倍するかによって、ニューロンが活性化され、次の層に情報が伝播されるかどうかが決定されます。

P100 より前の Nvidia GPU では、これらの重みを表すために単精度浮動小数点数を使用していました。

IEEE 754 標準によれば、これらの数値は 32 ビットの長さで、そのうち 23 ビットは小数部を表し、8 ビットは基本的に小数の指数、1 ビットは数値の符号を表します。

しかし、機械学習の研究者たちはすぐに、多くの計算ではそれほど正確でない数値を使用しても、ニューラル ネットワークは同じ正確な答えを出すことを発見しました。

これの明らかな利点は、機械学習の主要な計算(乗算と累算)で処理する必要のあるビット数が少なくなると、ロジックをより高速、小型、効率的にできることです。

そのため、P100 では NVIDIA は半精度 FP16 を使用しました。

Google は bfloat16 と呼ばれる独自のバージョンも考案しました。

両者の違いは、小数ビットと指数ビットの相対的な数にあります。小数ビットは精度を提供し、指数ビットは範囲を提供します。 Bfloat16 は FP32 と同じビット範囲を持っているため、2 つの形式を切り替えるのが簡単になります。

現在に戻ると、Nvidia の主要グラフィック プロセッサ H100 は、8 ビットの数値を使用して、ChatGPT などの大規模 Transformer ニューラル ネットワークやその他の大規模言語モデルの特定のタスクを完了できます。

しかし、Nvidia はこれが普遍的な解決策ではないことを発見しました。

たとえば、Nvidia の Hopper GPU アーキテクチャでは、実際には計算に 2 つの異なる FP8 形式が使用されています。1 つはわずかに精度が高く、もう 1 つは範囲がわずかに広い形式です。 Nvidia の特に優れた点は、どのフォーマットをいつ使用するかを知っていることです。

Dally 氏と彼のチームは、より少ないビット数で AI パフォーマンスを最大化するためのさまざまな興味深いアイデアを持っています。明らかに、浮動小数点システムは理想的ではありません。

大きな問題の 1 つは、数値がどれだけ大きくても小さくても、浮動小数点の精度が非常に一貫していることです。

ただし、ニューラル ネットワークのパラメーターは大きな数値を使用せず、主に 0 付近に集中します。したがって、Nvidia の研究開発は、0 付近の数値をより正確に表現する効率的な方法を見つけることに重点を置いています。

複雑な命令: 12.5倍

「命令のフェッチとデコードのオーバーヘッドは、単純な算術演算を実行するオーバーヘッドをはるかに上回ります」とダリー氏は語った。

彼は乗算命令の例を使いました。乗算命令には、数学演算自体を実行するために必要な 1.5 ジュールの 20 倍の固定オーバーヘッドがあります。 NVIDIA は、大規模な計算を複数の命令の連続ではなく単一の命令で実行するように GPU を設計することで、個々の計算のオーバーヘッドを効果的に削減し、大きな成果を達成しました。

ダリー氏は、オーバーヘッドはまだあるが、複雑な命令の場合はより多くの数学演算に分散されると述べた。たとえば、複雑な命令である整数行列積和演算 (IMMA) のオーバーヘッドは、数学計算のエネルギー コストのわずか 16% を占めます。

ムーアの法則: 2.5倍

ムーアの法則の有効性を維持するには、数十億ドルの投資、極めて複雑なエンジニアリング設計、さらには国際関係の不安定化も必要となるでしょう。しかし、これらの投資がNvidia GPUの成功の主な理由ではありません。

Nvidia は GPU の製造に世界最先端の製造技術を使用しており、H100 は TSMC の N5 (5nm) プロセスを使用して製造されています。チップ工場は2022年末まで次世代N3プロセスの建設を開始しない予定。 N5 は、構築される前は業界で最も先進的な製造プロセスでした。

スパース性: 2倍

計算負荷を軽減するためにこれらのネットワークを「スパース」にするのは難しい作業です。

しかし、H100 の前身である A100 では、NVIDIA は新しいテクノロジ「構造化スパース性」を導入しました。このハードウェア設計により、可能な 4 つのプルーニング イベントのうち 2 つが強制され、新しいクラスのより小さな行列計算が実現します。

「スパース性はまだ終わっていません」とダリー氏は言う。「活性化関数をもう少し改良する必要があり、重み付けのスパース性をさらに高めることができます。」

<<:  テレンス・タオ:初心者はAIツールを使って専門家レベルのタスクを実行すべきではないし、GPTは専門家にとってあまり役に立たない

>>:  H100推理が8倍に急上昇! NVIDIAは10以上のモデルをサポートするオープンソースのTensorRT-LLMを正式に発表した。

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

AI界のお笑い王に100万の賞金!北京郵電大学、南洋理工大学などが「砂像動画」データセットを公開 FunQA:アルゴリズムで人間のユーモアを学習

人は直感に反する動画(ユーモラスで独創的で視覚的に魅力的な動画)から容易に喜びを得ることができます。...

人工知能と機械学習の違いは何ですか?

[[197626]]人工知能は新しい用語ではなく、その開発の歴史は数十年にわたります。それは 19...

...

人工知能の長所と短所について知っておくべき10の事実

[[202058]] 1. 人工知能があなたの仕事を奪いに来ます。自分のキャリアを守るためには、機械...

コード生成のための文法ベースの構造化CNNデコーダー

まとめコード生成は、プログラム記述を実行可能なプログラミング言語のソース コードにマッピングします。...

AI技術の7つの主要トレンド

[[323768]]トレンド1: 自律型デバイス自動車、ロボット、農業など、自律型デバイスは従来人間...

毎日のアルゴリズム: 回転マトリックス

[[431855]]各ピクセルのサイズが 4 バイトである N × N 行列で表される画像が与えられ...

...

周浦データの粘り強さと抑制力:有用性はデータインテリジェンスのゴールドスタンダード

IT は遠くありません。DT はすでにここにあります。​​​ DT 時代の到来により、「データ + ...

トランスフォーマー6周年:その年にNeurIPS Oralを受賞しなかった8人の著者が、いくつかのAIユニコーンを創設した

ChatGPTからAI描画技術まで、人工知能分野における最近の進歩はTransformerのおかげか...

...

モノのインターネット、ブロックチェーン、人工知能といった注目のトレンドの中で、どれを選ぶべきでしょうか?

今はお金を稼ぐのが難しく、ビジネスも簡単ではないと言う人もいますが、今こそ最高の時代だと言う人もいま...