世界がH100を奪い合っている! Nvidia が GPU の優位性を達成、主任科学者が成功の 4 つの要素を明らかに

世界がH100を奪い合っている! Nvidia が GPU の優位性を達成、主任科学者が成功の 4 つの要素を明らかに

現在、NVIDIA は GPU の優位性の座にしっかりと座っています。

ChatGPT の誕生により、生成 AI が爆発的に増加し、コンピューティング能力をめぐる世界的な戦いが勃発しました。

少し前に、H100の世界需要が43万枚を超え、この傾向は少なくとも2024年末まで続くだろうという記事が出ました。

過去 10 年間で、Nvidia は AI タスクにおけるチップのパフォーマンスを 1000 倍に向上させることに成功しました。

1兆ドル規模の市場に参入したばかりの企業は、どのようにして成功を収めるのでしょうか?

最近、Nvidia の主任科学者 Bil​​l Dally 氏がシリコンバレーで開催された IEEE 2023 Hot Chips シンポジウムで高性能マイクロプロセッサに関する基調講演を行いました。

彼のプレゼンテーションの PPT の 1 ページには、これまでの Nvidia の成功につながった 4 つの要素がまとめられていました。

ムーアの法則は、Nvidia の「魔法の魔法」のほんの一部に過ぎず、新しい「デジタル表現」が大部分を占めています。

Nvidia が 10 年間で AI タスク向け GPU パフォーマンスを 1000 倍向上させた方法

上記のすべてを合わせると、黄の法則が得られます。

黄暁明氏はかつて、「グラフィックス プロセッサの出現により、ムーアの法則はもはや維持できなくなり、新しい超強力な法則に取って代わられた」と述べました。

デジタル表現:16倍の改善

ダリー氏は、全体として、私たちの最大の利益は「数字の表現」の向上から生まれたと語った。

これらの数値は、ニューラル ネットワークの「主要なパラメータ」を表します。

これらのパラメータの 1 つは重み、つまりモデル内のニューロン間の接続の強さです。

もう 1 つは活性化です。これは、ニューロンへの重み付けされた入力の合計に何倍するかによって、ニューロンが活性化され、次の層に情報が伝播されるかどうかが決定されます。

P100 より前の Nvidia GPU では、これらの重みを表すために単精度浮動小数点数を使用していました。

IEEE 754 標準によれば、これらの数値は 32 ビットの長さで、そのうち 23 ビットは小数部を表し、8 ビットは基本的に小数の指数、1 ビットは数値の符号を表します。

しかし、機械学習の研究者たちはすぐに、多くの計算ではそれほど正確でない数値を使用しても、ニューラル ネットワークは同じ正確な答えを出すことを発見しました。

これの明らかな利点は、機械学習の主要な計算(乗算と累算)で処理する必要のあるビット数が少なくなると、ロジックをより高速、小型、効率的にできることです。

そのため、P100 では NVIDIA は半精度 FP16 を使用しました。

Google は bfloat16 と呼ばれる独自のバージョンも考案しました。

両者の違いは、小数ビットと指数ビットの相対的な数にあります。小数ビットは精度を提供し、指数ビットは範囲を提供します。 Bfloat16 は FP32 と同じビット範囲を持っているため、2 つの形式を切り替えるのが簡単になります。

現在に戻ると、Nvidia の主要グラフィック プロセッサ H100 は、8 ビットの数値を使用して、ChatGPT などの大規模 Transformer ニューラル ネットワークやその他の大規模言語モデルの特定のタスクを完了できます。

しかし、Nvidia はこれが普遍的な解決策ではないことを発見しました。

たとえば、Nvidia の Hopper GPU アーキテクチャでは、実際には計算に 2 つの異なる FP8 形式が使用されています。1 つはわずかに精度が高く、もう 1 つは範囲がわずかに広い形式です。 Nvidia の特に優れた点は、どのフォーマットをいつ使用するかを知っていることです。

Dally 氏と彼のチームは、より少ないビット数で AI パフォーマンスを最大化するためのさまざまな興味深いアイデアを持っています。明らかに、浮動小数点システムは理想的ではありません。

大きな問題の 1 つは、数値がどれだけ大きくても小さくても、浮動小数点の精度が非常に一貫していることです。

ただし、ニューラル ネットワークのパラメーターは大きな数値を使用せず、主に 0 付近に集中します。したがって、Nvidia の研究開発は、0 付近の数値をより正確に表現する効率的な方法を見つけることに重点を置いています。

複雑な命令: 12.5倍

「命令のフェッチとデコードのオーバーヘッドは、単純な算術演算を実行するオーバーヘッドをはるかに上回ります」とダリー氏は語った。

彼は乗算命令の例を使いました。乗算命令には、数学演算自体を実行するために必要な 1.5 ジュールの 20 倍の固定オーバーヘッドがあります。 NVIDIA は、大規模な計算を複数の命令の連続ではなく単一の命令で実行するように GPU を設計することで、個々の計算のオーバーヘッドを効果的に削減し、大きな成果を達成しました。

ダリー氏は、オーバーヘッドはまだあるが、複雑な命令の場合はより多くの数学演算に分散されると述べた。たとえば、複雑な命令である整数行列積和演算 (IMMA) のオーバーヘッドは、数学計算のエネルギー コストのわずか 16% を占めます。

ムーアの法則: 2.5倍

ムーアの法則の有効性を維持するには、数十億ドルの投資、極めて複雑なエンジニアリング設計、さらには国際関係の不安定化も必要となるでしょう。しかし、これらの投資がNvidia GPUの成功の主な理由ではありません。

Nvidia は GPU の製造に世界最先端の製造技術を使用しており、H100 は TSMC の N5 (5nm) プロセスを使用して製造されています。チップ工場は2022年末まで次世代N3プロセスの建設を開始しない予定。 N5 は、構築される前は業界で最も先進的な製造プロセスでした。

スパース性: 2倍

計算負荷を軽減するためにこれらのネットワークを「スパース」にするのは難しい作業です。

しかし、H100 の前身である A100 では、NVIDIA は新しいテクノロジ「構造化スパース性」を導入しました。このハードウェア設計により、可能な 4 つのプルーニング イベントのうち 2 つが強制され、新しいクラスのより小さな行列計算が実現します。

「スパース性はまだ終わっていません」とダリー氏は言う。「活性化関数をもう少し改良する必要があり、重み付けのスパース性をさらに高めることができます。」

<<:  テレンス・タオ:初心者はAIツールを使って専門家レベルのタスクを実行すべきではないし、GPTは専門家にとってあまり役に立たない

>>:  H100推理が8倍に急上昇! NVIDIAは10以上のモデルをサポートするオープンソースのTensorRT-LLMを正式に発表した。

ブログ    
ブログ    
ブログ    

推薦する

宜春市はファーウェイと提携し、ビッグデータと人工知能で市のデジタル変革を推進

2019年11月21日〜22日、第一回ファーウェイ宜春市ビッグデータ・人工知能サミットフォーラムと宜...

...

OpenAIと競合しますか? Jina AI、オープンソースの8Kテキスト埋め込みモデルを発表

10月27日、外国メディアは、人工知能企業Jina AIがこのほど、第2世代のテキスト埋め込みモデル...

...

ChatGPTは医療業界に革命を起こす

ChatGPT は 11 月下旬のリリース以来、ビジネス、法律、医学部の大学院レベルの試験に合格する...

...

...

AIを活用して、ナスダックは金融業界向けのSaaSプロバイダーに変革したいと考えている

ナスダックがAIGCに対して強気であることは疑いの余地がない。 Nasdaq の CIO 兼 CTO...

トヨタがAIを活用して融資判断をスピードアップする方法

[[431125]]自動車金融サービスの分野では、ディーラーと顧客が意思決定のスピードを追求していま...

ヘルスケアにおけるロボット工学の新展開

ロボット工学は考えられるあらゆる分野に応用できます。教育、旅行、防衛など、あらゆる分野でロボット工学...

...

2019 年のインターネット キャンパス採用の給与が発表されました。いくらもらえるか見てみましょう!

2019年秋学期のキャンパスリクルートメントは終了に近づいています。近年、特にインターネット業界で...

科学者はロボットに人間に近い触覚を与える人工指先を開発

ロボットは車を持ち上げたり、手術を手伝ったりするようにプログラムできますが、卵など、これまで扱ったこ...

2022年の中国人工知能産業の発展状況と市場規模の分析 市場規模は3000億元を超える

人工知能業界の主要上場企業:Hikvision(002415)、iFlytek(002230)、Sa...