この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 大規模モデルの推論速度がわずか1ヶ月で2倍に向上しました。 NVIDIA は最近、LLM 推論専用の加速プログラムである H100 用の「チキン ブラッド パッケージ」のリリースを正式に発表しました。 おそらく、来年発売される GH200 を無駄に待つ必要はなくなるでしょう。 GPU の計算能力は、常に大規模モデルのパフォーマンスに影響を与えます。ハードウェア プロバイダーとユーザーの両方が、より高速な計算を望んでいます。 大規模モデルを支えるハードウェアの最大手サプライヤーとして、NVIDIA は大規模モデルのハードウェアを高速化する方法を研究してきました。 NVIDIA は多くの AI 企業との協力を通じて、ついに大規模モデル推論最適化プログラム TensorRT-LLM (略して TensorRT) をリリースしました。 TensorRT は、大規模モデルの推論速度を 2 倍にするだけでなく、非常に使いやすいです。 C++ と CUDA に関する深い知識がなくても、最適化戦略を素早くカスタマイズし、H100 で大規模なモデルをより高速に実行できます。 Nvidiaの科学者ジム・ファン氏はリツイートし、Nvidiaの「もう一つの優位性」はGPUのパフォーマンスを最大化できるサポートソフトウェアだとコメントした。 Nvidia は、Huang 氏の「買えば買うほど節約できる」という言葉を実践するかのように、ソフトウェアを使って自社の製品を強化しているが、それでも価格の高さに不満を言う人がいるのは変わらない。 価格に加えて、一部のネットユーザーはその運用効果に疑問を呈している。 パフォーマンスが何倍にも向上すると常に宣伝されていますが、私たち自身で Llama 2 を実行すると、1 秒あたり数十のトークンしか処理できません。 本当に効果があるかどうかは、さらにテストする必要があるかもしれません。まずは TensorRT を詳しく見てみましょう。 大規模モデルの推論速度を2倍にする大規模モデルを実行する場合、TensorRT-LLM 最適化後の H100 はどれくらい高速になりますか? Nvidia の発表では、Llama 2 と GPT-J-6B の 2 つのモデルのデータが提供されました。 最適化された H100 では、Llama 2 の推論速度は A100 の 4.6 倍、8 月の最適化されていない H100 バージョンの 1.77 倍です。 GPT-J-6Bの推論速度は、8月の時点でA100の8倍、最適化されていないバージョンの2倍です。 TensorRT は、さまざまな LLM のニーズに基づいて最適化ソリューションを迅速にカスタマイズできるオープンソースのモジュール式 Python API も提供します。 この API は、ディープラーニング コンパイラ、カーネル最適化、前処理/後処理、およびマルチノード通信機能を統合します。 その中で、GPT(2/3)やLlamaなどの一般的なモデルについては、そのまま使用できるカスタマイズ版も存在します。 TensorRT の最新のオープンソース AI カーネルを通じて、開発者は、Transformer を大幅に高速化するアテンション アルゴリズム FlashAttention を含むモデル自体を最適化することもできます。 では、TensorRT はどのようにして LLM 推論速度を最適化するのでしょうか? まず、TensorRT のマルチノード共同作業モードの最適化の恩恵を受ける必要があります。 Llama のような大規模なモデルは単一のグラフィック カードでは実行できず、複数の GPU を同時に実行する必要があります。 以前は、このタスクを実行するには、モデルを手作業で分解する必要がありました。 TensorRT を使用すると、システムはモデルを自動的に分割し、NVLink を介して複数の GPU 間で効率的に実行できます。 第二に、TensorRT は動的バッチ処理と呼ばれる最適化されたスケジューリング技術も使用します。 推論プロセス中、LLM は実際にモデルの反復を複数回実行します。 動的バッチ処理テクノロジーは、次の一連のリクエストを処理する前にタスクのバッチ全体が完了するのを待つのではなく、完了したシーケンスを直ちに実行します。 実際のテストでは、動的バッチ処理により LLM の GPU 要求スループットが半分に削減され、運用コストが大幅に削減されました。 もう 1 つの重要なポイントは、メモリ消費を削減するために16 ビット精度の浮動小数点数を 8 ビット精度に変換することです。 トレーニング段階では、FP16 と比較して FP8 は消費するリソースが少なく、INT-8 よりも精度が高く、モデルの精度に影響を与えずにパフォーマンスが向上します。 Hopper Transformer エンジンにより、モデル内のコードを手動で変更する必要なく、FP16 から FP8 への変換とコンパイルがシステムによって自動的に完了します。 現在、TensorRT-LLM の早期バージョンがダウンロード可能であり、正式バージョンは数週間以内にリリースされ、NeMo フレームワークに統合される予定です。 もう一つ大きな出来事が起こるたびに、レーウェンフックは必ずそこにいます。 Nvidiaの発表では「Metaなどの大手AI企業との協力」については触れられていたが、OpenAIについては触れられていなかった。 この発表から、一部のネットユーザーがこの点を発見し、OpenAI フォーラムに投稿しました。
Lao Huang はどのような「サプライズ」をもたらしてくれると期待していますか? |
>>: ジェネレーティブAIは企業にとって新たなリスクとなっているが、重要な問題を放置すべきではない
この記事の主な内容:序文DBSCAN クラスタリング アルゴリズムパラメータ選択DBSCANアルゴリ...
今日、コンピュータサイエンスの分野の学生や実務家にとって、人工知能、データサイエンス、機械学習、ディ...
IT Homeは11月16日、韓国銀行が最近、人工知能(AI)が労働市場に与える影響に関する調査報告...
C114ニュース、5月8日(Lesi)本日開催された「AIと光が出会うとき:インテリジェント光ネッ...
この記事では、データ サイエンティスト兼アナリストの Vincent Granville が、データ...
破壊的技術により、CIO はこれまで以上に重要な役割を果たすようになっています。 CIO の役割は長...
人工知能、ビッグデータ、モノのインターネット、クラウドコンピューティングなどの技術の台頭と発展に伴い...
[この一連のブログ投稿では、一般的なデータ構造と対応するアルゴリズムを分析および要約し、各ブログ投稿...
NeurIPSに受理された論文のうち、著者の29%は中国の大学で学士号を取得していますが、そのうち...
ちょうど昨日、第 1 回 CPAL ミニマリスト アカデミック カンファレンスで、ライジング スター...
[51CTO.com からのオリジナル記事] 人工知能は日常生活のあらゆる分野に大きな変化をもたらし...
サプライ チェーンは、製品の設計から調達、製造、流通、配送、顧客サービスまで、さまざまなアクションを...