ジェネレーティブ AI 時代のデータ センターの再構築

ジェネレーティブ AI 時代のデータ センターの再構築

最近の人工知能に関する議論には、OpenAI の大規模言語モデル (LLM) の GPT ファミリー上に構築されたユビキタス チャットボットである ChatGPT の台頭が必ず関係してきます。しかし、この生成 AI テクノロジの要求はデータ センターでどのように満たすことができるのでしょうか?

このチャットボットは昨年末にリリースされ、そのコンテンツ生成機能で話題を呼んだ。人々は ChatGPT や他のベンダーの競合ボットを使用して、複雑な質問に答えたり、ソフトウェア コードの作成やマーケティング コピーの作成などのタスクを自動化したりしています。

しかし、この生成 AI 技術にはさまざまな可能性が秘められているため、基礎となるモデルの潜在能力を最大限に活用することは困難でした。ほとんどのモデルは公開されているデータに基づいてトレーニングされるため、機密性の高い社内文書のクエリなど、特定のエンタープライズ アプリケーションには適していません。

企業は、これらのモデルが社内の企業データを処理できるようにしたいと考えています。しかし、これは企業が全力を尽くしてゼロから構築しなければならないことを意味するのでしょうか? 詳しく見てみましょう。

大規模言語モデルの構築: データセンターの高額なビジネス

GPT-3 や GPT-4 などの LLM を構築する多段階のタスクは、数週間から数か月間、データセンターのサーバーにクラスター化された数百または数千の高価な GPU を必要とする計算集約型のトレーニング実行から始まります。

モデルのサイズが大きくなるにつれて、トレーニングと再トレーニングに必要な GPU の数も増加します。たとえば、Google は 5,400 億のパラメータを持つ PaLM モデルをトレーニングするために 6,144 個のチップを挿入する必要がありました。このプロセスには、Microsoft DeepSpeed や Nvidia MegaTron-LM などの高度なトレーニング手法とツールに関する専門知識も必要ですが、これらは組織内ですぐに利用できるとは限りません。

トレーニングが完了すると、これらのチップはモデルに対して推論を継続的に実行する必要があり、コストがさらに増加し​​ます。これを概観すると、1 台あたり 199,000 ドルの Nvidia DGX A100 マルチ GPU サーバー (通常は LLM トレーニングと推論に使用) を 500 台使用するだけでも、プロジェクトのコストは約 1 億ドルになるということになります。それに加え、サーバーによって発生する追加の電力消費と熱出力により、総所有コストが増加します。

これは、特に AI 専門の組織ではなく、LLM で特定のビジネス ユース ケースを加速することのみを望んでいる企業にとって、データ センター インフラストラクチャへの重要な投資となります。

AI時代のデータセンターの理想的なアプローチ

企業が、確固たる競争優位性を備えたモデルを作成できる独自の高品質のデータセットを持っていない限り、投資する価値はありません。それ以外の場合、最善のアプローチは、既存のオープンソース LLM を組織独自のデータ (企業文書、顧客メールなど) の特定のユースケースに合わせて微調整することです。

良い反例としては、BloombergGPT モデルがあります。これは、ブルームバーグがゼロからトレーニングした 500 億のパラメータ [モデル] です。同じ量の独自の高品質データを持っていると自信を持って主張できる組織はいくつあるでしょうか? それほど多くはありません。

一方、微調整ははるかに軽量なプロセスであり、必要な時間、予算、労力はほんのわずかです。

企業が LLM をゼロから構築することに価値を見出す場合、オンサイト展開用に高価な GPU をすぐに購入するのではなく、マネージド クラウド インフラストラクチャと機械学習 (ML) サービスを使用して小規模に開始する必要があります。

クラウドでは、Nvidia GPU だけでなく、AMD や Intel の GPU、Google TPU や AWS Trainium などの顧客アクセラレータなど、より多くのトレーニング オプションも選択できます。

一方、現地の法律や規制によりクラウドから離れることを余儀なくされる場合は、GPU などのアクセラレーション ハードウェアをオンサイトで展開することがデフォルトの選択肢になります。

計画が鍵となる

技術意思決定者は、ドメイン固有の LLM とそれに基づいて構築されるアプリケーション用の GPU、スキル、またはクラウド パートナーへの投資を急ぐ前に、企業内の他のリーダーや主題の専門家と協力して明確な戦略を策定する必要があります。決定のビジネスケースに焦点を当てるには、そのようなワークロードの現在の要件と将来の要件を大まかに理解しておくと役立ちます。

このような計画を通じて、企業は LLM のトレーニングにいつどのように投資するかについて、十分な情報に基づいた決定を下すことができます。これには、どのようなハードウェアを選択するか、他者が開発した既存のモデルをどこで使用できるか、AI の取り組みにおいて適切なパートナーは誰かなどの側面が含まれます。

AI/ML は驚くべきペースで進歩しています。従来の将来を見据えた考え方でこれらの新しいテクノロジーに取り組むと、ソリューションは比較的早く時代遅れになる可能性があります。関連するテクノロジーとハードウェアの特殊性を考えると、最初にソリューション ランドスケープを開発し、それに応じてデータ センターをアップグレードする方がよい選択肢となる可能性があります。

根拠もなく新しいテクノロジーを採用するという誇大宣伝やトレンドを信じてしまうのは簡単ですが、これは間違いなく失望につながり、企業が将来恩恵を受ける可能性のある実際の使用例を否定する可能性があります。より良いアプローチは、冷静さを保ち、関連するテクノロジーの理解に時間を費やし、関係者と協力して統合から得られるメリットを評価することです。

<<:  OpenAIがカスタムコマンド機能を開始、会話ごとに好みや情報を繰り返す必要がなくなる

>>: 

ブログ    

推薦する

...

プログラマーのための上級書籍リスト: アルゴリズム

アルゴリズムの図解通常のアルゴリズムの本は、読む人を眠くさせ、理解不能で読みにくく、非常にイライラさ...

Keras 機能 API によるディープラーニング

[[380280]] Keras Python ライブラリを使用すると、ディープラーニング モデルを...

世界の AI 人材レポートが発表されました: 清華大学が 3 位、北京大学が 6 位にランクイン!シリコンバレーが40万人を解雇、プログラマーの面接は12回

先ほど、グローバル AI 人材レポートが発表されました。世界のトップクラスの AI 人材のうち、約半...

Dubbo 負荷分散戦略コンシステントハッシュ

この記事では、主にコンシステント ハッシュ アルゴリズムの原理とデータ スキューの問題について説明し...

...

中国人がさらに7,360万ドルの資金調達を実施した!天才プログラマーが共同設立したLeCunの重鎮たちが全員サポート

Perplexity AIは本日、シリーズBの資金調達で7,360万ドルを調達し、評価額は5億2,0...

ガートナーは、2025年までにクラウドデータセンターの半数がAI機能を備えたロボットを導入すると予測している。

ガートナーの予測によると、2025年までにクラウドデータセンターの半数が人工知能(AI)と機械学習(...

OpenAI: GPT-5が危険すぎる場合、理事会はアルトマンの釈放を阻止する権利がある

OpenAIは新たな発表を行った。取締役会はアルトマン氏の決定を拒否する権限を持つようになった。特に...

...

中国科学院コンピューティング技術研究所の孫暁明氏:多項式レベルの加速の実現、量子探索アルゴリズムの利点と課題

4月20日、Syncedは「量子コンピューティング」に関するオンライン円卓会議イベントに、中国科学院...

AIが物流とサプライチェーン管理をどう変えるか

今日の急速に変化し、ますますグローバル化が進む世界では、物流およびサプライ チェーン業界は、世界中で...

無人スーパー、無人運転、無人宅配が実現すれば、職を失いそうな一般人はどうするのだろうか。

人工知能などの技術の発展により、無人技術がますます多く登場しています。 2030 年までに、8 億人...

世界最強のモデルが一夜にして手を変え、GPT-4 の時代は終わりました。クロード3号はGPT-5を上回り、1万語の論文を3秒で読み、理解力は人間に近い。

ボリュームがヤバい、またまたビッグモデルが変わりました。たった今、世界で最も強力な AI モデルが一...

よく使われる6つのクラスタリング評価指標

クラスタリング結果の妥当性を評価すること、つまりクラスタリング評価または検証は、クラスタリング アプ...