つい最近、Microsoft と NVIDIA は 5,300 億のパラメータを持つ MT-NLG 言語モデルを発表しました。これはトランスフォーマー ベースのモデルであり、「世界最強かつ最大の言語生成モデル」として称賛されています。 しかし、これは本当に興奮するべきことなのでしょうか? 脳のディープラーニング 研究者は、平均的な人間の脳には 860 億個のニューロンと 100 兆個のシナプスが含まれていると推定しています。しかし、それらすべてが言語として使用されるわけではありません。興味深いことに、GPT-4 には約 100 兆個のパラメータがあると予想されています。 2つの「100兆」。 これは偶然でしょうか?人間の脳とほぼ同じ大きさの言語モデルを構築することが、長期的に見て実行可能なアプローチなのだろうかと疑問に思わざるを得ません。 もちろん、私たちの脳は何百万年にも及ぶ進化を経て、非常に素晴らしい装置になりましたが、ディープラーニング モデルが登場したのはほんの数十年前のことです。確かに、計算では測れないものがあることは私たちの直感で分かります。 それはディープラーニングか「ディープウォレット」か?巨大なテキスト データセットで 5,300 億のパラメータ モデルをトレーニングするには、間違いなく巨大なインフラストラクチャが必要です。 実際、Microsoft と Nvidia は数百台の DGX-A100 GPU サーバーを使用しており、1 台あたりのコストは最大 199,000 ドルです。これにネットワーク機器やホストなどのコストを加えると、この実験を繰り返したい人は約 1 億ドルを費やす必要があります。 真剣に、ディープラーニング インフラストラクチャに 1 億ドルを費やすことを正当化するビジネス ケースを持っている企業はどこでしょうか?それとも1000万ドル?もしそうなら、これらのモデルは誰向けに設計されているのでしょうか? GPU クラスター: 放熱と環境保護の両方が問題です。実際、GPU 上でディープラーニング モデルをトレーニングするのは非常に面倒な作業です。 NVIDIA のサーバー パラメータ テーブルによると、各 NVIDIA DGX A100 サーバーの最大消費電力は 6.5 キロワットです。もちろん、データセンター (またはサーバー) には少なくとも同程度の冷却装置が必要です。 あなたがスターク家でウィンターフェルを救う必要があるのでなければ、冷却は問題になるでしょう。 また、気候や社会的責任の問題に対する一般の認識が高まるにつれて、企業も二酸化炭素排出量を考慮する必要があります。 マサチューセッツ大学の 2019 年の研究では、「GPU で BERT をトレーニングすると、米国を横断する飛行とほぼ同等の二酸化炭素排出量が発生する」ことが判明しました。 BERT-Large のパラメータ数は 3 億 4000 万にもなります。これをトレーニングする際の二酸化炭素排出量はどれくらいでしょうか?考えただけでも怖いですね。 では、MT-NLG モデルの 5,300 億のパラメータに本当に興奮すべきなのでしょうか?非常に多くのパラメータと計算能力を交換することで得られるベンチマーク パフォーマンスの向上は、コスト、複雑さ、および二酸化炭素排出量に見合う価値があるのでしょうか? これらの巨大モデルの推進は、企業や個人が機械学習を理解し、受け入れるのに本当に役立つのでしょうか? より多くの運用テクノロジーに重点を置けば、それらを使用して高品質の機械学習ソリューションを構築できます。たとえば、次のテクノロジ: ほとんどの場合、事前トレーニング済みモデルを使用する場合、カスタム モデル アーキテクチャは必要ありません。 良い出発点は、問題を解決するためにすでに事前トレーニングされているモデルを探すことです (例: 英語のテキストを要約する)。 次に、いくつかのモデルをすぐに試して、データを予測します。パラメータが特定のパラメータが良好であることを示している場合は、それで問題ありません。 より正確なパラメータが必要な場合は、モデルを微調整してみてください (詳細は以下で説明します)。 小さなモデルを使用するモデルを評価するときは、必要な精度を提供する最小のモデルを選択するようにしてください。これにより、予測が高速化され、トレーニングと推論に必要なハードウェア リソースが少なくなります。 計算能力は高価なので、可能な限り節約してください。 実際、機械学習モデルがどんどん小さくなっているのは目新しいことではありません。コンピューター ビジョンに詳しい人なら、2017 年の SqueezeNet の登場を覚えているでしょう。AlexNet と比較すると、SqueezeNet はサイズが 98% 小さく、精度パフォーマンスは AlexNet と同等です。 コンピューター ビジョンの分野に加えて、NLP コミュニティも、知識蒸留などの転移学習技術を広範に活用してモデルのサイズを縮小するために懸命に取り組んでいます。これらの中で最も有名なのは、おそらく Google の BERT モデルを改良した DistilBERT でしょう。 オリジナルの BERT モデルと比較すると、DistilBERT は言語理解能力の 97% を維持しながら、サイズが 40% 小さくなり、速度が 60% 向上しています。同じアプローチは、Facebook の BART などの他のモデルにも適用されています。 「ビッグサイエンス」プロジェクトの最新モデルも印象的です。下の図に示すように、これらのプロジェクトの T0 モデルは多くのタスクで GPT-3 よりも優れていますが、モデル サイズは GPT-3 の 1/16 にすぎません。 モデルの微調整高度に専門化されたドメインでモデルを使用する必要がある場合、モデルを最初からトレーニングする必要はありません。代わりに、モデルを微調整する必要があります。つまり、独自のデータセットで数エポックだけトレーニングする必要があります。 実際、モデルの微調整も転移学習の一種であり、その目的はリソースを節約し、可能な限り節約することです。 転移学習を使用すると、次のような多くの利点があります。
言い換えれば、時間を節約し、お金を節約し、資源を節約するのです! クラウドインフラストラクチャの使用クラウド コンピューティング企業は、効率的なインフラストラクチャを構築する方法を知っています。調査によると、クラウドベースのインフラストラクチャは他のインフラストラクチャよりもエネルギー効率が高く、二酸化炭素排出量が少ない傾向があります。 Earth.org は、クラウド インフラストラクチャは現時点では完璧ではないものの、他のインフラストラクチャよりもエネルギー効率が高く、環境に有益なサービスを促進し、経済成長を促進できると述べています。 ” 確かに、クラウドには、使いやすさ、柔軟性、従量課金制の点で多くの利点があります。独自の GPU を購入する余裕がない場合は、AWS のマネージド機械学習サービスである Amazon SageMaker でモデルを微調整してみてはいかがでしょうか。 最適化モデル コンパイラから仮想マシンまで、ソフトウェア エンジニアは長い間、ハードウェア向けにコードを自動的に最適化するツールを使用してきました。 しかし、ソフトウェア業界と比較して、機械学習コミュニティが依然としてこの問題に苦労しているのには理由があります。つまり、機械学習モデルの最適化は、次の技術と条件を伴う非常に複雑なタスクです。
幸いなことに、Optimum オープンソース ライブラリや、レイテンシが 1 ミリ秒と低く、Transformer に匹敵する精度を備えたコンテナ化されたソリューションである Infinity などの自動化ツールが利用できるようになっています。 新たな「ムーアの法則」が到来するのか?過去数年間、大規模言語モデルのサイズは年間 10 倍に増加しました。新たな「ムーアの法則」が誕生しそうだ。 オリジナルのムーアの法則の現在の運命はどうなるのでしょうか? 「ムーアの法則の終焉」という話題は数年前から非常に人気がありました。 しかし、一つ確かなことは、機械学習が「モデル拡大」の道を進み続けると、その道はますます狭くなる可能性があるということです。収益の減少、コストの増加、複雑さの増大は、機械学習業界を近い将来に行き詰まらせる可能性のある予見可能な問題です。 これが人工知能の未来の姿なのでしょうか?そうならないことを祈ります。何兆ものパラメータを持つ巨大なモデルを追いかけるのではなく、現実世界の問題に対する実用的で効率的なソリューションの構築に重点を置く方が良いのではないでしょうか。 |
<<: 一般化の危機! LeCunは質問を公開しました: テストセットとトレーニングセットは決して関連していません
>>: 2021年10月のドローン業界の最新動向を3分で振り返る
世界経済フォーラム(WEF)は毎年、世界経済と社会に大きな影響を与える可能性のあるトップイノベーショ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
9月7日、スタンフォード大学の新たな研究により、人気の生成型人工知能(AI)チャットボット「Chat...
[[322374]]人間の認知能力のあらゆる特性を見てみましょう。まず、Fleishman の 21...
[[241487]]著者: キオン・キムマシンハートが編集参加者: Geek AI、Liu Xia...
[[329844]]顔認識のリアルタイム パフォーマンスを向上させるために、私たちのチームは従来のニ...
毎日肖像画を模写する練習を続けた結果、この芸術家はいくつかの重要な特徴だけを描いた人間の顔を完全に描...
[[344331]]信じられないかもしれませんが、「key」という言葉の標準的な発音は[mì yuè...
[[220662]] 1956 年、ダートマス大学で開催された会議で、コンピューターの専門家であるジ...
[[229220]]よく知られているように、SQL は、開発者が大量のデータに対して効率的な操作を...
新しいアプローチにより、機械学習モデルはタスクを学習する際により多くのデータに焦点を当てるようになり...