ディープラーニングの発展により、人工知能は「ムーアのジレンマ」をどう打破するのか?

ディープラーニングの発展により、人工知能は「ムーアのジレンマ」をどう打破するのか?

[[433514]]

つい最近、Microsoft と NVIDIA は 5,300 億のパラメータを持つ MT-NLG 言語モデルを発表しました。この Transformer ベースのモデルは、「世界最大かつ最も強力な生成言語モデル」として称賛されています。

これは間違いなく機械学習エンジニアリングの素晴らしい成果です。

しかし、この大型モデルのトレンドに興奮すべきなのでしょうか?

01. 脳のディープラーニング

研究者たちは、平均的な人間の脳には 860 億個のニューロンと 100 兆個のシナプスが含まれていると推定しています。確かに、これらすべてが言語で使用されているわけではありません。興味深いことに、GPT-4 には約 100 兆個のパラメータがあると推定されています…

この比較は大雑把ではありますが、人間の脳とほぼ同じサイズの言語モデルを構築することが長期的に見て実行可能なアプローチであるかどうか疑問に思うべきではないでしょうか。

もちろん、私たちの脳は何百万年もかけて進化してきた素晴らしい装置ですが、ディープラーニング モデルはほんの数十年前に誕生したばかりです。それでも、直感的に、計算できないこともあると分かるはずです。

02. ディープラーニングかディープウォレットか?

巨大なテキスト データセットで 5,300 億のパラメータ モデルをトレーニングするには、間違いなく巨大なインフラストラクチャが必要です。

実際、Microsoft と Nvidia は数百台の DGX-A100 GPU サーバーを使用しています。各ユニットの価格は 199,000 ドルで、ネットワーク機器やホスト コンピューターなどのコストも含めると、この実験を再現しようとすると 1 億ドル近くを費やす必要があります。

ディープラーニング インフラストラクチャに 1 億ドルを費やすことを正当化するビジネス例を持つ企業はどれですか?それとも1000万ドルでしょうか?レア。

では、これらのモデルは一体誰のためのものなのでしょうか?

03. GPU クラスター

エンジニアリングの素晴らしさにもかかわらず、GPU 上でディープラーニング モデルをトレーニングするのは骨の折れる作業です。

サーバーの仕様書によると、各 DGX サーバーは最大 6.5 キロワットの電力を消費する可能性があります。もちろん、データセンター (またはサーバー) には少なくとも同じくらいの冷却能力が必要です。

あなたがスターク家でウィンターフェルを救う必要があるのでなければ、熱放散は対処しなければならないもう一つの問題です。

さらに、気候や社会的責任の問題に対する一般の意識が高まるにつれて、企業も二酸化炭素排出量を考慮する必要があります。マサチューセッツ大学の 2019 年の研究では、「GPU で BERT をトレーニングすることは、米国を横断する飛行とほぼ同等である」ことが判明しました。

BERT-Large には 3 億 4000 万のパラメータがあります。これをトレーニングする際の二酸化炭素排出量はどれくらいですか?考えると怖いですね。

こうした大規模なモデルを構築し、推進することは、企業や個人が機械学習を理解し、活用する上で役立つのでしょうか?

代わりに、高品質の機械学習ソリューションを構築するために使用できる、より実用的な手法に焦点を当ててください。

04. 事前学習済みモデルを使用する

ほとんどの場合、カスタム モデル アーキテクチャは必要ありません。

良い出発点は、解決したいタスク(英語のテキストの要約など)用に事前トレーニングされたモデルを探すことです。

次に、いくつかのモデルを試して、独自のデータを予測します。特定のパラメータが良好であることを示している場合は、完了です。より高い精度が必要な場合は、モデルの微調整を検討する必要があります。

05. より小さなモデルを使用する

モデルを評価するときは、必要な精度を提供する最小のモデルを選択する必要があります。予測が高速化され、トレーニングと推論に必要なハードウェア リソースが少なくなります。

これは何も新しいことではありません。コンピューター ビジョンに詳しい人なら、2017 年に SqueezeNet が登場したとき、AlexNet と比較してモデル サイズが 50 分の 1 に縮小され、精度は同等かそれ以上になったことを覚えているでしょう。

自然言語処理コミュニティも、知識蒸留などの転移学習技術を使用して、サイズを縮小する取り組みを行っています。 DistilBERT はおそらく最もよく知られている成果です。

オリジナルの BERT モデルと比較すると、言語理解能力は 97% 維持され、サイズは 40% 小さくなり、速度は 60% 高速化されます。同じアプローチは、Facebook の BART などの他のモデルにも適用されています。

ビッグサイエンスプロジェクトの最新モデルも印象的です。下の図に示すように、T0 モデルはサイズが 16 倍小さいにもかかわらず、多くのタスクで GPT-3 よりも優れています。

06. モデルを微調整する

モデルを特化する必要がある場合、モデルを最初からトレーニングする必要はありません。代わりに、微調整、つまり独自のデータで数エポックだけトレーニングする必要があります。

転移学習を使用する利点:

  • 収集、保存、整理、注釈付けするデータが少なくなる
  • より高速な実験とデータの反復
  • 成果を達成するために必要なリソースが少なくなる

言い換えれば、時間を節約し、お金を節約し、ハードウェア リソースを節約し、世界を救うのです。

07. クラウドベースのインフラストラクチャを使用する

好むと好まざるとにかかわらず、クラウド コンピューティング企業は効率的なインフラストラクチャを構築する方法を知っています。調査によると、クラウドベースのインフラストラクチャは他のインフラストラクチャよりもエネルギー効率と炭素効率に優れています。 Earth.org は、クラウド インフラストラクチャは完璧ではないものの、他のインフラストラクチャよりもエネルギー効率が高く、環境に有益なサービスと経済成長を促進すると述べています。 ”

クラウドには、使いやすさ、柔軟性、従量課金制の点で確かに多くの利点があります。

08. モデルを最適化する

コンパイラから仮想マシンまで、ソフトウェア エンジニアは長い間、ハードウェア向けにコードを自動的に最適化するツールを使用してきました。

しかし、機械学習コミュニティはこの問題に引き続き取り組んでおり、それには十分な理由があります。モデルのサイズと速度を最適化することは、次の技術を必要とする非常に複雑な作業です。

  • ハードウェア: トレーニング タスク (Graphcore、Habana) と推論タスク (Google TPU、AWS Inferentia) を高速化するための多数の専用ハードウェア。
  • プルーニング: 予測結果にほとんど影響を与えない、またはまったく影響を与えないモデル パラメータを削除します。
  • Fusion: モデル レイヤー (畳み込みやアクティベーションなど) をマージします。
  • 量子化: モデルパラメータをより小さな値で保存する(例: 32 ビットストレージの代わりに 8 ビットストレージを使用する)

幸いなことに、Optimum オープンソース ライブラリや、1 ミリ秒の遅延で Transformer の精度を実現するコンテナ化されたソリューションである Infinity などの自動化ツールが登場し始めています。

09. 結論

過去数年間、大規模言語モデルのサイズは年間 10 倍に増加しました。これはまた別のムーアの法則のようです。

機械学習がモデル拡大の道を進み続けると、収益の減少、コストの増加、複雑さの増大などにつながります。

これが人工知能の未来なのでしょうか?

兆パラメータモデルを追い求めるのではなく、現実世界の問題に対する実用的かつ効率的なソリューションの構築にもっと経験を積んだほうが良いのではないでしょうか。

<<:  自動運転テストシステムを1つの記事で理解する

>>:  メタ:メタバース製品は引き続き顔認識技術を使用する

ブログ    
ブログ    
ブログ    

推薦する

AI受験者が発狂!上級数学試験の正解率は81%で、競争試験のスコアはコンピュータドクターのスコアよりも高い。

上級数学の試験で悪い成績を取ることは、多くの人にとって悪夢です。高度な数学は AI ほど得意ではない...

Python はとても使いやすいです! AI初心者でもすぐに顔検出を体験

[[423040]] Pythonを使用してAI認識テストを実行します。具体的な方法は、リアルタイム...

2017-2019 AIの3年間の浮き沈み

ガートナーが発表した2017年の「技術成熟度レポート」によると、5G、人工汎用知能、ディープラーニン...

自己教師あり学習の概要と3つの主要分野における現状

近年、教師あり学習によるディープラーニングも大きな成功を収めています。画像分類から言語翻訳まで、その...

人工知能の現状と今後の動向

[[375724]]開発状況近年、デジタル経済の継続的な進歩を背景に、人工知能は急速に発展し、さまざ...

...

...

AI 生成コンテンツには著作権がありますか?裁判所はこう判決した

[[312663]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

2022 年のデータサイエンス、AI、機械学習の 5 つのトレンド

[[443145]] [51CTO.com クイック翻訳] 2022 年が近づくにつれ、人々は 20...

AIオープンクラス | データのラベル付けについてはあまりご存じないのではないでしょうか?

人工知能の分野が日々急速な発展と進歩を遂げていることは疑いの余地がありません。携帯電話の電源を入れ、...

...

2020年に人工知能を変える8つのトレンド

人工知能は長い間、架空の物語、SF、さらには映画にも登場してきました。人々の目には、これは技術的な魔...

GPUパフォーマンスを最大化

AI プロジェクトを高速化するためのデフォルトのアプローチは、GPU クラスターのサイズを増やすこと...