大きな AI 問題の解決: AI 操作のエネルギー消費を削減するにはどうすればよいでしょうか?

大きな AI 問題の解決: AI 操作のエネルギー消費を削減するにはどうすればよいでしょうか?

現在、AI分野で画期的な進歩を遂げているディープラーニングモデルの規模が大きくなるほど、エネルギー消費量とコストが増大しています。自然言語処理モデル GPT-3 は典型的な例です。精度と速度の面で人間と競合できるようにするため、このモデルには 1,750 億のパラメータが含まれており、350 GB のメモリを占有し、モデルのトレーニング コストは最大 1,200 万ドルかかります。そしてコストの観点から見ても、それが消費する膨大なエネルギー量を誰もが理解できるはずです。

[[388777]]

マサチューセッツ大学アマースト校の研究者らは、大規模な AI モデルのトレーニングに必要な計算能力は、多くの場合、60 万ポンドを超える二酸化炭素排出量に相当することを発見しました。これは、5 台の乗用車のライフサイクル全体にわたる総排出量に相当します。

さらに悪いことに、これらのモデルは、分析結果を継続的に生成するために、実際の運用環境(つまり、推論段階)でより多くのエネルギーを消費する必要があります。 Nvidia の推定によると、ニューラル ネットワーク モデルの実行コストの 80% ~ 90% は、トレーニング フェーズではなく推論フェーズから発生します。

そのため、AI技術の急速な進歩を維持するためには、環境の持続可能性を実現する方法を見つけなければならないと考える人もいます。しかし、精度や速度をほとんど損なうことなく、大規模なモデルを日常的なワークステーションやサーバーで実行できるサイズに縮小することが可能であることが判明しました。

次に、機械学習モデルが常に大きく肥大化してしまう理由について説明します。

現在、コンピューティング能力は3~4か月ごとに2倍になっている。

10 年以上前、スタンフォード大学の研究者たちは、ビデオ ゲームの複雑なグラフィックスを動かすために使用される GPU と呼ばれる同じプロセッサが、ディープラーニング モデルで極めて高い計算効率を実現できることを発見しました。この発見により、メーカー各社がディープラーニングアプリケーション向けに、より強力な専用ハードウェアの開発を急ぐようになり、軍拡競争が始まった。それに応じて、データ サイエンティストが作成するモデルは、より正確な処理結果をもたらすことを期待して、ますます大規模になっています。二つの力が絡み合って現在の状況を形成しています。

OpenAI の調査では、業界全体が現在そのようなアップグレード サイクルにあることが証明されています。 2012年から2018年の間に、ディープラーニングモデルの計算能力は3〜4か月ごとに2倍になりました。これは、6年間でAIの計算能力が驚異的な30万倍に増加したことを意味します。前述したように、このコンピューティング能力はアルゴリズムのトレーニングに使用できるだけでなく、実稼働環境で分析結果をより速く得るためにも使用できます。しかし、MIT の最終研究は、私たちが考えているよりもずっと早くコンピューティング能力の限界に達する可能性があることを示している。

さらに重要なのは、リソースの制限により、ディープラーニング アルゴリズムがごく少数の組織に限定されるようになったことです。私たちは、ディープラーニングを使用して、医療画像における癌の変化を検出したり、ソーシャルメディア上のヘイトスピーチを自動的に削除したりしたいと考えていますが、より大規模で電力を消費するディープラーニングモデルを導入する余裕はありません。

未来:少ないほど良い

幸いなことに、研究者たちは、よりスマートなアルゴリズムを使用してディープラーニング モデルを縮小し、トレーニング データセットの使用方法を再構築する新しい方法を発見しました。これにより、大規模なモデルを小規模で低性能な運用環境で実行し、ユースケースに応じて必要な結果を継続的に提供できるようになります。

これらのテクノロジーは機械学習を民主化する可能性を秘めており、アルゴリズムをトレーニングして実稼働に導入するための資金やリソースがない組織を支援します。これは、カメラ、車のダッシュボード、スマートフォンなどの小型デバイスを含む、専用の AI ハードウェアに対応できない「エッジ」ユースケースにとって特に重要です。

研究者たちは、ニューラルネットワーク内の不要な接続を削除したり、特定の数学演算の複雑さを軽減したりすることで、モデルのサイズを縮小しようとしてきました。これらの小型で高速なモデルは、大型モデルと同様の精度とパフォーマンスでどこでも実行できます。こうすることで、私たちはもはや極端なコンピューティング能力を必死に追い求める必要がなくなり、環境への深刻なダメージを軽減できると期待できます。実際、モデルサイズの縮小とモデル効率の向上は、ディープラーニングの将来の発展方向となっています。

さまざまなユースケースの新しいデータセットで大規模なモデルを繰り返しトレーニングする場合、もう 1 つの重要な問題が発生します。転移学習は、この問題を解決することを約束する技術です。転移学習では、事前にトレーニングされたモデルを開始点として使用し、限られたデータセットを使用してモデルの知識を新しいタスクに「転送」できるため、最初のモデルを最初から再トレーニングする必要がありません。これは、モデルのトレーニングに必要な計算能力を削減するための重要な手段であるだけでなく、AI の発展によって自然環境にもたらされるエネルギー圧力を大幅に軽減することにもなります。

結局のところ何ですか?

可能な限り、モデルは「スリム化」して計算能力の要件を削減するよう努めるべきであり、またそうしなければなりません。

さらに、モデルによって得られた知識は、毎回ディープラーニングのトレーニング プロセスを最初から開始することなく、リサイクルして再利用できる必要があります。最終的には、パフォーマンスや精度を犠牲にすることなくモデルのサイズと計算オーバーヘッドを削減できるアプローチは、ディープラーニングの力を解き放つ重要な新たな機会となるでしょう。

これにより、誰でも低コストでこれらのアプリケーションを本番環境で実行できるようになり、自然環境への負担が大幅に軽減されます。 「ビッグ AI」が小さくなり始めると、必然的に無数の新たな可能性が生まれるでしょう。私たちはそのような展望に期待を抱いています。

<<:  Java プログラミング スキル - データ構造とアルゴリズム「スレッド バイナリ ツリー」

>>:  APP はユーザーのプライバシーと顔認識生体認証情報を深く掘り下げ、「データ疫病」の到来に注意

ブログ    
ブログ    
ブログ    

推薦する

スマートホテルの室内技術トレンドを探る

オンライン予約プラットフォームは人々の旅行計画の方法に革命をもたらし、モバイルアプリによりユーザーは...

JD.comクラウドファンディング599元、業界最安値を突破、Nokelock X1セルフパワースマートドアロックがイノベーション革命をリード

2019年5月15日、深センIoTロックテクノロジー株式会社は北京金宇シェラトンホテルで「nokel...

知能ロボットは人間との交流を終わらせるのでしょうか?

[[187072]]人間同士の交流はどうなったのでしょうか? 最新のテクノロジーの流行を真剣に受け...

人工知能(AI)の今後の動向

[[417224]] 21 世紀以降、人工知能は世界中で新たな科学技術革命と産業変革を主導し、人々の...

...

Chain World: シンプルで効果的な人間行動エージェントモデル強化学習フレームワーク

強化学習は、エージェントが環境と対話し、蓄積された報酬を最大化するために最適なアクションを選択する方...

Microsoft が OpenAI のライバルと提携!ミストラルの最新のトップレベルモデルはオープンソースではなくなった

ノア著制作:51CTO テクノロジースタック(WeChat ID:blog)最近、マイクロソフトは、...

AIは意識を発達させ始めているのでしょうか? OpenAI主任科学者の発言が論争を巻き起こし、大物の間で論争を巻き起こした

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

機械学習の新しいお気に入り:対照学習論文の大規模なコレクション、60以上の論文が分類され、これまでにないほど包括的

みなさんこんにちは。私はDiaobaiです。対照学習は最近非常に人気が高まっています。主要なトップカ...

...

気候変動と戦うには人工知能が重要

気候変動が世界中の環境、社会、政治、経済システムに大きな影響を与えることは否定できません。したがって...

OpenAI研究者:データが不十分な場合に教師あり学習を実現する方法

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...