企業がより持続可能な推論を通じてより環境に優しい AIGC を実現する方法

企業がより持続可能な推論を通じてより環境に優しい AIGC を実現する方法

モデルとは何か

一般人にとって、AIとそのプログラミングの基盤となるアルゴリズムが、これほど広範囲にわたる環境的または経済的負担を担うことができるとは想像しにくいかもしれない。この ML の簡単な概要では、このプロセスを 2 つの段階で説明します。

最初のステップは、モデルをトレーニングして知能を開発し、特定のカテゴリの情報をラベル付けすることです。たとえば、電子商取引の運営では、製品や顧客の習慣の画像をモデルに入力して、これらのデータ ポイントをさらに調査することができます。

2 番目は認識または推論であり、モデルは保存された情報を使用して新しいデータを理解します。たとえば、電子商取引企業は、製品をタイプ、サイズ、価格、色、その他さまざまなセグメントに分類し、顧客にパーソナライズされた推奨事項を提供できるようになります。

推論段階は 2 つの段階のうち計算負荷が低い段階ですが、Siri や Alexa などのプラットフォームに大規模に展開されると、蓄積された計算によって大量の電力が消費され、コストと炭素排出量が増加する可能性があります。

おそらく、推論とトレーニングの最も大きな違いは、それをサポートするために使用される資金です。推論は販売コストに関連しているため、最終利益に影響しますが、トレーニングは通常、実際の製品またはサービスの予算とは別の研究開発費に関連しています。

その結果、推論には、コストと電力効率を最適化して実行可能でスケーラブルなビジネス モデルをサポートする特殊なハードウェアが必要となり、ビジネスと環境の利益を巧みに一致させるソリューションが求められます。

隠れたコスト

第 2 世代 AI の先駆者である ChatGPT は、推論コストが 1 日あたり数百万ドルにも達する (トレーニング コストは含まれていない) という、極めて大きなコストの好例です。

OpenAI が最近リリースした GPT-4 は、以前のバージョンと比べて 3 倍の計算リソースを消費すると推定されています。噂によると、16 のエキスパート モデルで 1.8 兆個のパラメータが実行され、128 個の GPU のクラスターで実行されるため、膨大な量のエネルギーを消費することになります。

キューの長さによって高い計算負荷がさらに高まり、応答に大量のエネルギーが必要になります。 GPT-4 のコンテキスト長は 8000 から 32000 に跳ね上がり、推論コストが増加し、GPU の効率が低下します。必然的に、AI を拡張できるのは資金力のある大企業に限られ、必要なリソースを持たない企業にはアクセスできないため、このテクノロジーのメリットを活用できません。

人工知能の力

AIGC と大規模言語モデルは環境に重大な影響を及ぼす可能性があります。必要な計算能力とエネルギー消費により、大量の炭素排出が発生します。単一の AI クエリの二酸化炭素排出量に関するデータは限られていますが、一部のアナリストは、検索エンジン クエリの 4 ~ 5 倍になると示唆しています。

ある推定では、ChatGPT の電力使用量は 175,000 人の電力使用量に匹敵するとされています。 2019年にMITは、大規模なAIモデルのトレーニングによって626,000ポンドの二酸化炭素が排出されるという研究結果を発表しました。これは平均的な自動車の生涯排出量のほぼ5倍に相当します。

いくつかの説得力のある研究や主張があるにもかかわらず、AIとその炭素排出量に関する具体的なデータが不足していることは、変化を推進するためには是正する必要がある大きな問題です。次世代の AI モデルをホストする企業やデータ センターも、環境への影響に積極的に取り組む必要があります。よりエネルギー効率の高いコンピューティング アーキテクチャと持続可能なプラクティスを優先することで、ビジネス上の必須事項を気候悪化を制限する取り組みのサポートと一致させることができます。

コンピュータの限界

CPU は、命令と数学演算を実行するコンピューターの一部であり、1 秒あたり数百万の命令を処理でき、最近まで推論用のハードウェアとして選ばれてきました。

最近では、CPU ではなく、オフロード エンジンとして CPU に接続されたコンパニオン チップ (ディープラーニング アクセラレータ (DLA) とも呼ばれる) を使用して、重いディープラーニング処理を実行する傾向にあります。問題は、これらの DLA をホストする CPU が、推論サーバーとの間の高スループットのデータ移動、および DLA に入力データを提供するデータ処理タスクと DLA 出力データに対するデータ処理タスクを処理しようとしているために発生します。

ここでも、CPU はシリアル処理コンポーネントであるため、ボトルネックが発生し、これらの DLA をビジー状態に保つために必要な効率で実行できません。

企業がディープラーニング モデルの推論管理に CPU に依存している場合、DLA がいかに強力であっても、CPU は最適なしきい値に達し、その重みに耐えられなくなります。考えてみてください。車はエンジンの性能でしかスピードを出せません。小型車のエンジンをスポーツカーのエンジンに交換すると、小型車はより強力なエンジンの速度と加速能力に追いつかなくなってしまいます。

同じことが、CPU 主体の AI 推論シ​​ステム (一般的には DLA、より具体的には GPU) にも当てはまります。これらのシステムは猛スピードで動作し、1 秒あたり数万の推論タスクを完了しますが、これは限られた CPU で入出力が削減されると実現できない機能です。

システム全体にわたるソリューションの必要性

NVIDIA CEO のジェンスン・フアン氏は、「AI にはコンピューティングの根本的な変革が必要です。チップからシステムまで。」と述べています。

AI アプリケーションや GPU や TPU などの特殊なハードウェア アクセラレータが急増しているため、これらのアクセラレータ周辺のシステムに目を向け、これらの DLA を活用するために必要なデータ処理の量と速度をサポートするシステム全体のソリューションを構築する必要があります。大規模な AI アプリケーションを処理し、コストとエネルギー投資を抑えながらシームレスなモデル移行を可能にするソリューションが必要です。

AI の利用拡大による環境への波及効果に対処しながら、増大する企業の AI 需要に対応するための効率的でスケーラブル、かつ経済的に実現可能なソリューションを提供するには、CPU 中心の AI 推論サーバーに代わるソリューションが不可欠です。

AIの民主化

現在、業界のリーダーたちはコストを削減しながら多くのソリューションを提案しています。 AI を動かすためにグリーン エネルギーに注目することも 1 つの方法であり、再生可能エネルギーが利用できる特定の時間にコンピューティング プロセスをタイミング調整することも 1 つの方法です。

データセンター向けの AI 駆動型エネルギー管理システムはコストを節約し、運用の環境的信頼性を向上させるという考え方があります。これらの戦略以外に、AI への最も価値のある投資の 1 つはハードウェアにあります。これはすべての処理のバックボーンであり、エネルギーを消費する計算の重荷を担います。

より低い財務コストとエネルギーコストですべての処理をサポートできるハードウェア プラットフォームまたは AI 推論サーバー チップは、変革をもたらすでしょう。これが AI を民主化する方法です。中小企業は、大企業のリソースに依存しない AI モデルを活用できるようになります。

ChatGPT クエリ マシンの実行には 1 日あたり数百万ドルのコストがかかりますが、はるかに低い電力と GPU 数で実行される代替のサーバー オン チップ ソリューションは、リソースを節約し、世界のエネルギー システムへの負担を軽減し、コスト意識が高く環境に優しく、誰もが利用できる第 2 世代の AI につながります。

<<:  AIがサプライチェーンを変革する7つの方法

>>:  スマートネットワークとスマート製造を備えた新エネルギーインテリジェントコネクテッドビークルがデジタル変革への道を開く

ブログ    

推薦する

...

オックスフォード大学の最新調査:AIはベンチマーク危機に直面し、NLPは推論テストの「取り組み」に注力

人工知能 (AI) ベンチマークは、モデルを測定および比較するための方法を提供します。ベンチマークを...

今後5年間であなたの人生はどのように変わるでしょうか?人工知能は水力発電のようなさまざまな産業に参入する可能性がある

中国は最近、第14次5カ年計画の草案と2035年までの長期目標を発表し、各界から激しい議論を巻き起こ...

Python で機械学習を簡単に

ナイーブ ベイズ分類器を使用して、現実世界の機械学習の問題を解決します。ナイーブベイズナイーブベイズ...

ディープラーニングフレームワークの簡単な歴史: TFとPyTorchは二大勢力であり、次の10年は黄金時代を迎える

過去 10 年間で、機械学習 (特にディープラーニング) の分野では多数のアルゴリズムとアプリケーシ...

コンピュータービジョンはビジネスにどのような変化をもたらすのでしょうか?

コンピューター ビジョンは企業に新たな希望をもたらし、良いスタートが始まったばかりです。視覚入力を視...

RNN と LSTM は弱いです!注目モデルは王様!

リカレント ニューラル ネットワーク (RNN)、長期短期記憶 (LSTM)、これらの人気のニューラ...

知識共有: 管理距離と最大ホップ数の違いに関するルーティングアルゴリズムの分析

管理距離は、ルーティング プロトコルの優先度を表す人工的に指定された数値です。数値が小さいほど、ルー...

人工知能は議論の的になっています。それは人類にとって利益となるのでしょうか、それとも脅威となるのでしょうか?

人工知能はここ2年で急速に発展し、狂気のレベルにまで達しました。例えば、ロボットは人間社会の「市民」...

LinkedIn: データサイエンスと機械学習は米国で最も急速に成長している職業です。

元記事: データサイエンスと機械学習が米国で最も急速に成長している職業である理由[[223686]]...

ロボットはサービス業界に参入できるのか?事実が教えてくれる

有名なアニメーション会社ディズニーは、近々人工知能とロボット工学の分野に参入すると発表しました。ディ...

...

機械学習の未来

[[401300]]データ ライフサイクルの管理は、自動運転車の開発において重要な部分です。自動運転...

オープンソース「AI史上最も重要な非公開会議」!マスク氏、ザッカーバーグ氏、その他のテクノロジー界の巨人が集まり、AIの将来について議論した

昨日、現地時間午前10時、AI業界のリーダーたちがワシントンに集まり、シューマー上院議員が主催するA...