アルゴリズムだけでは不十分:AIの次のブレークスルーにはハードウェアの再検討が必要

アルゴリズムだけでは不十分:AIの次のブレークスルーにはハードウェアの再検討が必要

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。

今日の人工知能には大きな問題があります。それは、コストが高すぎることです。最新のコンピューター ビジョン モデル Resnet-152 のトレーニングには約 100 億の浮動小数点演算が必要ですが、これは最新の言語モデルと比べると大したことではありません。

[[350888]]

OpenAI の最新の自然言語モデル GPT-3 のトレーニングには 300 テラフロップスかかると推定されており、商用 GPU では少なくとも 500 万ドルのコストがかかります。対照的に、人間の脳は一杯のコーヒーだけで顔を認識し、質問に答え、車を運転することができます。

どうやってやるんですか?

大きな進歩を遂げました。

最初のコンピューターは特定の目的のために作成されました。 1822 年、イギリスの数学者チャールズ・バベッジは多項式関数を計算するための「差分エンジン」を開発しました。 1958 年、コーネル大学のフランク・ローゼンブラット教授は、機械視覚タスクで使用するための単層パーセプトロンの物理的形態である「マーク I」を作成しました。初期の頃は、ハードウェアとアルゴリズムは同じものでした。

ハードウェアとアルゴリズムの統合は、計算処理ユニットと、データとプログラム命令を格納するメモリ ユニットで構成されるチップ設計を特徴とするフォン ノイマン アーキテクチャの登場によって変化しました。このパラダイムシフトにより、あらゆるタスク向けにプログラムできる汎用マシンの構築が可能になります。フォン・ノイマン・アーキテクチャは現代のデジタルコンピュータの青写真となっています。

しかし、ここには矛盾があります。データ集約型プログラムでは、メモリ ユニットとコンピューティング ユニット間の通信が大量に必要となり、計算速度が低下します。この「フォン・ノイマン・ボトルネック」が、人工知能の初期の試みが失敗した理由です。標準的な CPU は、ディープ ニューラル ネットワークのコア計算操作である大規模な行列乗算にはあまり効率的ではありません。既存のハードウェアのボトルネックにより、初期のニューラル ネットワークは技術的に行き詰まり、パフォーマンスが低下しました。

興味深いことに、この問題の解決策は学界からではなく、ゲーム業界から生まれました。 1970 年代にビデオ ゲーム開発を加速するために開発された GPU は、数千のコンピューティング コアにわたってデータ集約型の操作を並列化します。この並列化は、フォン・ノイマン・ボトルネックを解決する効果的な方法です。 GPU は、より深いニューラル ネットワークのトレーニングを可能にし、現代の人工知能技術で使用されるハードウェアとなっています。

ハードウェア抽選

人工知能の分野での研究の成功は運に大きく左右される。 Google の研究者であるサラ・フッカー氏はこれを「ハードウェアくじ」と呼んでいます。初期の AI 研究者は、CPU の速度が遅いというハンディキャップを負っていたため不運でした。 GPU が登場したときにたまたま AI 分野で研究していた研究者は、ハードウェアの宝くじに「当選」したのです。 GPU の効率的な加速機能を活用してニューラル ネットワークをトレーニングすることで、急速な進歩を遂げることができます。

ハードウェアの宝くじの問題は、その分野の全員が勝者になると、新しいことを探求することが難しくなることです。ハードウェアの開発は遅く、チップメーカーは収益が不確実な大規模な先行投資を行う必要がある。安全なアプローチは、現状となっている行列乗算を最適化することです。しかし、長期的には、特定のハードウェアとアルゴリズムの組み合わせに重点を置くことで、選択肢が制限されることになります。

元の質問に戻りましょう。 AI が今日なぜこんなに高価なのでしょうか? その答えは、適切なハードウェアがまだ存在しないからかもしれません。ハードウェア宝くじの存在と商業的インセンティブが相まって、私たちが現在の状況から抜け出すのは経済的に困難になっています。

素晴らしい例としては、コンピューター ビジョンへの斬新なアプローチである、Geoffrey Hinton の Capsule Neural Networks が挙げられます。 Google の研究者である Paul Barham 氏と Michael Isard 氏は、このアプローチは CPU ではうまく機能するが、GPU や TPU ではそれほどうまく機能しないことを発見しました。

その理由は何でしょうか? アクセラレータは、標準的な行列乗算などの最も頻繁に実行される演算に対して最適化されていますが、カプセル畳み込みに対しては最適化が不十分です。彼らの結論(論文のタイトルでもある)は、機械学習システムが行き詰まっているというものです。

AI 研究者は既存のハードウェアを「過剰適合」させる可能性があり、長期的にはこの分野のイノベーションが阻害されることになる。

今後の道

「次のブレークスルーには、根本的に異なるアプローチ、つまりハードウェア、ソフトウェア、アルゴリズムを組み合わせて世界をモデル化することが必要になるかもしれません。」

人間の脳では、記憶と計算は別々の部分ではなく、同じ場所、つまりニューロンで行われます。記憶はニューロンがシナプスを介して接続される方法から生じ、計算はニューロンが発火し、感覚入力に関する情報を伝播する方法から生じます。初期のコンピュータと同様に、ハードウェアとアルゴリズムは同一です。これは、今日の AI の構築方法とは異なります。

GPU と TPU を搭載したディープ ニューラル ネットワークは、現在多くのタスクで優れたパフォーマンスを発揮しますが、長期的なソリューションにはなりません。おそらく、これらは、より広い視点で見ると、ハードウェアとアルゴリズムを組み合わせたアーキテクチャに対する単なるローカル最適ソリューションなのでしょう。

アルゴリズムだけでは不十分であることを認識する事が、前進への第一歩です。次世代の人工知能には、ハードウェアとアルゴリズムの両方における革新が必要です。 GPU が登場する前は、AI 研究は停滞していました。ハードウェアのブレークスルーがなければ、再び停滞に陥ってしまう可能性があります。

<<:  セキュリティ | 機械学習の「データ汚染」を 1 つの記事で理解する

>>:  将来、人工知能は人間の意思決定に取って代わることができるでしょうか?

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

仕事と生産を再開、「新しいインフラ」が人工知能の能力を加速させる

「この突然の流行は人類にとって大きな災害だが、人工知能産業の発展にとってはまたとない新たなチャンスで...

人工知能を搭載したロボットは私たちの生活からどれくらい離れているのでしょうか?

産業用ロボットは幅広い用途でますます利用されるようになっているわが国は世界最大かつ最も活発な産業用ロ...

Tensorflowを使用して畳み込みニューラルネットワークを構築する

1. 畳み込みニューラルネットワーク畳み込みニューラル ネットワーク (CNN) は、人工ニューロン...

AI が電子商取引におけるウェブサイト アクセシビリティ訴訟のリスクを最小限に抑える方法

進化する人工知能により、電子商取引分野におけるウェブサイトのアクセシビリティ訴訟のリスクを最小限に抑...

最高データおよび分析責任者は、AI 投資の収益をどのように見ているのでしょうか?

[[344785]] 2020 年の夏、同僚の Laks Srinivasan と私は、RoAI ...

アルトマン氏の地位は再び危険にさらされているのか? ! OpenAIの取締役会が競合他社の参加を呼びかけ、Google Geminiの幹部を引き抜いた

アルトマン氏の地位は再び危険にさらされているのか?事情に詳しい人物によると、オープンAIの取締役であ...

スマート革命の始まり! AIは今後10年間で医療と芸術に革命を起こすだろう

人工知能 (AI) は、新しい材料を設計し、学習方法や周囲のあらゆるものとのやり取り方法を変え、人々...

...

今年の春節旅行は異例、テクノロジーが鍵

今年も春節の旅行シーズンがやってきましたが、今年は明らかに例年とは違います。今年は、感染症予防・抑制...

iOS 18 の新機能がついに公開されました!

今年は生成AI技術が大変人気です。ChatGPTの登場以来、多くの大規模な生成AIモデルが雨後の筍の...

Metaverse と Web3 は似ていますが、最も重要な違いは何でしょうか?

現在、ビジネス テクノロジーの世界では、2 つの流行語が頻繁に登場しています。 1つはWeb3、もう...

...

画像とテキストの認識 - 人工知能の知恵

序文人間が世界を認識する際の約 80% は視覚によって行われます。そのため、コンピューターが人間の視...

スマート農業は収穫アシスタントとなる新しいアップグレードロボットを歓迎する

「農業」は国家の基盤です。基盤がしっかりしていれば国家は平和になります。農業は国民経済の建設と発展を...

...