将来のディープラーニングの鍵はフォトニックコンピューティング

将来のディープラーニングの鍵はフォトニックコンピューティング

今日では、人間の直感を備えたコンピューターは、画像内の物体の認識、音声の書き起こし、外国語の翻訳、病状の診断、複雑なゲームのプレイ、車の運転など、さまざまな場面で使用されています。

これらの驚くべき発展を可能にした技術はディープラーニングと呼ばれ、人工ニューラルネットワークとして知られる数学モデルを指す用語です。ディープラーニングは機械学習のサブフィールドであり、複雑なモデルをデータに適合させることに基づくコンピューターサイエンスの分野です。

機械学習は長い間存在してきましたが、ディープラーニングが注目されるようになったのはごく最近のことです。幅広い分野で利用できる計算能力がますます高まるにつれ、大量のデータを簡単に収集し、ニューラル ネットワークのトレーニングに使用できるようになります。

グラフィックス処理ユニット (GPU) が非グラフィックス コンピューティングに使用され始めた 2000 年頃から、コンピューティング能力が急速に向上し始めました。この傾向は、過去 10 年間でますます人気が高まっています。しかし、ディープラーニングの計算需要はさらに急速に高まっており、この動向により、エンジニアはディープラーニング専用の電子ハードウェア アクセラレータの開発を余儀なくされました。Google の TPU はその好例です。

この記事では、この問題に対する別のアプローチ、つまり光プロセッサを使用して電子ではなく光子でニューラル ネットワークの計算を実行する方法を紹介します。

人工ニューロンは、ある種のデジタル電子コンピュータ上で実行される特別なソフトウェアを使用して構築されます。ソフトウェアは、特定のニューロンに対して複数の入力と 1 つの出力を提供します。各ニューロンの状態は、非線形関数 (活性化関数と呼ばれる) が適用された入力の加重合計によって決まります。最終的に、このニューロンの出力は他のさまざまなニューロンへの入力になります。

[[417023]]

このコンピューターレンダリングは、著者とその同僚が光を使用してニューラルネットワーク計算を実行するために設計したフォトニックチップ上のパターンを表しています。

ニューラルネットワークのエネルギー需要を減らすには、光コンピューティングの使用が必要になるかもしれない

計算効率を確保するために、ニューロンはグループ化され、データは隣接するグループ間で送信されます。科学計算は線形計算によって行われますが、ネットワークのサイズが大きくなるにつれて、ニューロンとグループの数が増加し、線形計算はますます複雑になります。現代のコンピュータ ハードウェアは行列演算に最適化されており、線形計算が高性能コンピューティングの基礎となっています。

ディープラーニングでは、ますます多くの乗算と累積の演算が必要になります。画像分類用に設計された画期的なディープニューラルネットワークである LeNet を例に挙げてみましょう。 1998 年には、手書きの文字と数字の認識において他の機械技術よりも優れていることが示されました。しかし、2012 年までに、ニューラル ネットワーク AlexNet は、LeNet の 1,600 倍の乗算と累積の演算を実行できるようになり、画像内の何千もの異なる種類のオブジェクトを認識できるようになりました。

LeNet の初期の成功から AlexNet に移行するには、計算パフォーマンスを約 11 倍向上させる必要がありました。この 14 年間で、成長の大部分はムーアの法則によってもたらされました。ムーアの法則は頭打ちになっており、現在の課題はこの傾向を維持することであり、通常の解決策は、より多くのコンピューティング リソースと、より多くの時間、資金、エネルギーを問題に投入することです。

今日、大規模なニューラル ネットワークをトレーニングすると、重要な環境要因が反映されることがよくあります。たとえば、2019 年のある事例では、自然言語処理用のディープ ニューラル ネットワークをトレーニングすると、自動車のライフサイクル全体にわたって自動車を運転する際に通常発生する CO2 排出量の 5 倍が発生することが判明しました。

デジタル電子コンピュータの改良によりディープラーニングが普及したことは否定できない。しかし、これはニューラル ネットワーク計算を行う唯一の方法がそのようなマシンを使用することだという意味ではありません。数十年前、デジタル コンピューターがまだ比較的原始的だった頃、一部のエンジニアは難しい計算を解くためにアナログ コンピューターを使用していました。デジタル電子機器が進歩するにつれて、それらのアナログコンピュータは時代遅れになりました。特にアナログ計算を光学的に実行できるようになった今こそ、この戦略を再び採用する時期かもしれません。

光ファイバーは電線よりも高いデータレートをサポートできます。そのため、1970 年代後半から、すべての長距離通信回線は光ファイバーになりました。それ以来、光データリンクは、データセンターのエンドツーエンド通信に至るまで、ますます短いスパンで銅線に取って代わりました。光データ通信はより高速で、消費電力も少なくなります。光コンピューティングにも同じ利点があります。

しかし、データを通信することと、それを使用して計算することの間には大きな違いがあります。ここで、アナログ光学アプローチは行き詰まります。従来のコンピューターはトランジスタをベースにしていますが、トランジスタは高度に非線形な回路要素であり、出力が入力に単純に比例するわけではありません。非線形アルゴリズムはトランジスタ上でスイッチング コマンドを実行しますが、ロジック コマンドの実行は通常、電子デバイスによって行われます。しかし、光子はマクスウェル方程式に従うため、光学装置の出力は一般に入力に比例します。

これがどのように実現されるかを説明するために、ここでは、いくつかの単純なアナログ電子機器と組み合わせると 2 つの行列を乗算できるフォトニック デバイスについて説明します。この乗算は、1 つの行列の行と別の行列の列を結合します。

光コンピューティングはより高速で、消費電力も少ない

この装置の基本的な計算ユニットはビームスプリッターと呼ばれる光学素子で、45 度の角度の半銀鏡として考えることができます。側面から光線を送ると、ビームスプリッターにより光の半分がまっすぐに通過し、残りの半分は角度のついたミラーで反射して、入射光線に対して 90 度で跳ね返ります。

次に、最初の光線に対して垂直に 2 番目の光線をこのビーム スプリッターに照射し、角度の付いたミラーの反対側に当たるようにします。この 2 番目のビームの半分も同様に透過され、90 度の角度で反射されます。 2 つの出力ビームは、最初のビームの 2 つの出力と結合されます。したがって、このビームスプリッターには 2 つの入力と 2 つの出力があります。

この装置を使用して行列乗算を実行するには、乗算する 2 つの数値に比例する電界強度を持つ 2 つの光線を生成する必要があります。これらの磁場の強さを x と y と呼びます。次に、これら 2 つのビームはビーム スプリッターに送られ、そこで 2 つのビームが結合されます。この特定のビームスプリッタは、電界値が ( x + y )/√2 と ( x ? y )/√2 の 2 つの出力を生成します。

このアナログ乗算器には、ビームスプリッターに加えて、2 つの出力ビームを測定するための 2 つの単純な電子部品 (光検出器) が必要です。ここでは、これらのビームの電界強度は測定されませんが、電界強度の 2 乗に比例するビームの電力が測定されます。

つまり、ある数値をある強度の光線としてエンコードし、別の数値を別の強度の光線としてエンコードし、これらをこのようなビームスプリッターに通して、2 つの出力を光検出器で測定し、結果として得られる電気信号の一部を相殺してから加算すると、2 つの数値の積に比例する信号が得られます。


出力信号はコンデンサに送られ、パルスが続く限り電荷が蓄積されます。次に、入力は同じ期間だけ再度パルスされ、今度は乗算される 2 つの新しい数値がエンコードされます。このプロセスは複数回繰り返す必要があり、そのたびに乗算と累積の演算を実行します。

最も電力を消費する部分は、このコンデンサの両端の電圧を読み取る部分であり、これにはアナログ-デジタル コンバータが必要です。ただし、すべてのパルスの後にこれを行う必要はありません。たとえば、一連の N パルスが終了するまで待つことができます。これは、N が小さいか大きいかに関係なく、デバイスが同じエネルギーを使用して N 回の乗算累算演算を実行し、答えを読み取ることができることを意味します。ここで、N はニューラル ネットワークの各層のニューロンの数に対応します。

同じ値が複数のニューロンへの入力として使用されることが多いためです。この数値を何度も光に変換する代わりに(そのたびにエネルギーを消費する)、一度だけ変換し、結果として得られるビームを多数のチャネルに分割することができます。このようにして、入力変換のエネルギーコストを多くの操作にわたって償却することができます。

光線を複数のチャネルに分割するのは光学レンズほど複雑ではありませんが、レンズをチップ上に配置するのは難しいです。したがって、ニューラル ネットワークの計算を光学的に実行するために開発されているデバイスは、最終的には高度に統合されたフォトニック チップと個別の光学コンポーネントを組み合わせたハイブリッドになる可能性があります。

フォトニクスはディープラーニングを桁違いに加速させる可能性を秘めている

光コンピューティング技術には克服すべき課題がまだ多く残っています。 1つは、電子機器に必要な効果を実現するために、アナログ光学計算の精度とダイナミックレンジを向上させることです。これらの光プロセッサは、さまざまなノイズ源の影響を受け、データの入出力に使用されるデジタル-アナログ コンバータおよびアナログ-デジタル コンバータの精度が限られています。これには、特にニューラル ネットワークのトレーニングにおいて、より高い精度が必要です。

光学部品をチップに統合するのも困難です。これらのコンポーネントは数十ミクロンの大きさなので、トランジスタほど密集させることができず、必要なチップ面積が急速に増加します。 2017 年に MIT の研究者が行ったこのアプローチのデモンストレーションでは、1.5 ミリメートルの辺の長さのチップが使用されましたが、最大のチップでも数平方センチメートル以下であるため、この方法で並列処理できるマトリックスのサイズには制限があります。

理論的には、フォトニクスはディープラーニングを数桁高速化する可能性があります。さまざまなコンポーネント (光変調器、検出器、増幅器、アナログ - デジタル コンバーター) に現在利用可能なテクノロジに基づくと、ニューラル ネットワークの計算は、今日の電子プロセッサよりも 1,000 倍のエネルギー効率を実現できると想定するのが妥当です。

アナログ光コンピューティングの多くの概念は数十年前から存在しています。中にはシリコンコンピュータよりも古いものもあります。光行列乗算、さらには光ニューラル ネットワークの方式は、1970 年代に初めて実証されました。しかし、このアプローチは普及しませんでした。今回は違うでしょうか? おそらく、3 つの理由から違うでしょう。

まず第一に、ディープラーニングは単なる学術的な理論的知識ではなく、実生活で利用されるようになりました。第二に、電子製品を継続的に改良するためには、ムーアの法則だけに頼ることはできません。最後に、統合フォトニクスという新しいテクノロジーをご紹介します。これらの要因は、光ニューラル ネットワークがディープラーニングにとって計算上重要な技術になることを示唆しています。

<<:  エレクトロニック・アーツは、人工知能によってゲームキャラクターがよりリアルになると述べている

>>:  よく使われる4つの推奨アルゴリズムの一覧

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

OpenAI CEO: GPT-4 は週当たり 1 億人のアクティブ ユーザーを抱え、依然として世界で最も強力な AI モデルです

米国現地時間11月7日月曜日に開催された第1回OpenAI開発者会議で、同社CEOのサム・アルトマン...

オペレーティングシステムエンジニアリングの観点から見たAIoT

2008年は特別な年でした。前年にはiPhoneが発売され、翌年にはAndroidがリリースされま...

...

OpenAI の新しい論文が GAN を破り SOTA に到達!この圧倒的な拡散モデルは単なる仕掛けなのか、それとも本物なのか?

最近またFaceAPPが人気になってきているので、編集者もダウンロードして試してみました。大丈夫です...

人工知能によるデータ管理の変革

企業は人工知能 (AI) を適用する新しい方法を見つけています。 AI プロジェクトの主な障害の 1...

ChatGPT Enterprise Editionが登場: 史上最強のバージョン、無制限の使用と32kコンテキストを備えた2倍のGPT-4

ChatGPTはリリースされてから9か月が経ちました。この 9 か月間、この驚異的なアプリケーショ...

彼は17歳でiOSの脱獄の父となり、25歳で自動運転車を開発した。

[[271960]]彼は5歳の時に初めてコンピュータプログラムを書きました。14歳の時、自作のマッ...

機械学習の戦略原則: 基本プロセス、アルゴリズムフレームワーク、プロジェクト管理

著者: cooperyjli、Tencent CDG のデータ アナリスト機械学習は、データの収集、...

AIと機械学習がデータセンターにどのように役立つか

人工知能 (AI) には、問題を理解し解決する神秘的な力があると考える人もいます。人工知能は人々の日...

このロボットはアリよりも小さく、電気なしで動くことができる

アリは小さくても、集団で行動すると侮れません。『アントマン』を観たことがある人なら分かると思います。...

テクノロジーの発展により、人工知能はどれほど恐ろしいものなのでしょうか?

有名な科学者ホーキング博士の存命中、人工知能の発展は阻止されました。ホーキング博士はかつて、人工知能...

ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

学術界は、ChatGPT がなぜ愚かになったのかという新たな説明を持っています。カリフォルニア大学サ...

Javaの組み込みソートアルゴリズムをどうやって克服したか

Java 8 では、組み込みのソート アルゴリズムが大幅に最適化されました。整数やその他のプリミティ...

機械学習: Python でベイズ分類器をゼロから実装する

ナイーブ ベイズ アルゴリズムはシンプルで効率的であり、分類問題を扱う際に最初に検討すべき方法の 1...

スマートカーのブラックテクノロジーとは何ですか?

AlphaGoとイ・セドルの人間対機械の戦い以来、人工知能はかつてないほどの注目を集め、大手企業が...