皆さんは、イ・セドルと柯潔を破った Google の「Alpha Go」をまだ覚えていると思います。Alpha Go を動かすものは何だかご存知ですか? Alpha Go は、人間の脳がチップに置き換えられている点を除けば、人間と似ていると考えているなら、それは間違いです。イ・セドルを破ったAlpha Goには48個のGoogle AIチップが搭載されているが、この48個のチップはAlpha Go本体ではなくクラウドにインストールされている。それで、実際に Alpha Go を動かすデバイスはこんな感じです...
つまり、イ・セドルと柯潔は「ロボット」に負けたのではなく、AIチップを搭載したクラウドワークステーションに負けたのだ。 しかし近年、自動車の自動運転や携帯電話の顔認識など、AI技術の応用シーンはモバイルデバイスへと移行し始めています。業界の需要が技術の進歩を導き、AIチップは業界の基盤として、クラウドから端末へのAI技術の移行を完了するために、より強力なパフォーマンス、より高い効率、より小型化を実現する必要があります。 現在、AI チップの研究開発の方向性は主に 2 つあります。1 つは、従来のフォン ノイマン アーキテクチャに基づく FPGA (フィールド プログラマブル ゲート アレイ) と ASIC (特定用途向け集積回路) チップであり、もう 1 つは、人間の脳のニューロン構造を模倣するように設計された脳型チップです。その中で、FPGA と ASIC チップは研究開発と応用の両面ですでに一定の規模を形成しており、脳のようなチップはまだ研究開発の初期段階にあるものの、大きな潜在力を秘めており、将来的には業界の主流になる可能性があります。 これら 2 つの開発パスの主な違いは、前者はフォン・ノイマン・アーキテクチャを使用し、後者は脳のようなアーキテクチャを採用していることです。目にするすべてのコンピューターはフォン・ノイマン・アーキテクチャを採用しています。その基本的な考え方は、プロセッサとメモリを分離することであり、CPU (中央処理装置) とメモリが存在します。脳のようなアーキテクチャは、その名前が示すように、人間の脳の神経構造を模倣しており、CPU、メモリ、通信コンポーネントが統合されています。 次に、2つのアーキテクチャの簡単な開発履歴、技術的特徴、および代表的な製品について読者に紹介します。 GPUからFPGA、ASICチップまで 2007 年以前は、当時のアルゴリズムやデータなどの要因により、AI チップに対する需要は特に強くなく、汎用 CPU チップで十分な計算能力を提供できました。たとえば、あなたが今この記事を読んでいる場合、あなたの携帯電話やコンピューターには CPU チップが搭載されています。 その後、高解像度ビデオやゲーム産業の急速な発展により、GPU(グラフィックス プロセッシング ユニット)チップが急速に発展しました。 GPUはデータ処理のための論理ユニットが多く、並列性が高い構造のため、グラフィックデータや複雑なアルゴリズムの処理ではCPUよりも有利です。また、AIディープラーニングモデルはパラメータが多く、データサイズが大きく、計算量も大きいため、その後一時期CPUに代わってGPUが主流となり、当時のAIチップとなりました。
しかし、GPUはあくまでもグラフィックプロセッサであり、AIディープラーニング専用チップではないため、当然ながらいくつかの欠点があります。たとえば、AIアプリケーションを実行する場合、その並列構造の性能を十分に活用できず、エネルギー消費が高くなります。 同時に、AI技術の応用も拡大しており、教育、医療、自動運転車などの分野でもAIが活用されるようになっています。しかし、GPU チップの高エネルギー消費は業界のニーズを満たすことができないため、FPGA チップや ASIC チップに置き換えられています。 では、これら 2 つのチップの技術的な特徴は何でしょうか?代表的な商品は何ですか? 「最高のチップ」FPGA FPGA(FIELD-PROGRAMMABLEGATEARRAY)は、「フィールドプログラマブルゲートアレイ」を意味し、PAL、GAL、CPLDなどのプログラマブルデバイスをベースにさらに開発された製品です。 FPGA は「FPGA チップ」として理解できます。ユーザーは、FPGA 構成ファイルを書き込み、これらのゲート回路とメモリ間の接続を定義し、ハードウェア記述言語 (HDL) を使用して FPGA ハードウェア回路を設計します。書き込みが完了するたびに、FPGA 内のハードウェア回路には特定の接続方法と特定の機能があり、入力データは各ゲート回路を順番に通過するだけで出力結果が得られます。 簡単に言えば、「*** チップ」とは、必要な機能をすべて備えたチップです。 「ホットチップ」と呼ばれているにもかかわらず、FPGA には欠陥がないわけではありません。 FPGA 構造は柔軟性が高いため、量産時のチップ 1 個あたりのコストは ASIC チップよりも高くなります。パフォーマンスの面でも、FPGA チップの速度とエネルギー消費は ASIC チップに比べて劣ります。 つまり、「*** チップ」は「何でも屋」ではあるが、その性能は ASIC チップほど良くなく、価格は ASIC チップよりも高い。 ただし、チップの需要がまだ一定の規模に達しておらず、ディープラーニング アルゴリズムを継続的に反復して改善する必要がある場合、再構成可能な機能を備えた FPGA チップの方が適応性が高くなります。したがって、FPGA を使用してセミカスタマイズされた人工知能チップを実装することは、間違いなく安全な選択です。 現在、FPGA チップ市場はアメリカのメーカーである Xilinx と Altera に分かれています。海外メディアMarketwatchの統計によると、前者は世界市場シェアの50%を占め、後者は約35%を占めています。2つのメーカーは市場シェアの85%を占め、6,000件を超える特許を保有しており、間違いなく業界の2大巨頭です。 Xilinx の FPGA チップは、ローエンドからハイエンドまで、Spartan、Artix、Kintex、Vertex の 4 つのシリーズに分かれており、チッププロセスは 45 ナノメートルから 16 ナノメートルの範囲です。チップの技術レベルが高くなるほど、チップは小さくなります。このうち、Spartan と Artix は主に民間市場を対象としており、無人運転、スマートホームなどの用途があります。一方、Kintex と Vertex は主に軍事市場を対象としており、国防、航空宇宙などの用途があります。
Xilinx の古いライバルである Altera について話しましょう。 Altera の主流 FPGA チップは 2 つのカテゴリに分かれています。1 つは、Cyclone シリーズや MAX シリーズのように、低コストのアプリケーションに重点を置き、中程度の容量と一般的なアプリケーション要件を満たす性能を備えています。もう 1 つは、Startix シリーズや Arria シリーズのように、高性能のアプリケーションに重点を置き、大容量とさまざまなハイエンド アプリケーションを満たす性能を備えています。アルテラの FPGA チップは、主に民生用電子機器、無線通信、軍事航空などの分野で使用されています。 特定用途向け集積回路 ASIC AI 産業のアプリケーションが大規模に立ち上がる前に、並列コンピューティングに適した FPGA などの汎用チップを使用して高速化を実現することで、ASIC などのカスタム チップの開発にかかる高額な投資とリスクを回避できます。 しかし、先ほども述べたように、汎用チップはもともとディープラーニング向けに設計されたものではないため、FPGA にはパフォーマンスや消費電力などの面でボトルネックがどうしても生じてしまいます。人工知能の応用規模が拡大するにつれて、このような問題はますます顕著になるでしょう。言い換えれば、人工知能に関する私たちの素晴らしいアイデアはすべて、人工知能の急速な発展に追いつくためにチップを必要とするのです。チップが追いつけない場合、人工知能の開発のボトルネックとなるでしょう。 そのため、近年の人工知能アルゴリズムと応用分野の急速な発展、および研究開発の成果と技術の段階的な成熟に伴い、ASIC チップは人工知能コンピューティング チップ開発の主流になりつつあります。 ASIC チップは、特定のニーズに合わせてカスタマイズされた専用チップです。 ASIC は汎用性を犠牲にしますが、特に私たちが手にしている携帯電話のように、高性能、低消費電力、小型のチップを必要とするモバイル デバイスでは、パフォーマンス、消費電力、サイズの点で FPGA や GPU チップよりも優れています。 しかし、汎用性が低いため、ASIC チップの研究開発コストが高く、リスクも高くなる可能性があります。しかし、市場要因を考慮すると、ASIC チップは実際には業界の主要な開発トレンドです。 なぜそう言うのでしょうか?サーバーやコンピューターから自動運転車、ドローン、さまざまなスマート家電に至るまで、膨大な数のデバイスに人工知能のコンピューティング機能や認識・対話機能の導入が必要だからです。リアルタイムの要件やトレーニング データのプライバシーなどの考慮事項により、これらの機能はクラウドに完全に依存することはできず、ローカルのソフトウェアおよびハードウェア インフラストラクチャ プラットフォームによってサポートされる必要があります。高性能、低消費電力、小型サイズなどの ASIC チップの特性は、まさにこれらの要件を満たすことができます。 ASICチップ市場は競争に満ちている NVIDIA は 2016 年に AI コンピューティングを高速化するために特別に設計された Tesla P100 チップをリリースし、2017 年に Tesla V100 にアップグレードしました。超大規模ニューラル ネットワーク モデルをトレーニングする場合、Tesla V100 は、ディープラーニング関連のモデル トレーニングおよび推論アプリケーションに対して、1 秒あたり最大 125 兆のテンソル計算を提供できます (テンソル計算は、AI ディープラーニングで最も頻繁に使用される計算です)。しかし、最高性能モードでは、Tesla V100の消費電力は300Wに達します。強力な性能を持っていますが、消費電力が多すぎるため、間違いなく「核爆弾」です。
また、2016年には、Googleはディープラーニングを加速するためのTPU(Tensor Processing Unit)チップをリリースし、後にTPU2.0、TPU3.0にアップグレードしました。 Nvidia のチップとは異なり、Google の TPU チップは、記事の Alpha Go の例にあるようにクラウド内にセットアップされており、「レンタルのみで販売はされない」ため、サービスは時間単位で課金されます。しかし、Google TPU のパフォーマンスも非常に強力で、計算能力は 1 秒あたり 180 兆回、消費電力はわずか 200 ワットです。
グーグルのCEOサンダー・ピチャイ氏とNVIDIAのCEO黄仁勲氏は以前、それぞれのAIチップの性能についてオンラインで討論していた。両大企業は自社製品を支持するために激しく論争しているが、実際には、一方はクラウドにあり、他方は端末にあるため、これら2つの製品を「厳密に比較する」必要はないと多くのネットユーザーが指摘している。 ASICチップ市場では、大企業だけでなく新興企業も激しい競争を繰り広げています。では、スタートアップ企業は業界でどのように生き残るのでしょうか?この点について、中国のAIチップスタートアップ企業NovumindのCEOである周斌氏はXiaotanに次のように語った。「イノベーションはスタートアップ企業の中核的な競争力です。」 2017年、NovuMindは自社設計の初のAIチップであるNovuTensorを発売しました。このチップは、NovuMind が独自に開発し、わずか 1 年で米国特許を取得したネイティブ Tensor プロセッサをコア アーキテクチャとして使用しています。さらに、NovuTensor チップは、さまざまな異種コンピューティング モードを使用して、さまざまな AI アプリケーション分野での 3 次元テンソル計算に対応します。 Novumind は 2018 年後半に、新世代の NovuTensor チップをリリースしました。このチップは、チップ全体の消費電力を約 15W に抑えながら、1 秒あたり 15 兆回の計算を実行できるため、非常に効率的です。
NovuTensor チップの計算能力は理論上は Nvidia のチップほど優れてはいませんが、計算レイテンシと消費電力がはるかに低いため、エッジ AI コンピューティング、つまりモノのインターネットへの対応に適しています。誰もが高い計算能力を追求していますが、実際にはすべてのチップに高い計算能力が必要なわけではありません。例えば、携帯電話やスマートグラスに使われるチップにも、計算能力に対する一定の要件がありますが、それよりも必要なのは低消費電力です。そうでなければ、携帯電話やスマートグラスなどの製品は、数回使用しただけで電力が切れてしまい、これも非常に厄介なことです。また、EETimesによると、ResNet-18、ResNet-34、ResNet70、VGG16などの業界標準のニューラルネットワーク推論を実行する場合、NovuTensorチップのスループットとレイテンシは、Nvidiaの他のハイエンドチップであるXavierよりも優れています。 Novumindの現在の成功と合わせて考えると、NVIDIAやGoogleなどの巨大企業が現在支配するクラウド市場と、端末アプリケーションチップの熾烈な競争という状況において、技術革新に注力し、主要指標ですべての競合他社を大きくリードすることが、AIチップの新興企業が生き残る道であるかもしれないことは容易に想像できる。 脳のようなチップ 記事の冒頭で述べたように、上記のすべてのチップを含む現在のすべてのコンピューターは、フォン・ノイマン・アーキテクチャに基づいています。 ただし、このアーキテクチャは完璧ではありません。 CPU とメモリを分離する設計は、いわゆるフォン ノイマン ボトルネックにつながります。CPU とメモリ間のデータ転送速度は、メモリ容量と CPU の動作効率に比べて非常に低くなります。そのため、CPU が巨大なデータに対していくつかの単純な命令を実行する必要がある場合、データ転送速度は全体的な効率に対する非常に重大な制限になります。 目標は人工知能チップの開発であるため、一部の専門家は問題そのものに立ち返り、人間の脳の構造を模倣し始めています。 人間の脳には数千億個のニューロンがあり、各ニューロンは数千個のシナプスを介して他のニューロンと接続され、分散的かつ並行的に信号を伝達する超大規模な神経回路を形成しています。これは超大規模並列コンピューティングに相当するため、計算能力は極めて強力です。人間の脳のもう一つの特徴は、脳のすべての部分が常に働いているわけではないので、全体的なエネルギー消費量が非常に少ないことです。
この脳のようなチップは、従来のフォン・ノイマン・アーキテクチャとは異なります。メモリ、CPU、通信コンポーネントが完全に統合されており、デジタルプロセッサをニューロンとして、メモリをシナプスとして使用しています。さらに、脳のようなチップでは、情報処理は完全にローカルで実行され、ローカルで処理されるデータの量が多くないため、従来のコンピュータメモリと CPU 間のボトルネックは存在しなくなります。同時に、ニューロンが他のニューロンからパルスを受信する限り、これらのニューロンは同時に動作するため、ニューロンは互いに便利かつ迅速に通信できます。 脳のようなチップの研究開発において、IBM は業界の先駆者です。 2014年、IBMはTrueNorthという脳のようなチップをリリースしました。これは直径わずか数センチのスペースに4096個のコア、100万個の「ニューロン」、2億5600万個の「シナプス」を統合し、エネルギー消費量は70ミリワット未満で、高集積と低消費電力を完璧に表現したものです。
では、このチップは実際の戦闘でどのように機能するのでしょうか? IBM の研究チームはかつて、これを実証するために DARPA の NeoVision2Tower データセットを使用しました。ストリートビュー動画内の人物、自転車、バス、トラックなどを毎秒30フレームの速度でリアルタイムに識別し、精度は80%です。比較すると、同じタスクを実行するようにプログラムされたラップトップは、IBM チップよりも 100 倍の時間がかかり、10,000 倍のエネルギーを消費します。 しかし、脳のようなチップの開発における現在の課題の 1 つは、ハードウェア レベルで人間の脳のシナプスを模倣すること、つまり、正確な人工シナプスを設計することです。 既存の脳のようなチップでは、通常、ニューロン内の情報伝達をシミュレートするために電圧が印加されます。しかし問題は、人工シナプスのほとんどが非晶質材料で作られているため、イオンが通過できる経路が *** あり、イオンがどの経路を通るかを予測することが難しく、その結果、異なるニューロンからの電流出力に違いが生じることです。 この問題に対処するため、MITの研究チームは今年、シリコンゲルマニウムで作られた人工シナプス(各シナプスは約25ナノメートル)を備えた脳のようなチップを開発した。各シナプスに電圧を印加すると、すべてのシナプスはほぼ同じイオンの流れを示し、シナプス間の差は約 4% でした。アモルファス材料から作られたシナプスと比較すると、そのパフォーマンスはより一貫しています。 それでも、脳型チップは人間の脳には程遠い。結局のところ、人間の脳には数千億個のニューロンがあるのに対し、現在最も先進的な脳型チップには数百万個のニューロンしかなく、人間の脳の 1 万分の 1 にも満たない。したがって、このタイプのチップの研究は、市場で広く使用できる成熟した技術になるまでにはまだ長い道のりがありますが、長期的には、脳のようなチップがコンピューティング システムに革命をもたらす可能性があります。 ここまで述べてきたことで、読者は AI チップ業界について基本的な理解が得られていると思います。今後、AIチップはクラウドから端末まで進化していくのでしょうか?業界の大手企業と中小企業の熾烈な競争は、どのような革新と変革を生み出すのでしょうか。脳のようなチップの研究開発ではどのようなブレークスルーが達成できるでしょうか?これらの問題については人それぞれ意見が異なるため、読者の皆様は下記にメッセージを残していただければ幸いです。 |
<<: マイクロソフトの調査:英国の従業員のほぼ半数がロボットに仕事が置き換えられることを懸念
>>: 私たち全員が失業するかもしれない:今後10年間でほぼすべての仕事が変化する
1956年、マッカーシーはダートマス大学で開催された会議で初めて「人工知能」の概念を提唱した。後に、...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
今週、OpenAI、Microsoft、Bezos、Nvidiaの支援を受けるロボット企業Figur...
機械学習を学び始めるべきだと言うインフルエンサーが増えています。彼らの言うことを聞くべきでしょうか?...
自然言語処理 (NLP) は、人工知能の分野における重要かつ刺激的なテクノロジーです。その目標は、コ...
[[395002]] 01 人工知能の3つのピーク人工知能の発展は3つのピークを経験しました。最初...
インターナショナル・データ・コーポレーション(IDC)が発表した最新の半期ごとの世界人工知能(AI)...
ディープラーニングを使用して株価を予測することは、以前は少し神秘的に思えたかもしれませんが、新しいこ...
ソフトウェアとアプリケーションは今日世界を支配しており、ビジネスを成功させるにはトレンドに遅れずにつ...
2020年末、DeepMindが開発した第2世代ディープラーニングニューラルネットワークであるAlp...
Java 8 では、組み込みのソート アルゴリズムが大幅に最適化されました。整数やその他のプリミティ...
[[416636]] Transformer と CNN はどちらも独自の利点を持ち、視覚表現を処理...