2010年以降、ビッグデータ産業の発展により、データ量は爆発的な増加傾向を示し、従来のコンピューティングアーキテクチャではディープラーニングの大規模並列コンピューティングのニーズをサポートできなくなりました。その結果、研究コミュニティはAIチップに関する新たな一連の技術研究開発と応用研究を実施しました。 AIチップは人工知能時代の中核技術の一つであり、プラットフォームのインフラストラクチャと開発エコシステムを決定します。 人工知能チップを包括的に解説し、人工知能チップの開発状況と動向を体系的に整理した清華大学のレポート「人工知能チップ研究レポート」をお勧めします。以下は、インテリジェントな内部参照によって提示された乾物です。 1. 基礎知識と現状広義では、人工知能アルゴリズムを実行できるチップはすべて AI チップと呼ばれます。ただし、通常の意味での AI チップは、人工知能アルゴリズムを高速化するために特別に設計されたチップを指します。現在、これらの人工知能アルゴリズムは一般的にディープラーニング アルゴリズムに基づいており、他の機械学習アルゴリズムも含まれる場合があります。 人工知能とディープラーニングの関係を図に示します。 ▲人工知能とディープラーニング ディープラーニングのアルゴリズムは、通常、連続した数値を受け取り、学習によって処理し、連続した数値を出力するというプロセスに基づいており、本質的には、生物の脳の動作メカニズムを完全に模倣することはできません。 この現実に基づいて、研究コミュニティは SNN (スパイキング ニューラル ネットワーク) モデルも提案しました。 第 3 世代のニューラル ネットワーク モデルである SNN は、生物学的ニューラル ネットワークに近いものです。ニューロンとシナプスのモデルが生物学的ニューロンとシナプスに近いことに加え、SNN は計算モデルに時間領域情報も導入します。現在、SNN ベースの AI チップは、主に IBM の TrueNorth、Intel の Loihi、清華大学の Tianji チップによって代表されています。 1. AIチップの開発の歴史 チューリングの論文「計算機械と知能」とチューリングテストから、最も基本的なニューロンシミュレーションユニットであるパーセプトロン、そして数百層からなる現在のディープニューラルネットワークに至るまで、人類は人工知能の探求を止めたことはありません。 1980 年代には、多層ニューラル ネットワークとバックプロパゲーション アルゴリズムの出現により、人工知能業界に新たな火花が散りました。バックプロパゲーションの主な革新性は、多層ネットワークを通じて情報出力とターゲット出力間の誤差を前のレベルに反復的にフィードバックし、最終出力を特定のターゲット範囲に収束できることです。 1989 年、ベル研究所はバックプロパゲーション アルゴリズムを使用して、多層ニューラル ネットワークで手書き郵便番号認識装置を開発することに成功しました。 1998 年、Yann LeCun 氏と Yoshua Bengio 氏は、手書き認識ニューラル ネットワークとバックプロパゲーション最適化に関する論文「文書認識に適用される勾配ベース学習」を発表し、畳み込みニューラル ネットワークの時代を切り開きました。 その後、人工知能は長い開発休止期間に入りましたが、1997年にIBMのディープブルーがチェスの名人を破り、2011年にIBMのワトソン知能システムがジェパディショーで優勝し、人工知能は再び人々の注目を集めました。 2016年、アルファ囲碁は韓国のプロ囲碁選手を破り、人工知能開発における新たな頂点を極めた。基本的なアルゴリズム、基盤となるハードウェア、ツール フレームワークから実際のアプリケーション シナリオに至るまで、人工知能の分野は現在開花しています。 人工知能の核となる基盤ハードウェアであるAIチップも、多くの浮き沈みを経験してきました。全体として、AIチップの発展は4つの大きな変化を経ており、その発展の過程は図に示されています。 ▲AIチップ開発の歴史 (1)2007年以前、AIチップ業界はまだ成熟した業界に発展していませんでした。同時に、当時のアルゴリズムやデータ量などの要因により、この段階ではAIチップに対する特に強い市場需要はなく、汎用CPUチップでアプリケーションのニーズを満たすことができました。 (2)ハイビジョンビデオ、VR、ARゲームなどの産業の発展に伴い、GPU製品は急速な進歩を遂げてきました。同時に、GPUの並列コンピューティング特性が人工知能アルゴリズムやビッグデータ並列コンピューティングのニーズにぴったりであることが発見されました。たとえば、GPUは従来のCPUと比較して、ディープラーニングアルゴリズムの操作効率を数十倍向上させることができます。そのため、人々は人工知能コンピューティングにGPUを使用しようとし始めました。 (3)2010年以降、クラウドコンピューティングが広く推進され、人工知能研究者はクラウドコンピューティングを利用して、多数のCPUとGPUの助けを借りてハイブリッドコンピューティングを実行できるようになり、AIチップの詳細な応用がさらに促進され、さまざまなAIチップの研究開発と応用が生まれました。 (4)人工知能の計算能力に対する要求は急速に高まっています。2015年以降、GPUの性能対電力比が低いため、さまざまな作業環境での応用が制限されています。業界では、ハードウェアとチップアーキテクチャの改善により、計算効率、エネルギー効率、その他のパフォーマンスをさらに向上させることを期待して、人工知能専用のチップの開発を開始しました。 2. 我が国におけるAIチップの開発 現在、我が国の人工知能チップ産業の発展はまだ初期段階にあります。 中国は長い間、CPU、GPU、DSPプロセッサの設計において追い上げの立場にありました。チップ設計会社の大多数はチップの設計に外国のIPコアに依存しており、それが独自のイノベーションを大きく制限していました。 しかし、人工知能の台頭は、間違いなく中国にプロセッサ分野で他国を追い抜く絶好の機会をもたらす。 人工知能の応用はまだ産業応用段階にあり、エコシステムにおける独占は形成されていない。国内のプロセッサメーカーと海外の競合企業は、人工知能という新しい分野で同じスタートラインに立っている。したがって、中国は新興技術と応用市場に基づいて、人工知能エコシステムを確立する大きな可能性を秘めている。 わが国の特殊な環境と市場により、現在、国産AIチップの開発は盛んに行われ、百家万世の状況となっている。AIチップの応用分野も、株式取引、金融、商品推奨、セキュリティ、幼児教育ロボット、無人運転など多くの分野をカバーしており、Horizon Robotics、DeePhi Technology、Cambriconなど、多数の人工知能チップ新興企業が誕生している。 しかしながら、国内企業は大手外資系企業のような市場規模を形成しておらず、各社が独自に活動する分散的な発展状況にある。新興スタートアップに加え、北京大学、清華大学、中国科学院などの国内研究機関もAIチップの分野で徹底的な研究を行っており、BaiduやBitmainなどの企業も2017年にいくつかの成果を発表している。将来的には、人工知能の分野でエコシステムを最初に習得した人が、この業界で主導権を握ると予測できます。 3. AI研究者の概要 清華大学のAMiner人材プールのデータを基に、人工知能チップ分野の学者の世界分布を図に示します。図から、人工知能チップ分野の学者は主に北米に分布しており、次いでヨーロッパに分布していることがわかります。 中国は人工知能チップの研究で後れを取っていないが、南米、アフリカ、オセアニアでは人材が比較的不足している。 国別の統計によると、人工知能チップの分野では米国が技術開発の中心となっている。 英国は米国のすぐ後にランクされています。その他の専門家は主に中国、ドイツ、カナダ、イタリア、日本に分布しています。 ▲人工知能チップ分野の研究者の世界分布 世界の人工知能チップ分野で最も影響力のある1,000人の移住経路について統計分析を実施した結果、以下の図に示すように、各国の人材の過剰と不足が比較されました。 ▲各国の人材余剰 各国の人材流出と導入は比較的均衡が取れていることがわかります。その中でも、米国は人材流入量が大きく、人材投入量と人材出力量の両方で大きなリードを持つ国です。英国、中国、ドイツ、スイスなどの国は米国に遅れをとっていますが、国間の人材流動性の違いは明らかではありません。 2. AIチップの分類と技術現在、人工知能チップには 2 つの開発ルートがあります。1 つは、従来のコンピューティング アーキテクチャを継承し、ハードウェアのコンピューティング能力を加速することです。これは主に GPU、FPGA、ASIC の 3 種類のチップに代表されますが、CPU は依然としてかけがえのない役割を果たしています。もう 1 つは、IBM TrueNorth チップに代表される、古典的なフォン ノイマン コンピューティング アーキテクチャを覆し、脳のようなニューラル構造を使用してコンピューティング能力を強化することです。 1. 従来のCPU コンピュータ業界では 1960 年代初頭から CPU という用語が使用されてきました。現在までに、CPU は形状、設計、実装において大きな変化を遂げてきましたが、基本的な動作原理はあまり変わっていません。 通常、CPU は、コントローラーと演算ユニットという 2 つの主要コンポーネントで構成されます。 従来の CPU の内部構造を図 3 に示します。図から、基本的に単一の ALU モジュール (論理演算ユニット) のみがデータ計算を完了するために使用され、他のモジュールが存在するのは、命令が 1 つずつ整然と実行されるようにするためであることがわかります。このユニバーサル構造は、従来のプログラミングおよびコンピューティング モデルに非常に適しており、CPU のメイン周波数を上げる (単位時間あたりに実行される命令の数を増やす) ことでコンピューティング速度を向上させることもできます。 しかし、この構造では、それほど多くのプログラム命令を必要としないが、膨大なデータ操作を必要とするディープラーニングのコンピューティング要件に対応できないようです。特に消費電力の制約下では、CPU やメモリの動作周波数を無制限に上げても命令実行を高速化することは不可能であり、CPU システムの開発は克服できないボトルネックに遭遇することになります。 ▲ 従来の CPU の内部構造図 (ALU のみがメインの計算モジュール) 2. 並列高速コンピューティングのための GPU 並列アクセラレーションコンピューティングに取り組んだ最も初期のプロセッサである GPU は、CPU よりも高速で、他のアクセラレータ チップよりも柔軟かつ簡単にプログラミングできます。 従来の CPU が人工知能アルゴリズムの実行に適さない主な理由は、その計算命令がシリアル実行方式に従っており、チップの潜在能力を最大限に発揮できないことです。対照的に、GPU は高度な並列構造を持ち、グラフィック データや複雑なアルゴリズムの処理において CPU よりも効率的です。 GPU と CPU の構造上の違いを比較すると、CPU 領域の大部分はコントローラとレジスタであるのに対し、GPU にはデータ処理用の ALU (算術論理ユニット) が多くあります。このような構造は、集中的なデータの並列処理に適しています。CPU と GPU の構造比較を図に示します。 GPU システムでのプログラムの実行速度は、シングルコア CPU よりも数十倍、さらには数千倍も速くなることがよくあります。 NVIDIA や AMD などの企業が超並列 GPU アーキテクチャのサポートを進めていくにつれて、汎用コンピューティング GPU (GPGPU、GENERAL PURPOSE GPU、汎用コンピューティング グラフィックス プロセッシング ユニット) は並列アプリケーションを高速化する重要な手段になりました。 ▲CPUとGPUの構造比較表(NVIDIA CUDAのドキュメントより引用) GPU の開発の歴史は、図に示すように 3 つの段階に分けられます。 第一世代の GPU (1999 年以前) は、GE (GEOMETRY ENGINE) に代表されるハードウェア アクセラレーションを実現するために CPU からいくつかの機能を分離しましたが、3D 画像処理のみを高速化でき、ソフトウェア プログラミング機能はありませんでした。 第 2 世代の GPU (1999 ~ 2005 年) では、さらなるハードウェア アクセラレーションと制限付きのプログラミングが可能になりました。 1999年、NVIDIAは「複雑な数学的および幾何学的計算を実行するように設計された」GeForce256画像処理チップをリリースしました。CPUのような複雑な制御ユニットやキャッシュではなく、より多くのトランジスタを実行ユニットとして使用し、T&L(TRANSFORM AND LIGHTING)などの機能をCPUから分離して高速変換を実現し、GPUの真の出現の象徴となりました。その後数年間で、GPU テクノロジーは急速に発展し、その計算速度はすぐに CPU を上回りました。 2001年、NVIDIAとATIはそれぞれGEFORCE3とRADEON 8500を発売しました。グラフィックスハードウェアのパイプラインはストリームプロセッサとして定義され、頂点レベルのプログラミングが可能になりました。同時に、ピクセルレベルのプログラミングも制限されていましたが、GPU全体のプログラミングは依然として比較的制限されていました。 第 3 世代の GPU (2006 年以降) では、プログラムを直接記述できる便利なプログラミング環境を作成できます。 2006 年、NVIDIA と ATI はそれぞれ CUDA (Compute United Device Architecture) プログラミング環境と CTM (CLOSE TO THE METAL) プログラミング環境を発表し、GPU がグラフィックス言語の制限を打ち破り、真の並列データ処理スーパーアクセラレータとなることを可能にしました。 2008 年に、Apple は汎用並列コンピューティング プログラミング プラットフォーム OPENCL (OPEN COMPUTING LANGUAGE) を提案しました。NVIDIA のグラフィック カードにバインドされている CUDA とは異なり、OPENCL は特定のコンピューティング デバイスとは何の関係もありません。 ▲GPUチップの開発段階 現在、GPU は比較的成熟した段階まで発展しています。 Google、Facebook、Microsoft、Twitter、Baidu などの企業は、GPU を使用して画像、ビデオ、オーディオ ファイルを分析し、検索や画像のタグ付けなどのアプリケーション機能を改善しています。さらに、多くの自動車メーカーも自動運転の開発に GPU チップを使用しています。 それだけでなく、GPUはVR/AR関連の業界でも使用されています。 しかし、GPU にも一定の制限があります。 ディープラーニング アルゴリズムは、トレーニングと推論の 2 つの部分に分かれています。GPU プラットフォームは、アルゴリズムのトレーニングに非常に効率的です。ただし、推論中に単一の入力を処理する場合、並列コンピューティングの利点を十分に活用することはできません。 3. セミカスタマイズFPGA FPGA は、PAL、GAL、CPLD などのプログラマブルデバイスをベースにさらに開発された製品です。ユーザーは、FPGA 構成ファイルを書き込むことによって、これらのゲート回路とメモリ間の接続を定義できます。この書き込みは一度限りのものではありません。たとえば、ユーザーは FPGA をマイクロコントローラ MCU として構成できます。使用後は、構成ファイルを編集して、同じ FPGA をオーディオ コーデックとして構成できます。したがって、カスタマイズされた回路の柔軟性の欠如を解決するだけでなく、元のプログラム可能なデバイスのゲート回路の数が限られているという欠点も克服します。 FPGA はデータ並列コンピューティングとタスク並列コンピューティングを同時に実行できるため、特定のアプリケーションを処理する際の効率を大幅に向上できます。特定の操作を実行する場合、汎用 CPU では複数のクロック サイクルが必要になることがあります。一方、FPGA では、回路をプログラミングして再構成することで専用回路を直接生成できるため、わずか数クロック サイクル、あるいは 1 クロック サイクルで操作を完了できます。 さらに、FPGA の柔軟性により、汎用プロセッサや ASIC では実装が難しい多くの低レベルのハードウェア制御演算技術も、FPGA を使用することで簡単に実装できます。この機能により、アルゴリズム関数の実装と最適化のための余地が広がります。同時に、FPGA の 1 回限りのコスト (フォトリソグラフィーマスクの製造コスト) は ASIC よりもはるかに低くなっています。チップの需要がまだ規模に達しておらず、ディープラーニング アルゴリズムがまだ安定しておらず、継続的な反復と改善が必要な場合、FPGA チップの再構成可能な特性を利用して半カスタマイズされた人工知能チップを実現することは、最良の選択肢の 1 つです。 消費電力の面でも、FPGA にはアーキテクチャの観点から固有の利点があります。従来のFeng構造では、実行ユニット(CPUコアなど)は、命令を実行するために、命令メモリ、デコーダ、さまざまな命令演算子、分岐ジャンプ処理ロジックの参加を必要とします。ただし、FPGA内の各ロジックユニットの機能は、再プログラミング(つまり、バーンイン)中に決定されます。命令は必要なく、共有メモリも必要ないため、ユニット実行あたりの電力消費を大幅に削減し、全体的なエネルギー効率比を向上させることができます。 FPGA の柔軟性と速度により、多くの分野で ASIC に取って代わる傾向があります。人工知能分野における FPGA の応用を図に示します。 ▲人工知能分野におけるFPGAの応用 4. 完全にカスタマイズされたASIC 現在、ディープラーニングに代表される人工知能のコンピューティングニーズは、主にGPUやFPGAなどの並列コンピューティングに適した既存の汎用チップによって加速されています。産業用アプリケーションがまだ大規模に登場していない場合、このような既存の汎用チップを使用することで、特別に開発されたカスタマイズされたチップ (ASIC) にかかる高額な投資と高いリスクを回避できます。しかし、これらの汎用チップはもともとディープラーニング向けに設計されたものではないため、当然ながら性能や消費電力などに限界があります。人工知能アプリケーションの規模が拡大するにつれて、このような問題はますます顕著になります。 画像プロセッサとしての GPU は、もともと画像処理における大規模な並列計算に対応するために設計されました。したがって、ディープラーニング アルゴリズムに適用する場合、次の 3 つの制限があります。まず、並列コンピューティングの利点は、アプリケーション プロセス中に十分に活用できません。 ディープラーニングには、トレーニングと推論という 2 つのコンピューティング段階があります。GPU はディープラーニング アルゴリズムのトレーニングに非常に効率的ですが、単一の入力を推論する場合、並列処理の利点を十分に活用することはできません。 第二に、ハードウェア構造を柔軟に構成することができません。 GPU は SIMT コンピューティング モードを使用し、そのハードウェア構造は比較的固定されています。 現在、ディープラーニングのアルゴリズムはまだ完全に安定していません。ディープラーニングのアルゴリズムに大きな変更があった場合、GPU は FPGA ほど柔軟にハードウェア構造を構成できなくなります。 3 番目に、ディープラーニング アルゴリズムを実行すると、FPGA よりもエネルギー効率が低くなります。 FPGA は高く評価されており、新世代の Baidu Brain も FPGA プラットフォームに基づいて開発されていますが、結局のところディープラーニング アルゴリズム専用に開発されたものではなく、実際のアプリケーションでは多くの制限があります。まず、基本ユニットの計算能力には限界があります。再構成可能な機能を実現するために、FPGA 内には極めて細分化された基本ユニットが多数存在しますが、各ユニットの計算能力 (主に LUT ルックアップ テーブルに依存) は CPU や GPU の ALU モジュールに比べてはるかに低く、計算リソースの割合も比較的低いです。 再構成可能な機能を実現するために、FPGA 内の大量のリソースが構成可能なオンチップ ルーティングと接続に使用されます。3 番目に、特定用途向けカスタム チップ (ASIC) と比較すると、速度と消費電力にはまだ大きな差があります。4 番目に、FPGA は比較的高価であり、規模が大きくなると、単一の FPGA のコストは特定用途向けカスタム チップのコストよりもはるかに高くなります。 そのため、人工知能アルゴリズムと応用技術の発展が進み、人工知能専用チップASIC業界環境が徐々に成熟するにつれて、完全にカスタマイズされた人工知能ASICは徐々に独自の利点を示し始めています。このようなチップの研究開発と応用に従事している国内外の代表的な企業は、図に示されています。 ▲AI専用チップ(脳型チップを含む)の研究開発の概要 ディープラーニング アルゴリズムが安定した後、AI チップは ASIC 設計手法を使用して完全にカスタマイズでき、ディープラーニング アルゴリズムのパフォーマンス、消費電力、面積などの指標を最適化できます。 5. 脳のようなチップ 脳のようなチップは、古典的なフォン・ノイマン・アーキテクチャではなく、IBM Truenorth に代表されるニューロモルフィック・アーキテクチャに基づいて設計されています。 IBM の研究者は、ストレージ ユニットをシナプス、コンピューティング ユニットをニューロン、伝達ユニットを軸索として使用するニューラル チップのプロトタイプを構築しました。現在、Truenorthはサムスンの28nm省電力プロセス技術を採用しており、54億個のトランジスタからなるチップで構成されたオンチップネットワークには4096個のニューラルシナプスコアがあり、リアルタイム動作時の消費電力はわずか70mWです。神経シナプスには可変の重みとメモリ機能が必要であるため、IBMはCMOS技術と互換性のある相変化不揮発性メモリ(PCM)技術を使用して新しいタイプのシナプスを実験的に実現し、商用化プロセスを加速しました。 3. AIチップ業界と動向1. AIチップの応用分野 人工知能チップの継続的な発展に伴い、応用分野は時間の経過とともに多次元方向に発展し続けるでしょう。ここでは、比較的集中的に発展しているいくつかの業界を取り上げ、関連する紹介を行います。 ▲現在のAIチップの応用分野は比較的集中している (1)スマートフォン 2017年9月、ファーウェイはドイツ・ベルリンで開催されたコンシューマーエレクトロニクスショーでKirin 970チップを発表しました。このチップはCambrianのNPUを搭載しており、「世界初のスマートフォン向けモバイルAIチップ」となりました。2017年10月中旬には、新しいMate10シリーズ(このシリーズの携帯電話のプロセッサはKirin 970)が発売されました。 NPU を搭載した Huawei Mate 10 シリーズのスマートフォンは、強力なディープラーニングとローカル推論機能を備えており、ディープニューラルネットワークに基づくさまざまな写真撮影および画像処理アプリケーションにより、ユーザーにより完璧な体験を提供できます。 AppleはiPhone Xとそれに内蔵されたA11 Bionicチップに代表される携帯電話をリリースした。 A11 Bionic の独自開発のデュアルコア Neural Engine は、ニューラル ネットワークのコンピューティング ニーズを 1 秒あたり最大 6,000 億回処理できます。このニューラル エンジンの登場により、A11 Bionic は真の AI チップになりました。 A11 Bionic は iPhone X のカメラ体験を大幅に向上させ、創造的な新しい用途を提供します。 (2)ADAS(先進運転支援システム) ADAS は、最も注目を集める人工知能アプリケーションの 1 つです。LIDAR、ミリ波レーダー、カメラなどのセンサーによって収集された大量のリアルタイム データを処理する必要があります。従来の車両制御方法と比較して、インテリジェント制御方法は主に、ニューラルネットワーク制御やディープラーニング方法を含む制御対象モデルと総合情報学習の応用に反映されています。AIチップの急速な発展により、これらのアルゴリズムは徐々に車両制御に応用されてきました。 (3)CV(コンピュータビジョン)機器 スマートカメラ、ドローン、ドライブレコーダー、顔認識歓迎ロボット、スマートタブレットなど、コンピュータービジョン技術を必要とするデバイスは、多くの場合、ローカル推論を必要とします。インターネット上でしか動作できない場合、間違いなく悪い体験をもたらします。コンピューター ビジョン技術は現在、人工知能アプリケーションにとって肥沃な土壌の 1 つであるように思われ、コンピューター ビジョン チップには幅広い市場見通しがあります。 (4)VRデバイス VRデバイス向けの代表的なチップは、マイクロソフトが自社のVRデバイスHololens向けに開発・カスタマイズしたHPUチップです。 TSMC 社が製造するこのチップは、5 台のカメラ、1 台の深度センサー、および 1 台のモーション センサーからのデータを同時に処理でき、コンピューター ビジョンおよび CNN 操作のマトリックス演算の加速機能を備えています。これにより、VR デバイスは人物の高品質な 3D 画像を再構築し、どこにでもリアルタイムで送信できるようになります。 (5)音声対話デバイス 音声インタラクションデバイスチップに関しては、QiyingtailunとUnisoundという2つの国内企業があります。これらが提供するチップソリューションには、音声認識に最適化されたディープニューラルネットワークアクセラレーションソリューションが組み込まれており、デバイスのオフライン音声認識が可能になります。安定した認識機能により音声技術の実装が可能になり、同時に音声インタラクションの中核的な側面でも大きな進歩が遂げられました。音声認識リンクは、単一ポイントの機能を突破し、遠距離認識から音声分析、意味理解まで大きな進歩を遂げ、総合的なインタラクティブ ソリューションを提示しています。 (6)ロボット 家庭用ロボットと商用サービスロボットの両方に、専用のソフトウェア + チップ人工知能ソリューションが必要です。この点で代表的な企業は、Baidu のディープラーニング研究所の元責任者である Yu Kai が設立した Horizon Robotics です。これに加えて、Horizon Robotics は ADAS やスマートホームなどの他の組み込み人工知能ソリューションも提供しています。 2. 国内外の代表的なAIチップ企業 この記事では、人工知能チップ技術分野における国内外の代表的な企業を紹介します。記事内の順位は特に決まっていません。人工知能チップ技術分野の代表的な国内企業としては、Cambricon、Vimicro、Horizon Robotics、Horizon Robotics、Horizon Robotics、Horizon Robotics、Horizon Robotics、Baidu、Huaweiなどが挙げられ、海外企業としては、NVIDIA、AMD、Google、Qualcomm、Nervana Systems、Movidius、IBM、ARM、CEVA、MIT/Eyeriss、Apple、Samsungなどが挙げられます。 カンブリア紀。カンブリアン・テクノロジーズは2016年に設立され、北京に本社を置いています。創業者は中国科学院計算技術研究所の陳天世氏と陳雲吉氏の兄弟です。同社は、さまざまな種類のインテリジェントクラウドサーバー、インテリジェント端末、インテリジェントロボット向けのコアプロセッサチップの構築に取り組んでいます。 Alibaba Ventures、Lenovo Capital、CAS Capital、China Science & Technology Investment、Oriza Capital、Yonghua Investmentが共同で、世界AIチップ分野における初のユニコーンスタートアップに投資しました。 Cambrian は、テープアウトに成功し、成熟した製品を持つ世界初の AI チップ企業です。同社には、端末 AI プロセッサ IP とクラウドベースの高性能 AI チップの 2 つの製品ラインがあります。 2016年にリリースされたCambricon-1Aプロセッサは、世界初の商用ディープラーニングプロセッサです。スマートフォン、セキュリティ監視、ドローン、ウェアラブルデバイス、スマートドライビングなど、さまざまな端末デバイス向けに設計されています。主流のインテリジェントアルゴリズムを実行する場合、その性能と消費電力の比率は従来のプロセッサを上回ります。 ヴィミクロ。 1999 年、Vimicro Corporation は、シリコンバレーの博士号を持つ起業家グループによって北京の中関村サイエンスパークに設立されました。彼らは国家戦略プロジェクト「China Star Chip Project」を発足、実行し、デジタル マルチメディア チップの開発、設計、産業化に専念しました。 2016 年初頭、Vimicro は、ニューラル ネットワーク プロセッサ (NPU) を統合した世界初の SVAC ビデオ コーデック SoC を発売しました。これにより、インテリジェントな分析結果をビデオ データと同時にエンコードして、構造化されたビデオ ビットストリームを形成できるようになりました。この技術はビデオ監視カメラで広く使用されており、インテリジェントなセキュリティ監視の新しい時代を切り開きます。独自に設計された組み込みニューラル ネットワーク プロセッサ (NPU) は、「データ駆動型並列コンピューティング」アーキテクチャを採用し、ディープラーニング アルゴリズムに特化して最適化されています。高性能、低消費電力、高集積、小型という特徴を備えており、IoT フロントエンド インテリジェンスのニーズに特に適しています。 ▲NPUを統合したニューラルネットワークプロセッサVC0616の内部構造 ホライゾンロボティクス。 Horizon Roboticsは2015年に設立され、北京に本社を置いています。創業者は、Baiduのディープラーニング研究所の元所長であるYu Kai氏です。 BPU(Brain Processing Unit)は、Horizon Roboticsが独自に設計・開発した高効率人工知能プロセッサアーキテクチャIPです。ARM/GPU/FPGA/ASIC実装をサポートし、自動運転や顔画像認識などの専門分野に注力しています。 2017年、ホライゾンはガウスアーキテクチャに基づく組み込み人工知能ソリューションをリリースしました。これは、スマートドライビング、スマートライフ、公共安全の3つの分野に適用されます。第1世代のBPUチップ「Pangu」は現在テープアウト段階に入っており、2018年後半に発売される予定です。1080Pの高解像度画像入力をサポートし、毎秒30フレームを処理し、数百のターゲットを検出および追跡できます。 Horizon の第 1 世代 BPU は TSMC の 40nm プロセスを採用しており、従来の CPU/GPU と比較してエネルギー効率を 2 ~ 3 桁 (約 100 ~ 1,000 倍) 向上させることができます。 DeePhiテクノロジー。 SenseTimeは2016年に設立され、北京に本社を置いています。清華大学とスタンフォード大学の世界をリードするディープラーニング ハードウェア研究者によって設立されました。 DeePhi Technology は 2018 年 7 月に Xilinx に買収されました。 DeePhi Technology は、同社が開発した FPGA ベースのニューラル ネットワーク プロセッサを DPU と呼んでいます。これまで、Deephiは2つのDPUをリリースしました。アリストテレスアーキテクチャは、畳み込みネットワーク(CNN)のために設計されており、DNN/RNNネットワークを処理するために設計されています。 Intel Xeon CPUおよびNvidia Titanx GPUと比較して、Cartesian Architectureを使用するプロセッサは、それぞれ189倍および13倍高速で、24,000倍と3,000倍のエネルギー効率が高いコンピューティング速度があります。 Lingxiテクノロジー。 Lingxi Technologyは2018年1月に北京に設立されました。その共同設立者には、Tsinghua大学の世界をリードする脳に触発されたコンピューティング研究者が含まれます。同社は、既存の人気のある機械学習アルゴリズム(CNN、MLP、LSTM、その他のネットワークアーキテクチャを含む)を効率的にサポートできる新世代のニューラルネットワークプロセッサ(TIANJIC)の開発に取り組んでいます。 ソフトウェアツールチェーンは、CaffeやTensorflowなどのアルゴリズムプラットフォームによるニューラルネットワークの直接マッピングと編集、およびフレンドリーなユーザーインタラクションインターフェイスの開発をサポートしています。 Tianjicは、クラウドコンピューティングおよびターミナルアプリケーションシナリオで使用して、人工知能の実装と促進を支援できます。 Kaiying Tairen。 Qiing Tailunは、2015年11月に成都に設立され、スピーチ認識チップ開発者です。 QiyingTailunのCI1006は、ASICアーキテクチャに基づいた人工知能の発話認識チップです。これは、DNNコンピューティングアーキテクチャを完全にサポートし、高性能コンピューティングを実行できます。 Baidu。 Baiduは、2017年8月のHot Chips ConferenceでXPUをリリースしました。これは、FPGAベースのクラウドコンピューティングアクセラレーションチップ256コアです。パートナーはxilinxです。 XPUは、GPUの汎用性と、Baiduの深い学習プラットフォームPaddlePaddleを高度に最適化および加速しているAI処理アーキテクチャを採用しています。報告によると、XPUは、効率とパフォーマンスを改善し、CPUのような柔軟性をもたらすことを望んで、計算集約型のルールベースの多様なコンピューティングタスクに焦点を当てています。 Huawei。 Kirin 970のNeural Network Processor NPUは、図12に示すように、Cambrian IPを使用しています。 Kirin 970はTSMCの10nmプロセスを使用し、55億のトランジスタを搭載しており、以前の世代のチップよりも20%少ない電力を消費しています。 CPUアーキテクチャの観点から、4コアA73 + 4コアA53から8コアを形成しています。 FP16で提供されるコンピューティングパフォーマンスは、4つの皮質A73コアと比較して1.92 TFLOPSに達することがあります。 nvidia。 Nvidiaは1993年に設立され、米国カリフォルニア州サンタクララに本社を置いています。 早くも1999年、NvidiaはGPUを発明し、最新のコンピューターグラフィックステクノロジーを再定義し、並行コンピューティングに革命をもたらしました。ディープラーニングにはコンピューティング速度に関する非常に厳しい要件があり、NVIDIAのGPUチップにより、多数のプロセッサが並行して計算できます。これはCPUよりも10倍または数十倍速く、ほとんどの人工知能の研究者と開発者にとって最初の選択肢です。 Google BrainがDNNモデルを訓練するために16,000 GPUコアを採用し、音声や画像認識などの分野で大きな成功を収めて以来、NvidiaはAIチップ市場の議論の余地のないリーダーになりました。 AMD。米国のAMD Semiconductor Corporationは、コンピューター、通信および家電産業向けのさまざまな革新的なマイクロプロセッサ(CPU、GPU、APU、マザーボードチップス、TVカードチップなど)の設計と製造、および1969年に発見されたフラッシュメモリと低パワープロセッサソリューションを提供しています。 AMDは、企業や政府機関から個々の消費者まで、テクノロジーユーザーに標準ベースの顧客中心のソリューションを提供することに取り組んでいます。 2017年12月、IntelとAMDは、IntelプロセッサとAMDグラフィックユニットを組み合わせたラップトップチップを起動するために力を合わせて参加すると発表しました。 AMDには現在、AIおよび機械学習、オープンソフトウェアプラットフォームROCMなどの高性能Radeon Instincアクセラレータカードがあります。 グーグル。 2016年、GoogleはTPUと呼ばれる新しい処理システムの独立した開発を発表しました。 TPUは、機械学習アプリケーション向けに特別に設計された特別な目的のチップです。チップのコンピューティングの精度を低下させ、各コンピューティング操作を実行するために必要なトランジスタの数を減らすことにより、チップでより多くの操作を実行できます。 2016年3月にLee Sedolを破り、2017年5月にKe Jieを破ったAlphagoは、GoogleのTPUシリーズチップを使用しました。 Google I/O-2018 Developer Conferenceでは、第3世代のAI学習プロセッサTPU 3.0が正式にリリースされました。 TPU3.0は、8ビットの低精度計算を使用してトランジスタを保存します。これは、精度にほとんど影響を与えませんが、消費電力を大幅に節約し、プロセスを高速化することができます。 速度は、最大100pflops(1秒あたり100兆の浮動小数点計算)に増加させることができます。 Qualcomm。スマートフォンチップマーケットで絶対的な利点を持っているQualcommは、人工知能チップを積極的に開発しています。 Qualcommが提供する情報によると、人工知能の分野で「IoT人工知能サービスに焦点を当てている」クラリファイと中国のユニザウンドに投資しています。早くもCES 2015と同じように、QualcommはSnapdragon Soc -Snapdragon貨物を装備したフライングロボットを立ち上げました。 Qualcommは、同社がコンピュータービジョンの能力を活用して、産業および農業の監視と航空写真における写真、ビデオ撮影、ビデオの新しい需要を満たすことができると考えています。さらに、QualcommのSnapdragon 820チップもVRヘルメットで使用されています。実際、Qualcommは、地元で深い学習を実行できるモバイルデバイス向けのチップをすでに開発しています。 Nervanaシステム。 Nervanaは2014年に設立されました。同社は、特別にカスタマイズされ、ディープラーニング用に最適化されたASICチップであるNervana Engineを立ち上げました。このソリューションは、高容量と高速を組み合わせた高帯域幅メモリと呼ばれる新しいメモリテクノロジーによって可能になり、32GBのオンチップストレージと8TBのメモリアクセス速度を1秒間提供します。同社は現在、世界で最も速いと主張するAIサービス「クラウド内」を提供しており、現在、金融サービス機関、医療提供者、および政府機関で使用されています。 彼らの新しいチップは、Nervana Cloudプラットフォームが今後数年間で最速のままであることを保証します。 Movidius(Intelが取得)。 2016年9月、IntelはMovidiusの買収を発表しました。 Movidiusは、高性能の視覚処理チップの研究開発に焦点を当てています。最新世代のMyriad2 Visionプロセッサは、主にメインコントローラーとしてSPARCプロセッサで構成されており、特殊なビジョンと画像信号を処理するための専用のDSPプロセッサとハードウェアアクセラレーション回路で構成されています。これは、DSPアーキテクチャに基づく視覚プロセッサです。視覚関連のアプリケーションフィールドでは非常に高いエネルギー効率比があり、ほとんどすべての組み込みシステムで視覚的なコンピューティングを普及させることができます。 このチップは、Google 3DプロジェクトのTango携帯電話、DJIドローン、Flirスマート赤外線カメラ、Hikvision Deepeyeシリーズカメラ、Huarui Smart Industrialカメラなどの製品で広く使用されています。 IBM。 IBMはずっと前にワトソンをリリースし、多くの実用的なアプリケーションに投資しました。さらに、脳のようなチップの研究開発、つまりTruenorthが開始されました。 Truenorthは、IBMのDARPAの研究プロジェクトシナプスへの参加の最新結果です。シナプスは、神経型適応プラスチックスケーラブルエレクトロニクス(適応型プラスチックスケーラブルエレクトロニクス、シナプスの意味)のシステムのフルネームであり、その究極の目標は、フォンノイマンアーキテクチャを破るコンピューターアーキテクチャを開発することです。 アーム。 ARMは、新しいチップアーキテクチャであるDynamiqを発売し、AIチップは今後3〜5年でパフォーマンスを50倍増加させると予想されます。 ARMの新しいCPUアーキテクチャは、AIアルゴリズム用に特別に設計されたプロセッサを含むさまざまな部分にソフトウェアを構成することにより、複数の処理コアをまとめます。チップメーカーは、新しいプロセッサ用に最大8つのコアを構成できます。同時に、主流のAIが独自のプロセッサでより良く実行できるようにするために、ARMは一連のソフトウェアライブラリも起動します。 セバ。 CEVAは、幅広い製品ラインを備えたDSPに焦点を当てたIPサプライヤーです。その中で、画像およびコンピュータービジョンDSP製品CEVA-XM4は、ディープラーニングをサポートする最初のプログラム可能なDSPであり、リリースされた新世代モデルのCEVA-XM6は、パフォーマンスが向上し、コンピューティングパワーが強く、エネルギー消費量が少なくなります。 CEVAは、ドローンや自動化などのスマートフォン、自動車、セキュリティ、商用アプリケーションがビジネス開発の主な目標になると指摘しています。 mit/eyeriss。エアリスは実際にはMITのプロジェクトであり、長期的には、それがうまくいけば、新しい会社を育てる可能性があります。 Eyerissは、高性能の深い畳み込みニューラルネットワーク(CNN)アクセラレータハードウェアを備えており、168のコアが組み込まれており、一般的なGPUの10倍のパフォーマンスを展開するように特別に設計されています。そのテクノロジーの鍵は、GPUコアとメモリ間のデータ交換の頻度を最小限に抑えることです(通常、この操作は多くの時間とエネルギーを消費します):GPU内のコアは通常、単一のメモリを共有しますが、アイリスの各コアには独自のメモリがあります。 現在、アイリスは主に顔認識と音声認識に位置しており、スマートフォン、ウェアラブルデバイス、ロボット、自動運転車、その他のIoTアプリケーションデバイスで使用できます。 りんご。 iPhone 8とiPhone Xの記者会見で、Appleは、ITで使用されているA11プロセッサが機械学習専用のハードウェア(「ニューラルエンジン」)を統合し、1秒あたり最大6,000億の操作を統合していると明確に述べています。このチップは、顔の認識や音声認識など、人工知能を必要とするタスクを処理するときに、Appleデバイスのパフォーマンスを向上させることができます。 サムスン。 2017年、Huawei HisiliconはKirin 970チップを発売しました。 Samsungは、今後3年間に新しいスマートフォンでAIチップを使用して発売される予定であり、AIデバイス用の新しいコンポーネントビジネスも構築します。 Samsungは、GraphCoreやShenjian Technologyなどの人工知能チップ企業にも投資しています。 3。テクノロジーの傾向 現在、主流のAIチップのコアは、主にMAC(乗数および蓄積)加速アレイを使用して、CNN(畳み込みニューラルネットワーク)で最も重要な畳み込み操作の加速を実現することです。この世代のAIチップには、主に次の3つの問題があります。 (1)深い学習計算に必要なデータの量は巨大であり、メモリ帯域幅はシステム全体のボトルネックになります。これはいわゆる「メモリウォール」の問題です。 (2)最初の問題に関連して、大量のメモリアクセスとMacアレイの大量のコンピューティングにより、AIチップの全体的な消費電力が増加しました。 (3)コンピューティングパワーを改善するには、ハードウェアアクセラレーションを行うことが必要です。 したがって、次世代のAIチップには次の5つの開発動向があることが予見される可能性があります。 (1)より効率的な大きな畳み込み分解/多重化 標準のSIMDに基づいて、CNNは特別な多重化メカニズムにより、バスのデータ通信をさらに削減できます。多重化の概念は、超大規模なニューラルネットワークで特に重要です。 これらの超大規模な畳み込みを効果的なハードウェアに合理的に分解してマッピングする方法は、勉強する価値のある方向になりました。 (2)推論の計算/ストレージビット幅が低い AIチップの最大の進化方向の1つは、ニューラルネットワークパラメーター/コンピューティングビット幅の急速な削減(32ビットの浮動ポイントから16ビットの浮動点/固定点、8ビット固定点、または4ビット固定点)の急速な削減です。理論的コンピューティングの分野では、2ビットまたは1ビットのパラメータービット幅が徐々に実用的なフィールドに入りました。 (3)より多様なメモリカスタムデザイン コンピューティングコンポーネントがニューラルネットワークアクセラレータのボトルネックではなくなった場合、メモリアクセス遅延を減らす方法は次の研究方向になります。一般に、メモリが計算に近いほど、バイトあたりのコストが速く、容量が制限されるため、新しいストレージ構造が生まれます。 (4)よりまばらな大規模ベクトル実装 ニューラルネットワークは大きいですが、実際にはゼロが入力されている多くの場合があります。ハーバード大学のチームは、この問題に関する最適化された5レベルのパイプラインジャンクションを提案し、最後のレベルでトリガー信号を出力しました。アクティベーション層の後、次の計算の必要性は事前に決定されます。これがスパースノードであることが判明します。 (5)コンピューティングとストレージの統合 コンピューティングとストレージ(メモリのプロセス)テクノロジーの統合の重要なポイントは、新しい不揮発性ストレージ(RERAMなど)デバイスを使用して、ニューラルネットワークコンピューティング機能をストレージアレイに追加することです。 Zhidongxiは、近年、AIテクノロジーが継続的なブレークスルーを行っていると考えています。 AIテクノロジーの重要な物理的基盤として、AIチップスは大きな産業的価値と戦略的立場を持っています。しかし、一般的な傾向の観点から見ると、それはまだAIチップの開発の初期段階にあり、科学的研究と産業用途の両方に革新のための大きな余地があります。現在、NvidiaやGoogleなどの国際的な巨人が新製品を連続して発売しただけでなく、国内のBaiduとAlibabaもこの分野をレイアウトしており、CambrianなどのAIチップスタートアップも生まれました。 CPUやGPUなどの従来のチップフィールドが国際市場とは大きく異なるという事実により、中国のAIチップは追い越されると予想されています。 |
<<: 2019 年のインターネット キャンパス採用の給与が発表されました。いくらもらえるか見てみましょう!
>>: リーダーシップの大幅刷新後、Google Cloud の断片化と成長の鈍化の責任は誰にあるのでしょうか?
2020年は、厳しい防疫活動のさなか、静かに過ぎていきました。今年も人工知能の進歩は止まりませんでし...
AI 技術の継続的な革新と発展により、人工知能 (AI) は多くの分野で大きな進歩を遂げており、その...
コンピューター ビジョンの分野では、You Only Look Once (YOLO) アルゴリズム...
専門的な配電設備として、PDU は基本型とインテリジェント型の 2 つのタイプに分けられます。インテ...
世界銀行の支援を受けて、国際非営利団体「Action Against Hunger」は人工知能を活用...
[51CTO.comより] 徐克氏は百度で検索とスマートレコメンデーションの分野で長年勤務。2015...
人工知能(AI)は2023年に世界的な革命を引き起こし、多くの企業がこの高度なテクノロジーを自ら習得...
自動車が発明された日から、自動運転機能への要望は、何世代にもわたるエンジニアたちの焦点となってきまし...
たった今、コンピュータービジョンの最高峰カンファレンスである ICCV 2023 がフランスのパリで...
Python 言語に精通している研究者は、オープンソースの Python ベースの科学計算ツールキッ...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
2019年秋学期のキャンパスリクルートメントは終了に近づいています。近年、特にインターネット業界で...