AIチップとは何ですか?人々が知っておくべきことすべて

AIチップとは何ですか?人々が知っておくべきことすべて

[51CTO.com クイック翻訳] 業界の専門家は、音声アシスタント、顔認識カメラ、コンピューターなど、多くのスマートデバイスや IoT デバイスが何らかの形の人工知能 (AI) を搭載していると指摘しています。これらのデバイスでは、実行するデータ処理をサポートするために何らかのテクノロジが必要です。一部のデバイスはクラウド プラットフォーム上の大規模なデータ センターでデータを処理する必要がありますが、一部のデバイスは独自の人工知能チップを通じてデータを処理します。

[[376805]]

では、AI チップとは何でしょうか? スマート デバイスに搭載されている他のチップとどう違うのでしょうか? この記事では、AI チップの重要性、さまざまなアプリケーションで使用されるさまざまな種類の AI チップ、デバイスで AI チップを使用する利点に焦点を当てます。

1. 一部のチップが人工知能に適さない理由

コンピュータ技術は 1980 年代に登場し始めました。この技術的拡張は、プログラム内の命令によって指定された基本的な算術、論理、制御、および入出力操作を実行する CPU (中央処理装置) によって実装されます。 CPUはコンピューターの頭脳です。 Intel と AMD は、世界の CPU 業界における大手企業です。

CPU の開発について語るとき、ARM について触れなければなりません。ARM のチップ アーキテクチャは 1980 年代に発売されたコンピューターで始まりましたが、モバイル コンピューティング、スマートフォン、タブレットの台頭まで市場リーダーになることはありませんでした。 2005 年までに、携帯電話の 98% が少なくとも何らかの形の ARM アーキテクチャを採用しました。 2013 年までに、ARM チップを搭載した携帯電話が世界中で 100 億台生産され、現在では世界のモバイル デバイスの約 60% に ARM ベースのチップが搭載されています。 ARM は人工知能チップの分野で重要な位置を占めるようになりました。

1990 年代には、アーケード、コンピューター、コンソールでリアルタイム 3D グラフィックスが一般的になり、ハードウェア アクセラレーション 3D グラフィックスの需要が高まりました。もう一つのハードウェア大手である NVIDIA は、コンピューター グラフィックスと画像処理専用のグラフィックス プロセッシング ユニット (GPU) でこのニーズに対応しています。 NVIDIA は最近、ARM を 400 億ドルで買収すると発表した。

2. 人工知能処理装置

AI 処理に関しては、GPU は一般的に CPU よりも優れたパフォーマンスを発揮しますが、完璧ではありません。業界では、AI アプリケーション、モデリング、推論を効率的に処理できる専用のプロセッサが必要です。その結果、チップ設計者は現在、これらのアルゴリズムを実行するために最適化された処理ユニットの作成に取り組んでいます。これらのユニットには、NPU、TPU、DPU、SPU などさまざまな名前がありますが、一般的な用語として人工知能処理ユニット (AI PU) にまとめることができます。

AI PU は、通常、人工ニューラル ネットワークなどの予測モデルを操作して、機械学習アルゴリズムを実行するために作成されます。これらのプロセスは通常は独立して実行されるため、通常はトレーニングまたは推論として分類されます。

すでに目にした実際のアプリケーションには次のようなものがあります。

  • リアルタイム顔認識機能を備えたセキュリティシステム(IP カメラやアクセス制御カメラなど)など、サイバー攻撃の脅威に対するシステムまたはエリアの監視。
  • 顧客と対話する小売または企業向けチャットボット。
  • 音声アシスタントのための自然言語処理。

3. 人工知能プロセッサとGPU

GPU はすでに AI モデルを実行できるのかと疑問に思う人もいるかもしれません。実際、GPU には AI モデルの処理に便利な特性がいくつかあります。

GPU は 2D グラフィックスだけでなく 3D グラフィックスも処理できるため、複数の関数文字列を同時に並列処理する必要があります。人工知能ニューラル ネットワークも、ノードが動物の脳のニューロンのように分岐するため、並列処理が必要です。 GPU はこの点で非常に役立ちます。

しかし、ニューラル ネットワークには畳み込みが必要であり、GPU はここで苦戦します。つまり、GPU は基本的にニューラル ネットワークではなくグラフィックス向けに最適化されており、せいぜい代替品にすぎません。

考慮すべきもう一つの重要な要素は、現在急速に進んでいる人工知能技術の開発です。世界中の研究者やコンピューター科学者は、人工知能と機械学習の機能を飛躍的に進歩させ続けていますが、CPU と GPU の進歩はこれらの技術の発展に追いつくことができていません。

ムーアの法則によれば、集積回路 (IC) 内のトランジスタの数はおよそ 2 年ごとに 2 倍になります。しかし、ムーアの法則は徐々に消えつつあり、人工知能技術の発展のペースに追いつけなくなっています。

AI の高速化は、最終的には AI PU などの特殊な AI アクセラレータに依存することになります。 AI PU は通常、次の目的で使用されます。

  • GPU と比較すると、機械学習タスクの計算速度が約 10,000 倍向上します。
  • 消費電力が低く、リソースの使用率が向上します。

AI SoCのコンポーネント

AI PU は AI システム オン チップ (SoC) の頭脳を形成しますが、チップを構成する複雑なコンポーネント配列の一部にすぎません。以下では、AI SoC、AI PU とペアになっているコンポーネント、そしてそれらがどのように連携するかについて詳しく説明します。

1.NPU

前述のように、これは AI SoC のコア操作を実行するニューラル プロセッシング ユニットまたはマトリックス乗算エンジンであり、AI チップ メーカーにとって、これがあらゆる AI SoC を他のすべての AI SoC から際立たせる鍵でもあることを指摘しておくことが重要です。

2. コントローラー

コントローラは通常、RISC-V(カリフォルニア大学バークレー校設計)、ARM(ARM設計)、またはカスタムロジック命令セットアーキテクチャ(ISA)に基づいており、他のすべてのブロックと外部プロセッサの制御と通信に使用されます。

制御がローカルで行われるかどうかは、「このチップはなぜ作成されるのか? このチップはどこで使用されるのか? そして、誰によって使用されるのか?」などの質問に答える必要がある重要な問題です。チップ製造業者は、制御の質問に答える前に、これらの質問に答える必要があります。

3.SRAM

これは、モデルまたは出力を保存するために使用されるローカル ストレージです。冷蔵庫のようなものだと考えてください。冷蔵庫は、収納スペースが非常に少ないにもかかわらず、物(この場合はデータ)を取り出したり、元に戻したりするのが非常に速くて便利です。一部のユースケース、特にエッジ AI に関連するユースケースでは、歩行者が突然道路に現れたときに自動運転車が間に合うようにブレーキをかけなければならない場合など、処理速度が非常に重要です。

チップにどのくらいの SRAM を含めるかは、コストとパフォーマンスによって異なります。 SRAM プールを大きくすると初期コストは増加しますが、DRAM へのアクセスが少なくなるため、長期的には元が取れます。

一方、SRAM メモリ プールが小さいと初期コストは低くなりますが、より多くの DRAM メモリが必要になります。しかし、市場が特定の用途向けに低コストのチップを要求している場合は、コストを削減する必要があるかもしれません。

メモリがコンピューターのパフォーマンスとパフォーマンス要求を満たす能力に影響を与えるのと同様に、処理速度も SRAM プールの容量が大きい場合と小さい場合の違いになります。

4.入出力

これらのモジュールは、SoC を DRAM や外部プロセッサなどの SoC 外部のコンポーネントに接続するために使用されます。これらのインターフェースは、AI SoC が潜在的なパフォーマンスとアプリケーションを最大限に引き出すために重要であり、そうでない場合はボトルネックが発生します。したがって、インターフェースとそれが接続するもの(DRAM、外部プロセッサなど)は、AI SoC の潜在的なパフォーマンスを示す必要があります。

たとえば、DDR は DRAM のインターフェースです。したがって、SRAM を冷蔵庫と想像すると、DRAM は食料品店と考えることができます。保存スペースは広くなりますが、アイテムの取得に時間がかかります。

5. 相互接続構造

相互接続ファブリックは、プロセッサ (AI PU、コントローラ) と SoC 上の他のすべてのブロック間の接続です。 I/O と同様に、相互接続ファブリックは AI SoC のパフォーマンスを最大限に引き出すために重要です。通常、これはチップ内の相互接続構造が認識できなくなるまで実現されません。

プロセッサがどれだけ高速化しても、高速道路の車線数が足りないとラッシュアワー時に交通渋滞が発生するのと同じように、相互接続ファブリックがそれに追いつき、全体的なパフォーマンスを妨げる遅延を引き起こさない場合にのみ、これらのイノベーションは機能します。

これらすべてのコンポーネントは AI チップの重要な部分です。チップによって追加コンポーネントがあったり、それらのコンポーネントへの投資の優先順位が異なったりする場合がありますが、これらの基本コンポーネントは共生的に動作し、AI チップが AI モデルを迅速かつ効率的に処理できるようにします。 CPU や GPU とは異なり、AI SoC の設計はまだまだ成熟していません。この業界の分野は急速に成長し続けており、AI SoC 設計の進歩が見られるでしょう。

6. 人工知能チップとその使用例

市場には多くの AI チップが存在し、これらのチップの名前は設計会社によって異なります。これらのチップは、使用するモデルと、加速するように設計されている実際のアプリケーションの両方において、さまざまな使用例があります。

1. トレーニングと推論

人工知能は本質的には、人間の脳内の生物学的ニューラル ネットワークを置き換えるように設計された人工ニューラル ネットワークを使用して人間の脳をシミュレートしたものです。ニューラル ネットワークは、モデルを実行するために呼び出すことができる多数のノードで構成されています。

ここで AI チップが活躍します。 AI チップはこれらの人工ニューラル ネットワークの処理に特に優れており、トレーニングと推論という 2 つのことを実行するように設計されています。

元々のニューラル ネットワークは、大量のデータを入力することで開発およびトレーニングされました。トレーニングには膨大な計算量がかかるため、このデータを迅速かつ効率的に処理するように設計された、トレーニングに重点を置いた AI チップが必要です。チップの性能が高ければ高いほど、ネットワークの学習速度は速くなります。

ネットワークがトレーニングされると、顔認識、ジェスチャー認識、自然言語処理、画像検索、スパムフィルタリングなどの実際のアプリケーションでデータを使用できるように、推論用に設計されたチップが必要になります。

トレーニングは辞書を構築することと考えることができますが、推論は単語を調べてその使い方を理解することに似ています。どちらも必要であり、共生関係にあります。

トレーニング用に設計されたチップは推論も実行できますが、推論チップはトレーニングを実行できないことに注意してください。

2. クラウドコンピューティングとエッジコンピューティング

AI チップについて知っておく必要があるもう 1 つの側面は、それがクラウド コンピューティングのユース ケース向けに設計されているか、エッジ コンピューティングのユース ケース向けに設計されているか、またこれらのユース ケースでは推論チップとトレーニング チップのどちらが必要かということです。

クラウド コンピューティングのアクセシビリティは、その機能を完全にオフサイトで使用できるため、非常に便利です。これらのユースケースでは推論を処理するためにデバイス上のシリコンは必要なく、電力とコストを節約できます。ただし、データはハッキングされたり、誤って処理されたりする可能性のあるクラウド コンピューティング サーバーに保存されるため、プライバシーとセキュリティの面で欠点があります。

また、エッジ コンピューティング チップほど特化されていないため、推論ユースケースでは効率が低下する可能性があります。エッジで処理を実行できるチップは、顔認識カメラなどのデバイスに搭載されています。すべてのデータがデバイス上に保存され、チップは特定の目的に合わせて設計されていることが多いため、クラウドよりもプライバシーが保護され、安全です。たとえば、顔認識カメラでは、顔認識用に設計されたモデルの実行に適したチップが使用されます。また、デバイスに別のチップを追加するとコストと電力消費が増加するという欠点もあります。デバイスがユーザーにとって高価すぎたり、電力を大量に消費したりしないようにするには、コストと電力消費のバランスが取れたエッジ AI チップを使用することが重要です。

アプリとチップをペアリングする方法は次のとおりです。

3. クラウドコンピューティング + トレーニング

この組み合わせの目的は、推論用の人工知能モデルを開発することです。これらのモデルは最終的に、ユースケース固有の AI アプリケーションに洗練されます。これらのチップは強力で、実行コストが高く、できるだけ早くトレーニングできるように設計されています。

このようなシステムの例としては、合計 2 ペタフロップスの処理能力を備えた NVIDIA の DGX-2 システムがあります。 16 個の NVIDIA V100 Tensor Core GPU で構成されています。もう 1 つの例は、Intel Habana の Gaudi チップです。

人々が毎日接触し、広範囲なトレーニングを必要とするアプリケーションの例としては、Facebook フォトや Google 翻訳などがあります。これらのモデルの複雑さが増すにつれて、クラウド コンピューティングとトレーニング市場は引き続き必要とされ、注目されるようになります。

4. クラウドコンピューティング + 推論

このペアリングを行う目的は、推論には非常に多くの処理能力が必要となり、デバイス上で推論を実行することが現実的ではないためです。これは、アプリケーションがより大きなモデルを使用し、大量のデータを処理するためです。

同社のチップの例としては、大規模クラウドプラットフォーム向けの人工知能チップであるクアルコムの Cloud AI 100 がある。別の例としては、Alibaba の Huanguang 800 や Graphcore の Colossus MK2 GC200 IPU があります。

トレーニング チップは Facebook の写真や Google 翻訳のトレーニングに使用され、クラウド コンピューティング推論チップは入力データの処理に使用されます。その他の例としては、主に大手テクノロジー企業が運営する AI チャットボットや AI サービスが挙げられます。

5. エッジコンピューティング + 推論

エッジ コンピューティング デバイスで推論用のチップを使用すると、ネットワークの不安定性や遅延に関連する問題がなくなり、使用されるデータのプライバシーとセキュリティをより適切に保護できます。大量のデータ(特に画像や動画などの視覚データ)をアップロードするために必要な帯域幅の使用にはコストがかからないため、コストとエネルギー効率のバランスが取れていれば、クラウド コンピューティング + 推論よりも安価で効率的になります。

ここでの例には、KL520 や最近発売された KL720 チップなどの Kneron のチップが含まれます。これらは、デバイス上での使用向けに設計された低電力、低コストのチップです。他の例としては、Intel Movidius や Google の Coral TPU などがあります。

使用例には、顔認識監視カメラ、歩行者や危険を検知する車載カメラ、音声アシスタントの自然言語処理などがあります。

これらの異なるタイプのチップと、それらの異なる実装、モデル、およびユースケースは、AI の将来の開発にとって重要です。 5G などの他の新興テクノロジーのサポートにより、人工知能は急速に人々の仕事や生活の重要な部分になりつつあります。人々のテクノロジーへの依存度が高まるのに対応するため、人工知能チップの開発は急速に進むでしょう。

原題: AI チップとは何か? 知っておくべきことすべて、著者: Albert Liu

[51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください]

<<:  カスタマー サービス チーム向けの人工知能と機械学習ツール

>>:  2021年、民間ドローン分野では5つの大きなトレンドが見られる

ブログ    
ブログ    
ブログ    

推薦する

Java はなぜ機械学習やディープラーニングを実際にサポートできないのでしょうか?何が欠けている?

チームに ML を導入させるにはどうすればよいのでしょうか。また、実行している既存のシステムと ML...

...

MobileSAM: モバイルデバイスに高いパフォーマンスをもたらす軽量の画像セグメンテーションモデル

1. はじめにモバイルデバイスの普及とコンピューティング能力の向上により、画像セグメンテーション技術...

人工知能をめぐる世界的競争におけるヨーロッパの立場と戦略分析

[[357807]]人工知能は世界的な競争の焦点となっている。この重要な戦略的機会を捉えるために、欧...

回帰問題に最適な機械学習アルゴリズムを選択する

あらゆる種類の機械学習 (ML) の問題に取り組む場合、選択できるさまざまなアルゴリズムがあります。...

人工知能の主な研究段階と将来の発展方向は何ですか?

人工知能は常にコンピュータ技術の最前線にあり、人工知能研究の理論と発見はコンピュータ技術の発展の方向...

OpenAI: ニューヨークタイムズは私を攻撃するためにハッカーを雇った

新聞社が雇ったハッカーが AI の巨人を攻撃するのはなぜでしょうか?ニューヨーク・タイムズがOpen...

自然言語処理: エンタープライズ AI の新たなフロンティア

単純なスペルミスや単語の誤用によって会話ボットの応答が変わってしまう可能性がありますが、人間のエージ...

2019 年に注目すべき 11 の JavaScript 機械学習ライブラリ

ほとんどの機械学習は Python などの言語で行われますが、フロントエンドとバックエンドの両方にお...

世界の自動運転事故を比較し、そのデータと真実を明らかにした

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

よく使われる「生成AIライブラリ」の総合ガイド

皆さんこんにちは、Luga です。今日も引き続き、人工知能 (AI) エコシステムに関連するテクノロ...

人工知能市場の収益は今年1560億ドルに達する見込み

調査によると、人工知能(AI)ソリューションは現在急速に成長している市場であり、2020年までに1,...

AIの脳回路は人間と非常に似ている、OpenAIの最新研究は白熱した議論を引き起こしている

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人間と機械のインターフェースは一貫性があり、音声と触覚によるフィードバックを提供する必要がある。

[[187855]]仮想環境を体験し、対話する機能は、仮想現実 (VR) メディアの独自の機能です...

...