[51CTO.com クイック翻訳] 長い間、Google などのクラウドベンダーは、自社のデータセンターをサポートするために、商用の Intel PC ハードウェアで構築されたシステムを使用してきました。しかし、AI関連の負荷処理に関しては、このインターネット大手は別の道、テンソル処理ユニット(略してTPU)の開発を選択しました。 しかし、これによって新たな疑問が浮かび上がります。なぜ Intel、Intel、Nvidia は Google のデータセンターのニーズを満たすことができないのでしょうか? 実際、TPU は Intel CPU や Nvidia GPU のような汎用デバイスではなく、機械学習やその人工知能のサブセット向けに特別に設計された、特定用途向け集積回路 (ASIC) の一種です。過去数年間で、言語翻訳、画像認識、消費者の購入推奨などのための機械学習ソリューションが登場しており、Google は正確な分析と予測を可能にする大量のデータを保有しています。 機械学習は、トレーニングと推論という 2 つの主要なコンポーネントに分かれています。トレーニングとは、機械学習システムが言語を学習できるように、何百万もの自然言語の例を含むデータを使用して予測モデルを微調整するプロセスです。その後、この言語モデルは推論を通じて特定の推論タスクを完了することができます。トレーニングと推論は両方とも、データセンターのハードウェア上で実行される機械学習を担当する最適化されたソフトウェア層であるニューラル ネットワーク上で実行されます。 TPU は、アプリケーション固有の推論タスク向けに特別に設計されています。 Google のペイン部門は、機械学習の研究を実施し、その学習および処理結果を複数の Google サービスを通じて配信する責任を負っています。しかし、サービス数が増加し続けるにつれて、関連する負荷も急速に増加しています。 この増大するワークロードにより、低コストかつ低遅延で言語翻訳や画像検索などの機能をユーザーに提供できる Google TPU が誕生しました。 Google が TPU を設計、構築した 6 つの理由をご紹介します。 1. パフォーマンス上の利点 Google は、TPU のパフォーマンスをサーバークラスの Intel Haswell CPU および Nvidia K80 GPU と比較し、前者はベンチマーク コード実行 (推論ワークロードの 95% を占める) を 15 ~ 30 倍高速に処理できることを発見しました。 2. 物理的なスペースの優位性 クラウド データ センターは IT 工場に相当し、その予算には機器、土地、電気、データ センターの構築コストが含まれます。最大の電力消費と最小の発熱で、可能な限り多くの処理能力を最小のスペースに詰め込むことが、コスト最適化の核心であることは間違いありません。 6 年前、ユーザーが初めて自然言語認識を手動操作の代わりに使用し始めたとき、Google のエンジニアは、ユーザー 1 人あたり 1 日 3 分の自然言語入力で既存のデータ センターの規模が 2 倍になると見積もっていました。このため、Google は実装コストを継続的に管理するために TPU を構築する必要があります。 3. 消費電力の優位性 電力消費を削減すると、エネルギーコストが節約されるだけでなく、冷却コストも削減されます。 TPU と CPU ホスト プロセッサを組み合わせることで、パフォーマンスが向上するだけでなく、エネルギー効率も向上します。下の図に示すように、さまざまなワークロードにおいて、TPU/CPU の組み合わせのワットあたりのパフォーマンスは、CPU/GPU の組み合わせの 30 ~ 80 倍に達することがあります。 4. TPUは特定のアプリケーションの問題を解決できる Intel の CPU と Nvidia の GPU は、幅広いアプリケーション向けに設計された汎用システム チップであり、正確な浮動小数点計算を実行するのに優れています。機械学習モデルは低精度の計算を許容できるため、浮動小数点ユニット (FPU) は不要になります。そのため、TPU は FPU なしで Intel CPU や NVIDIA GPU と同じ精度の 8 ビットの数学計算結果を提供できます。 行列代数は、ほとんどのニューラル ネットワークが動作する数学です。行列乗算ユニット (MMU) は TPU の中核です。 CPU には、8 ビットの乗算と加算を実行する 256 x 256 乗算累算器 (MAC) が含まれています。 MMU は、操作サイクルごとに 64,000 回の加算を実行できます。つまり、0.7 GHz TPU は、低精度の行列計算を最適化し、データと結果を MMU との間ですばやく移動することで、2.3 GHz Intel CPU や 1.5 GHz Nvidia GPU よりも優れたパフォーマンスを発揮します。 5. チップメーカーにTPUの構築を指導し、動機付ける Google の研究論文の著者は、商用コンピューティング製品間のコンピューティング アーキテクチャの違いは小さいことが多いため、TPU は特定のアーキテクチャ レベルで重要なプロトタイプ設計ソリューションになると指摘しました。著名なチップエンジニアであるノーマン・ジョッピ氏が率いるエンジニアリングチームは、わずか 15 か月で TPU を納品するという素晴らしい成果を上げました。実際、ASIC の製造には莫大なコストがかかり、実際の製造でエラーが見つかった場合、もう一度ゼロからやり直すために莫大な投資が必要になります。 それでも、Intel と Nvidia には、ASIC の設計および製造要件を満たすのに十分な開発、人材、設計、製造リソースがあります。現在、市場における Amazon、Google、Facebook、IBM、Microsoft などの法人顧客は規模が大きいものの、この部分の需要は、一般的な CPU ビジネスと比較するとまだ比較的ニッチです。 このため、機械学習の問題を深く理解している企業である Google は、TPU の重要性を強調し始めました。また、機械学習コミュニティとチップメーカーの連携を促進し、最終的には関連する商用ソリューションの大規模な成果を達成することを目的とした一連の研究論文も発表しました。 6. 柔軟な特許と知的財産権 特許発明者の Jouppi 氏は、米国特許庁のデータベースに一連の TPU 関連の特許を申請しました。関連特許の主な保有者として、Google はこの武器を利用してチップメーカーにこのビジネス分野への参入を促すことができます。 現在、Amazon、Facebook、Google、IBM、Microsoft などの主要な機械学習企業顧客は、自社のニーズを満たす特定の製品を開発するようチップメーカーに積極的に指導しています。この目標を達成するには、業界の発展を促進し、最終的にはより多くの企業が AI ソリューションを積極的に利用できるようにするために、より新しく高速なコンピューティング アーキテクチャをリリースする必要があります。 AI 企業顧客の増加により、チップメーカーの参加意欲も高まるでしょう。 Google の TPU は、この好循環の市場サイクルの重要な基礎となる可能性があります。 原題: Google が独自の AI チップを開発した 6 つの理由 原作者:スティーブン・マックス・パターソン [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
<<: 将来の人々は現在のロボットをどのように見るでしょうか?
>>: リカレントニューラルネットワークの父:未来のロボットはアリを見るように人間を見るだろう
人工知能の概念は何年も前から存在しています。SF映画に出てくるような高度なロボットはまだ登場していま...
まず、人工知能プラットフォームの実装により、人工知能技術は多くの業界や分野、特にインターネットと密接...
実際、すべてのプログラミング言語の中で、Python は新しいお気に入りではありません。最初のバージ...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[389147]]人間は経験を通して学び、成長する能力を持っている学習能力と経験を通じてタスクを...
この記事では、GenAI やその他のテクノロジーへの投資が 2024 年までにどのように変化するかに...
「中国の改革開放40年はIT産業の爆発的な成長をもたらしたが、ハイエンドチップは常に輸入に依存してき...
1,750億のパラメータを持つGPT-3や5,400億のパラメータを持つPaLMなど、大規模言語モ...
アラブ首長国連邦(UAE)の企業がほぼ全面的にクラウドに移行する前に、政府はすでに大規模なデジタル変...
無人運転技術の研究に対する熱意は相変わらず高いが、現実は市場に冷水を浴びせかけている。今後15年間で...