データセンターに AI を導入することを検討している場合は、まず投資すべきハードウェアとインフラストラクチャについて慎重に検討してください。 AIには、機械学習やディープラーニングなどのさまざまなテクノロジーが含まれます。 AI には、将来のパフォーマンスを予測できる分析から、推奨システムや画像認識まで、幅広いビジネス アプリケーションが含まれます。 より多くの大企業がデジタル変革の取り組みの一環として AI を導入するにつれて、AI は拡大し、進化しています。ビジネスに AI が必要な理由を理解することで、AI をサポートするためにどのようなインフラストラクチャを採用するかを決定するのに役立ちます。
GPU搭載サーバーサーバーに GPU を搭載することは、AI にとって最も一般的なインフラストラクチャ アプローチの 1 つになりました。 GPU チップの超並列アーキテクチャを使用すると、AI モデルの処理に関連する大量の浮動小数点演算を高速化できます。 GPU には、広範かつ成熟したソフトウェア エコシステムが存在する傾向があります。たとえば、Nvidia は、開発者がディープラーニングや分析などのさまざまな目的で GPU を使用できるようにするために CUDA ツールキットを開発しました。ただし、GPU は特定のディープラーニング タスクをサポートしますが、必ずしもすべての AI ワークロードをサポートするわけではありません。 「AIと機械学習の分野では、ディープラーニングの範疇に当てはまらないモデルがあり、十分に研究されていない。GPUはニューラルネットワーク型の処理には非常に優れているが、人々が興味深いことをするのに役立つ興味深いアルゴリズムの一部には必ずしも優れているわけではないからだ」とIDCのアナリスト、ジャック・バーノン氏は語った。 データ センターに AI を導入する前に、まずこのテクノロジを採用する理由を検討し、GPU が要件を満たしているかどうかを判断する必要があります。次に、専門家のアドバイスを求めて、ビジネス要件に最適なモデルのタイプを決定し、他にどのようなインフラストラクチャが必要かを理解します。 その他のハードウェアアクセラレータフィールド プログラマブル ゲート アレイ (FPGA) は、基本的には、必要に応じてさまざまな機能を実行するように構成および再構成できるロジック ブロックが詰め込まれたチップです。一方、ASIC では、製造プロセス中にチップにロジック機能が組み込まれます。どちらもハードウェアのパフォーマンスを高速化できます。大規模で明確に定義されたワークロードを持つ企業の場合、ASIC の方が適していますが、FPGA ではより複雑なプログラミングが必要になります。 Google は、ディープラーニング向けに設計された ASIC である TPU を、Google Cloud Platform を通じて顧客に提供しています。これとは別に、Graphcore は AI ワークロード専用に IPU を設計しており、Cambricon はディープラーニングに最適化された命令セットを中心に設計されたプロセッサ チップを提供しています。インテルが買収したHabana Labsは、ディープラーニングのトレーニング部分と推論部分にそれぞれGaudiとGoyaと呼ばれる個別のチップとしてプログラム可能なアクセラレータを提供している。 GPU や同様のタイプのハードウェア アクセラレータは AI で大きな注目を集めていますが、CPU は依然として AI や機械学習の多くの分野で重要な役割を果たしています。たとえば、Intel は AI ワークロードの高速化を支援する機能をサーバー CPU に追加しました。最新の Xeon Scalable ファミリーには、推論に関連する計算の種類を高速化する新しい命令を備えた Intel Deep Learning Boost が搭載されています。つまり、これらの CPU は追加のハードウェアを必要とせずに特定の AI ワークロードを高速化できます。 AI用ストレージAI 対応のインフラストラクチャに関しては、企業はストレージを無視してはなりません。機械学習モデルのトレーニングには大量のサンプルデータが必要であり、パフォーマンスを維持するためにシステムはできるだけ早くデータを受信する必要があります。 「ストレージは非常に大きなものであり、トレーニング プロセス自体には通常、フィードバック ループが含まれます」と Vernon 氏は言います。「したがって、ある段階でモデルを保存し、その上で何らかの処理を実行し、更新してから、何度も呼び戻す必要があります。トレーニングと推論のインフラストラクチャを構築しているほとんどの企業は、通常、非常に迅速に大量の追加ストレージを必要とします。」 HPC インフラストラクチャを備えた企業では、通常、より大容量の層に支えられた高速フラッシュ ストレージ層がすでに存在しています。ほとんどの企業にとって、これは、低コストのストレージを活用して容量を提供し、可能な限り低レイテンシの NVMe SSD を導入することを意味します。 専用AIシステム一部の専用システムは、AI ワークロードに対してより高いパフォーマンスを提供します。 Nvidia の DGX サーバーは同社の GPU をベースにしており、そのアーキテクチャは GPU にデータを供給し続けるように最適化されています。ストレージ ベンダーは Nvidia と提携して、高性能ストレージ アレイと Nvidia DGX システムを組み合わせた検証済みのリファレンス アーキテクチャも提供しています。たとえば、DDN は、AI モデルのトレーニングに使用されるあらゆる種類のアクセス パターンとデータ レイアウトに合わせて Accelerated Any-Scale AI ポートフォリオを最適化しており、NetAp や Pure Storage などのベンダーも同様のストレージ アーキテクチャを提供しています。 Intel は、事前トレーニング済みモデルを最適化して実行するように設計された推論エンジンとして OpenVINO ツールキットを提供しています。プラグイン アーキテクチャを備えているため、さまざまなハードウェア (CPU、GPU、FPGA、またはこれら 3 つの組み合わせ) 上でモデルを実行でき、企業の展開の柔軟性が向上します。 オンデマンド リソースを使用してクラウドで AI モデルを構築およびトレーニングし、トレーニングが完了したら使用を停止することもできます。 |
<<: グラフニューラルネットワーク (GNN) とは何ですか?
1.ブロックチェーン + IP著作権最近、フェニックスオンライン書店は「フェニックスエッグ」と呼ば...
大規模な純粋テキストモデルが増加しており、マルチモーダル分野ではマルチモーダル対話の大規模モデルも登...
2019年国際産業インターネット革新・開発フォーラムがこのほど、第2回中国国際輸入博覧会で開催され...
AIビデオ生成は最近最もホットな分野の一つです。さまざまな大学の研究室、インターネット大手の AI ...
[[324403]]図1:2010年に重度の脊髄損傷を負った後、バークハートは運動皮質にマイクロチッ...
人類が地球環境において行った行為を元に戻すために、人工知能が私たちの手助けをしてくれるでしょう。気候...
これまで、多くの人が ChatGPT 検出器を開発してきましたが、実際に効果的に識別できるものはあり...
人工知能は転移学習を利用して、自然画像から抽出した特徴を利用してイラスト分類の精度を向上させます (...
21 世紀の最初の 10 年が過ぎましたが、この 10 年間で私たちは多くの新しいテクノロジーによっ...
6月1日、北京知源人工知能研究所(以下、知源研究所)が主催する2021年北京知源会議が北京市中関村国...