データセンターに AI を導入することを検討している場合は、まず投資すべきハードウェアとインフラストラクチャについて慎重に検討してください。 AIには、機械学習やディープラーニングなどのさまざまなテクノロジーが含まれます。 AI には、将来のパフォーマンスを予測できる分析から、推奨システムや画像認識まで、幅広いビジネス アプリケーションが含まれます。 より多くの大企業がデジタル変革の取り組みの一環として AI を導入するにつれて、AI は拡大し、進化しています。ビジネスに AI が必要な理由を理解することで、AI をサポートするためにどのようなインフラストラクチャを採用するかを決定するのに役立ちます。
GPU搭載サーバーサーバーに GPU を搭載することは、AI にとって最も一般的なインフラストラクチャ アプローチの 1 つになりました。 GPU チップの超並列アーキテクチャを使用すると、AI モデルの処理に関連する大量の浮動小数点演算を高速化できます。 GPU には、広範かつ成熟したソフトウェア エコシステムが存在する傾向があります。たとえば、Nvidia は、開発者がディープラーニングや分析などのさまざまな目的で GPU を使用できるようにするために CUDA ツールキットを開発しました。ただし、GPU は特定のディープラーニング タスクをサポートしますが、必ずしもすべての AI ワークロードをサポートするわけではありません。 「AIと機械学習の分野では、ディープラーニングの範疇に当てはまらないモデルがあり、十分に研究されていない。GPUはニューラルネットワーク型の処理には非常に優れているが、人々が興味深いことをするのに役立つ興味深いアルゴリズムの一部には必ずしも優れているわけではないからだ」とIDCのアナリスト、ジャック・バーノン氏は語った。 データ センターに AI を導入する前に、まずこのテクノロジを採用する理由を検討し、GPU が要件を満たしているかどうかを判断する必要があります。次に、専門家のアドバイスを求めて、ビジネス要件に最適なモデルのタイプを決定し、他にどのようなインフラストラクチャが必要かを理解します。 その他のハードウェアアクセラレータフィールド プログラマブル ゲート アレイ (FPGA) は、基本的には、必要に応じてさまざまな機能を実行するように構成および再構成できるロジック ブロックが詰め込まれたチップです。一方、ASIC では、製造プロセス中にチップにロジック機能が組み込まれます。どちらもハードウェアのパフォーマンスを高速化できます。大規模で明確に定義されたワークロードを持つ企業の場合、ASIC の方が適していますが、FPGA ではより複雑なプログラミングが必要になります。 Google は、ディープラーニング向けに設計された ASIC である TPU を、Google Cloud Platform を通じて顧客に提供しています。これとは別に、Graphcore は AI ワークロード専用に IPU を設計しており、Cambricon はディープラーニングに最適化された命令セットを中心に設計されたプロセッサ チップを提供しています。インテルが買収したHabana Labsは、ディープラーニングのトレーニング部分と推論部分にそれぞれGaudiとGoyaと呼ばれる個別のチップとしてプログラム可能なアクセラレータを提供している。 GPU や同様のタイプのハードウェア アクセラレータは AI で大きな注目を集めていますが、CPU は依然として AI や機械学習の多くの分野で重要な役割を果たしています。たとえば、Intel は AI ワークロードの高速化を支援する機能をサーバー CPU に追加しました。最新の Xeon Scalable ファミリーには、推論に関連する計算の種類を高速化する新しい命令を備えた Intel Deep Learning Boost が搭載されています。つまり、これらの CPU は追加のハードウェアを必要とせずに特定の AI ワークロードを高速化できます。 AI用ストレージAI 対応のインフラストラクチャに関しては、企業はストレージを無視してはなりません。機械学習モデルのトレーニングには大量のサンプルデータが必要であり、パフォーマンスを維持するためにシステムはできるだけ早くデータを受信する必要があります。 「ストレージは非常に大きなものであり、トレーニング プロセス自体には通常、フィードバック ループが含まれます」と Vernon 氏は言います。「したがって、ある段階でモデルを保存し、その上で何らかの処理を実行し、更新してから、何度も呼び戻す必要があります。トレーニングと推論のインフラストラクチャを構築しているほとんどの企業は、通常、非常に迅速に大量の追加ストレージを必要とします。」 HPC インフラストラクチャを備えた企業では、通常、より大容量の層に支えられた高速フラッシュ ストレージ層がすでに存在しています。ほとんどの企業にとって、これは、低コストのストレージを活用して容量を提供し、可能な限り低レイテンシの NVMe SSD を導入することを意味します。 専用AIシステム一部の専用システムは、AI ワークロードに対してより高いパフォーマンスを提供します。 Nvidia の DGX サーバーは同社の GPU をベースにしており、そのアーキテクチャは GPU にデータを供給し続けるように最適化されています。ストレージ ベンダーは Nvidia と提携して、高性能ストレージ アレイと Nvidia DGX システムを組み合わせた検証済みのリファレンス アーキテクチャも提供しています。たとえば、DDN は、AI モデルのトレーニングに使用されるあらゆる種類のアクセス パターンとデータ レイアウトに合わせて Accelerated Any-Scale AI ポートフォリオを最適化しており、NetAp や Pure Storage などのベンダーも同様のストレージ アーキテクチャを提供しています。 Intel は、事前トレーニング済みモデルを最適化して実行するように設計された推論エンジンとして OpenVINO ツールキットを提供しています。プラグイン アーキテクチャを備えているため、さまざまなハードウェア (CPU、GPU、FPGA、またはこれら 3 つの組み合わせ) 上でモデルを実行でき、企業の展開の柔軟性が向上します。 オンデマンド リソースを使用してクラウドで AI モデルを構築およびトレーニングし、トレーニングが完了したら使用を停止することもできます。 |
<<: グラフニューラルネットワーク (GNN) とは何ですか?
規制の厳しい業界の企業は、AI を導入しようとすると、いわゆる「ブラック ボックス」問題に直面するこ...
[[265376]] [51CTO.com クイック翻訳] 機械知能の分野における現在の成功は主に計...
[[234276]]機械学習は、確率論や統計などの複雑な分野を含む人工知能の中核分野の 1 つです...
[[227618]]人工知能がどのレベルに到達したかという質問に答える前に、まず人工知能の概念が何で...
1. 概要この記事では、多数のクライアントが同時にデータを書き込む場合に、分散ファイルシステム HD...
より強力な AI エージェントを構築するにはどうすればよいでしょうか?答えは、彼らに完全で現実的な世...
先月26日、GoogleはarXivに「電子健康記録のためのスケーラブルで正確なディープラーニング」...
[[251996]]十分に大きな技術的放射効果により、人工知能は世界経済の発展において主導的な地位に...
「まだ非常に初期段階です。」これは、自動運転技術の現在の開発について、多くの業界関係者がYiou氏に...
[[386332]] 1950 年代に、SF 作家のフレドリック・ブラウンは超知能機械についての物...
[[413052]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
イベントレビュー大学入試中国語テストが終了してすぐに、大学入試作エッセイのテーマが話題になりました。...
Microsoft は、Windows 365 を通じて、ますます多くの Windows 機能とコン...