AI は、データセンターの雇用市場の変化や、データセンターの監視およびインシデント対応業務の改善など、さまざまな方法でデータセンターを変革すると期待されています。 しかし、AI がデータ センターに与える最大の影響は、データ センターの動作方法を変えることです。企業が最新の AI テクノロジーを最大限に活用するには、データセンターを収容するインフラストラクチャとその管理方法を変更する必要があります。 AI がデータ センターをどのように進化させるかはまだわかりませんが、期待できる重要な変化がいくつかあります。 AIがデータセンターに求める独自の要件AI がデータ センターに与える影響を評価するには、まず AI ワークロードが、標準のアプリケーション ホスティングなどのデータ センター内の他の種類のワークロードとどのように異なるかを理解する必要があります。 AI ワークロードにはさまざまな形式があり、要件もさまざまですが、そのほとんどは次の固有のニーズを満たしています。
もちろん、他の種類のワークロードにもこれらの要件がある場合があります。たとえば、AI アプリケーションとサービスの実行は、ベアメタル サーバーのメリットを享受できる唯一のユース ケースではありませんが、一般に、AI ソフトウェアでは他の種類のワークロードよりも多くのこれらのリソースが必要になります。 AI向けデータセンターのアップグレードAI ワークロード向けに施設を最適化するには、多くのデータセンター運営者が AI 固有の要求を満たすように変更を加える必要があります。この点に関して、データセンターの主なアップグレードは次のとおりです。
少なくとも過去 10 年間、仮想マシンはワークロードをホストするためのインフラストラクチャ リソースとして選ばれてきました。しかし、AI アプリケーションやサービス向けのベアメタル ハードウェアの需要を考えると、ベアメタルの提供を拡大することが重要だと考えるデータ センター オペレーターが増えるかもしれません。 ある意味では、これによりデータセンターの運用が実際に簡素化されます。ワークロードをベアメタル上で実行すると、ハイパーバイザーと VM オーケストレーターが混在しないため、ホスティング スタックの複雑さが軽減されます。 一方、ワークロードをホストするために使用されるベアメタル インフラストラクチャをスケールアウトするには、データ センターでホストするサーバーだけでなく、サーバーが配置されているラックも更新およびアップグレードする必要がある場合があります。従来、データセンターにサーバーをセットアップする最も簡単な方法は、非常に強力なベアメタル マシンをプロビジョニングし、それをワークロードに必要な数の仮想マシンに割り当てることでした。しかし、ワークロードをベアメタル上で直接実行する必要がある場合は、ワークロードを分離するためにさらに多くのサーバーが必要になる可能性があります。つまり、データセンターは高性能サーバーを小型サーバーに交換する必要があり、それに応じてサーバーラックを更新する必要がある可能性があります。
AI ワークロードのトレーニング時には GPU 対応サーバーを使用するのが有利ですが、AI アプリケーションでは日常的な操作に必ずしも GPU が必要というわけではありません。その結果、多くの企業では GPU 対応インフラストラクチャへの一時的なアクセスのみが必要になります。 この需要を満たすには、データセンター運営者は、企業が GPU ベースのインフラストラクチャを共有できるようにする製品を検討する必要があります。一部の企業では、GPU が永久に必要になるわけではないため、GPU を搭載したサーバーを導入したいと考えるかもしれません。しかし、データセンター運営者が GPU リソースへの一時的なアクセス (たとえば、GPU サービス モデルを通じて) を提供できる場合、AI ワークロードを持つ企業を引き付けることができる可能性が高まります。
ほとんどのエンタープライズ クラスのデータ センターでは、高性能ネットワーク インフラストラクチャへのアクセスと、データを可能な限り迅速に外部の施設に移動するのに役立つ相互接続がすでに提供されています。しかし、AI を最大限に活用するには、データ センターのネットワーク製品をより強力にする必要があるかもしれません。 AI ワークロードを実行するには、2 つの重要な機能が必要です。1 つ目は、大量のデータを非常に高速に移動できる高帯域幅のネットワーク接続です。これは、分散インフラストラクチャで AI モデルをトレーニングする場合に特に重要です。 2 番目に、ネットワークは 1 桁台のレイテンシを実現できる必要があります。これは、AI アプリケーションとサービスを真にリアルタイムで実行したい場合に重要です。
AI ワークロードのリソース需要は大きく変動するため、サポートするインフラストラクチャの量に関してより柔軟なデータ センターが必要になる場合があります。 AI により、企業がサーバーを自社でセットアップするのではなく、オンデマンドで他のデータセンターにサーバーを展開できるサービスの需要も高まる可能性があります。オンデマンド インフラストラクチャは、リソース ニーズの変動に対処するのに適した方法だからです。 そのため、AI 向けに最適化したいデータ センター オペレーターは、施設の柔軟性を高める製品を検討する必要があります。短期契約と、顧客が独自のインフラストラクチャを構築するためのラックスペース以上のものを含むサービスとの組み合わせは、AI ワークロードの導入を検討している組織にとって魅力的である可能性があります。 結論はAI 革命はまだ進行中であり、AI がデータ センターの運用方法やそこに導入されるインフラストラクチャの種類をどのように変えるかを正確に知るには時期尚早です。しかし、AI 中心の世界では、GPU 対応サーバーやより柔軟なソリューションなどの変更が重要になる可能性が高いことはほぼ確実です。この動きに参入したいデータセンター運営者は、AI ワークロードの固有の要件を満たすように施設を更新する必要があります。 |
<<: マスクは困った状況だ! Grok AI は ChatGPT を盗用した疑いがあるのでしょうか? ?
日常生活で人々が接触する家具のほとんどは、引き出しレール付きの引き出し、垂直回転軸付きの扉、水平回転...
パート 01.アプリケーション プロトコル識別とは何ですか?アプリケーション プロトコル識別とは、ネ...
「決して単純な切り抜きではありません。」 ControlNet の著者による最近の研究は大きな注目を...
ポッドキャスティングは、よりカジュアルな形式のオーディオストーリーテリングへと進化しています。複雑な...
世界経済フォーラム(WEF)は毎年、世界経済と社会に大きな影響を与える可能性のあるトップイノベーショ...
ロボットは科学者の主な研究分野となっており、この分野の技術が進歩し続けると、ロボットがこの社会の主な...
マルチモーダル大規模言語モデル (MLLM) は、LLM の豊富な知識蓄積と強力な推論および一般化機...
今日、私たちはコンピューティングにおける大きなイノベーションの時代を目の当たりにしており、世界中で ...
現在、コンピューター ビジョン (CV) テクノロジは転換点を迎えており、主要なトレンドが収束して、...
[[261735]] [51CTO.com クイック翻訳] アイリーン・リーはカウボーイ・ベンチャー...