ジェネレーティブ AI がデータ センターの要件をどのように変えるか

ジェネレーティブ AI がデータ センターの要件をどのように変えるか

データ センターとは何ですか。どのように使用しますか。具体的には、データ センターにはどのような種類があり、それらはそれを使用する企業にどのような異なる目的を果たすのでしょうか。

これらの質問は単純に思えるかもしれませんが、満足のいく答えを見つけるのは驚くほど困難です。過去 1 年ほどの間に、大規模言語モデル (LLM) がますます強力になり、つい最近まで SF のように思われた新しい生成 AI の使用例が可能になりました。それ以来、多くの企業がこの強力な新技術の可能性を最大限に活用できるように AI 戦略を開発してきました。しかし、AI で何ができるかということに重点が置かれすぎていて、多くの企業は AI をどのように活用すべきか、具体的にはデータセンターに対する需要がどのように変化するかについて考えるのに時間がかかっています。

AIのおかげで従来のデータセンターのセグメンテーションは適用されなくなった

私たちは長年にわたり、データセンター業界の 2 つの主要なセグメントを区別してきました。一方、汎用コロケーション データ センターは、企業がオンプレミスの場所に保持する必要がなくなったワークロードをホストします。一方、価値が高く、接続性が高いサイトは、人口密度の高い地域に位置することが多いです。これらの高密度にネットワーク化された相互接続されたサイトは、金融取引、ゲーム、または低遅延接続に大きく依存するその他のエコシステムなどのエコシステムの中核を形成します。 AI ワークロードをどこに配置するかを決定するときに、このセグメンテーションは依然として役立ちますか?

企業がオンプレミスのデータセンターから既存のアプリケーション ワークロードを「リフト アンド シフト」するためにコロケーションを検討する場合、その決定はコストと効率を中心に行われることが多いです。彼らの主な関心事はコンピューティング サイクルあたりのコストを最低にすることなので、ネットワーク密度と、不動産コストと電気コストが最も低い場所をトレードオフする用意があるかもしれません。

私たちは長い間、コストだけを重視することはデジタルビジネスにとって逆効果であると主張してきました。特定の場所で特定のワークロードを実行できることには価値があります。多くの場合、これは主要な人口密集地の近くのネットワーク密度の高い場所の近くにインフラストラクチャを展開することを意味します。パートナーやエンドユーザー向けに高密度に相互接続されたデータセンターを提供するには、初期費用がかかる可能性がありますが、提供できるビジネス価値はそれを補って余りあるものです。

データセンターを単なる商品として見ることは、人工知能の重要性が高まっていることから、今日では特に有害となる可能性があります。人工知能をうまくやろうとするなら、インフラの位置づけが非常に重要であることは議論の余地のない事実です。 AI モデルのライフサイクルは、インフラストラクチャ要件が異なるさまざまなワークロードに依存します。これは、AI インフラストラクチャを分散する必要があることを意味し、データ センター市場のさまざまな領域に対する見方を再評価する必要が生じる可能性があります。

AI時代のデータセンターのセグメンテーションを理解する

ネットワーク密度のみに基づいた従来の 2 セグメント アプローチではなく、より洗練されたセグメンテーション戦略を実装するために人工知能の要件をどのように適用できるかを考えてみましょう。データ センターにおける AI の特徴は、新世代の GPU チップセットによってもたらされる驚異的な電力密度要件です。 AI とデータ センターの違いは、新世代の GPU チップセットの電力密度要件が信じられないほど高いことです。 2 番目のパーティショニング次元として電力密度を含めると、垂直軸が低密度から高密度、水平軸が高レイテンシから低レイテンシの単純な 2×2 マトリックスになります。

差別化されていないデータセンター

世界のデータセンターの大部分は、区別されていないものとして分類するのが最も適切です。これらのデータセンターは、多くの場合、過去のインフラストラクチャ投資戦略の産物です。企業は、ネットワーク密度の高い場所にデータセンターを構築する代わりに、キャンパスなど、従業員のほとんどが住んでいる場所にデータセンターを構築することを選択することがよくあります。同様に、サービス プロバイダーはオフィス ビルや倉庫をデータ センターに変換し、その目的で使用されたことのない不動産を IT 不動産に変換します。

これらのデータ センターは、特定のワークロード セットに対して目的に適した機能を提供できるかもしれませんが、新しいワークロードの電力密度要件が大幅に増加した場合はどうなるでしょうか。冷却と電力を増やすためにサイトをアップグレードしたり、液体冷却などの新しい冷却テクノロジを採用したりするのはどれほど簡単なのでしょうか。AI 戦略においてこれらの差別化されていないデータ センターに依存している企業は、それらの戦略を効果的に実行するのに苦労する可能性があります。

ハイパースケールデータセンター

非常に高い密度が必要で、低レイテンシの相互接続についてはあまり考慮しない場合は、ハイパースケール データ センターが最適な選択肢です。これらは従来、大手のクラウドおよびサービスとしてのプロバイダーの領域でした。企業は、AI 戦略をサポートするために社内で新しい高密度機器を構築または導入するのではなく、従量課金制でこれらのハイパースケール データ センターの 1 つに容量を利用できます。

AI の観点から見ると、ハイパースケール データ センターは従来、LLM トレーニング ワークロードに関連付けられてきました。LLM トレーニング ワークロードは、通常、非常に高密度で計算集約型ですが、レイテンシの影響はそれほど受けません。しかし、すべてのモデルトレーニングワークロードをハイパースケールデータセンターに独占的に投入する必要があると言うのは間違いです。後で説明するように、AI ワークロードに適した場所を選択する際には、常に考慮すべき微妙な点があります。

エッジデータセンター

名前が示すように、エッジ データ センターはデジタル エッジ、つまりエンド ユーザー、アプリケーション、デバイスが集中している場所の近くに展開されます。常時オンの低レイテンシを必要とするアプリケーションやワークロードが多数あるため、この近接性は重要です。

実際には、エッジ データ センターの電力密度要件は、他の領域ほど急速には増加していません。エッジ データ センターに展開されるワークロードは、通常、コンピューティング ワークロードよりも密度の負荷が低い、ネットワーク負荷の高いワークロードです。

人工知能に関しては、エッジ データ センターが重要な役割を果たします。特定の AI 推論ワークロードでは、レイテンシ要件が非常に低い場合もあります。いくつかのゲームのユースケースを検討したり、仮想メンテナンスアシスタントをサポートするためのデジタルツインの導入を検討したりします。このような場合、企業は AI 推論をエッジ データ センターに導入することを選択する場合があります。その他のケースでは、レイテンシ許容度が十分であれば、企業は AI 推論のニーズをコア相互接続ハブに集約することを選択し、これらのモデルを大規模に管理できるようになります。

企業が AI 戦略を展開し始めると、データの発生場所と処理場所の距離を短く保つことの重要性に気づきます。これら 2 つの場所が近接していない場合は、遅延が必然的に発生します。これは、データセットに隠された洞察が古くなることを意味し、その結果、AI モデルの精度が低下することを意味します。

コアデータセンター

コア データ センターは、現代のデジタル インフラストラクチャの基盤となります。これらは通常、ネットワークの密度と距離によって、テクノロジーの消費者とテクノロジー プロバイダーが相互接続して双方のビジネス価値を最大化できる最適な機会が提供される場所に配置されます。企業は、相互接続されたコア データ センターから始めて、完全なエッジツークラウド アプローチを実現するグローバルに分散されたデジタル インフラストラクチャを構築できます。その結果、接続を簡素化し、柔軟性を最大限に高め、AI などの新しいテクノロジーを活用する準備を整えることができます。

AI に関して言えば、コア データ センターは、トレーニング用の大規模な言語モデルを配置する最適な場所ではないかもしれません。これは、コンピューティング サイクルごとに一定のコストで高い電力密度が提供されるハイパースケール サイトで発生する可能性が高くなります。 AI 推論に関しては、コア データ センターは他のデータ ソースに近接しており、ユーザー、デバイス、アプリケーションに低遅延のアクセスを提供するため、重要な場所です。

すべてのトレーニング ワークロードがハイパースケール施設で処理できるほど大きいわけではありません。多くの推論ワークロードは、エッジに到達するほどレイテンシに敏感ではない可能性があります。成熟した購入者は、トレーニング要件に基づいてハイパースケールとコアロケーションの間でトレードオフを行うと予想されます。同様に、推論ワークロードに基づいてエッジとコアの場所の間でトレードオフを行います。

単純なトレーニング/推論バイナリ以外にも、コア データ センターが AI インフラストラクチャ戦略の重要な部分となるべき理由は複数あります。多くの企業が分散した拠点間で AI データセットを迅速に移動することを望んでいるため、適切なネットワーク インフラストラクチャを備えることがこれまで以上に重要になっています。コア データ センターは、ネットワーク サービス プロバイダーの密集したエコシステムに簡単にアクセスできるため、ネットワーク近代化の取り組みを推進する企業にとって理想的な基盤を提供できます。

コア データ センターは、企業が AI ワークロードをサポートするためにクラウドに隣接するデータ アーキテクチャを構築するのにも役立ちます。これらの企業の多くは、AI ワークロードのスケーラビリティ、柔軟性、信頼性を高めるためにパブリック クラウド サービスの利用を検討しています。ただし、注意しないと、パブリック クラウドを AI に使用すると、コストの高騰、セキュリティ侵害、データの制御の喪失などの問題が発生する可能性があります。

クラウドに隣接するデータ アーキテクチャにより、低レイテンシでクラウド間でデータを移動できるため、パブリック クラウド全体を使用するリスクや欠点なしに、パブリック クラウド サービスをオンデマンドで使用できるようになります。

<<: 

>>:  Ctrip カスタマー サービス ロボット ASR エンジンの負荷分散の実践

ブログ    

推薦する

...

...

...

Google、少量のサンプル学習と会話で記事を書き換えられるAIライティングアシスタントをリリース

[[412579]] 2016 年には、財務報告書に基づいてプレスリリースを書くという、人間と機械に...

住宅価格予測のための機械学習

序文Python は機械学習において当然の利点を持っているので、今日から機械学習技術に取り組んでみま...

...

GMIC 2018: DataVisor が成長中の企業に AI 不正防止機能を導入する方法

9月26日から28日まで、北京でグローバルモバイルインターネットカンファレンス(GMIC 2018)...

人工知能開発の重要な要素と気候変動への影響

人工知能は世界的な流行語となり、ほぼすべての企業のデジタル変革計画に不可欠な要素となっています。 A...

AIとクラウドコンピューティングの深い統合は何をもたらすのでしょうか?

「AIは多くのリソースを消費し、強力なコンピューティング能力を必要とし、規模の経済性を反映する技術...

漫画は爆発的な効果でAIに変身し、サーバーが何度も圧倒された

[[436077]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

...

...

ディープラーニングの将来の発展に向けた3つの学習パラダイム:ハイブリッド学習、コンポーネント学習、簡易学習

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

脳の次元: 人工知能の波の中での適者生存

[[263690]]さまざまな新しい人工知能技術は、古代の伝説の洪水のように、社会全体を急速に「浸水...

Stability AIがAIプログラミングツール「StableCode」をリリース

Stability AI は、プログラミング用の最初の生成 LLM AI 製品である StableC...