人工知能はデータセンター業界にどのような影響を与えるでしょうか?

人工知能はデータセンター業界にどのような影響を与えるでしょうか?

人工知能(AI)、特にChatGPTなどの生成型AI製品の開発は、過去1年間、主要メディアの見出しを独占してきました。 AI や広く採用されているすべてのテクノロジーは、日常生活に混乱をきたしたり改善したりする可能性があるだけでなく、データ センターにも影響を与えていることが見落とされがちです。

データセンターは、モバイル デバイスとクラウドの導入と急速な普及を経験しており、新しいテクノロジーを積極的に活用するアプローチを熟知しています。

AI はまだ比較的未成熟な状態にあるため、データ センターの専門家にとって、今後の AI ブームにどのように対応するかを検討する重要な時期となっています。

新たな作業負荷への適応

人工知能は、自然言語処理 (NLP)、コンピュータービジョン、機械学習、ロボット工学の 4 つの主要カテゴリに分けられます。ただし、ロボティクスは特に遅延に敏感であり、管理対象のプロセスの物理的な場所に非常に近い場所にエッジ コンピューティング ソリューションを配置する必要があることがよくあります。しかし、最初の 3 つのソリューションにより、データ センター ソリューションの需要が実際に増加すると予想されます。

この増大する需要に応えるのは簡単なことではありません。高密度のワークロードに対応するために多数のサーバーをホストすることによる物理的な影響を考慮する必要があるだけでなく、サーバーが生成する熱に対処するために、液体冷却や浸漬冷却などの新しいテクノロジーを統合する方法も考慮する必要があります。

さらに、負荷が安定しません。巨大なサージはいつでも発生する可能性がありますが、歴史的に見ると、データ センターは比較的スムーズで一貫した負荷を管理してきました。

最大の課題の 1 つは、AI が均質な存在ではなく、トレーニングと推論という 2 つの異なる段階に分かれたテクノロジーであるということです。

成功するデータセンターは、両方のシナリオに適応することを学びます。 AI トレーニングでは、回復力や冗長性よりも、コスト、PUE、全体的な効率性に重点を置く必要があります。一方、推論はレイテンシに非常に敏感であり、ユーザー インターフェイスとアプリケーションの応答時間を高速化するには、メトロ センターの近くに配置する必要があります。

規制面

規制当局にとって難しいのは、AIがどのように機能するかが分からないことだ。それはまだ初期段階であり、規制当局は当然のことながら、すべての潜在的な危険をカバーしたいと考えている。

EU の AI 指令は明確な例であり、規制当局はアプリケーションを、許容できないリスク、高リスク、限定的なリスク、最小限またはリスクなしの 4 つの主要なリスク レベルに分類しています。とりわけ、NIS2指令は、当初のサイバーセキュリティ規制の対象となると予想される分野の数を拡大し、現在ではデジタル分野も含まれることになる。

データセンターを含む多くの業界にとっての課題は、常に変化する規制への準拠を確保することです。 AI は近年見られなかったほど急速に進歩しており、規制当局がパラメータを更新し、新たなリスク境界を定義し続けるにつれて、データセンターは間違いなくその波及効果を感じることになります。

深刻な不足への対応

マイクロプロセッサの戦略的価値により、政府による貿易規制の対象となっていることはよく知られています。多様な人工知能の導入が加速し、これらのアプリケーションが膨大な作業負荷を要求するにつれて、グラフィックス プロセッシング ユニット (GPU) はますます不足しつつあります。

生産規模の拡大は簡単な解決策ではありません。実際、最近のデータによれば、米国またはヨーロッパに 2 ナノメートルのチップ工場を建設するには約 400 億ドルの費用がかかることがわかっています。複数の地域に生産を分散させるための協調的な取り組みが見られ、Vultr や Northern Data などの企業がまったく新しい「AI クラウド」産業の創出に真剣に取り組んでいる一方で、マイクロプロセッサの不足は、供給が需要に追いつくまで、間違いなく悩みの種であり続けるでしょう。

データセンターの不足も懸念事項ですが、ここでの課題はイノベーションではなく、土地と電力資源の制限、そして言うまでもなく政治にあります。

データ センター不足を解決するには、2 つのアプローチが必要です。a. 電力容量を最大化して AI に必要な低レイテンシ レベルを実現すること、b. 利用可能な土地が豊富な地域でそれを実現することです。推論を大量に行う大都市圏の作業負荷を奪わないように、AI トレーニングのための遠隔地を見つけることは、非常に価値のあるアプローチです。

AI向けデータセンターの再構成

既存のリソースを最大限に活用するというこのコンセプトは、持続可能性を戦略の中心に置くため、データ センターの再構成方法を決定できます。

フランスでは、「ネットゼロ人工化」は都市の無秩序な拡大を阻止し、緑地の生物多様性を保護するための合意である。データセンターの場合、これは既存の建物の潜在能力を活用し、それらのサイトを可能な限り高密度にすることを意味します。ただし、これを行うには、いくつかの再構成が必要です。

高い AI ワークロードをサポートするために効率を優先するには、既存のサイトのスペースを最大限に活用する方法を評価する必要があります。持続可能性はもはや無形の概念ではなく、地球規模での再構成戦略を定義すべき非常に現実的な問題です。

液体冷却や浸漬冷却技術への切り替えなど、データセンター製品の寿命を延ばすためのより良い決定を下さなければ、AI 集約型インフラストラクチャに適応するためのこれまでの取り組みはほとんど無駄になるでしょう。

AI 革命をリードし続けることは、データセンターを含むあらゆる業界にとって野心的な目標です。しかし、高度な冷却技術を採用し、変化する規制に準拠し、あらゆる機会に持続可能性を推進することで、この新しい技術時代に繁栄できる可能性があると私たちは信じています。

<<: 

>>:  数千億単位の数学専用大規模モデルMathGPTが公開テストを開始

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

アリババが国際AIサミットを主催、医療AIとマルチメディアコンテンツ理解が話題に

10月15日、記者はアリババが主催する2020 ACMマルチメディア(以下、ACM MM 2020)...

突如、Stable Diffusion 3がリリースされました!ソラと同じアーキテクチャですが、すべてがよりリアルです

1年以上の開発期間を経て、前世代に比べて3つの主要な機能に進化しました。さあ、効果を直接確かめてみま...

フィンテック2022年の技術トレンド:プライバシーコンピューティングが焦点、仮想人間が金融マネージャーを再構築

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

大規模モデルアプリケーションの探索 - エンタープライズ ナレッジ スチュワード

1. 伝統的なナレッジマネジメントの背景と課題1. 企業知識管理の必要性ナレッジ マネジメントは、あ...

Google の 130 億パラメータの多言語モデル mT5 が利用可能になり、101 言語への容易な移行が可能になりました。

Facebook は多言語機械翻訳モデル「M2M-100」をオープンソース化したばかりだが、今度は...

ラオ・ファン氏が投資に参加し、MITの中国人女性科学者が2億ドルの資金を調達! 10,000台のH100が1000億以上のパラメータでAIエージェントをトレーニング

今、シリコンバレーに新たな AI ユニコーンが誕生しました!この中国人女性科学者が設立した会社はIm...

...

人工知能のアプリケーションアーキテクチャを考える

[[408914]] 1. パドルライトとパドルスリム現在、ディープラーニングの分野には 2 つの派...

Ma Yi、LeCun、Xie Saining がマルチモーダル LLM の重大な欠陥を明らかにしました。画期的な研究により視覚的理解が大幅に向上

サム・アルトマンは、将来の AI テクノロジーが人類に利益をもたらすためには、大規模言語モデルのマル...

...

スループットが5倍に向上、バックエンドシステムとフロントエンド言語を共同設計するLLMインターフェースが登場

大規模言語モデル (LLM) は、複数の連鎖生成呼び出し、高度なプロンプト技術、制御フロー、および外...

...

知っておくべき6種類のニューラルネットワーク

[51CTO.com クイック翻訳]ニューラルネットワークは人工知能の分野で非常に人気が高まっていま...

...

大規模言語モデルの効率的なパラメータ微調整 - BitFit/Prefix/Prompt 微調整シリーズ

2018年にGoogleはBERTをリリースしました。リリース後すぐに11のNLPタスクで最先端(S...