世界のデジタル経済が急速に発展するにつれ、クラウド コンピューティングによってデータ転送速度に対する期待が高まっていますが、人工知能 (AI) のワークロードによって、より高速かつ確実にデータを転送するための帯域幅に対する圧力が高まっています。 Compute Express Link (CXL) などのプロトコルは、データの保存場所を必要な場所の近くに最適化するのに役立ちますが、データをできるだけ早く移動するには接続性が依然として重要です。採用は減少しましたが、Amazon や Google などの企業によるデータセンターでの AI の拡張を目的とした光トランシーバー技術の採用が増加しており、接続性はハードウェアやソフトウェアとともにフルスタック システムに組み込まれています。 光通信市場調査会社LightCountingは、2023年7月の大規模データセンター光学レポートの中で、光トランシーバーの売上増加は、GPUおよびGPUベースのAIクラスターシステムの売上の大幅な増加と相関していると述べました。同社は、AI クラスター アプリケーション向けのイーサネット光トランシーバーの売上高が今後 5 年間で 176 億ドルに達すると予測しており、イーサネット トランシーバーのその他のすべてのアプリケーションを合わせると、同じ期間に 285 億ドルの売上高が生み出されるだろうと予測しています。 人工知能をサポートするクラスターの導入により、まだ現実化していない景気後退を見越したクラウド コンピューティング企業による支出削減が相殺されました。 AI 接続の必要性は、ChatGTP の最近の話題より数年前から存在しており、Google は 2019 年から 2020 年にかけて、データセンター インフラストラクチャの他の部分よりも多くの光学系を AI クラスターに導入しました。 LightCounting は、2022 年までに AI クラスターに導入される光トランシーバーが市場全体の 25% を占めると予測しています。 ライトカウンティングのCEOであるウラド・コズロフ氏はインタビューで、2022年末に生産需要が鈍化したため、今年第1四半期には光モジュールの売上が減少するだろうと語った。しかし、今年4月までに、Nvidiaの人工知能分野でのビジネスが明らかに活発化し、これもLightCountingの予測を押し上げました。 「これは、AIインフラを構築しているすべての競合他社への警告でもあります。」 AIへの関心が高まるにつれ、インフラの導入を簡素化する必要性が高まっているコズロフ氏は、AIインフラ市場におけるNVIDIAの主な優位性は、光接続、ハードウェア、ソフトウェアを含むフルスタックシステムを開発していることだと述べた。 「GoogleとAmazonの取り組みを見れば、彼らはAIのハードウェアとソフトウェアを社内で開発していることがわかります。」 同氏は、これらの企業やマイクロソフトなどの企業は以前からAIアプリケーションで利益を上げてきたが、ChatGPTの出現により、AIをさまざまな業界でより幅広く活用して労働者の生産性を高めることができるという考えが広まったと述べた。 「大企業だけでなく、他の多くの企業もAIに注目し始めています。」 コズロフ氏は、多くの企業がソフトウェアとハードウェアの両方を構築する専門知識を持っていないため、フルスタックソリューションが魅力的であり、Nvidia に頼ることで AI インフラストラクチャの構築を開始しやすくなると述べた。 接続性に関して言えば、光トランシーバーの利点は、より長い距離にわたってより高いデータレートをサポートできることです。銅線は予想以上に耐久性に優れていますが、データ速度が上がると距離は短くなります。 「同時に、AI クラスターはますます大きくなっています。」コズロフ氏は、Google はアレイに数万個の GPU を搭載することを検討していると述べた。 「システムが大きくなると、当然距離も長くなります。より多くの光学系を使用する必要があります。」 コズロフ氏は、光スイッチは長距離にわたって高速で信号を伝送できることに加え、接続をより簡単に再構成できるという点でも魅力的だと述べた。この柔軟性は、GPU がデータセンターのさまざまな場所に分散している場合に役立ち、問題のあるノードをすばやくバイパスしてモデルを実行し続けることができるため、スケーラビリティと信頼性の向上に役立つ。 光トランシーバーはプロトコルに依存しないため、イーサネットと InfiniBand の両方で適切に動作します。光ファイバーコネクタもありません。すべて電気式です。 コズロフ氏は、注目すべき傾向として、光ファイバーケーブルからプラグ可能な光学機器への移行が挙げられると述べた。 「それはサーバーに接続するだけの小さなデバイスです。」 同氏は、Nvidia は最近の光ブームの推進力の一つであり、ソリューションの接続密度が高いことからプラグ可能なトランシーバーに移行していると述べた。 LightCounting は、Nvidia の 2023 年 4 月の収益報告で AI インフラに対する全体的な資金調達規模が示唆されたと報告しているが、実際の数字は不明である。 Nvidia の 2023 年第 2 四半期の収益は、主に AI クラスター向けの GPU および GPU ベースのシステムの販売によって前四半期比 50% 増加すると予想されており、一部の金融アナリストは、AI アプリケーション向けのトランシーバーの累計収益が今後 5 年間で 1,000 億ドル以上に達すると予測しています。 ワークロードがデータセンターの設計を定義するメディアとのインタビューで、Nvidia Networkingの上級副社長であるギラッド・シャイナー氏は、人工知能のワークロードとそれに必要な接続を含め、データセンター全体を特別に設計する必要があると語った。 「すべてはバランスよく行われなければなりません。」 AIのワークロードはデータセンター内のさまざまな接続デバイスに分散されていると彼は述べた。 「データセンターの機能を定義する要素はネットワークです。すべてをどのように接続するかによって、どのようなワークロードを実行できるかが決まります。」 シャイナー氏は、これらの要素が整えば、データセンターに搭載される必要なチップやASICを作成できると述べた。 InfiniBand は、Nvidia の AI データセンター ソリューションにおいて重要な役割を果たします。同社のQuantum InfiniBandインネットワークコンピューティングプラットフォームは、高性能コンピューティング(HPC)、人工知能、ハイパースケールクラウドインフラストラクチャ向けに設計されています。しかし、Nvidia には、有線ベースのシリアル マルチチャネル短距離通信リンクである独自の NVLink もあります。独自の高速信号相互接続 (NVHS) を使用し、PCI Express とは異なり、デバイスを複数の NVLink で構成でき、デバイスは中央ハブではなくメッシュ ネットワークを使用して通信します。 シャイナー氏は、NVLink はメモリ アクセスを共有する機能があり、InfiniBand と組み合わせることでプラットフォーム全体の水平スケーリングが可能になると述べました。 同氏は、プラットフォーム自体の目的が重要だと付け加えた。 「どのようなワークロードを実行したいですか? どのような問題を解決したいですか?」とシャイナー氏は言う。データセンターの目的が決まれば、InfiniBandやNVLinkなどの適切なネットワークをインストールして、必要なデータスループットを得ることができるが、これはより難しい部分であり、高速化するには大量の帯域幅も必要になる。 「これを迅速に行う必要があるのは、分散コンピューティングを扱っているからです。」 シャイナー氏は、重要なのはネットワークが大規模にフル負荷で稼働する能力であり、最も遅いリンクがシステム全体のパフォーマンスを決定すると述べた。従来のクラウド コンピューティング用に構築されたデータ センターは、極めて低いレイテンシで動作する数千の GPU を必要とする AI ワークロードに必要なパフォーマンスを提供するようには設計されていません。 「これは非常に複雑なプロセスであり、同期が必要です」と彼は語った。 シュナイダーエレクトリックのイノベーションおよびデータセンター担当副社長、スティーブ・カルリーニ氏は、AI ワークロードはネットワークの観点だけでなく、IT と物理インフラストラクチャに革命をもたらしたと述べています。同氏はメディアとのインタビューで、近年、あらゆる規模の企業が人工知能をサポートするインフラの構築に躍起になっていると語った。 「標準ソケット X86 サーバーは展開されなくなりました。」 カルリーニ氏は、AI データセンターには CPU、GPU、アクセラレータ、DPU があり、データを出し入れするためのアーキテクチャが必要だと述べた。 「各 GPU アクセラレータにはネットワーク ポートがあり、それらはすべて同期して実行されます。」 AI データ センターと従来のデータ センターのもう 1 つの大きな違いは、AI データ センターではワークロードが継続的に実行されており、それによって設計パラメータが変化する点だとCarlini 氏は述べています。 「信じられないくらい暑いです。」 カルリーニ氏は、10,000 個の GPU を詰め込んでサーバー ラックに配置すると物理的な制限が生じ、その中で最も重要なのは熱だと述べた。解決策は、さまざまな冷却オプションとは別に、すべてのコンポーネントを分離することです。 「これを実現する上での障害はネットワークです」。光トランシーバーのコストは劇的に下がり、より長い距離をカバーできるようになりましたが、400ギガのInfiniBandを稼働させるのは安くはありません、と彼は言いました。 「最大の懸念は、各 GPU が独自のネットワーク接続を持つため、ネットワーク コストです。」 低速接続にも適所があるすべての接続が InfiniBand のような高速ファイバー接続である必要はありません。カルリーニ氏は、AI クラスター向けに設計され、最大 800GB の速度で動作する Broadcom の Jericho3 など、銅線ベースのイノベーションがいくつかあると述べた。 「これは多くの人が待ち望んでいた解決策のようです。」 高速でスケーラブルな接続性と銅線の信頼性および低コストは究極の目標だが、どのデータセンターにも光ファイバー、銅線、無線を含む階層的なソリューションが存在するだろうとカルリーニ氏は述べた。 カルリーニ氏は、取り込むデータは銅線経由でデータセンターに転送できるが、管理機能には WiFi で十分だと述べた。リアルタイムでミッションクリティカルな AI には光接続が必要であり、特にモデルがテキストだけでなくビデオや画像を多く取り込むようになると、それが重要になる、と彼は述べた。 Lightcounting 社の Koslov 氏は、光接続の次のフロンティアはプラグ可能であり、GPU や ASIC と一緒にパッケージ化されるだろうと述べた。 「トランシーバーを接続する心配はありません。電子機器が光を生成します。」 彼は、光学の基本的な利点は消えることはないと述べた。 「他に選択肢はないと思います。」 しかし、コズロフ氏は、限界があるにもかかわらず、銅は改善の道を模索し続けていると述べた。 「光と銅は共存する。」 出典: https://www.fierceelectronics.com/electronics/ai-boosts-optical-connectivity-demand |
>>: 家庭では人工知能がどのように活用されているのでしょうか?
近年、人件費の継続的な上昇に伴い、産業分野では「機械が人に取って代わる」という現象が一般的になり、産...
AIビデオトラックのPika 1.0は最近非常に人気があります。2人の中国人創業者のチームが半年で...
[[380661]] [51CTO.com クイック翻訳] 会話型 AI により、アプリケーションは...
最近、自動車業界は混乱しています。 !ウーバーの自動運転車の致命的な事故に続いて、金曜の朝、米国のハ...
最近、ChatGPT/GPT-4シリーズの製品は世界的な注目と議論を集めており、それらに代表される大...
同市は昨年9月に高水準の自動運転実証区を設立したのに続き、インテリジェントコネクテッドカーの政策パイ...
ゲスト:石淑明執筆者: Mo Qi校正:趙雲「ほとんどの研究は一つの点を中心に展開する傾向があるが、...
デンマークは、1970年代初頭から国家政策の一環として風力タービンに投資した最初の国の一つであり、こ...
利益率が圧迫されている中、ロボティック・プロセス・オートメーション (RPA) を導入することでコス...