AIGCコンピューティングパワーパノラマとトレンドレポートが公開されました! AIGCのコンピューティングパワー構造、産業チェーン、5つの新しいトレンド判断を説明する記事

AIGCコンピューティングパワーパノラマとトレンドレポートが公開されました! AIGCのコンピューティングパワー構造、産業チェーン、5つの新しいトレンド判断を説明する記事

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

AI コンピューティング パワーは、今ほど普及したことはありません。

ビッグモデルトレンドが起こって以来、わずか数か月でビッグモデルの数と規模が劇的に増加しました。

数百億、数千億規模の大規模モデルの数は数十にまで急増し、兆単位のパラメータを持つ大規模モデルが正式に誕生しました。

このような規模の変化に伴い、コンピューティング能力に対する需要も劇的に変化しました

モデルレベルの企業は、どんな犠牲を払ってでもコンピューティング サービスを手に入れようとしています。Nvidia の時価総額はかつて 1 兆米ドルを超え、クラウド コンピューティング市場は急速に再編されつつあります...

水力発電や石油と同様に、コンピューティング能力が AIGC 業界の発展のための基本的なエネルギー源であることは間違いありません。

AIGC 時代の幕開けとともに、コンピューティング パワー業界を理解することが特に重要になります。

企業にはどのようなコンピューティング能力が必要ですか? AIGC の台頭により、コンピューティング パワー業界はどのような変化を遂げるでしょうか?コンピューティングパワー市場の現在の構造はどのようなものですか?

「AIGC コンピューティング パワー パノラマおよびトレンド レポート」は、これらの問題を誰もが理解できるようにするために作成されました。

報告書の中で、Quantum位シンクタンクはAIGCコンピューティングパワー構造と産業チェーンを体系的に分析し、さらにAIGCコンピューティングパワーの5つの新たな傾向3段階の発展予測を指摘した。

中核となるアイデアは次のとおりです。

  • AIGC の推進により、チップは高性能と大規模な計算能力を求めて競争し、新しいコンピューティング アーキテクチャを導入します。
  • AI サーバーは、最初にトレーニングを行い、次に推論するというボーナス曲線を備えた新しい勢力として登場しました。
  • MaaS はクラウド サービスのパラダイムを再構築し、AIGC ビジネス モデル ループを閉じます。
  • AIモデルオールインワンマシンが間もなく発売され、従来の業界では「すぐに」使用できるようになります。
  • インテリジェント コンピューティング センターは AIGC の運用を保護し、コンピューティング パワーのリース モデルが新しいソリューションになります。

具体的な内容を一つずつ見ていきましょう。

国内サーバーメーカーの事業成長率は30%超

業界の現状を分析すると、主な業界プレーヤーは次のとおりです。

  • チップ
  • AI サーバー (クラスター)
  • クラウドコンピューティング

チップ層: AIGCは2つの主要なルートを通じてコン​​ピューティングパワーを提供します

コンピューティング チップには、AIGC 業界のコンピューティング能力のニーズを満たすための業界内の主流ルートが現在 2 つあります。

1つは、汎用チップと呼ばれるNVIDIAに代表されるGPU路線だ。

もう1つは、HuaweiやCambrianに代表されるASIC路線で、専用チップ路線と呼ばれています。

現在、これら 2 つのルートは異なるタイプのプレーヤーを集めており、彼らが実行するコンピューティング タスクも異なります。

一般的なチップルートでは、さまざまなコンピューティングタスクを完了でき、大規模な並列コンピューティングに適しています。

つまり、汎用チップ (GPU) は、 AIGC が現在必要としている計算能力に適しています

専用ルートの利点は、特定のシナリオでエネルギー効率が向上することです。専用チップは特殊なタスクやカスタマイズされたタスクを実行するように設計されているため、特定のシナリオでは汎用チップよりも優れたエネルギー効率とコンピューティング効率を実現できます

専用チップは特定のシナリオでより高いコンピューティング効率を発揮できるため、インターネットやその他のクラウドベンダーが独自のチップを開発する際に選択する技術的なルートとなっています。

一般的に、インターネット クラウド ベンダーが独自に開発したチップは主に自社製品に使用され、自社のエコシステム内でチップのパフォーマンスを最大化することに重点が置かれています。

写真

サーバー層: インターネット顧客を中心にビジネスの成長は明らか

AIGC の高性能コンピューティングに対する需要により、AI サーバーはサーバー分野で最も急速に成長しているセグメントとなっています。

GPT-3 などの大規模モデルのトレーニングには、大量のコンピューティング リソースとメモリが必要であり、トレーニングを高速化するために数千または数万の GPU を使用する必要があることもよくあります。

これらの計算にはチップ性能に対する要件が非常に高いため、大規模な並列コンピューティングと高速データ転送をサポートするには、専用のハードウェアとソフトウェアが必要です。

AI サーバーは、人工知能のワークロードを処理するために特別に設計されたサーバーです。専用のハードウェア アクセラレータ (GPU、TPU など) と高速ネットワーク接続およびストレージを使用して、高性能コンピューティング機能を提供します。

対照的に、CPU(汎用サーバー)は通常、AIGC の非常に高い計算能力の要求を満たすことができず、計算能力、メモリ、およびストレージ容量が低いのが普通です。さらに、CPU には通常、専用のハードウェア アクセラレータがないため、高速コンピューティングを提供できません。

したがって、大規模なモデルのトレーニングでは、コンピューティング パワー サービスを提供する AI サーバー クラスターに依存する必要があります。

クォンタムシンクタンクの調査によると、今年のAIGC発生後、国内サーバーメーカーの業績成長率は総じて30%を超えた

最近、TrendForceは、2022年から2026年までのAIサーバー出荷の年間複合成長率を22%に引き上げました。 AIサーバー事業の急増の背景には、依然としてインターネット企業が最大の買い手となっていることがある。

2022年には、 ByteDanceTencentAlibabaBaiduなどの大手企業がAIサーバー調達の主な購入者となるだろう。今年は、大規模モデルの研究開発の人気により、下流のインターネット大手からの購入需要が高まり、依然としてAIサーバーの最大の購入者となっている。

クラウドコンピューティング:MaaS がサービスモデルを再構築し、新旧のプレーヤーが競争力を再構築

MaaSモデルはアリババによって最初に提案され、その後大手インターネット企業や人工知能企業(センスタイムなど)がMaaSモデルを導入しました。

さらに、インターネット大手のファーウェイなどの企業はすでに自社開発のチップをMaaS拠点の構築に活用している。

2023年には、国内の大手クラウドベンダーが大規模なモデルベースをベースとした独自のMaaSプラットフォームを相次いで立ち上げ、コンピューティングリソースが限られており、専門的な経験も不足している企業にワンストップのMaaSサービスを提供すると予想されます。

クラウドベンダーにとって、MaaS サービスの主な目的は、顧客が業界固有の大規模モデルを迅速に構築できるように支援することです。これを踏まえて、クラウドベンダー間の競争の次元は、コンピューティングパワーインフラストラクチャ、一般的な大規模モデル機能、AIプラットフォーム/ツール機能へと移行しました。

写真

インテリジェントコンピューティングセンターの現状:インフラレベルのAIコンピューティングパワーを供給し、地域経済成長の新たな原動力を創出

コンピューティングデバイスの分布の観点から見ると、サーバーおよびAIサーバー市場では、北京、広東、浙江、上海、江蘇がそれぞれ75%と90%の市場シェアで上位5位にランクされています(2021年のデータ)。

供給の観点から見ると、現在、ほとんどのインテリジェント コンピューティング センターは東部および中部の各省に位置しており、AIGC ビジネスでは膨大な量のデータを処理する必要があり、その結果、東部のコンピューティング リソースのコストが過度に高くなっています

大規模モデルトレーニングなどの高いコンピューティング要件を持つタスクを西部地域に移動して「 East Data West Training 」モデルを形成すると、コストを効果的に削減し、コンピューティング ネットワーク リソースの全体的なコストを最適化できます。

具体的には、コンピューティングパワーの需要と供給の不均衡などの問題に対処するために、コンピューティングパワーのスケジューリングを通じて、東部のコンピューティングパワーとデータ処理タスクをコストの低い西部地域に移管する必要があります。その中で、東西間のインターネット ネットワークとハブ ノード間の直接ネットワークを最適化することが、コンピューティング パワー スケジューリングのレベルを向上させる鍵となります。

需要の観点から見ると、AIGC コンピューティング能力の需要は主に、北京・天津・河北地域、長江デルタ、粤港澳大湾区に分布する大型 AIGC モデルを開発するメーカーから来ています。

チップサーバー革命の始まり

大規模モデルへの傾向により、コンピューティング能力に対する新たな要件が提示され、基盤となるハードウェアに新たな変化が生じています。チップとサーバーのレベルから始めます。

チップレベル

現在、高性能チップではNVIDIA A100が絶対的な優位性を持っており、A100は中国で既存在庫があるだけで増分成長はありません。市場は国内GPUメーカーにさらなるチャンスを与えるでしょう

さらに、チップファウンドリレベルでは、現在、7nm以上のプロセスを実行できる国内の対応するファウンドリはありません。ほとんどのGPUメーカーは、より高いパフォーマンス指標を達成するために、成熟したプロセス+高度なパッケージングソリューションを選択しています。

サーバー クラスター レベルでは、マルチカードおよびマルチマシンの並列コンピューティングと高性能ネットワークを通じて高性能コンピューティングが実現されます。

10年以内にNVIDIAが構築したハードウェア製品+CUDAエコシステムを突破するのは難しいため、高性能GPUが制限される将来には、ハードウェアレベルで主に2つの解決策があるとアナリストは予想している。1つは、大規模な並列コンピューティングを実現するためのGPU+チップ間相互接続技術を開発することだ

もう 1 つは、フォン ノイマン アーキテクチャから脱却し、ストレージ コンピューティング統合アーキテクチャを開発して、コンピューティング ユニットとストレージ ユニットを統合し、コンピューティングのエネルギー効率を桁違いに向上させることです。

ソフトウェア レベルでは、スパース コンピューティング高性能ネットワークの構築が現在のところ 2 つの解決策です。

スパースコンピューティングの革新はアルゴリズムレベルに反映されています。無効または冗長なデータ(このようなデータは一般に膨大な量になります)を削除することで、データ計算量が大幅に削減され、計算速度が向上します。

高性能ネットワークを構築する目的は、大規模モデルのトレーニング時間を短縮することです。高性能ネットワークを構築し、各コンピューティングノードに超高通信帯域幅を提供することで、スループット性能を数倍向上させ、大規模モデルのトレーニング時間を短縮することができます。

サーバーレベル

大規模 AI モデルの計算能力に対する需要は飛躍的に増加しており、より高度な構成の AI サーバーが AIGC 計算能力の主な担い手となっています。

従来のサーバーと比較して、AI サーバーのコンピューティング、ストレージ、ネットワーク伝送機能はより高いレベルに到達できます。

たとえば、NVIDIA DGX A100 サーバーの 8 個の GPU + 2 個の CPU の構成は、従来のサーバーの 1 ~ 2 個の CPU の構成よりもはるかに優れています。

私の国では、インテリジェント コンピューティング センターは、人工知能 (大規模モデル) 用のコンピューティング リソースを提供する公共インフラストラクチャ プラットフォームです。そのコンピューティング パワー ユニットは主に AI トレーニング サーバーと AI 推論サーバーです。

大規模モデル化の傾向が進むにつれ、将来的には AI サーバーの主な需要はトレーニング側から推論側へと移行するでしょう。 IDC の予測によると、2026 年までに AIGC の計算能力の 62.2% がモデル推論に使用されることになります。

業界の変化が新たなビジネスチャンスを生み出す

さらに、ビッグ AI モデルのトレンドはコンピューティング業界に新たな機会をもたらし、新しいパラダイム、新しい製品、新しいインフラストラクチャが出現しています。

ゲームの新たなルール: MaaS がクラウド サービスのパラダイムを再構築、AIGC がビジネス モデルのループを閉じる

MaaS(Model as a Service)は、コンピューティングパワー、アルゴリズム、アプリケーション層に大規模モデルを組み込み、アプリケーションをインテリジェントベースと統合し、統一された形で外部に出力します。

MaaS の本質は、業界共通の基本技術を洗練してサービスに統合し、さまざまなアプリケーション シナリオのニーズを満たすことです。

商用化プロセスにおいて、企業がクラウド コンピューティング ベンダーを検討する際には、大規模なモデル機能とそれをサポートするミドルウェア ツールが新たな検討要素になります。

クラウドコンピューティングサービスの能力の判別要素は、コンピューティングパワーレベルから「クラウドインテリジェンス統合」能力へと移行しました。コンピューティングパワーインフラストラクチャに加えて、コア競争力はコンピューティングパワー、モデル、シナリオアプリケーションを標準化された製品に変換する能力に移行しました。

写真

新種:AIモデルオールインワンマシンが登場し、従来の産業でも「すぐに」使用可能に

AIモデルオールインワンマシンは、ソフトウェアとハ​​ードウェアを深く統合しており、企業のさまざまなニーズに応じて、対応する製品またはソリューションが事前にAIサーバーに展開され、完全なソリューションセットにパッケージ化されています。

AIモデルオールインワンマシンのコストメリットは、主に以下の3点に反映されます。

  • 1) 全体の購入価格は、ソフトウェアとハ​​ードウェアを個別に購入する価格よりも低くなります。
  • 2) 企業がサーバーを別途購入し、AI企業に引き渡してソフトウェアを導入するには長い時間がかかります。AIモデルのオールインワンマシンはすぐに使用できるため、導入コストを削減できます。
  • 3) 必要なサーバーの数が大幅に削減され、顧客のスペースコストが節約されます。

新しいインフラストラクチャ: インテリジェント コンピューティング センターが AIGC の運用を保護し、コンピューティング パワーのリース モデルが新しいソリューションになります

コンピューティングパワーリースモデルは、大規模モデルの研究開発の敷居を効果的に下げることができます。十分なAIサーバーを購入する能力を持たない垂直研究開発産業の小規模モデル企業にとって、パブリックコンピューティングパワーインフラストラクチャプラットフォームは、中小企業が必要なモデルを構築するのに役立ちます。

企業はサーバーを購入する必要がなく、コンピューティング センターにアクセスし、ブラウザーを通じてコン​​ピューティング サービスを利用できます。

中小企業は、二次開発のためにクラウドベンダーが構築した大規模なモデルベースに依存する必要はなく、パブリックコンピューティングプラットフォームからコンピューティングリソースを借りて、垂直産業向けの小規模なモデルを開発することができます。

写真

業界発展予測

要約すると、QuantumBit Think Tank は AIGC の将来の発展を 3 つの段階に分けられると予測しています。

  • AIGC インフラストラクチャフェーズ
  • AIGC開発期間
  • AIGC事業期間

AIGC インフラストラクチャフェーズ

現在、AIGC モデル層のほとんどの企業は事前トレーニング段階にあり、チップの需要は主に GPU から来ています。

初期段階では、高性能 GPU メーカーが最大の受益者となるでしょう。

しかし、現状では国内GPUメーカーとNVIDIAの間には大きな差があり、最初に恩恵を受けるのは既存市場で優位に立っているメーカーだ。

そのため、現段階では国内のAIサーバーメーカーが有力なサプライヤーとなっている。現在、中国ではAIサーバーの分野で供給が需要を上回っている状況にあります。

AIGC開発期間

中期的には(5年以内)、コンピューティングパワーレイヤーはトレーニングから推論へと移行します

この段階では、推論チップが主な需要側になります。 GPU の高い計算能力と高い電力消費、およびそれに伴う計算能力の浪費と比較して、推論チップはチップの計算効率に重点を置き、電力消費とコストをより適切に制御します。さらに、この段階は革新的なチップにとってもチャンスとなるでしょう。

アナリストは、統合ストレージおよびコンピューティング チップ、脳のようなチップ、シリコン フォトニック チップの市場機会がさらに増えると予測しています。

推論フェーズでは、トレーニングフェーズでのクラウドコンピューティングと比較して、エッジコンピューティングの方が多くの機会が得られます。

まず、推論段階に対応するアプリケーションは多様化する傾向があります。需要の多様化により、クラウド コンピューティングではより多くの計算能力が浪費され、計算効率が低下します。

第二に、エッジ コンピューティングは、大規模なモデル推論に十分な計算能力を提供できます。

この段階では、AIサーバーメーカーのボーナス期間が徐々にピークを迎え、需要はより低コストの汎用サーバーへと移行し、チップもGPUからNPU/ASIC/FPGA/CPUなど多様な形態へと移行していきます。国内の革新的チップ路線では、ストレージとコンピューティングの統合アーキテクチャの開発に楽観的です

AIGC事業期間

チップの根本的な革新的な利点が現れ始めており、統合ストレージとコンピューティング、フォトニックチップ、脳のようなチップなどの真に革新的な技術を持つチップメーカーの市場における役割が増大しています。

AIGC の計算能力に必要なチップの種類は多様です。

この段階の企業は、コンピューティング能力についてより包括的な考慮を払っています。コンピューティング能力の大きさだけでなく、消費電力とコストも考慮しており、これらはコンピューティング能力の大きさを超え、あらゆるモデル レベルの企業にとって懸念事項となる可能性があります。

写真

レポートアクセス

以下のリンクをコピーしてブラウザで開きます。

https://jkhbjkhb.feishu.cn/wiki/W5D7wuDcbiPXDLkaRLQcAJpOn8f

<<:  Appleは、来年の製品発売を目標に、独自の大規模モデルフレームワークをベースにしたApple GPTを秘密裏に開発していると噂されている。

>>:  人工知能によりデータセンターのコストと制御ニーズが増加

ブログ    
ブログ    

推薦する

...

EfficientViT-SAM: 精度を変えずにその場で離陸!

著者らは、高速化された SAM モデル ファミリである EfficientViT-SAM を提案しま...

ハーバード大学のロボット魚は、知的に協力し、集団で「泳ぎ」、サイエンス誌の表紙に登場しました。

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

Java プログラミング スキル - データ構造とアルゴリズム「プレフィックス、インフィックス、サフィックス」

[[387421]]接頭辞表現(ポーランド語表記)プレフィックス式はポーランド式とも呼ばれます。プ...

人間が理解できる音声を合成するために、機械はどのような「ディープラーニング」を行っているのでしょうか?

ディープラーニングは2006年に登場して以来、近年急速に発展し、学術研究と企業アプリケーションの両方...

AIが中古高級品の真贋を判別、同社は精度は99.1%と主張

12月26日、高級品鑑定機関Entrupyは人工知能技術を使用して、さまざまなブランドのハンドバッグ...

Mistral と Microsoft が「小さな言語モデル」の波を起こしました。 Mistralのコーディング能力はGPT-4より優れており、コストは2/3に削減されます

最近、「小さな言語モデル」がにわかに話題になっています。今週月曜日、4億1500万ドルの資金調達を完...

スマートヘルスケアが業界のトレンドをリード、AI無人薬局の導入が加速

スマート医療産業の急速な発展は、多くの患者に恩恵をもたらしています。伝統的な医療業界をアップグレード...

大学卒業後、彼はGoogleに入社し、先駆的な作品「Thinking Chain」を執筆した。このOpenAIの新人は、学部生の質問に答えている。

「思考の連鎖(CoT)」の概念を注意深く研究したことがあるなら、おそらく Jason Wei とい...

曹永寿:ビッグデータとAI技術がアーティストの商業的価値を測る基準を構築

[元記事は51CTO.comより]最近、エンターテインメントビッグデータアプリケーションサービスプロ...

高性能かつ低消費時間!新しい 3D Occupancy Network SGN を試してみませんか?オープンソース

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

インテルが第3四半期の財務報告を発表、人工知能と新ファウンドリ事業が注目を集める

半導体メーカーのインテルは本日第3四半期の業績を発表し、同社の株価は時間外取引で約8%上昇した。一方...