過去70年間に「3つの上昇と2つの下降」を経験した後、基盤となるチップ、コンピューティングパワー、データなどのインフラストラクチャの改善と進歩に伴い、世界のAI業界は計算インテリジェンスから知覚インテリジェンスと認知インテリジェンスへと徐々に移行し、「チップ、コンピューティングパワー設備、AIフレームワークとアルゴリズムモデル、アプリケーションシナリオ」の産業分業とコラボレーションシステムを形成しました。 2019年以来、AIビッグモデルは一般化と問題解決能力の大幅な向上をもたらし、「ビッグモデル+スモールモデル」は徐々に業界の主流技術ルートとなり、世界のAI産業の発展を全体的に加速させ、「チップ+コンピューティングパワーインフラストラクチャ+ AIフレームワークとアルゴリズムライブラリ+アプリケーションシナリオ」という安定した産業バリューチェーン構造を形成しました。 今回のスマートインサイダーでは、人工知能業界の現状と産業発展の核心問題を解釈したCITIC証券のレポート「ビッグモデルがAIを全体的に加速させ、業界の黄金の10年投資サイクルが始まる」を推奨します。出典: CITIC証券 1. 人工知能の「3つの利点と3つの欠点」1956年に「人工知能」の概念と理論が初めて提唱されて以来、AI産業と技術の発展は主に3つの段階を経てきました。 1 ) 1950年代から1970年代:計算能力やデータ量などの制限があり、理論的な部分にとどまっていました。 1956年のダートマス会議は、世界初の人工知能の波の出現を促進しました。当時、楽観的な雰囲気が学界全体に浸透し、強化学習と呼ばれるもののプロトタイプを含む、アルゴリズムの分野で多くの世界クラスの発明が登場しました。強化学習は、GoogleのAlphaGoアルゴリズムの核となるアイデアです。 1970 年代初頭、AI はボトルネックに遭遇しました。論理証明器、パーセプトロン、強化学習などは非常に単純で狭い範囲のタスクしか実行できず、その範囲をわずかに超えるタスクには対応できないことがわかったのです。当時のコンピューターのメモリと処理速度は限られており、実用的な AI の問題を解決するには不十分でした。これらの計算の複雑さは指数関数的に増加し、不可能な計算タスクになります。 2 ) 1980 年代~ 1990 年代:エキスパート システムは、人工知能の最初の商業的試みでした。ハードウェアのコストが高く、適用可能なシナリオが限られていたため、市場のさらなる発展は制限されていました。 1980年代には、エキスパートシステムAIプログラムが世界中の企業に採用され始め、「知識処理」がAI研究の主流となりました。エキスパート システムの力はそこに保存されている専門知識から生まれ、知識ベース システムと知識工学は 1980 年代の AI 研究の主な方向性となりました。しかし、エキスパート システムの実用性は特定のシナリオに限定されており、エキスパート システムに対する人々の熱意はすぐに大きな失望に変わりました。一方、1987 年から 1993 年にかけて登場した現代の PC は、エキスパート システムで使用される Symbolics や Lisp などのマシンよりもはるかに安価になりました。現代の PC と比較すると、エキスパート システムは古く、保守が非常に難しいと考えられています。その結果、政府の資金援助は減少し始め、再び冬が到来しました。 3 ) 2015年から現在まで:完全な産業チェーンの分業と協力システムを徐々に形成しました。人工知能における3番目の画期的な出来事は、2016年3月に起こった。Google DeepMindが開発したAlphaGoが、人間と機械の囲碁対決で韓国のプロ囲碁九段、イ・セドルを破ったのだ。その後、人工知能は一般の人々にも身近に感じられるようになり、さまざまな分野で熱狂が巻き起こりました。このイベントでは、DNN ニューラル ネットワーク アルゴリズムに基づく統計分類ディープラーニング モデルが確立されました。このタイプのモデルは、これまでよりも一般化されており、さまざまな特徴値抽出を通じてさまざまなアプリケーション シナリオに適用できます。同時に、2010年から2015年にかけてのモバイルインターネットの普及により、ディープラーニングアルゴリズムに前例のないデータの栄養ももたらされました。データ量の増加、計算能力の向上、新しい機械学習アルゴリズムの出現により、人工知能は大きな調整を受け始めています。人工知能の研究分野も拡大しており、エキスパートシステム、機械学習、進化コンピューティング、ファジー論理、コンピュータービジョン、自然言語処理、推奨システムなどが挙げられます。ディープラーニングの発展により、人工知能は新たな発展の頂点を迎えました。 ▲ 人工知能開発の3つの波 人工知能の第 3 の波は、商業化できるシナリオを数多くもたらしました。DNN アルゴリズムの優れたパフォーマンスにより、音声認識と画像認識は、セキュリティと教育の分野で最初の一連の成功したビジネス ケースに貢献することができました。近年、ニューラルネットワークアルゴリズムに基づくTransformerなどのアルゴリズムの開発により、NLP(自然言語処理)の商用化が議題に上がっており、今後3〜5年で成熟した商用シナリオが見られるようになると予想されています。 ▲人工知能技術の産業化に必要な年数 2. 分業体制が徐々に整い、実施シナリオも拡大しつつある5〜6年の発展を経て、世界のAI業界は分業と協力による完全な産業チェーン構造を徐々に形成し、一部の分野では典型的な応用シナリオを形成し始めています。 1. AIチップ:GPUからFPGA、ASICなどまで、パフォーマンスは向上し続けているチップはAI業界の最高峰です。人工知能業界のこの一連の繁栄は、AI コンピューティング能力の大幅な向上によるもので、これによりディープラーニングと多層ニューラル ネットワーク アルゴリズムが可能になりました。人工知能はさまざまな業界に急速に浸透しており、データも大量に増加しています。これにより、非常に複雑なアルゴリズム モデル、異種処理オブジェクト、高いコンピューティング パフォーマンス要件が生じています。そのため、人工知能のディープラーニングには、極めて強力な並列処理能力が必要です。CPUと比較すると、AIチップにはデータ処理用の論理演算ユニット(ALU)が多く、集中的なデータの並列処理に適しています。主なタイプには、グラフィックス処理装置(GPU)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)などがあります。 使用シナリオの観点から見ると、関連するハードウェアには、クラウド側推論チップ、クラウド側テストチップ、端末処理チップ、IP コアなどが含まれます。クラウドにおける「トレーニング」や「学習」の段階では、NVIDIA GPU が強力な競争優位性を持っており、Google TPU も積極的に市場とアプリケーションを拡大しています。 FPGA と ASIC は、端末での「推論」アプリケーションの分野では利点があるかもしれません。米国はGPUやFPGAの分野で強い優位性を持っており、NVIDIA、Xilinx、AMDといった有力企業が存在します。GoogleやAmazonもAIチップの開発に積極的に取り組んでいます。 ▲ さまざまなAIリンクにおけるチップの応用 ▲ 人工知能ニューラルネットワークアルゴリズムモデルの複雑さ ▲チップメーカーのレイアウト 高性能コンピューティング市場では、AI チップの並列コンピューティング機能を使用して複雑な問題を解決することが、現在の主流のソリューションです。 Tractica のデータによると、世界の AI HPC 市場規模は 2019 年に約 13 億 6,000 万米ドルで、7 年間の CAGR は 35.1% で、2025 年までに 111 億 9,000 万米ドルに達すると予想されています。 AI HPC市場規模は2019年の13.2%から2025年には35.5%に拡大する見込みです。同時に、Tracticaのデータによると、世界のAIチップ市場規模は2019年に64億米ドルで、2023年までに510億米ドルに達し、市場スペースはほぼ10倍に拡大すると予想されています。 ▲ エッジコンピューティングチップの出荷数(百万個、端末デバイス別) ▲ 世界の人工知能チップ市場規模(10億米ドル) 過去2年間で、中国では自社GPUを開発するムーアスレッドや、自社自動運転チップを開発するカンブリアンに代表される自社開発チップ企業が多数登場した。ムーアスレッドは、2022年3月にMUSA統合システムアーキテクチャと第1世代チップ「Sudi」をリリースしました。ムーアスレッドの新しいアーキテクチャは、NVIDIAのCUDAアーキテクチャをサポートしています。 IDCのデータによると、2021年上半期、GPUは中国の人工知能チップの中で常に市場の第一選択であり、市場シェアの90%以上を占めていました。しかし、他のチップの着実な発展に伴い、GPUの割合は2025年までに徐々に80%まで減少すると予想されています。 ▲ GPUチップの主要プレーヤーと技術ルート 2. コンピューティング設備:クラウドコンピューティングや自社構築設備などの助けにより、コンピューティング能力の規模や単位コストなどの指標は継続的に向上しています。これまで、コンピューティング能力の発展により、人工知能の開発のボトルネックは効果的に緩和されてきました。人工知能は古い概念であり、これまでの発展はコンピューティングパワーの不足によって制限されてきました。コンピューティングパワーの需要は主に 2 つの側面から生じています。1) 人工知能の最大の課題の 1 つは、認識と精度が低いことです。精度を向上させるには、モデルの規模と精度を高める必要があり、より強力なコンピューティングパワーのサポートが必要です。 2) 人工知能の応用シナリオが徐々に実装されるにつれて、画像、音声、マシンビジョン、ゲームなどの分野のデータが爆発的に増加し、コンピューティング能力に対する要件も高まり、コンピューティング技術は急速な革新の新たな段階に入りました。過去 10 年間のコンピューティング能力の発展により、人工知能の開発ボトルネックは効果的に緩和されました。将来、インテリジェント コンピューティングは、需要が高まり、パフォーマンス要件が高くなり、いつでもどこでも利用できる、多様化された需要が特徴となります。 コンピューティング能力が物理的限界に近づくにつれて、コンピューティング能力の成長に関するムーアの法則は徐々に無効になりつつあり、コンピューティング能力業界は複数の要素による総合的なイノベーションの段階にあります。これまで、コンピューティング電力供給は主にプロセスの小型化、つまり同じチップ内のトランジスタ スタックの数を増やすことで増加し、コンピューティング性能を向上させてきました。しかし、プロセス技術が物理的限界に近づき、コストが上昇し続けるにつれて、ムーアの法則は徐々に無効になりつつあります。コンピューティングパワー業界はポストムーア時代に突入しており、コンピューティングパワーの供給は、複数の要素の総合的な革新を通じて改善する必要があります。現在のコンピューティングパワー供給には、シングルチップコンピューティングパワー、マシン全体のコンピューティングパワー、データセンターコンピューティングパワー、ネットワークコンピューティングパワーの 4 つのレベルがあります。これらのレベルは、インテリジェント時代の多様なコンピューティングパワー供給のニーズを満たすために、さまざまなテクノロジーを通じて継続的に進化し、アップグレードされています。さらに、ソフトウェアとハードウェア システムの緊密な統合とアルゴリズムの最適化を通じてコンピューティング システム全体のパフォーマンスを向上させることも、コンピューティング パワー業界の進化にとって重要な方向性です。 コンピューティングパワー規模:中国情報通信研究院が2021年に発表した「中国コンピューティングパワー発展指標白書」によると、世界のコンピューティングパワーの総規模は2020年に引き続き成長し、429EFlopsに達し、前年比39%増加しました。そのうち、基本コンピューティングパワー規模は313EFlops、インテリジェントコンピューティングパワー規模は107EFlops、スーパーコンピューティングパワー規模は9EFlopsで、インテリジェントコンピューティングパワーの割合が増加しました。わが国のコンピューティングパワーの発展のペースは世界と似ています。2020年、わが国の総コンピューティングパワーは135EFlopsに達し、世界のコンピューティングパワーの39%を占め、55%の高い成長を達成し、3年連続で40%以上の成長率を維持しました。 ▲ 世界のコンピューティングパワーの変化 コンピューティングパワー構造:中国の発展状況は世界と同様であり、インテリジェントコンピューティングパワーは急速に成長しており、そのシェアは2016年の3%から2020年には41%に増加しています。基本的なコンピューティングパワーの割合は、2016 年の 95% から 2020 年には 57% に低下しました。下流の需要に牽引され、インテリジェント コンピューティング センターに代表される人工知能コンピューティング パワー インフラストラクチャが急速に発展しました。一方、将来の需要について言えば、ファーウェイが2020年に発表した「ユビキタスコンピューティングパワー:インテリジェント社会の礎」レポートによると、人工知能の普及に伴い、2030年までに人工知能コンピューティングパワーの需要はクアルコムのSnapdragon 855内蔵AIチップ1600億個に相当すると予測されており、これは2018年の約390倍、2020年の約120倍に相当します。 ▲ 2030年のAIコンピューティングパワー需要の予測(EFlops) データ ストレージ: 非構造化データを保存および管理するために使用される非リレーショナル データベースとデータ レイクの需要が急増しています。近年、世界のデータ量は爆発的な増加を見せています。IDCの統計によると、2019年に世界で生成されたデータ量は41ZBで、過去10年間のCAGRは50%近くでした。世界のデータ量は2025年までに175ZBに達すると予測されており、2019年から2025年にかけて30%近くの複合成長率を維持するでしょう。データの80%以上は、処理が難しいテキスト、画像、音声、動画などの非構造化データになります。データ量(特に非構造化データ)の急増により、リレーショナル データベースの弱点がより顕著になっています。指数関数的に増加するデータに直面すると、構造化データ用に設計された従来のリレーショナル データベースの垂直に積み重ねられたデータ拡張モデルを満たすことが難しくなります。 非構造化データを保存および管理するために使用される非リレーショナル データベースとデータ レイクは、その柔軟性と拡張性により、徐々に市場シェアを拡大しています。 IDC によると、世界の NoSQL データベース市場規模は 2020 年に 56 億米ドルで、2020 年から 2025 年までの複合成長率は 27.6% で、2025 年には 190 億米ドルに成長すると予想されています。一方、IDCによれば、2020年の世界のデータレイク市場規模は62億米ドルで、2020年の市場規模の成長率は34.4%でした。 ▲ 世界のデータ量と前年比成長率(ZB、%) 3. AIフレームワーク:比較的成熟しており、少数の巨大企業が支配しているTensorflow (業界)とPyTorch (学術界)が徐々に優勢になりつつあります。 Google が立ち上げた Tensorflow が主流であり、Keras (Tensorflow2 は Keras モジュールを統合) や Facebook のオープンソース PyTorch などの他のオープンソース モジュールとともに、AI 学習の現在の主流フレームワークを構成しています。 Google Brainは2011年の設立以来、科学研究やGoogle製品開発のための大規模なディープラーニング応用研究を行ってきました。その初期の取り組みは、TensorFlowの前身であるDistBeliefでした。 DistBelief は改良されており、Google や他の Alphabet 企業での製品開発に広く使用されています。 2015年11月、Google BrainはDistBeliefをベースに「第2世代機械学習システム」TensorFlowの開発を完了し、コードをオープンソース化した。 TensorFlow は、前バージョンと比較して、パフォーマンス、アーキテクチャの柔軟性、移植性が大幅に向上しています。 TensorflowとPyTorchはオープンソースのモジュールですが、そのモデルが巨大で、ディープラーニングフレームワークが複雑であるため、その修正と更新は基本的にGoogleによってすべて完了しています。そのため、GoogleとFacebookは、TensorflowとPyTorchの更新方向を通じて、人工知能の業界の開発モデルを直接支配しています。 ▲ 世界の商用人工知能フレームワーク市場シェア構造(2021年) マイクロソフトは2020年にOpenAIに10億ドルを投資し、GPT-3言語モデルの独占ライセンスを取得しました。 GPT-3は現在、自然言語生成において最も成功したアプリケーションです。「論文」を書くだけでなく、「コードを自動生成」することもできます。今年7月のリリース以来、業界からは最も強力な人工知能言語モデルとみなされています。 Facebook は早くも 2013 年に AI 研究所を設立しました。FAIR 自体には AlphaGo や GPT-3 のような有名なモデルやアプリケーションはありませんが、そのチームはコンピューター ビジョン、自然言語処理、会話型 AI など、Facebook 自身が関心を持つ分野で学術論文を発表しています。 2021年、GoogleはNeurIPS(現在人工知能アルゴリズムの最高峰のジャーナル)に177本の論文が受理され出版されたが、Microsoftは116本、DeepMindは81本、Facebookは78本、IBMは36本、Amazonはわずか35本だった。 4. アルゴリズムモデル: ニューラルネットワークアルゴリズムが主な理論的基礎であるディープラーニングはディープニューラルネットワークに移行しています。機械学習は、多層の非線形特徴学習と階層的特徴抽出を通じて画像、音声、その他のデータを予測するコンピューター アルゴリズムです。ディープラーニングは機械学習の高度なタイプであり、ディープニューラルネットワーク (DNN: Deep Neural Networks) とも呼ばれます。異なるシナリオ(情報)の学習と推論のために、異なるニューラルネットワークと学習方法が確立されています。学習とは、膨大なデータの推論を通じて、各ニューロンの重みと伝達方向を最適化するプロセスです。畳み込みニューラル ネットワークは、単一のピクセルと周囲の環境変数を考慮し、データ抽出の量を簡素化して、ニューラル ネットワーク アルゴリズムの効率をさらに向上させることができます。 ニューラル ネットワーク アルゴリズムはビッグ データ処理の中核となっています。 AI は、大量のラベル付きデータを通じてディープラーニングを実行し、ニューラル ネットワークとモデルを最適化し、推論と意思決定のためのアプリケーション リンクを導入します。 1990 年代は、コンピューティング能力のサポートにより商用化された機械学習とニューラル ネットワーク アルゴリズムが急速に普及した時代でした。 1990 年代以降、AI 技術の実際の応用分野には、データマイニング、産業用ロボット、物流、音声認識、銀行ソフトウェア、医療診断、検索エンジンなどが含まれます。関連するアルゴリズムのフレームワークは、テクノロジー大手のレイアウトの焦点となっています。 ▲大手テクノロジー企業のアルゴリズムプラットフォームフレームワーク 技術面では、コンピュータービジョンと機械学習が主な技術研究開発の方向です。 ARXIVデータによると、理論研究の観点から見ると、コンピュータービジョンと機械学習の分野が2015年から2020年にかけて急速に発展し、続いてロボット工学の分野が発展しました。 2020年、ARXIV上のAI関連出版物のうち、コンピュータビジョン分野の出版物数は11,000件を超え、AI関連出版物数で第1位となりました。 ▲ 2015年から2020年までのARXIVにおけるAI関連論文数 過去 5 年間で、ニューラル ネットワーク アルゴリズム、主に CNN と DNN が近年最も急速に成長している機械学習アルゴリズムであることが確認されました。コンピューター ビジョン、自然言語処理などの分野で優れたパフォーマンスを発揮したため、人工知能アプリケーションの実装が大幅に加速され、コンピューター ビジョンと意思決定インテリジェンスの急速な成熟の重要な要因となっています。側面図からわかるように、音声認識タスクでは、標準の DNN 方式は、従来の KNN、SVM、ランダム フォレストなどの方式よりも明らかに優れています。 ▲畳み込みアルゴリズムは、従来の画像処理の精度ボトルネックを打破し、初めて産業的に利用可能になりました。 トレーニングコストの面では、ニューラルネットワークアルゴリズムを使用した人工知能のトレーニングコストが大幅に削減されました。 ImageNet は、人工知能アルゴリズムのトレーニングに使用される 1,400 万枚を超える画像のデータセットです。スタンフォード大学のDAWNBenchチームのテストによると、2020年に最新の画像認識システムをトレーニングするのにかかるコストは約7.5ドルで、2017年の1,100ドルから99%以上も削減されています。これは主に、アルゴリズム設計の最適化、コンピューティングパワーコストの削減、大規模な人工知能トレーニングインフラストラクチャの進歩によるものです。システムのトレーニングが速ければ速いほど、新しいデータでの評価と更新も速くなります。これにより、ImageNet システムのトレーニングがさらに高速化され、AI システムの開発と展開の生産性が向上します。 トレーニング時間の分布から判断すると、ニューラル ネットワーク アルゴリズムのトレーニングに必要な時間が全体的に短縮されています。各期間のトレーニング時間の分布を分析すると、過去数年間でトレーニング時間が大幅に短縮され、トレーニング時間の分布がより集中的になっていることがわかります。これは主に、アクセラレータ チップの普及による恩恵を受けています。 ▲ ImageNetのトレーニング時間分布(分) 畳み込みニューラル ネットワークの活用により、コンピューター ビジョンの精度テストのスコアは大幅に向上し、現在は産業化段階にあります。コンピューター ビジョンの精度は、主に機械学習技術の応用により、過去 10 年間で飛躍的に進歩しました。トップ 1 精度は、AI システムが画像に正しいラベルをどれだけ正確に割り当てることができるかをテストします。その予測 (すべての可能なラベルの中で) がターゲット ラベルと同一であるほど、精度が高くなります。追加のトレーニング データ (ソーシャル メディアの写真など) を使用すると、トップ 1 の精度テストでは、2012 年 12 月の 10 回の試行で 4 回のエラーが発生していたのに対し、2021 年 1 月には 10 回の試行で 1 回のエラーが発生しています。もう一つの精度テストであるTop-5は、対象ラベルが分類器の予測上位5位以内にあるかどうかをコンピューターに答えさせるもので、精度は2013年の85%から2021年には99%に向上し、人間のレベルを表す94.9%のスコアを上回った。 ▲ TOP-1 精度の変化 ▲ TOP-5の精度の変化 ニューラルネットワークアルゴリズムの開発において、これまで散在していたさまざまな小規模モデルを統合したTransformerモデルが、過去5年間で主流になりました。 Transformer モデルは、2017 年に Google がリリースした古典的な NLP モデルです (Bert は Transformer を使用しています)。モデルの中核部分は通常、エンコーダーとデコーダーの 2 つの部分で構成されます。エンコーダ/デコーダは、主にフィードフォワード ニューラル ネットワーク (図の青い部分) とアテンション メカニズム (図のバラ色の部分) の 2 つのモジュールで構成されています。デコーダには通常、追加の (クロス) アテンション メカニズムがあります。エンコーダーとデコーダーは、ニューラル ネットワークを模倣してデータを分類し、再フォーカスします。このモデルは、機械翻訳タスクにおいて RNN や CNN よりも優れたパフォーマンスを発揮します。良好な結果を得るにはエンコーダー/デコーダーのみが必要であり、効率的に並列化できます。 AI大規模モデリングは、過去2年間に出現した新しいトレンドです。自己教師あり学習+事前トレーニング済みモデルの微調整と適応ソリューションが徐々に主流になり、ビッグデータのサポートの下でAIモデルを一般化できるようになりました。従来の小規模モデルは、特定の分野のラベル付きデータを使用してトレーニングされており、汎用性が低く、別のアプリケーション シナリオに切り替えると、適用できなくなることが多く、再トレーニングが必要になります。大規模な AI モデルは通常、大規模なラベルなしデータでトレーニングされ、大規模なモデルを微調整することで、さまざまなアプリケーション タスクのニーズを満たすことができます。 OpenAI、Google、Microsoft、Facebook、NVIDIAなどの機関に代表される大規模インテリジェントモデルの導入は世界をリードするトレンドとなり、GPT-3やSwitch Transformerなどの大きなパラメータを持つ基本モデルが形成されています。 2021年末現在、NvidiaとMicrosoftが共同開発したMegatron-LMには83億のパラメータがあり、Facebookが開発したMegatronには110億のパラメータがある。これらのパラメータのほとんどは、reddit、Wikipedia、ニュース ウェブサイトなどから取得されます。大量のデータを保存および分析するために必要なデータ レイクなどのツールは、研究開発の次のステップの焦点の 1 つになります。 5. 応用シナリオ: セキュリティ、インターネット、小売などの分野で徐々に導入現在、応用面で最も成熟した技術は音声認識、画像認識などであり、これらの分野を中心に中国や米国で多数の企業が上場しており、一定の産業クラスターが形成されている。音声認識の分野では、より成熟した上場企業として、iFlytek や、以前マイクロソフトに 290 億ドルで買収された Nuance などがある。 スマートヘルスケア: AI+医療は主に医療支援のシナリオで使用されます。医療・健康分野の AI 製品には、インテリジェント医療相談、病歴収集、音声電子カルテ、医療音声入力、医療画像診断、インテリジェントフォローアップ、医療クラウドプラットフォームなど、さまざまな応用シナリオが含まれます。病院の診療プロセスの観点から見ると、診断前製品は主にガイダンスや病歴収集などの音声アシスタント製品であり、診断中製品は主に音声電子カルテと画像支援診断であり、診断後製品は主にフォローアップ追跡です。医療プロセス全体におけるさまざまな成果を考慮すると、AI + 医療の現在の主な応用分野は依然として主に補助的なシナリオであり、医師の肉体労働と反復労働を置き換えています。 AI+ヘルスケアの海外大手はNuance社です。同社の事業の50%はインテリジェント医療ソリューションによるもので、カルテなどの臨床医療文書転写ソリューションが医療事業の主な収入源となっています。 スマート シティ: 大都市の問題と新たな都市化により、都市ガバナンスに新たな課題が生じ、 AI +都市ガバナンスの需要が刺激されています。大都市や中規模都市では人口や自動車台数が増加するとともに、都市部の渋滞などの問題が顕著になってきました。新たな都市化の進展に伴い、スマートシティは中国の都市の主な開発モデルとなるでしょう。スマートシティに関わるAI+セキュリティとAI+交通管理は、Gエンドの主な実装ソリューションになります。 2016年、杭州は初の都市データブレイン変革を実施し、ピーク時の混雑指数は1.7未満に低下した。現在、アリババを代表とする都市データ頭脳は、主にスマートセキュリティ、スマート交通などの分野に15億人民元以上を投資しています。わが国のスマートシティ産業の規模は拡大し続けており、未来産業研究所は、2014年から2022年までの平均年複合成長率が55.27%で、2022年には25兆元に達すると予測しています。 ▲ スマートシティ市場規模と2014年から2022年までの予測(単位:兆元) スマート物流の市場規模は2020年に5,710億元に達し、スマート倉庫は1兆元規模の市場を開拓するだろう。物流業界におけるコスト高とデジタル変革を背景に、倉庫物流と製品製造では、製造と流通の効率を向上させるために、自動化、デジタル化、インテリジェントな変革が緊急に求められています。中国物流購買連合会のデータによると、中国のスマート物流市場は2020年に5,710億元に達し、2013年から2020年までの平均年複合成長率は21.61%でした。モノのインターネット、ビッグデータ、クラウドコンピューティング、人工知能などの新世代情報技術は、スマート物流産業の発展を促進するだけでなく、スマート物流産業に対するより高いサービス要件も提示しており、スマート物流市場の規模は拡大し続けると予想されています。 GGIIの推計によると、2019年の中国のスマート倉庫市場の規模は約900億元で、未来研究院はこの数字が2025年には1500億元以上に達すると予測している。 ▲ 中国のスマート物流市場規模と2013年から2020年までの成長率 新しい小売業: 人工知能により人件費が削減され、業務効率が向上します。 Amazon GoはAmazonが提案する無人店舗のコンセプトです。この無人店舗は2018年1月22日に米国シアトルで正式に一般公開されました。 AmazonGo は、Just Walk Out テクノロジーと Amazon Rekognition を使用して、クラウド コンピューティングと機械学習を組み合わせています。店内のカメラ、センサーモニター、機械アルゴリズムが消費者が手にした商品を識別し、顧客が店を出るときに自動的にチェックアウトを行うようになる。これは小売業における新たな革命である。 クラウドベースの AI モジュール コンポーネントは現在、大手インターネット企業が AI の商用化において主に注力している分野であり、 AI 技術をパブリック クラウド サービスに統合して販売しています。 Google Cloud Platform の AI テクノロジーは常に業界の最先端にあり、高度な AI テクノロジーをクラウド コンピューティング サービス センターに統合することに取り組んでいます。 Googleは近年、数多くのAI企業を買収し、TPUなどのAI専用チップやクラウドサービスCloud AutoMLをリリースして体制を強化してきた。現在、Google の AI 機能は、認知サービス、機械学習、ロボット工学、データ分析、コラボレーションなどの分野をカバーしています。 AI分野における一部のクラウドベンダーの製品が比較的分散しているのとは異なり、GoogleはAI製品の運用においてより完全かつ体系的です。垂直アプリケーションを基本的なAIコンポーネントに統合し、TensorflowとTPUの操作をインフラストラクチャに統合して、完全なAIプラットフォームサービスを形成しています。 Baidu は中国で最も強力なAI機能を備えたパブリック クラウド ベンダーであり、Baidu のAIコア戦略はオープン エンパワーメントです。 Baidu は、DuerOS や Apollo に代表される AI プラットフォームを構築し、エコシステムを開放し、データとシナリオの積極的な反復を形成しました。 Baidu のインターネット検索のデータ基盤に基づいて、自然言語処理、ナレッジグラフ、ユーザープロファイリング技術が徐々に成熟してきました。プラットフォームとエコシステムのレベルでは、Baidu Cloud はすべてのパートナーに公開されている大規模なコンピューティング プラットフォームであり、Baidu Brain のすべての機能を備えた基本サポート プラットフォームとなっています。自然言語による人間とコンピュータのインタラクションに基づく新世代のオペレーティング システムや、インテリジェント ドライビングに関連する Apollo など、垂直的なソリューションもいくつかあります。自動車メーカーは必要な機能を呼び出すことができ、自動車電子機器メーカーもプラットフォームとエコシステム全体を共同で構築するために必要な対応する機能を呼び出すことができます。 3。産業の変更:AIビッグモデルは徐々に主流になり、産業開発は全面的に加速すると予想されます近年、AI産業の技術進化経路は、主に次の特性を示しています。基礎となるモジュールのパフォーマンスの継続的な改善、モデルの一般化能力に焦点を当て、AIアルゴリズムの汎用性を最適化し、データ収集に戻すのに役立ちます。 AIテクノロジーの継続的な開発は、基礎となるアルゴリズムのブレークスルーに依存しています。これには、コンピューティングパワーとビッグデータがサポートする知識と経験のための環境を中心とした基本的な機能の構築が必要です。業界における大規模なモデルの急速な人気、大規模なモデル +小型モデルの動作モード、チップやコンピューティングパワーインフラストラクチャなどの基礎となるリンクの能力の継続的な改善、および結果として生じるアプリケーションシナリオの継続的な改善は、最終的に、産業の基本的な促進を促進し、アプリケーションの基本的な能力を促進する継続的な相互促進と、継続的な相互促進を促進するための継続的な相互促進と、最終的に継続的な相互促進を引き起こします。 大規模なモデルは、より強力な一般的な問題解決機能をもたらします。現在、ほとんどの人工知能は、さまざまな業界の下流のアプリケーションに直面している「手作りのワークショップ」段階にあります。一般的な解決能力を改善するために、大きなモデルは実行可能なソリューション、つまり「トレーニング前の大きなモデル +ダウンストリームタスクの微調整」を提供します。このアプローチでは、ラベル付きの大量のラベル付けされたデータから知識をキャプチャし、知識を多数のパラメーターに保存し、モデルの一般化機能を改善するための特定のタスクのためにそれを微調整することが含まれます。 大きなモデルは、既存のモデル構造の精度の制限をさらに突破し、ネストされた小さなモデルトレーニングと組み合わせて、特定のシナリオのモデル効率をさらに改善することが期待されています。過去10年間で、モデルの精度の改善は、主にネットワークの構造の変化に依存しています。 Googleの視覚転送モデルのビット、例として、2つのデータセット、ILSVRC-2012(128百万の画像、1,000カテゴリ)およびJFT-300M(18,291カテゴリ)を使用して、RESNET50を使用して、それぞれ77%と79%の精度を使用しました。さらに、JFT-300mを使用してResNet152x4をトレーニングすると、精度を87.5%に増やすことができます。これは、ILSVRC-2012+ResNet50構造より10.5%高くなります。 Big Model + Small Model :一般化された大型モデル人工知能の促進と特定のシナリオでのデータの最適化と組み合わせて、中期における人工知能産業の商業化の鍵となります。特定のシナリオのトレーニングのためのデータの再抽出モデルは、モデルを再訓練するコストが高すぎることが証明されており、得られたモデルは汎用性が低く、再利用が困難です。チップコンピューティングパワーの継続的な改善を背景に、大規模なモデルで小さなモデルをネストしようとすると、メーカーは一般的なモデルを取得して、特定の小さなモデルをネストすることでそれらを最適化することにより、多くのコストを節約できます。 Alibaba Cloud、Huawei Cloud、Tencent Cloudなどのパブリッククラウドベンダーは、モデルの汎用性を向上させるために独自の大きなモデルプラットフォームを積極的に開発しています。 Nvidiaが代表するAIチップジャイアンツは、業界で一般的に使用されるAIモデルのコンピューティングパワーを大幅に改善するために、新しい世代のチップで特別に新しいエンジンを設計しました。 Nvidiaのホッパーアーキテクチャは、AIトレーニングを大幅に加速するトランスエンジンを導入しました。トランスエンジンは、ソフトウェアとカスタムNVIDIAホッパーテンソルコアテクノロジーを使用して、一般的なAIモデルビルディングブロック、つまり変圧器に基づいて構築されたモデルのトレーニングを加速するように設計されています。これらのテンソルコアは、FP8とFP16の混合精度を適用して、トランスモデルのAI計算を大幅に加速できます。 FP8を使用したテンソルコア操作には、16ビット操作の2倍のスループットがあります。トランスエンジンは、FP8とFP16の間で動的に選択し、各レイヤーのこれらの精度を自動的に処理し、自動的に処理するカスタムNVIDIAチューニングヒューリスティックを使用して、これらの課題に対処します。 Nvidiaが提供するデータによると、Transformerモデルをトレーニングする際には、ホッパーアーキテクチャはAmpereモデルの9倍効率が高い場合があります。 大規模なモデルテクノロジーの傾向では、クラウドベンダーはコンピューティングパワー市場で徐々にコアプレーヤーになりました。大規模なモデルの出現により、人工知能が処理されて分析する必要があるデータの量が同時に増加していることがわかりました。クラウドコンピューティングの巨人は、強力なPAAS機能と基礎となるIAASファンデーションを組み合わせて、人工知能メーカーにワンストップデータ処理を提供することができます。これは、クラウドコンピューティングジャイアントがこの人工知能の波の主要な受益者の1つになるのにも役立ちます。 ▲国内のクラウドコンピューティング市場規模 現在、AWSやAzureなどの国際的な主流のクラウドベンダー、およびAlibaba Cloud、Tencent Cloud、Huawei Cloudなどの国内の主要なクラウドベンダーは、データストレージやデータ処理などのPAAS機能に焦点を合わせ始めています。ストレージ容量の観点から、NOSQLデータベースは、データ型がますます複雑になるため、将来的にはより多くの機会があります。データ処理の観点から、データレイクとデータウェアハウスの重要性は、クラウドコンピューティングの巨人が製品ラインのこの部分を改善し、その基礎となるIAAS基本機能と組み合わせることにより、ますます顕著になっています。完全な製品ラインと閉じたデータループモデルは、AI中間層での将来の競争におけるクラウドコンピューティング巨人の最大の利点です。 AI産業チェーン構造の徐々に明確になり、大規模なモデルによってもたらされる業界の運用効率と技術の深さの大幅な改善により、AIテクノロジーが飛躍的な移行を受けていないと仮定して、AI業界チェーンの価値は両端に向かって徐々に移動すると予想されます&Algorithm Library +アプリケーションシナリオ」。同時に、このような産業構造の取り決めの下で、上流のチップ企業、クラウドインフラメーカー、および下流のアプリケーションメーカーがAI業界の急速な発展の中心的な受益者になることを期待しています。 大きなモデルは、AIの基礎となる基本的な技術的アーキテクチャの統一と、クラウドコンピューティング会社がこのプロセスで基本的な役割を果たすのに自然に役立つことをもたらします。したがって、大きなモデルによって推進される技術的汎用性と実際のビジネスニーズの側面から、クラウドコンピューティングの巨人は、コンピューティングパワーファシリティ +基本アルゴリズムフレームワーク機能の主要なプロバイダーに徐々になると予想され、既存のAIアルゴリズムプラットフォームプロバイダーのビジネススペースを侵食し続けます。過去のクラウドベンダーからのさまざまな製品の引用から、AWSとGoogle製品を例として、米国東部のLinusのオンデマンド価格が段階的に減少していることがわかります。 図からわかるように、2つのVCPU、2つのECU、7.5GIBを備えたM1.large製品の価格は、2008年の約0.4ドルから2022年の約0.18ドルまで減少し続けています。 8 VCPUと30GBのメモリを備えたGoogle CloudのN1-Standard-8製品のオンデマンド価格も、2014年の0.5ドルから2022年の0.38ドル/時間に低下しました。クラウドコンピューティング価格は全体的に下降傾向にあります。今後3〜5年で、より多くのAIがサービス(AIAAS)製品として見られます。前述の大規模なモデル、特にGPT-3の誕生は、GPT-3の膨大な数のパラメーターを引き起こしています。 ▲AWS EC2履歴正規化価格(USD/時間) 現在のコンピューティング電力条件と予見可能な技術能力のサポートにより、アプリケーション側はデータ収集を通じてアルゴリズムの反復と最適化を引き続き実装し、現在の認知インテリジェンス(画像認識の方向に)に存在する欠点を改善し、意思決定インテリジェンスに向けて開発しようとします。現在の技術的能力とハードウェアコンピューティングパワーサポートに基づいて、完全な意思決定インテリジェンスを実現するには長い時間がかかります。現在のAIアプリケーションレベルは依然として単一ポイントが大きすぎるため、ローカル接続を完了すると、意思決定インテリジェンスを実現するための最初のステップになります。人工知能のソフトウェアアプリケーションには、基礎となるドライバーから、ビジネス(製造、金融、物流、小売、不動産など)、人間(メタバース、医療、ヒューマノイドロボットなど)、自動運転およびその他のフィールドに向かう志向から、上位レベルのアプリケーションおよびアルゴリズムフレームワークに含まれます。 Zhidongxiは、AIチップ、コンピューティングパワー施設、データ、および大規模なモデルによってもたらされる問題の一般化とソリューション機能の大幅な改善により、AI業界は「チップ +コンピューティングパワーインフラストラクチャ + AIフレームワーク&ALGORITHMライブラリパートン +アプリケーション +アプリケーション +アプリケーション +」 ORITHMフレームワーク)、AI+アプリケーションシナリオメーカー、プラットフォームアルゴリズムフレームワークメーカーなどは、引き続き業界の中核的な受益者になると予想されます。 |
<<: メタバース技術は人間とコンピュータの相互作用の効率を向上させることができるか?
>>: ボストン・ダイナミクスがマスク氏を激しく批判、それは単なる自慢なのか、それとも現実なのか?テスラロボットに関する3つの大きな推測
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
デジタル変革への最善のアプローチを知りたいですか? 全体的なテクノロジーを明らかにすることはできませ...
7月19日、「新バージョンの文心易言の性能はChatGPT 3.5を上回り、これは我が国の関連技術作...
[[351390]]コインの表裏のように、技術の進歩は人々の生産と生活を促進する一方で、深刻な実際...
機械は損失関数を通じて学習します。これは、特定のアルゴリズムが与えられたデータをどれだけ適切にモデル...
人工知能 (AI) は、コンピューター サイエンス、数学、心理学、言語学などの分野が関わる学際的な分...
[[430265]]ランサムウェアの脅威は目新しいものではありませんが、依然としてニュースの見出し...
下の図は、人間にとって非常に区別しやすい 3 種類の動物、鳥、犬、馬を示しています。しかし、人工知能...
PAI-ChatLearn は、Alibaba Cloud Machine Learning Pl...
[[336217]]多くの新製品と同様に、自動運転に対する人々の態度は、過度の信頼から過少な信頼まで...
著者 |馬斌映像データに関しては、コンピュータビジョン技術を通じて関連データを活用し、ユーザーや企業...
Apple の「1 回の呼び出しで 100 の応答」というアピールは、機械学習の分野でも例外ではない...
1990年代にレコメンドシステムが誕生して以来、2024年時点で32年の開発の歴史があります。過去...