2023年の人工知能分野でキーワードを1つだけ選ぶとしたら、それはおそらく「ビッグモデル」でしょう。大型モデルの発展は、過去1年間にあらゆる分野で大きな変化をもたらしました。大型モデルのおかげで生まれ変わった企業もあれば、大型モデルのおかげで消滅した企業もありました。企業の変化は技術の反復と密接に関係しており、ビッグモデルは新世代の人工知能技術の産物であり、ビッグモデルは各界に浸透し、特定の業務に全面的な介入を行っています。今後、AIビッグモデルの影から逃れられる業界はなくなると言えるでしょう。新年を迎え、人工知能の発展は次の段階に入り、社会生産の変化がより顕著になります。以下は、過去1年間の人工知能の発展状況に基づいて、今後1年間の人工知能の発展を予測したものです。 1. MoEベースの手法は大規模モデル研究の新たな方向性となるMoE(Mixture-Of-Experts)は、ゲーティング ネットワークを使用してタスク/トレーニング データをさまざまなエキスパート モデルに分散し、各モデルが最も得意とするタスクに集中できるようにすることで、モデルのスパース性を実現するディープラーニング テクノロジーです。この方法により、計算速度を確保しながらモデルの容量を 1000 倍以上に増やすことができます。 MoE モデルは、ゲーティング ネットワークとエキスパート ネットワークという 2 つの主要コンポーネントで構成されています。ゲーティング ネットワークは、入力データの特性に基づいて最適な予測を生成するためにどのエキスパート モデルをアクティブ化するかを動的に決定する役割を担います。エキスパート ネットワークは独立したモデルのセットであり、各モデルは特定のサブタスクの処理を担当します。ゲーティング ネットワークを通じて、入力データは処理に最適なエキスパート モデルに割り当てられ、異なるモデルの出力が重み付けされて融合され、最終的な予測結果が得られます。 MoE モデルは、いくつかの実際のアプリケーションで注目すべき結果を達成しました。たとえば、高級品会社 LVMH モエ ヘネシー ルイ ヴィトン SE 傘下のフランスのブティック ワイン ハウス、モエ エ シャンドンを考えてみましょう。彼らは MoE モデルを使用して、製品の品質と精度を向上させています。 2023年12月、Mistral AIはGPT-4のようなアーキテクチャを備えたMistral 8x7Bモデルのオープンソース版をリリースしました。70億のパラメータを持つこれら8つの小さなモデルの組み合わせは、複数の実行スコアで最大700億のパラメータを持つLlama 2を直接上回りました。 Nvidia の上級研究科学者 Jim Fan 氏は、Mistral がすでに 34Bx8E または 100B+x8E モデルを開発している可能性があると推測しました。そして、そのパフォーマンスは GPT-3.5/3.7 のレベルに達した可能性があります。 2. Transformerアーキテクチャの優位性が問われるTransformer が登場して以来、ここ数年、そのアーキテクチャは大規模モデル向けにカスタマイズされてきました。シンプルなフィードフォワード ニューラル ネットワーク モデルは、モデルに十分な大きさのパラメータを提供できます。さらに、残差モジュールとアテンション モジュールによるエンコードおよびデコード構造のスタックにより、パラメータ数がさらに増加するだけでなく、モデルの表現能力も強化されます。高密度マルチヘッド セルフ アテンション メカニズムは、データ内の関係性を表現するために不可欠な機能をモデルに提供します。 しかし、基礎となる基本モデル技術の研究開発に伴い、いくつかの新しいモデルアーキテクチャが徐々に従来のTransformerに一定の課題を突きつけています。もちろん、この課題は学術レベルに限定されず、その後の業界でも確認される可能性があります。 Transformer のパラメータ数はトークン数の 2 乗に比例して増加するため、計算コストも急激に増加します。また、パラメータが一定レベルに達すると、Transformer も表現のボトルネックに遭遇します。その結果、将来 Transformer に代わる可能性のある研究スキームがいくつか登場しています。 lRetNet: RetNet (Retentive Network) は、大規模言語モデルのインフラストラクチャとして設計されています。RetNet の主な利点は、トレーニングの並列性、低コストの推論、優れたパフォーマンスを同時に実現できることです。 RetNet は、従来の「注意」メカニズムに代わる「保持」と呼ばれるメカニズムを提案しました。このメカニズムは、並列、ループ、ブロック ループという 3 つのコンピューティング パラダイムをサポートします。具体的には、並列表現によりトレーニングの並列化が可能になり、再帰表現により推論が安価になり、チャンク化された再帰表現により長いシーケンスを効率的にモデル化できるようになります。 lRWKV: RWKV (Receptance Weighted Key Value) は、Transformer の効率的な並列トレーニングと RNN の効率的な推論を組み合わせたものです。 RWKV は、Transformer のメモリボトルネックと二次スケーリングの問題を軽減するように適切に設計されており、この分野で Transformer が優位になるいくつかの特性を保持しながら、より効率的な線形スケーリングを実現します。 lMamba: Mamba は選択的状態空間モデル (SSM) に基づいています。Mamba は、これらの選択的 SSM を、アテンション メカニズムや MLP ブロックを必要とせずに、簡素化されたエンドツーエンドのニューラル ネットワーク アーキテクチャに統合します。 Mamba は、パラメータを入力の関数にすることで SSM の離散モダリティの弱点に対処し、モデルが現在のトークンに応じてシーケンス長の次元に沿って情報を選択的に伝播または忘れることを可能にします。 Mamba は推論が高速 (Transformer より 5 倍高いスループット) で、シーケンスの長さに応じて線形に拡張されます。言語モデリングタスクでは、Mamba-3B モデルは、事前トレーニングとダウンストリーム評価の両方で同じサイズの Transformer よりも優れており、その 2 倍のサイズの Transformer モデルに匹敵します。 lUniRepLKNet: UniRepLKNet は、Tencent と香港中文大学が共同でリリースした大規模カーネル畳み込みニューラル ネットワーク (CNN) に基づく大規模モデル インフラストラクチャです。 UniRepLKNet は、大規模コアの CNN を使用し、画像、音声、時系列予測など、複数のモダリティでデータを処理できます。 UniRepLKNet は、大規模コア CNN アーキテクチャの設計に関する 4 つのガイドラインを提案し、実際の高速化の利点を実現し、複数のモダリティで最先端のパフォーマンスを実現するハードウェア対応の並列アルゴリズムを設計します。 UniRepLKNet は、画像用に設計されたこのバックボーンを使用して、時系列予測のための非常に大規模なデータセットで最先端のパフォーマンスを実現します。これらの機能により、UniRepLKNet は、大規模コア CNN の利点を効果的に活用する強力なモデル アーキテクチャになります。 lStripedHyena: StripedHyena は、Together AI がリリースした新しい AI モデルで、アテンションとゲート畳み込みをいわゆる Hyena 演算子に組み合わせています。 StripedHyena は、ゲート畳み込みとアテンションを Hyena 演算子に組み合わせた独自のハイブリッド構造を採用しています。この構造により、StripedHyena は、トレーニング、微調整、長いシーケンスの生成中に、より効率的に、より高速に、より効率的に処理できるようになります。 OpenLLM リーダーボード タスクを含む短いシーケンス タスクでは、StripedHyena は Llama-27B、Yi7B、および RWKV14B などの最も強力な Transformer の代替手段よりも優れています。 StripedHyena は長いシーケンスを処理できるため、長いプロンプトを処理するさまざまなベンチマークで優れたパフォーマンスを発揮します。 StripedHyena は、計算効率を最適化し、トレーニング中にアーキテクチャの変更を可能にするように設計されています。 lPanGu-Π: PanguΠ は、Transformer の特徴崩壊問題と非線形関係を最適化する新しい Transformer モデルです。 Transformer のより深いレイヤーでは、特徴のランクが大幅に低下し、すべてのトークン間の類似性が増加し、LLM の生成品質と多様性が大幅に低下します。非線形性は、Transformer モデルの機能に大きな影響を与えます。非線形性を強化すると、特徴の崩壊の問題を効果的に軽減し、Transformer モデルの表現力を向上させることができます。 PanGuΠ は、フィードフォワード ネットワーク (FFN) に直列アクティベーション関数を採用し、マルチヘッド セルフ アテンション (MSA) に強化されたショートカット接続を統合することで、Transformer アーキテクチャにさらに非線形性を効果的に導入します。また、拡張ショートカットは、機能の崩壊の問題を軽減し、大規模な言語モデルの表現力を向上させるために使用されます。 上記の基本モデルフレームワークや関連する微調整技術は、Transformer の優位性に一定の影響を与えるでしょう。これらが Transformer を完全に置き換え、大規模モデルの世界を支配できるかどうかは、学術界の成果だけでなく、産業界の行動にもかかっています。 3. 大規模モデルの微調整不要法はある程度開発されている大規模モデルのパフォーマンスは非常に優れているため、モデルの微調整が不可欠です。最近のいくつかの研究では、アライメント調整に関する詳細な研究により、その「表面的な性質」が明らかになりました。つまり、教師あり微調整と強化学習を通じて LLM を調整しても、モデルの言語スタイルにのみ影響し、モデルのデコード パフォーマンスへの影響は比較的小さい可能性があります。具体的には、基本 LLM とアライメント調整バージョン間のトークン分布の違いを分析することで、ほとんどの場合、デコードのパフォーマンスはほぼ同じであり、主な変更は談話マーカーや安全性ステートメントなどの文体の側面で発生することがわかりました。 研究者らは、URIAL (Untuned LLMs with Restyled In-context ALignment) と呼ばれる、チューニングを必要としないシンプルなアライメント手法を提案しました。 URIAL アプローチは、コンテキスト内学習 (ICL) を活用して、少数の慎重にキュレーションされたスタイル例と慎重に設計された体系的なヒントを採用することで、重みを調整せずにグラウンド トゥルース LLM の効率的なアライメントを実現します。このアプローチでは、コンテキストの例が巧みに構築され、最初にユーザーのクエリを認識して背景情報を紹介し、次に項目または手順を詳細にリストし、最後にセキュリティ関連の免責事項を含む魅力的な要約で終了します。 このような直接的なベースライン アプローチにより、ベース LLM と調整された LLM 間のパフォーマンス ギャップを大幅に削減できることがわかりました。これは、慎重に設計されたコンテキスト例を使用すると、基礎となる LLM の効果的なアライメントを調整なしで実現できることを示しており、アライメント研究に新しいアイデアを提供します。 基本モデルが適切に設計され、高品質のデータと十分なトレーニングがあれば、微調整のステップを完全に省略できることが証明されています。これにより、大規模モデルのトレーニングの効率が向上するだけでなく、大規模モデルの微調整のコストも大幅に削減されます。 4. マルチモーダルなビッグモデルはあらゆる産業に浸透し続ける過去1年間、ChatGPTを中心とした大規模モデルが徐々にアプリケーション市場に参入するにつれて、初期の言語モデルアプリケーションから、視覚モデルアプリケーション、音声モデルアプリケーションなど、複数のアプリケーション分野に発展し、マルチモーダルな大規模モデルが誕生しました。マルチモーダル大規模モデルは、複数の種類の入力(テキスト、画像、音声など)を処理できる人工知能モデルです。マルチモーダルビッグモデルは、徐々にあらゆる分野を変えています。 マルチモーダル大規模モデルは自動運転の分野で応用されており、例えばカメラ、ライダー、超音波などのさまざまなセンサーを使用して、より包括的で正確な自動運転システムを構築できます。中国科学院自動化研究所の「オムニメディア・マルチモーダルビッグモデル」は、新華社通信のオムニメディアとメディア統合ビジネスシナリオの膨大なデータ蓄積と組み合わせることで、ビデオの吹き替え、音声放送、タイトルの要約、ポスター作成など、複数のメディアビジネスシナリオにおける人工知能の応用を推進してきました。 Microsoft の研究者が書いたレビューでは、マルチモーダル基本モデルが特化型から汎用型へと移行し、今後は大規模モデルを使用してマルチモーダル タスクを処理する方法に重点を置いた研究が増えると予測されています。中国科学院は、「マルチモーダル大モデル+小モデル」モデルが主流になる可能性があると予測しており、マルチモーダル人工知能業界はシナリオ応用の新たな段階に向かっている。マルチモーダル大規模モデルは、人工知能の将来の発展において重要な役割を果たすでしょう。 これらの証拠と予測は、マルチモーダルなビッグモデルが今後もあらゆる分野に浸透し、変革を起こし、私たちの生活にさらなる可能性をもたらすことを示唆しています。新年も、マルチモデルの開発と応用は各界に浸透し続け、特定のビジネスにも無視できない影響を与えるでしょう。 5. 具現化されたAIが急速に発展し始める具現化された AI は、エンボディド AI とも呼ばれ、物理的な実体を持ち、マルチモーダルな方法で現実世界と対話できるインテリジェントな実体を指します。具現化された知能とは、知覚、意思決定、行動を統合することで、機械が人間のような身体的および運動能力を持つことを可能にすることを目的としたインテリジェント システムの設計コンセプトです。具現化された知能の核となる概念は、機械のボディ構造と動作能力を利用して、その知能的なパフォーマンスと複雑なタスクを解決する能力を強化することです。従来の人工知能システムは主にデータ処理とアルゴリズムの最適化に重点を置いていますが、具現化された知能は機械と環境の間の相互作用とコミュニケーションに重点を置いています。 1986年、有名な人工知能の専門家であるロドニー・ブルックスは、具体化された知能の理論を提唱しました。彼は、知能は具体化され、文脈化されており、表現を中心とした従来の古典的なAIアプローチは間違っていると信じていました。 フェイフェイ・リー教授は、新しいコンピューティングフレームワークであるDERL(深層進化強化学習)を提案しました。この記事では、生物進化と知的エージェントの進化の関係について言及し、進化理論を借用して、仮想知的エージェント(宇宙の普遍動物)の進化学習に適用しました。 現在、身体性知能は国際学術界における最先端の研究方向となっており、米国国立科学財団などの機関が身体性知能の開発を推進しています。 Google の Everyday Robot はすでに、ロボットと会話モデルを組み合わせて、より大きなクローズドループを形成できるようになっています。カリフォルニア大学バークレー校の LM Nav は、3 つの大規模モデル (視覚ナビゲーション モデル ViNG、大規模言語モデル GPT-3、視覚言語モデル CLIP) を使用して、ロボットが地図を見ずに言語の指示に従って目的地に到達することを教えます。 ロボットの関節制御など、形態に基づく身体知能の研究により、ロボットは自身の形態に基づいて全体的な動作を制御できるようになります。具現化された AI は急速に発展しており、人工知能の分野でますます重要な役割を果たしています。 6. 汎用人工知能は爆発前夜に特異点に突入する汎用人工知能 (AGI) とは、人間と同等かそれ以上の知能レベルを持つ人工知能の一種を指します。特定のタスクの実行や特定の問題の解決に重点を置いた AI の形式である Narrow AI とは異なります。汎用人工知能はより包括的かつ柔軟で、複数の異なる分野のタスクを処理でき、人間と同様の学習能力とインテリジェントな適応性を備えています。生成型人工知能の発展に伴い、人工知能技術の今後の発展は汎用人工知能前夜の爆発特異点に達しています。 マッキンゼーの年次世界調査の最新結果では、生成型人工知能 (GenAI) ツールが爆発的に増加していることが確認されています。これらのツールの多くは導入されてから 1 年未満ですが、すでに回答者の 3 分の 1 が、組織が少なくとも 1 つのビジネス機能で GenAI を定期的に使用していると回答しています。 OpenAI は、この最先端の研究機関の汎用人工知能研究に対する姿勢を詳述した「AGI ロードマップ」を公開しました。 OpenAI は、AGI を迅速に展開して対応するアプリケーションで経験を積むことを目指し、より強力な AI システムの構築を続けています。OpenAI は、より一貫性があり制御可能なモデルの作成に取り組んでいます。OpenAI は、人工知能システムのガバナンス、AI システムによって生成された利益の分配、アクセス権の共有という 3 つの重要な問題を世界的に解決したいと考えています。 OpenAIは最終段階で世界に大きな変化をもたらすAGIが登場すると予想しています。 iFlytekの副社長で研究所所長の劉聡氏は、汎用人工知能の今後の発展は3つの傾向を示すだろうと提言した。第一に、マルチモーダル性と多言語性の方向へ発展する。第二に、信頼性と説明可能性が高まり、幻覚問題やセキュリティの問題を解決する。第三に、ソフトウェアとハードウェアの完全に独立したイノベーションに基づく大規模モデルの技術と産業を発展させる必要がある。 マッキンゼーは、汎用人工知能の潜在的な経済的価値は17兆ドルから26兆ドルの間であると予測しており、この価値を追求する企業の割合は増加し続けています。 これらの証拠と予測は、来年が汎用人工知能の爆発的発展の前夜になる可能性があることを示しており、汎用人工知能の急速な発展と広範な応用を期待する理由があります。 7. 垂直分野における大型モデルの開発は安定期に入る垂直大規模モデルは、特定の分野やタスクに対してディープラーニングのトレーニングを実行する超大規模モデルです。一般的なビッグモデルと比較して、垂直ビッグモデルはドメイン特化とタスク特異性が強く、特定の分野の問題をより適切に解決し、より正確なサービスを提供することができます。 各業界での垂直的なビッグモデルの応用が継続的に爆発的に増加し、ビッグモデルが各業界に与える影響はピークに達しています。医療、教育、交通、法律、メディアなど、ビッグモデルによって最も容易に変化できる多くの業界がビッグモデルと深く融合しており、関連企業も積極的にビッグモデル産業チェーンを展開しています。時間的に見ると、来年、垂直型大型モデルの応用は爆発的な成長期を過ぎて、安定した発展期に入り、業界の需要と配当を継続的に解放するでしょう。 垂直型ビッグモデルは急速にあらゆる産業をカバーしつつあります。例えば、Ctripグループは国内観光業界初の垂直型大型モデル「Ctrip Wendao」を発表し、Huaweiは金融、電力、薬物分子の3つの垂直分野で大型モデルを発表した。JD.comは、発表された数千億規模の大型モデルは、今後さらに産業応用に重点を置くと述べた。 今後、垂直分野の大型モデルの研究開発への投資は引き続き増加し、多くの国内企業が「垂直大型モデル」の研究開発への投資を増やし、観光、商業、金融、医療、オフィスコラボレーションなどの分野への応用を加速させるだろう。 業界関係者によると、現在、中国には汎用型大型モデルの製造と垂直型大型モデルの製造という2つの道があるという。コンピューティング能力、大規模データ、高額な人材は、ほとんどの企業にとって、一般的な大規模モデルに参入する上での障害となっています。高度なカスタマイズと幅広いシナリオの適用により、国内の垂直分野における大型モデルの開発が進みました。 テンセントが発表したビッグモデル時代のAIトレンドレポートによると、今後のデジタルビジネスは、大型モデルインフラ企業、垂直産業分野の小型モデルアプリケーション企業、そしてより個々のユーザーに適したモデルアプリケーションとサービスに分かれるという。このエコシステムの構築と発展により、さまざまな業界での応用がより広範囲に可能となり、社会のあらゆる分野でデジタル変革とインテリジェント化が加速し、社会全体の生産効率の向上をもたらします。垂直分野における大型モデルの開発は安定期に入り、その応用と影響はますます広範囲に及ぶようになるでしょう。 8. 国内の人工知能技術がボトルネックを突破し、急速に発展し始める人工知能の発展は、70年以上前の1950年代に米国で行われたダートマス会議で合意されたことに端を発しています。つまり、人工知能は実際には新しい分野や技術ではありません。過去数十年にわたり、人工知能を研究する世界の技術者は主に米国、カナダ、英国などの国に集中しており、関連する技術成果も上記国の技術チームから生まれています。しかし、私の国では、過去数十年間、人工知能技術を真に研究しているグループや個人ははるかに少なかった。これは主に、過去数十年間の人工知能は主に基礎研究に基づいており、応用された人工知能製品が非常に少なかったためです。 中国が本格的に人工知能技術の研究を始めたのは2016年頃だった。2016年3月、DeepMindチームが開発したAlphaGOが囲碁の世界チャンピオンでプロ九段のイ・セドル氏と人間対機械囲碁対決を行い、合計スコア4対1で勝利した。それ以来、人工知能技術の人気は絶えず更新されてきました。 しかし、これらのホットな出来事はすべて海外で起こった。中国では人工知能技術の発展に関してセンセーショナルな出来事はほとんど報道されていない。中国はむしろ外国の技術の足跡をたどる可能性が高い。これもまた普通のことだ。主な理由は、中国が技術者の埋蔵量や技術の蓄積の面で外国に匹敵できないからだ。 しかし、近年の追い上げにより、国内の技術陣は徐々に一部の分野で頭角を現し、その技術成果も目覚ましいものがあります。技術面では一定の突破口が開かれ、業界規模も年々拡大しています。最新の統計によると、中国の中核人工知能産業の規模は5,000億元に達し、企業数は4,400社を超え、約1万のデジタルワークショップとスマートファクトリーが建設されている。 また、近年、国内の人工知能論文数は急増しており、良い論文と悪い論文が混在し、一部の論文の質が低いという結果が出ています。しかし、これは人工知能の発展が停滞していることを意味するのではなく、むしろより多くの研究者が現在この注目の研究方向に投資していることを意味します。 2023 年には、人工知能技術の分野でいくつかの重要な進歩があり、複数の業界や分野に変革が始まったか、その可能性を秘めています。 来年、国内の人工知能技術はボトルネックを突破し、急速に発展し始めるでしょう。これは中国の科学技術革新と経済発展に大きな推進力を与えることになるだろう。 9. エヌビディアは人工知能チップの分野で依然として大きくリードしている2023年には、我が国のスマートチップ、開発フレームワーク、汎用大型モデルなどの革新的な成果が引き続き登場し、Huawei、Cambrian、Jingjiawei、BiRen Technology、Moore Threads、Suiyuan Technologyなどのチップ企業は、さまざまな設計アーキテクチャとさまざまなアプリケーションシナリオを備えたAI推論およびトレーニングタスク用のチップアクセラレータカードを発売しました。 米国は、人工知能チップ、アルゴリズム、機械学習などの独自のコア技術において依然として大きなリードを保っています。 Nvidia の GPU と Google の TPU は、チップ分野の業界リーダーです。米国の AI 業界は全体として、より幅広く洗練された技術レイアウトを備え、世界の他の国々よりも進んでいます。 Baidu の PaddlePaddle を除いて、中国で主流となっているその他のディープラーニング オープンソース フレームワークはすべて米国発です。 NVIDIA は世界をリードする GPU 企業であり、その製品ラインには A100、H100、L40、L40S、GH200 などの製品が含まれています。 NVIDIA のデータ センター ソリューションは、統合された NVIDIA アクセラレーテッド コンピューティング プラットフォームを提供します。AI、データ分析、ハイパフォーマンス コンピューティング (HPC)、レンダリングに至るまで、データ センターは重要な課題を克服するための鍵となります。 Informa PLC傘下の英国の調査・コンサルティング会社Omdiaの調査によると、現在、Nvidiaは大規模データセンターにおけるAI専用コンピューティング市場の総収益の約80%を占めている。 Nvidiaは2024年度に急速な成長が見込まれています。 2024年度第2四半期の収益は135億米ドルで、前年比101%増、前四半期比88%増でした。2024年度第3四半期の収益は181億米ドルで、前年比206%増でした。 NVIDIAとMediaTekが共同開発した最初のチップはスマートコックピットに使用され、2025年に発売され、2026年から2027年の間に量産される予定です。 NVIDIA は、AI インフラストラクチャと高性能コンピューティング向けの初のデータセンター専用 CPU である NVIDIA Grace を発表しました。これは、最新世代の NVLink-C2C テクノロジーによって相互接続された 2 つの CPU チップで構成されています。 これらの証拠は、NVIDIA の技術的優位性、市場シェア、開発の勢い、パートナー、AI チップにおける革新能力により、同社が今後数年間、世界的リーダーとしての地位を維持できることを示しています。 しかし、中国はコンピュータービジョンや音声認識などの分野で米国に追いついている。たとえば、Baidu の事前トレーニング済みモデル ERNIE は Microsoft と Google を抜いて Glue チャンピオンシップで優勝し、SenseTime は 2016 年に Image Net で 3 つのチャンピオンシップを獲得し、CloudWalk Technology は Librispeech で新しい世界記録を樹立しました。さらに、中国は人工知能チップの特許件数が最も多く、成長率も最も高く、国内機関はAIチップ分野での特許配置を大幅に増加させています。 10. 意思決定人工知能が次の出口となる意思決定人工知能は、意思決定インテリジェンスとも呼ばれ、さまざまなソフトウェア技術に基づいた実用的な意思決定最適化技術です。データ分析、機械学習、人工知能の可能性を最大限に活用して活用することで、人間がより低コストでより効率的な意思決定を行うのに役立ちます。自己生成型人工知能の爆発的な増加の後、意思決定型人工知能が注目に値する次のトレンドとなるでしょう。 今後、意思決定AIは3つの主要な方向に発展していきます。まず、1対1の囲碁からMOBAやサッカーなどの大規模なマルチエージェントのシナリオまで、インテリジェントエージェントの数が増加しています。第二に、人間とコンピュータの相互作用の方法はより多様化し、競争的な対決からゲームやコラボレーションへと進化しています。 3 つ目は、意思決定環境が、初期の 2D シーンから 2.5D ゲーム、そして現実のシーンに近い 3D オープン ワールドへと、ますます複雑になっていることです。 ガートナーは、2024 年までに 30% の組織が新しい「社会の声」指標を使用して、直面している社会問題に対処し、デジタル倫理がビジネス パフォーマンスに与える影響を評価すると予測しています。また、2020年時点で意思決定人工知能の市場規模は268億元に達し、過去4年間の年平均複合成長率は83.5%に達している。2020年から2025年まで年平均複合成長率47.1%を維持し、2025年には1,847億元を超えると予想されている。 意思決定インテリジェンスは、運用品質と意思決定レベルを向上させるだけでなく、より多くのビジネス価値を生み出し、新しいビジネスモデルを生み出し、データを直接収益化することもできます。 これらの証拠は、意思決定人工知能が幅広い発展の見通しと大きな応用価値を持つ次のトレンドになることを示しています。注目すべきは、意思決定人工知能は人間の意思決定を支援するだけでなく、より多くの分野で意思決定において人間に完全に取って代わることができるということです。具現化された人工知能を実現するにせよ、汎用的な人工知能を実現するにせよ、意思決定型人工知能の助けは切り離せないものであると想像できます。 2023年はAIGC元年であり、AIビッグモデル元年でもあります。この年、人工知能の実用化は飛躍的な成長を遂げ、生産コストの削減と生産効率の向上だけでなく、あらゆる分野に多くのチャンスをもたらしました。 2024年には、人工知能の発展が新たなレベルに達し、人類文明の発展にさらなる貢献を果たすでしょう。 |
2016年、AlphaGoが人間のチェスプレイヤーであるイ・セドルを破り、人工知能に関する研究と考...
トップ10のアルゴリズムを発明したアルゴリズムの巨匠たち1. 1946年のモンテカルロ法[1946年...
8月9日、Microsoft Azureは企業向けにクラウドベースのサービスと機能を多数提供開始しま...
【51CTO.comオリジナル記事】 1. ロングテール効果?動物の尻尾と関係があるのでしょうか?前...
1. 人工知能技術の定義人工知能技術は、複雑な生産労働において機械が人間に取って代わることを可能にす...
科学技術の継続的な発展により、多くの業界で「ロボット」が使用され、効率が向上するだけでなく、人件費も...
[[121946]]序文以前、このブログでクイックソートアルゴリズムに関する人気のチュートリアル記事...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
SIG 2018 Bluetooth市場レポートによると、2022年までに52億台のBluetoot...
最近、AIコードエディタCursorが人気になってきました—— GPT-3.5/GPT-4 に接続す...
ケビン・ケリー氏は「人工知能は人類社会を混乱させる次のものだ」と語った。 2020年は、全世界が前例...