人工知能に関する 10 の質問: ますます普及する AI の将来はどこにあるのでしょうか?

人工知能に関する 10 の質問: ますます普及する AI の将来はどこにあるのでしょうか?

近年、人工知能は爆発的な人気と発展を遂げ、その後、最近は人気が衰えています。人工知能は大企業だけが参加できるゲームになっているようです。

その理由は、人工知能の「閾値」がどんどん高くなっているからです。

少し前にGoogle AIの代表ジェフ・ディーン氏が新作を発表したが、業界にかなりの波紋を巻き起こした。その理由は作品自体が優れているからではありません。この研究は最新の結果をわずか0.03%改善しただけでしたが、57,000ドル以上のTPUコンピューティングパワーがかかったため、大きな話題となりました。

今日のAI研究は計算能力とリソースの競争になっており、一般の学者はもはや追いつけない、と多くの人が言っています。

多くの人がいまだに次のような疑問を抱いています。「人工知能は私たちにどんな変化をもたらしたのか?」囲碁以外に何ができるのか、そして今後どのように発展していくのか。

これらの質問を通じて、私たちはFeng Ji博士と深くコミュニケーションをとりました。彼は、Sinovation Ventures の南京 AI 研究所の執行学部長であり、BeiYang Quantitative の創設者でもあり、AI 分野で長年の研究経験を持っています。この会話を通じて、AI の将来の開発と実装に関する新たな洞察が得られました。

1人工知能のイノベーションは頭打ちになったのか?

Google は最近、多くの注目を集めています。考えるべき 3 つの質問があると思います。

まず、大企業は徐々に「暴力的な美学」、つまり「超大規模データ」+「超大規模コンピューティングパワー」を使って、ディープニューラルネットワークの限界を暴力的に探求する方向に進んでいます。しかし、このアプローチの境界と限界はどこにあるのでしょうか?

第二に、学術的・科学的研究の観点から、この方法は AI にとって唯一の解決策なのでしょうか?実際、知覚知能から認知知能への移行をどのように行うか、比較的少量のデータを使用して人工知能が直面する問題を解決する方法など、他の技術的なルートを模索する研究はすでに数多く行われています。

第三に、産業分野での実際のアプリケーションでは、これほど大きな計算能力が本当に必要なのでしょうか?業界には音声、画像、テキスト以外の関連タスクが多数存在し、学術界もより効率的なアルゴリズムの開発を迫られています。

2人工知能アルゴリズム、ディープニューラルネットワークのみ?

1990 年代以前は、「人工知能」の代表的な技術は、依然として主に「記号化」、つまり論理的推論に基づいて、計画や検索などの技術を行っていました。

2010 年以降、人工知能は重要な変革をもたらし、ニューラル ネットワーク テクノロジを使用してこれらの認識タスクをより適切に表現するようになりました。しかし、論理的推論を行う方法、常識を行う方法、記憶をより適切にモデル化する方法など、人工知能にはまだ解決されていない「聖杯」問題が多数あります。

これらの問題を解決するには、ディープニューラルネットワークを使用するだけで十分でしょうか?これは、学界と産業界が現在より懸念している次の重要な方向性かもしれません。

3人工知能の未来:知覚と認知?

いわゆる「知覚人工知能」は、実際には、画像認識、音声テキスト変換、およびいくつかのテキスト生成タスクなど、近年の人工知能の成功した実装の代表的な例です。

しかし、もっと重要なのは、どのようにしてそのような知覚ベースのタスクから認知タスクに移行できるか、特にどのようにして人工知能を使用して論理的推論と常識を実現し、汎用人工知能を真に実現できるかということです。

私の知る限り、この問題に対処するために学術界には主に 3 つの技術的なルートがあります。

まず、ニューラルネットワークの道を歩み続け、データと計算能力を継続的に蓄積することで問題の解決を試みます。

2番目に、象徴的技術、つまりコネクショニズムと象徴主義の組み合わせを導入してみます。

3番目は、従来の論理的推論技術を継続的に改善することですが、これも最も困難なルートです。

4Data :デジタル時代に石油を採掘するには?

人工知能プロジェクトにとって、データはますます重要になってきています。業界では、「データ中心」開発モデルと呼ばれる新しい概念が提案されています。対照的に、以前は「モデル中心」と呼ばれていました。

従来、エンジニアはモデルの構築方法やシステムのパフォーマンスを向上させるためのパラメータの調整方法に多くの時間を費やしてきました。しかし、今日では、80% の人々の関心は、データ セットを改善する方法、トレーニング セットを改善する方法、トレーニング セットのバランスをとる方法、そして、優れたデータ セットでモデルをトレーニングしてより良い結果を得る方法に集中しています。

データプライバシーに対する要求が高まるにつれ、データがもたらす悪影響や非技術的な要件も増加しています。たとえば、複数の機関が共同でモデリングを行う場合、データのプライバシーを保護するために、機関間でデータを共有することはできません。したがって、フェデレーテッド ラーニングなどのテクノロジは、データのプライバシーを保護しながら共同モデリングを実現するように設計されています。

現在、具体的な産業発展において、各組織間の違いはデータにあるということを誰もが徐々に認識し始めています。今では、非常に便利なソフトウェア オープン ソース フレームワークと非常に効率的なハードウェア実装が実現しており、エンジニアはデータに注目するようになりました。これはパラダイム シフトであり、パラダイム レベルのシフトです。

私が育成した北洋クオントは、AI技術を中核としたヘッジファンドです。社内で毎日保存する必要があるデータの量は約25〜30TBです。そこで、「メモリの壁」という問題に遭遇します。

膨大なデータによるメモリへの負荷に対処するために、データをコールド データ、ウォーム データ、ホット データに分割します。 「コールドデータ」とは、データアクセスの頻度がそれほど高くないため、データベースに保存しても問題ないデータのことです。 「ホット データ」とは、大量の読み取りおよび書き込みタスクを実行する必要があり、データが一般に分散しており、1 回の読み取りおよび書き込みの量が非常に多いことを意味します。では、ホットデータを適切に分散して保存するにはどうすればよいでしょうか?

純粋な SSD ソリューションと比較して、Optane 永続メモリなどのより優れたソリューションが現在存在します。これはメモリと SSD の間にあり、ホット データを分散して保存できるため、「メモリ ウォール」の問題をある程度軽減できます。

5 「AIネイティブ」なITインフラは登場するか?

現在、クラウドコンピューティング インフラストラクチャの再構築を推進する「クラウド ネイティブ」と呼ばれる概念が非常に人気があります。そして、人工知能向けに作られた「AIネイティブ」はすでに実現しています。特に過去 10 年間で、コンピューター ハードウェアの革新は実際に人工知能アプリケーションを中心に開発されてきました。

たとえば、現在、クラウドにおける信頼できるコンピューティングに対する需要が高まっています。例えば、AIモデルの計算プロセスは企業の中核となる知的財産であり、クラウドやパブリックプラットフォーム上に配置すれば、当然、その計算プロセスが盗まれる懸念が生じます。

この場合、ハードウェアベースのソリューションはありますか?答えはイエスです。たとえば、私たちはインテルのチップ上で SGX プライバシー サンドボックスを使用しており、これによりハードウェア的に計算を保護できます。これは実際には、組織間の協力にとって非常に重要な基盤です。

これは非常に典型的な例であり、需要から始まり、チップまたはハードウェアメーカーに適切なソリューションを提供するよう働きかけます。

6人工知能ハードウェアは GPU と同等ですか?

この見方は確かに一方的です。 Beiyang Quant の日常業務を例にとると、定量取引を行う際に、CPU から GPU にデータをコピーし、それを再びコピーすると、多くの定量取引タスクには遅すぎます。つまり、非常に高性能な CPU バージョンの人工知能モデル実装が必要になります。

たとえば、ネットワーク カード上で直接データを分析および処理する必要があるタスクはたくさんありますが、ネットワーク カードには通常 FPGA チップが搭載されており、そこで処理されたデータを GPU に転送するには遅すぎます。人工知能技術の助けを必要とするこのような低レイテンシのシナリオでは、異種混合アーキテクチャが必要です。

つまり、FPGA、ASIC、CPU、GPU のいずれであっても、シナリオによって用途が異なります。

異種プラットフォーム向けのプログラミングに関しては、業界でいくつかの試みが見られました。たとえば、Intel の oneAPI は非常に重要なツールだと思います。つまり、oneAPI を使用すると、同じコード セットを CPU、FPGA、またはその他の種類のチップに自動的に適応させることができます。これにより、エンジニアのプログラミングの難易度が大幅に軽減され、アルゴリズムの革新に集中できるようになります。

これは異種アプリケーションの促進にとって非常に重要だと思います。

7.人工知能開発の今後の方向性は何ですか?

より優れたエンドツーエンドのソリューションが必要になる可能性があると思います。実際、私たちは現在、「ソフトウェア 1.0」から「ソフトウェア 2.0」の時代へとアップグレードしています。つまり、複雑なソフトウェアエンジニアリングの構築は、従来のルール主導型からデータ主導型のソフトウェアエンジニアリング構築方法に変化しました。

以前は、プログラム全体を実行するための一連の高度なシステムを作成するために、優れた知性に頼る必要がありました。これは機械式時計に似ています。優秀なプログラマーは「歯車」の構築と「時計」を動かす方法に重点を置いています。

さて、この一連の動作ルールの設定方法がわからない場合は、大量のデータや機械学習アルゴリズムにそれを投入するだけです。このアルゴリズムは新しいアルゴリズムを生成し、この新しいアルゴリズムが私たちが求めているものになります。このアプローチは、ロボットを構築するロボットを構築することに少し似ています。

ソフトウェア 2.0 の時代では、ソフトウェア エンジニアリング開発パラダイム全体が大きな変化を遂げます。私たちは、エンドツーエンドのソリューションを本当に望んでいます。その中核となるのは、「データ中心」のソフトウェア エンジニアリング開発をより便利に実装する方法です。

8.人工知能は将来どのように実装されるのでしょうか?

おそらく2つの側面があると思います。まず、業界の観点から言えば、私たちは依然として第一原理から始めなければなりません。つまり、私たち自身のニーズに基づいて、多くの非技術的な要素を総合的に考慮しなければなりません。例えば、コミュニティセキュリティ用の顔認識システムを開発したいという企業がありましたが、各出入り口の後ろに非常に高価な GPU を 4 つ装備する必要がありました。これは、需要とコストから始めていない典型的なケースでした。

第二に、学術研究は必ずしもトレンドに従う必要はありません。冒頭で述べたように、モデルの規模で互いに競争する必要はありません。あなたが 1000 億のモデルを持っているなら、私は 1 兆のモデルを作りますし、あなたが 1 兆のモデルを持っているなら、私は 10 兆のモデルを作ります。

実際、小規模なパラメータを必要とするタスクや、コストの制約により少数のサンプルしか提供できないタスクが多数あります。このような状況下で、どのように革新を起こし、飛躍的な進歩を遂げることができるのでしょうか?これは学術界が積極的に引き受けるべき責任です。

9人工知能起業は今でもホットな話題ですか?

考えてみれば、1990 年代後半には、ネットワーク プログラミングのスキルを持つ人がほとんどいなかったため、Web サイトを構築するのに 2 万~ 3 万元の費用がかかりました。しかし今日では、高校生なら誰でもマウスをクリックするだけでウェブサイトを構築できます。

言い換えれば、ネットワークに関する知識は、すでにあらゆる平均的なプログラマーのツールキットに組み込まれているということです。

実際、人工知能技術についても同じことが言えます。 2015 年頃、GPU 上で実行できるディープラーニング フレームワークを構築できる人は、おそらく世界中に 1,000 人程度しかいませんでした。そして、それが急激な成長を遂げた今、多くの人がその方法を知っています。約 5 年後には、あらゆるプログラマーのツールキットにさらに豊富な人工知能ソリューションが搭載され、その実装のハードルは確実に下がり続けると私たちは考えています。このようにして初めて、人工知能技術はあらゆる企業でより広く活用されるようになります。

そのため、大企業のAIラボは消滅する運命にある。 2000 年頃と同様に、多くの企業には社内のネットワークに関するあらゆる事項を扱う専用ラボであるインターネット ラボがあり、このラボから他の業務部門に技術的な成果が提供されていました。これは、この技術を持っている人が非常に少ないため、これを実行する必要があるためです。

AIラボも同様です。AI技術の導入の敷居が徐々に下がり、業務部門でも同様の技術を持つ人が多数存在するようになれば、このようなAIラボは必然的に消滅するでしょう。これは技術開発の過程における一時的な製品に過ぎないと思いますが、それは良いことだと思います。大企業が AI ラボを持たなくなるときこそ、おそらく人工知能が真に繁栄する時でしょう。

10.人工知能は一般の人々にどのような利益をもたらすのでしょうか?

まず、ムーアの法則のサポートがまだ必要です。高い計算能力を必要とするタスクはまだ多数あり、ハードウェアを継続的に反復し、アルゴリズムを更新する必要があります。クラスター上で実行する必要のあるものがモバイル フォン上で実行できる場合にのみ、AI を広く実装できます。

第二に、人工知能のイノベーションの焦点は、インターネットビジネスからいくつかの伝統的な産業に移行する必要があります。以前は、人工知能を使用して、より優れた視覚ソリューション、より優れた推奨システム、より優れた写真編集ソフトウェアを作成する方法に誰もが注目していました。しかし、現実の経済においては、データを生成する部門や事業が数多く存在します。こうした現実の経済データをさらにデジタル化できれば、それがもたらす価値は現在の仮想経済をはるかに上回るものとなるかもしれません。

<<:  朱松春チームによる最新の研究:ロボットは人間と心からコミュニケーションできる!彼はまた、次のステップは「AI大百」を作ることだと述べた。

>>:  Google とスタンフォード大学が共同で記事「なぜ大規模なモデルを使用する必要があるのか​​?」を発表しました。

ブログ    

推薦する

ChatGPT「コードインタープリター」が正式リリースされました! 30秒で写真を動画に変え、口を動かしてショーを作りましょう

家族よ、ついに来たぞ!先ほど、ChatGPT「コードインタープリター」ベータ版がすべてのPlusユー...

4つの主要な機械学習プログラミング言語の比較: R、Python、MATLAB、Octave

この記事の著者は、R、Python、MATLAB、OCTAVE の 4 つの機械学習プログラミング言...

ディープラーニングと従来の機械学習のメリットとデメリット!

過去数年間、ディープラーニングは、従来の機械学習を凌駕し、ほとんどの AI 型の問題に対する頼りにな...

...

NLP ビッグモデルを時系列に適用するにはどうすればよいでしょうか? 5つの方法をまとめました!

最近、カリフォルニア大学は時系列の大規模言語モデルに関する研究のレビューを発表しました。この記事では...

スマートヘルスケアの 6 つの主要な応用分野は何ですか?

スマートヘルスケアで使われる主なAI技術は画像とデータ分析機能ですが、その応用範囲は次の6つを含めて...

プログラマーの視点から Java でニューラル ネットワークを設計する

人工ニューラル ネットワーク (ANN) またはコネクショニスト システムは、生物学的脳を構成する生...

...

...

50億のブルーオーシャンが呼び寄せる、電力検査ロボットが最前線に

[[398288]]近年、気温が高くなり、多くの地域で扇風機やエアコンが使用されるようになり、それに...

分類アルゴリズムの概要

[[151327]]決定木分類アルゴリズム決定木誘導は古典的な分類アルゴリズムです。これは、トップダ...

ロボットプログラムは人間のプログラマーのようにバグを修正する

[[247601]]プログラムにバグが含まれることは避けられず、バグを見つけて修正することはプログラ...

作業効率を大幅に向上できるAIツール

AI はワークフローを強化し、反復的なタスクを削減し、出力を増幅します。スタンフォード大学とMITの...

...