「CNNの父」ヤン・ルカン氏:人工知能には脳がなく、そのIQは犬ほど高くない

「CNNの父」ヤン・ルカン氏:人工知能には脳がなく、そのIQは犬ほど高くない

ビッグデータダイジェスト制作

ディープラーニングの三大巨頭の一人として知られるヤン・ルカン氏は、常に楽観主義者であり、人工知能(AI)の発展に対する楽観的な期待を何度も表明してきました。たとえば、「AI は人間の知能を増幅するものです。AI が強力になればなるほど、人間はより賢く、より幸せになり、より経済的に効率的になります。」

今日、CNBC の記事で、ヤン・ルカン氏が AI の能力の現状を「犬ほど賢くない」と定義していることが明らかになりました。その理由について、ルカン氏は次のように語った。

これらのシステムはテキストのみでトレーニングされており、現実世界の基本的な現実を理解していません。しかし、人間の知識のほとんどは言語とは何の関係もありません...したがって、人間の経験のほとんどは AI によって学習できません。 ”

LeCun 氏の主張を説明するために、彼は、今日の AI システムは米国の司法試験に合格できるが、食器洗い機を使用したり食器を詰めたりすることができないという例を挙げた。一方、10 歳の子供はそれを 10 分で行うことができる。

もっと深い理由は、AI が人間の能力を再現できないことです。たとえば、生後 5 か月の赤ちゃんは水に浮かんでいる物体を見ても何も感じないかもしれませんが、生後 9 か月の赤ちゃんは、その物体が浮かぶはずがないことに気付いてショックを受ける可能性があります。

「この能力を機械で再現する方法はわかっていません。それができるようになるまでは、AIは人間レベルの知能も犬や猫レベルの知能も持ちません」とルカン氏は説明した。

CNNの人工知能観の父

昨年10月、ヤン・ルカン氏はインタビューで「今日の人工知能の手法が真の知能につながることは決してないだろう。すべての人工知能は、特に情報を測定する方法など、いくつかの根本的な問題に直面している」と述べた。

彼は最近の演説で、GPT モデルが用いる手法、つまり確率に基づいて自己回帰モデルを生成する手法が錯覚問題を完全に解決できないことを強く批判した。

以前、LeCun 氏は AI 研究が現在直面している 3 つの大きな課題を提唱しましたが、これらは GPT で使用されている方法では解決できない課題でもあります。

  • AI はどのようにして主に観察を通じて世界を表現し、予測し、行動することを学ぶのでしょうか?
  • AI はどのようにして勾配ベースの学習と互換性のある方法で推論し、計画を立てることができるのでしょうか?
  • AI はどのようにして、複数の抽象化レベルと複数の時間スケールで階層的に認識と行動計画を表現することを学習できるのでしょうか?

上記の問題に対して、LeCun は 2 つの解決策を提案しました。 1 つは、自己教師あり学習法を使用して、システムの学習に必要なデータの量を削減することです。これは基本的に、事前トレーニングを通じてパフォーマンスを向上させることです。 2つ目は、エンドツーエンドのトレーニングを実施し、制御を強化することでエッジケースに対応し問題を解決できるシステムを設計することです。

画像出典: 北京知源会議

具体的には、人工知能の次のステップへの解決策を提供する世界モデルを提案しました。彼のビジョンでは、世界モデルは神経レベルで人間の脳を模倣するだけでなく、認知モジュールの観点から人間の脳の分割に完全に適合するモデルです。ビッグ言語モデルとの最大の違いは、計画および予測機能 (ワールド モデル) とコスト計算機能 (コスト モジュール) を備えていることです。

世界モデルを通じて、世界を真に理解し、将来を予測し、計画を立てることができます。コスト会計モジュールとシンプルな要件 (最も費用対効果の高いアクションのロジックに従って将来を計画する) を組み合わせることで、潜在的な損害や信頼性の欠如をすべて排除できます。

世界モデルをいかに実現するかについては、LeCun 氏は、自己監督モデルをトレーニングに使用できると考えています。たとえば、多層思考モデルを確立する必要があります。

安全か危険か? AIの発展に関する2つの予測

ルカン氏と同じ年にチューリング賞を受賞したジェフリー・ヒントン氏は、異なる見解を持っている。

「こうした超知能は、私が以前考えていたよりもずっと早く現れるかもしれない... 超知能は明らかに、人々を非常にうまく騙すことを学び、実際に人々に好きな行動をとらせることができるようになるだろう。これは非常に恐ろしいことだ!」

この分野の著名人の最近の発言から判断すると、ヒントン氏を支持し、AIは危険だと考える人が増えているようだ。例えば、テスラの社長イーロン・マスク氏は、人工知能は将来の文明が直面する最大の危険の一つだと述べた。

今年5月、多数の学者や専門家が「AIリスク声明」と題する公開書簡に署名し、高度な人工知能の発展が適切に規制されなければ、人類の生存に脅威を与える可能性があると警告した。

この公開書簡は、主要な署名者の多くが AI 研究所や大手テクノロジー企業で上級職を務めている点で、これまでの公開書簡とは異なります。その中には、チューリング賞受賞者のジェフリー・ヒントン氏、ヨシュア・ベンジオ氏、OpenAI CEO サム・アルトマン氏、Google DeepMind 共同設立者兼 CEO デミス・ハサビス氏、Microsoft CTO ケビン・スコット氏、Google 副社長 ジェームズ・マニカ氏、OpenAI 主任科学者 イリヤ・サツケヴァー氏、GAN の父 イアン・グッドフェロー氏などが含まれています。

ヒントン氏はグーグルを辞職し、生涯にわたる後悔を表明した。彼は、今日のAI技術を成功に導いたニューラルネットワークについて謝罪した。

参考リンク:

https://new.qq.com/rain/a/20230612A08QO700

https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html

https://mp.weixin.qq.com/s/LDTpMoDaIf3tTATxWeaSgg

https://mp.weixin.qq.com/s/GxEfoD06P1UPIIbFTbTgEg

<<:  GPT-5 は GPT-4 の背後からの攻撃で死亡しますか?オックスフォードとケンブリッジの研究が警告: ​​AI を「有害」になるようにトレーニングすると、モデルが崩壊する!

>>:  神々の中年の戦いが始まった。どの国内大型モデルが華山の頂上を勝ち取ることができるのか?

ブログ    
ブログ    
ブログ    

推薦する

...

IoTロック商用化の新時代を切り開き、電池不要のnokelockパッシブロックX2が発売

これは電池不要のスマートドアロックです。 5月15日、北京で開催された「nokelock 2019グ...

プリンストン・インフィニゲン・マトリックスが始動! AI Creatorが爆発するほどリアルな100%自然を創造

ネオは、自分が住んでいる世界が現実ではなく、綿密に設計されたシミュレーションであることを発見します。...

ApolloとCarSim/TruckSimの共同シミュレーション

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

マイクロソフトのGitHubはAIを使ってソフトウェア開発者の心を理解しようとしている

コード共有サービス GitHub は、ソフトウェア開発者向けの人工知能アシスタント「GitHub C...

人工知能がメモリ相互接続の進化を推進

人工知能(AI)や自動車用チップの複雑さが徐々に増し、エッジ処理の割合も増加するにつれて、ストレージ...

...

教師なし機械学習の基本ガイド

[51CTO.com クイック翻訳] 教師なし機械学習と人工知能は、組織のビジネス成長に役立つことは...

大企業に必須の、偉大な神からのオープンソースアルゴリズムツールブック

近年、大企業への入社要件はますます高くなり、アルゴリズムに対する要求も徐々に高まっています。アルゴリ...

業界に革命を起こすスマートパッケージング技術トップ10

ほとんどの人がサプライチェーン技術について考えるとき、パッケージングは​​おそらく最初に思い浮かぶも...

小鵬汽車と徳賽SV自動車有限公司がレベル3自動運転システムの開発で協力

最近、小鵬汽車とDesay SVは戦略的協力協定を締結し、レベル3自動運転システムの開発で協力すると...

キャッシュに関して最も懸念される問題は何ですか?種類は何ですか?リサイクル戦略とアルゴリズム?

[[342437]]著者は、正確なタイミング タスクと遅延キュー処理機能を備えた、高同時実行シナリ...

ニューラルコンピュータAIモデルのブレークスルー!トレーニング時間は1秒あたり120万フレームに達し、新記録を樹立

[[326502]]今週、IBMは、同社のニューラル・コンピュータ・システムが1秒あたり120万フレ...

チューリング賞受賞者:人工知能を実装したものは、もはや人工知能とは呼ばれない

1956年、マッカーシーはダートマス大学で開催された会議で初めて「人工知能」の概念を提唱した。後に、...

...