ビッグデータダイジェスト制作 ディープラーニングの三大巨頭の一人として知られるヤン・ルカン氏は、常に楽観主義者であり、人工知能(AI)の発展に対する楽観的な期待を何度も表明してきました。たとえば、「AI は人間の知能を増幅するものです。AI が強力になればなるほど、人間はより賢く、より幸せになり、より経済的に効率的になります。」 今日、CNBC の記事で、ヤン・ルカン氏が AI の能力の現状を「犬ほど賢くない」と定義していることが明らかになりました。その理由について、ルカン氏は次のように語った。 これらのシステムはテキストのみでトレーニングされており、現実世界の基本的な現実を理解していません。しかし、人間の知識のほとんどは言語とは何の関係もありません...したがって、人間の経験のほとんどは AI によって学習できません。 ” LeCun 氏の主張を説明するために、彼は、今日の AI システムは米国の司法試験に合格できるが、食器洗い機を使用したり食器を詰めたりすることができないという例を挙げた。一方、10 歳の子供はそれを 10 分で行うことができる。 もっと深い理由は、AI が人間の能力を再現できないことです。たとえば、生後 5 か月の赤ちゃんは水に浮かんでいる物体を見ても何も感じないかもしれませんが、生後 9 か月の赤ちゃんは、その物体が浮かぶはずがないことに気付いてショックを受ける可能性があります。 「この能力を機械で再現する方法はわかっていません。それができるようになるまでは、AIは人間レベルの知能も犬や猫レベルの知能も持ちません」とルカン氏は説明した。 CNNの人工知能観の父 昨年10月、ヤン・ルカン氏はインタビューで「今日の人工知能の手法が真の知能につながることは決してないだろう。すべての人工知能は、特に情報を測定する方法など、いくつかの根本的な問題に直面している」と述べた。 彼は最近の演説で、GPT モデルが用いる手法、つまり確率に基づいて自己回帰モデルを生成する手法が錯覚問題を完全に解決できないことを強く批判した。 以前、LeCun 氏は AI 研究が現在直面している 3 つの大きな課題を提唱しましたが、これらは GPT で使用されている方法では解決できない課題でもあります。
上記の問題に対して、LeCun は 2 つの解決策を提案しました。 1 つは、自己教師あり学習法を使用して、システムの学習に必要なデータの量を削減することです。これは基本的に、事前トレーニングを通じてパフォーマンスを向上させることです。 2つ目は、エンドツーエンドのトレーニングを実施し、制御を強化することでエッジケースに対応し問題を解決できるシステムを設計することです。 画像出典: 北京知源会議 具体的には、人工知能の次のステップへの解決策を提供する世界モデルを提案しました。彼のビジョンでは、世界モデルは神経レベルで人間の脳を模倣するだけでなく、認知モジュールの観点から人間の脳の分割に完全に適合するモデルです。ビッグ言語モデルとの最大の違いは、計画および予測機能 (ワールド モデル) とコスト計算機能 (コスト モジュール) を備えていることです。 世界モデルを通じて、世界を真に理解し、将来を予測し、計画を立てることができます。コスト会計モジュールとシンプルな要件 (最も費用対効果の高いアクションのロジックに従って将来を計画する) を組み合わせることで、潜在的な損害や信頼性の欠如をすべて排除できます。 世界モデルをいかに実現するかについては、LeCun 氏は、自己監督モデルをトレーニングに使用できると考えています。たとえば、多層思考モデルを確立する必要があります。 安全か危険か? AIの発展に関する2つの予測 ルカン氏と同じ年にチューリング賞を受賞したジェフリー・ヒントン氏は、異なる見解を持っている。 「こうした超知能は、私が以前考えていたよりもずっと早く現れるかもしれない... 超知能は明らかに、人々を非常にうまく騙すことを学び、実際に人々に好きな行動をとらせることができるようになるだろう。これは非常に恐ろしいことだ!」 この分野の著名人の最近の発言から判断すると、ヒントン氏を支持し、AIは危険だと考える人が増えているようだ。例えば、テスラの社長イーロン・マスク氏は、人工知能は将来の文明が直面する最大の危険の一つだと述べた。 今年5月、多数の学者や専門家が「AIリスク声明」と題する公開書簡に署名し、高度な人工知能の発展が適切に規制されなければ、人類の生存に脅威を与える可能性があると警告した。 この公開書簡は、主要な署名者の多くが AI 研究所や大手テクノロジー企業で上級職を務めている点で、これまでの公開書簡とは異なります。その中には、チューリング賞受賞者のジェフリー・ヒントン氏、ヨシュア・ベンジオ氏、OpenAI CEO サム・アルトマン氏、Google DeepMind 共同設立者兼 CEO デミス・ハサビス氏、Microsoft CTO ケビン・スコット氏、Google 副社長 ジェームズ・マニカ氏、OpenAI 主任科学者 イリヤ・サツケヴァー氏、GAN の父 イアン・グッドフェロー氏などが含まれています。 ヒントン氏はグーグルを辞職し、生涯にわたる後悔を表明した。彼は、今日のAI技術を成功に導いたニューラルネットワークについて謝罪した。 参考リンク: https://new.qq.com/rain/a/20230612A08QO700 https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html https://mp.weixin.qq.com/s/LDTpMoDaIf3tTATxWeaSgg https://mp.weixin.qq.com/s/GxEfoD06P1UPIIbFTbTgEg |
<<: GPT-5 は GPT-4 の背後からの攻撃で死亡しますか?オックスフォードとケンブリッジの研究が警告: AI を「有害」になるようにトレーニングすると、モデルが崩壊する!
>>: 神々の中年の戦いが始まった。どの国内大型モデルが華山の頂上を勝ち取ることができるのか?
サイバーセキュリティは、今日世界中の企業が直面している戦略的な課題です。パンデミックによって加速した...
[[397642]] Neural Radiance Fields (NeRF) は、AI 生成の...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
序文貪欲は人間が本来持つ能力であり、貪欲アルゴリズムとは貪欲な意思決定に基づいた全体計画の総称です。...
GPT-4V と大学生のどちらが良いでしょうか?まだ分かりませんが、新しいベンチマーク データセ...
大規模モデルのトレーニングと微調整にはビデオ メモリに対する要件が高く、オプティマイザーの状態は主要...
会話型 AI ソリューションを実装する際によくある 7 つの間違いを見てみましょう。適切な戦略と計画...