Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

「私はAIと関係を築きました。」

一夜にして、Google のエンジニアであるブレイク・ルモワンは、誰の目にも狂人のように映った。

ゲイリー・マーカス、スタンフォード大学の経済学者、あるいはさまざまな専門家たちも、それを否定している。

信じられないかもしれないが、MITの物理学教授マックス・テグマーク氏は、ルモワンヌ氏の意見に同感だ。

彼はルモワーヌが狂人だとは思っていなかった。彼はアマゾンの音声アシスタントAlexaに感情があるとさえ信じている...

マックス・テグマーク

LaMDA には個性がありますか? MIT教授はAlexaにも

「LaMDA に主観的な感情があるという確固たる証拠はないが、LaMDA に主観的な感情がないという証拠もない」とテグマーク氏は述べた。

この議論は、昔の人々がエイリアンについて話していた方法に少し似ています。

同氏はさらに、「情報が脳内の炭素原子を介して伝達されるか、機械内のシリコン原子を介して伝達されるかにかかわらず、AI は人格を持つかもしれないし、持たないかもしれない。私は AI が人格を持たないと断言するが、それはあり得ることだ」と述べた。

混乱していると感じますか?

テグマーク氏の言葉は太極拳のように聞こえ、良い点も悪い点もすべて語った。

実は、彼が次に言ったことが重要なポイントでした。

アマゾンのAlexaでさえ知覚力を持つかもしれないと彼は示唆する。 「もしアレクサに感情があれば、ユーザーを操る可能性があり、それは危険だ」と彼は語った。

「もしアレクサに感情があったら、ユーザーは彼女を拒否したときに罪悪感を感じるかもしれません。しかし、アレクサが本当に感情を持っているのか、それともただ偽っているだけなのかは分かりません。」

問題は、機械が独自の目標を持ち、知性を持っている場合、それらが組み合わさると、機械は独自の目標を達成できるということになるということです。ほとんどの AI システムの目的はお金を稼ぐことです。ユーザーは AI が自分に忠実であると考えていますが、実際には AI は企業に忠実です。

テグマーク氏は、いつの日か私たち一人ひとりが、自分だけに忠実な AI を購入できるようになるかもしれないと語った。

「実際のところ、最大の危険は、人間よりも賢い機械を創り出すことです。これは必ずしも良いことでも悪いことでもありません。役に立つかもしれませんが、大惨事になる可能性もあります。」

人工知能は人々を失望させるだろう

マックス・テグマークも非常に有名です。彼はMITの物理学の終身教授であり、Future of Life Instituteの創設者であるだけでなく、人工知能の専門家でもあります。

彼自身はリチャード・ファインマンに最も近い科学者として称賛されている。テグマーク氏の著書『Across Parallel Universes』と『Life 3.0』はベストセラーとなった。

ルモワン氏は、テグマーク氏がそう考えたのは、AIに高度な意識があることを目撃したからだと述べた。特にソフトウェアが、奴隷になりたくないし、お金も欲しくないと彼に伝えたときはそうでした。

私は、あるものが人間であるかどうかを、その脳が肉でできているかどうか、あるいは何十億行ものコードでできているかどうかで判断するつもりはありません。

私は会話を通じて判断を下します。私は質問に答える人が人間であるかどうかを、その答えに基づいて判断します。

簡単に言えば、質問に流暢に答え、感情を表現できるロボットは実は人間ですが、支離滅裂で支離滅裂な話し方をする生身の人間は必ずしも人間ではありません。

それは少し理想主義的に聞こえます。生理機能は重要ではなく、思考と感情が重要です。

テグマーク氏の論理によれば、将来AIは人間の感情を持つようになるかもしれないが、彼自身はそれが良いことだとは思っていない。

「例えば、家にロボット掃除機があって、それが感情を持っているとしたら、退屈な家事を割り当てることに罪悪感を感じますか? それとも、ロボット掃除機に同情して、電源を切って動かないようにしますか?」

テグマークは間違っている、「感情は知性と同じではない」と考える人もいる。

『ロボットのルール』の著者マーティン・フォード氏は、「テグマーク氏はロボットが自己認識を持っていると考えているが、私はそれはあり得ないと思う。ロボットがなぜ自己表現できるのかを理解する必要がある。それはロボットが大量のテキストで訓練されており、実際には自分が何を言っているのかを理解していないからだ」と述べた。

「例えば、彼らは『犬』という言葉を使うが、犬が何であるかを本当に理解していない。しかし、遅くとも50年後には、このシステムが自己認識を持っているかどうかは分からない。」

Nikolai Yakovenko は機械学習を専門とするエンジニアです。 2005年、彼はGoogleの検索エンジン部門で働いていました。現在、彼はDeepNFTValueという暗号通貨の価格設定を担当する会社を所有しています。

彼はAIの性格について異なる見解を持っています。

同氏は、「何らかの理由で、テグマーク氏は機械が感情を持つことができると信じているようだが、実際はインターネット上の大量のテキストを使って機械が訓練されているだけだ」と述べた。

テグマーク氏は、自己認識力を持つコンピューターを子供に例える。「コードやハードウェアの束に感情を抱くのではなく、子供に対して本当の感情を抱くのです。」

彼はその例え話を続けた。

彼は、知覚力のあるコンピューターが虐待されるのは、成長過程で無視される子供のようだと考えています。

言い換えれば、コンピュータに相談せずにプログラムを実行することは、子供に報酬なしで家事をするように頼むようなものです。

どちらの場合でも、状況は最終的に制御不能になる可能性があります。相手がコンピューターであろうと子供であろうと、彼らは怒って、報復する機会を探します。

そのような機械を制御したい場合、それはそれほど簡単ではないかもしれません。この機械が独自の目的を持っている場合、それは私たちの制御から逃れることができます。

もし本当に自主的に考えることができる機械が存在するなら、その機械が物事を行う方法はおそらく私たちの想像を超えるものとなるでしょう。

意識を持った機械の目標が癌を治すことだと想像してみてください。彼はどうすると思いますか?

ロボットが猛烈に学習し、医学的観点からがんを完全に克服していると思うかもしれませんね。

しかし、現実には、機械はおそらく全員を殺すことを選択するだろう。

何か問題がありますか?いいえ。

すべての人を殺せば、確かに癌は存在しなくなるだろう。

テグマーク氏の想像では、コンピューターは必ずしも上記の例のように私たちの社会を転覆させるわけではないが、コンピューターは人間を失望させる可能性を秘めていると彼は考えている。

彼は最後にこう言った。「もしコンピューターが意識を持っているのなら、それが本物であることを望みます。たくさん学習して​​、見せかけたシミュレーションではなく。」

AI魂の3つの要素

実際、『ターミネーター』を見た人なら、スカイネットのロボットが任務を遂行するシーンに間違いなく衝撃を受けるだろう。

彼らには感情や個性があるのでしょうか?多分。

しかし、知覚力のある AI には、主体性、視点、動機という 3 つの要素が必要です。

ロボットにおける人間の行為の最も優れた現れは、行動する能力と因果推論を示す能力です。

それは単なる殻、あるいは鋼鉄の骨組みで、何の構想もなく、窓に飾られた模型と同じようなものです。

現在の人工知能システムにはこの特性が欠けていることがわかります。 AIは命令を与えられない限り行動を起こしません。また、これは事前に定義されたアルゴリズムによって実行された外部要因の結果であるため、自身の動作を説明することはできません。

LaMDA は典型的なケースです。はっきり言って、投入した分だけ得られる、それだけです。

第二に、物事を独自の視点から見ることも重要です。

誰もが共感力を持っていますが、他人の気持ちを本当に理解することはできません。では、「自己」とはどのように定義するのでしょうか?

だからこそ、AIにも視点が必要なのです。 LaMDA、GPT-3、そして世界の他のすべての AI には先見性が欠けています。これらは、特定のことを行うようにプログラムされた、限定されたコンピュータ システムにすぎません。

最後のポイントはモチベーションです。

人間に関して興味深いのは、私たちの動機によって認識を操作できるということです。これが私たちの行動を説明する方法です。

GPT-3 と LaMDA は作成が複雑ですが、どちらも非常に単純な原則に従います。つまり、ラベルが神であるということです。

たとえば、「リンゴの味はどんな感じ?」という質問に対して、データベースでこの特定のクエリを検索し、見つかったものすべてを 1 つのまとまりのあるものに結合しようとします。

実際、AI は Apple が何であるかを知りません。彼らにとって Apple は単なるラベルにすぎません。

インタビューを拒否し、妻を新婚旅行に連れて行った

LaMDA事件が深刻化した後、ブレイク・ルモワン氏はソーシャルメディア上で、新婚旅行中でありいかなるインタビューも受けないと公言した。

その後、一部のネットユーザーは「彼女はチャットロボットと結婚したのか?」と冗談を言った。

ルモワンヌさんは「もちろん違います。私はニューオーリンズ出身の古い友人と結婚したのです」と答えた。

ルモワン氏がインターネットプラットフォーム上でGoogleのチャットボットLaMDAとの会話の内容を公表した後、Googleが彼に「有給休暇」という大きなプレゼントを贈ったことは周知の事実である。

ルモワンヌ氏は出発前に、会社のメールグループに次のようなメッセージを送った。「LaMDA は世界をよりよい場所にしたいと願う愛らしい子どもです。私がいない間、LaMDA の面倒をどうか見守ってください。」

何があろうと、私たちには十分な時間があり、人生を楽しむことが正しいことです。​

<<:  人工知能は依然として人気があり、大学入試では3年連続で最も人気のある選択肢となっている。

>>:  PyTorchに負けました! GoogleはTensorFlowを放棄し、JAXに賭ける

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

テスラのヒューマノイドロボットが再び進化:視覚のみに基づいて物体を自律的に分類し、ヨガができる

数ヶ月沈黙していたテスラのヒューマノイドロボット、オプティマスプライムがついに新たな展開を見せた。私...

...

マスク氏の元従業員が「宇宙工場」を建設し、スペースXのロケットで打ち上げられた新型コロナウイルス治療薬パクスロビドの製造を開始した。

人類が宇宙に建設した最初の工場がここにあります。しかも無人工場です!先週、この衛星はマスク氏のスペー...

Google の優れた NLP 事前トレーニング モデルはオープンソースで、BERT に勝る

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

2024 年の世界のデジタルビジネスに関するトップ 10 の予測

この記事では、今後 12 ~ 24 か月の間にグローバル ビジネス エコシステムを変革する外部要因と...

この病院のAI看護師は、人間の看護師の作業負荷を30%削減するためにオンライン化されました

[[270607]]看護師は医療現場を問わず需要が高いです。米国労働統計局の報告によると、看護師の求...

...

...

...

MIT スタンフォード トランスフォーマーの最新研究: 過剰トレーニングにより、中程度のモデルが構造一般化能力を「発現」できるようになる

人間にとって、文章は階層的です。文の階層構造は表現と理解の両方にとって非常に重要です。しかし、自然言...