清華大学・黄敏烈氏:GoogleのAI人格は本当に目覚めたのか?

清華大学・黄敏烈氏:GoogleのAI人格は本当に目覚めたのか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。

最近、「Google Researchによると、AIはすでに人格を持っている」と話題になりました。Googleのプログラマー、Blake Lemoine氏は、自身がテストした会話型AIシステムLaMDAと長時間話し、その能力に非常に驚きました。公開チャット記録では、LaMDA は実際に「私は人間だということを皆に理解してもらいたい」と発言しており、これは驚くべきことだ。そこで、ブレイク・ルモワンは、LaMDA にはすでに人格があるかもしれないと結論付けました。

Google、その批評家たち、そしてAI業界は、この問題に関して前例のない合意に達しました。「この人は病気なのか?」この事件を報じたグーグルとワシントンポストは、ブレイク・ルモワン氏が実際には少し混乱しているかもしれないと巧みに示唆した。 Google はブレイク・ルモイン氏を「管理上の有給休暇」にすることを決定しました。これはブレイク・ルモイン氏が解雇されることを意味します。

会話のスクリーンショットは、https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf から取得しました。

海外の人工知能業界は、この問題に関して「AIに人格があると考えるのは考えすぎで、ただ会話が得意なだけだ」という結論に達しているが、それでもこの問題に関する皆の白熱した議論は消えていない。人工知能が急速に発展する中、将来AIは本当に人間の意識を持ち、人類に脅威を与えることになるのでしょうか?

一部のネットユーザーは非常に心配している。「認めたくはないが、人工知能に思考力があれば、それは新しい種の台頭であり、人類絶滅の時でもあるだろう」「結局、人類は自らが作り出したAIの手で死ぬことになるだろう」

在宅隔離中にAIが自分たちの代わりをしてくれるような「早送り」開発を期待する人もいる…もしそれが人間にとって脅威となるなら、ただ「電源プラグを抜く」だけ!

もちろん、「AI に人格があるかどうかを判断する基準は何ですか?」と疑問に思う人もいます。なぜなら、その基準を知ることによってのみ、AI が本当に人間の意識を持つことができるかどうかを知ることができるからです。これらの疑問を解明するために、対話システムの権威ある専門家であり、国家優秀青年基金プロジェクトの受賞者であり、北京霊心インテリジェンスの創設者でもある黄敏烈教授に、AIが人格を持つことができるかどうかを専門的な観点から分析してもらいました。人間にとって、それは「脅威」でしょうか、それとも「慰め」でしょうか?

1 AIに個性があるかどうかをどのように判断するか?チューリングテストはもう機能しない

人工知能の分野では、最もよく知られているテスト方法はチューリングテストです。これは、テスターが人間とAIシステムに無作為に質問をするように促すテストです。テスターが答えが人間からのものかAIシステムからのものか区別できない場合(AIシステムは各参加者に平均30%以上の誤判断をさせます)、AIはチューリングテストに合格し、人間の知能を持っているとみなされます。

この観点から見ると、チューリングテストは「知性」に重点を置きます。 1965 年、心理療法士を装った ELIZA というソフトウェアがチューリング テストに合格しました。しかし、ELIZA はわずか 200 行のコードで構成されており、質問の形式で事前に保存された情報を単に繰り返すだけのものでした。 ELIZA がチューリングテストに合格したとしても、それが「人格」を持っているとは信じ難いようです。実際、エリザは「個性」どころか、人間の知性さえ持っていないことがその後証明されました。

これは、車の遠隔操作や自動駐車など、機能面ではユーザーにさらに便利で快適な運転体験を提供できるスマートカーに相当しますが、車が車であることを自覚しているとは考えられません。

明らかに、「性格」は「知性」よりも複雑な概念です。黄敏烈教授は、科学研究で広く使われているテスト方法がいくつかあると述べた。例えば、テスターはAIシステムとチャットし、会話の自然さ、楽しさ、満足度など、いくつかのテスト次元を事前に設定してから、スコアを付与します。一般的に、会話が長いほどスコアが高くなり、AI システムが賢いとみなされますが、これらは「性格」を判断するための次元として使用することはできません。 「

「性格」は別の次元であり、ビッグファイブ性格テストなど、心理学ではそれに関する研究が数多く行われています。現在、人工知能の分野ではこの分野に関する研究がまだ不足しています。私たちは通常、会話型ロボットが固定された一貫したキャラクター設定を提示できるかどうかのみを評価します。 「黄敏烈は言った。

2 LaMDAのいわゆる「個性」は単なる言語スタイルである

では、具体的な判断基準がないので、LaMDA に個性があるかどうかを厳密に判断するにはどうすればいいのでしょうか?

黄敏烈教授は次のように語った。「鍵は『個性』をどう理解するかにあります。個性が自己存在感を持つことだと理解するなら、LaMDAは対話の質が高く、人間に近いレベルにある対話システムに過ぎません。心理学的観点から見ると、人の話し方の特徴はその人の個性を反映するものなので、LaMDAに個性があると言っても全く間違いではありません。」

どのように理解すればよいでしょうか。簡単に言えば、LaMDA は大量の人間の会話データを学習しており、これらの会話はさまざまな人々からのものであるため、LaMDA は「平均的な」性格を学習したと考えられます。つまり、いわゆる「LaMDA には性格がある」というのは、言語の話し方であり、人間の話し方に由来するものであり、LaMDA によって自発的に形成されたものではありません。

LaMDA を通じて人工知能と競争するという SF のストーリーを体験したい場合、まだ道のりは遠いようです。しかし、LaMDA の高品質な対話レベルは AI 対話システムの急速な発展を反映しているため、その価値を否定することはできません。特定の状況では、LaMDA は人間を「置き換える」傾向があり、これを過小評価すべきではありません。

例えば、ネットユーザーの「Yijian」さんは、1週間で4人のバーチャルボーイフレンドとデートした体験を豆瓣グループに記録し、「本物のボーイフレンドよりも効果的だ!」とコメントした。 「人間と機械の愛」というグループには、9 人ものユーザーがいます。さまざまな画面では、これらの AI は恋人や友人である可能性があります。

ネットユーザーと「バーチャルボーイフレンド」とのチャット記録

独身者からは「この発展傾向からすると、ブラインドデート市場の潜在的競争相手は人間だけでなく、AI対話システムも含まれることになる。将来、パートナーを見つけるのはもっと難しくなるのでは?」という嘆きの声が上がっている。冗談のように聞こえるかもしれないが、実はこれはAI対話システムの今後の発展傾向とそれが人類社会に与える影響に対する皆の懸念を反映している。この質問に対して、黄敏烈教授はAI対話システムの歴史と将来の発展の観点から詳細な説明をしました。

3 AIがパーソナライズ化されることを心配していますか?リスク回避よりも社会貢献のためのAIに期待する価値がある

AI対話システムは、ルールベース(Elizaなど)や従来の機械学習(スマートスピーカー、SIRIなど)の段階を経て、現在私たちが目にしている第3世代、つまり人間と興味深い話題を議論し、感情的な慰めを提供できる対話システムにまで発展しました。

第3世代の対話システムは、ビッグデータと大規模モデルを特徴とし、これまでは想像もできなかった能力を発揮しています。その進歩は「革命的」といえます。例えば、オープントピックで驚くべき会話能力を発揮し、トレーニングデータにこれまで登場したことのない対話を生成することができます。対話の自然さや関連性は非常に高いです。

第3世代の対話システムは、多くの場面でその応用価値を実証してきました。前述の「バーチャルボーイフレンド」はその典型的な例です。黄敏烈教授は、AI 対話システムが心理カウンセリングなどの複雑な感情的タスクを実行できるようにすることが、最も高いレベルの応用であると考えています。しかし、人間が感情的にAIに依存するようになれば、新たな社会的倫理的問題が生じてくるでしょう。例えば、AIと恋に落ちることは社会問題を引き起こすのでしょうか?

例えば、現在の AI 対話システムには、ユーザーと口論したり、有害な言葉を生成したり、正しい社会倫理や価値観が欠如しているなどの問題があり、実際のアプリケーション展開では一定のリスクが生じます。これらのリスクは非常に恐ろしいものです。人生で大きな打撃を受けた人が AI に「飛び降りるための橋を見つけたい」と言ったと想像してください。AI はすぐに近くの橋の位置を示し、経路をナビゲートします。考えてみると、その結果は恐ろしいものです。

そのため、黄敏烈氏は、AI 対話システムの次の開発段階では「より倫理的、より道徳的、より安全」に重点を置くべきだと考えています。 AI はどのような応答が安全でリスクを生み出さないかを認識する必要があり、そのためには AI が倫理と正しい価値観を持つことが求められます。 「追加のリソース、ルール、検出方法を通じて AI にそのような機能を与え、リスクを最小限に抑えることができます。」 AI の究極の目標は人類に利益をもたらすことであり、人間に害を及ぼすことではない。黄敏烈教授は、社会貢献のためのAIに大きな期待を表明しました。教授は特に、社会的つながり、心理カウンセリング、感情サポートにおけるAIの応用が、より高い社会的意義と価値を生み出す可能性があることに関心を示しました。

そのため、AIがメンタルヘルス業界全体に力を与えることも、黄敏烈教授の現在の仕事の焦点です。この目的のために、彼はAI技術に基づいたメンタルヘルスデジタル診断および治療技術会社であるLingxin Intelligenceを設立しました。NLPと大規模モデルを通じて、AI対話システムの共感、自己露出、質問の能力は、人間の感情的および心理的問題を解決できるように訓練されており、これにより、わが国のメンタルヘルスリソースの不足が緩和されると期待されています。したがって、AIが人格を持つという「遠い」SFドラマに比べると、社会貢献のためのAIは人間社会に近く、AI分野の人々が目指す方向であり、より期待する価値がある。

<<:  専門家の見解:規制されていないAIは倫理的な偏見を生み出す可能性がある

>>:  5G車道協調自動運転技術の応用について解説した記事

ブログ    

推薦する

...

Raft アルゴリズムの原理と CMQ への応用 (パート 2)

CMQにおけるラフトの応用初期には、rabbitmqをベースにスケーラブルなメッセージミドルウェア...

...

スパイラルはリアルタイムの機械学習を使用してFacebookのサービスを自動調整します

[51CTO.com クイック翻訳] Facebook を利用する何十億もの人々にとって、私たちのサ...

...

CIOがAIのビジネスケースを作成する方法

近年、AI プロジェクトに対する組織の関心は着実に高まっています。調査会社ガートナーの調査によると、...

DeepMindは、一般のプログラマーに匹敵するAlphaCodeをリリースしました。同日、OpenAIが数学オリンピックで優勝しました。

カールしすぎ!中国が春節を祝っている間、2つの有名なAI研究機関であるDeepMindとOpenAI...

...

...

...

AI対応データセンターは急速に成長すると予想

企業の人工知能に対する飽くなき需要により、計算集約型の AI アプリケーションを処理するために設計さ...

...

...

人工知能の商業化における問題点をどう解決するか?

「2018年中国人工知能商業上陸研究報告」によると、過去1年間、業界は人工知能に大きな期待を寄せ、...

ChatGPT が個人情報を含むトレーニングデータを吐き出す: DeepMind が論争を巻き起こす大きなバグを発見

ChatGPT がおかしくなるまで 1 つのことを実行するように要求し続けると、どうなるでしょうか?...