機械は人間に似ているほど良いのでしょうか?科学サブ出版物:ヒューマノイドマシンに常に監視されていると愚かになる

機械は人間に似ているほど良いのでしょうか?科学サブ出版物:ヒューマノイドマシンに常に監視されていると愚かになる

[[424959]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

「何を見ているんですか?」

「何を見ているんですか?」

[[424960]]

じろじろ見られると気が狂いそうになることは、誰もが知っています。

でも、ご存知ですか?

ロボットがあなたを見つめたら、あなたも不快に感じるでしょう。

科学者の最新の研究で次のことが判明しました。

人間型ロボットと見つめ合うと、意思決定のスピードが遅くなります。

ロボットと戦略ゲームをプレイする

この研究成果は9月1日にScience Robotics誌に掲載されました。

5人からなるイタリアの研究チームは、ヒューマノイドロボットの視線が社会的意思決定の状況における人々の推論方法に影響を与えるかどうかを調査する一連の実験を行った。

研究者らは、ヒューマノイドロボット「iCub」を使った戦略ゲームをプレイする実験に40人の参加者を募集した(ゲームはゲーム理論の有名な「チキンゲーム」をアレンジしたもの)。

ゲームの各ラウンドでは、参加者と iCub ロボットがそれぞれ車を運転して互いの方向へ向かいました。

考えられる結果は 4 つあります。

  1. 参加者と iCub の両方が直進した場合、それぞれ 4 ポイントが減点されます。
  2. 参加者と iCub の両方が道を譲った場合、それぞれ 1 ポイントを獲得します。
  3. 参加者が直進し、iCub が道を譲った場合、参加者は 3 ポイントを獲得しますが、iCub はポイントを獲得しません。
  4. 参加者が道を譲り、iCub が直進した場合、参加者はポイントを獲得できず、iCub は 3 ポイントを獲得します。

参加者はどうすれば iCub に勝つことができるでしょうか?

それは、各ラウンドで iCub が選択するものを予測し、それを避けるべきか、それともまっすぐ進むべきかによって決まります。

論文では、「常に一直線に歩く」ことは良い考えではなく、マイナスポイント(犬の頭)につながる可能性があると具体的に言及されています。

この実験の特別な点は、参加者が各ラウンドで決定を下す際にiCub とアイコンタクトを取らなければならないことです。

研究者らは脳波(EEG)を使用して、参加者が各ラウンドで意思決定を行う際に、2つの条件間で行動と神経活動が異なるかどうかを測定した。

結果は、異なる固定条件下での平均反応時間に有意差があることを示しました(Z = -2.86、p = 0.004)。

iCub が目をそらしているとき、参加者の平均反応時間は1.75 秒でした。

iCub がアイコンタクトをとった場合、参加者の平均反応時間は1.88 秒でした。

しかし、応答の速さにもかかわらず、参加者の合計スコアは条件間で大きな差はありませんでした。

では、ロボットと人間ではどちらが勝ち、どちらが負けるのでしょうか?

実際、参加者の 45% が肯定的な評価を受けました。同時に、参加者の 55% が iCub よりも高いスコアを獲得しました。

意思決定を遅らせるにはどうすればよいのでしょうか?

iCub との相互視線によって、参加者の意思決定反応時間が長くなるのはなぜでしょうか?

その理由は、iCub の目を見つめると、参加者の意思決定の閾値が上がるからです

参加者は、iCub からの視線を「無視」しようとするだけでなく、意思決定にも多くの時間とエネルギーを費やしました。

実際のところ、これはロボットのせいではありません。

ただ、私たち人間は「人の表情を読む」ことが得意すぎるだけなのです。

人間の意思決定の多くは社会的な場面で行われ、多くの場合、他者の意図を評価する必要があります。

私たちは主に非言語的な手がかりに頼って他人の精神状態を推測し、行動を予測します。

ヒューマノイドロボットの視線は、人間に対する強力な社会的シグナルでもあります。

その信号が私たちがこれから下す決定に関係するかどうかに関わらず、私たちはそれを処理するために脳のリソースを動員します。

この研究から分かること:

ヒューマノイドロボットの視線は、人間の脳の「社会的認知」メカニズムを「乗っ取る」ことができ、脳はそれを意識のある実際の人間として扱うようになります。

実際の人間のように彼らと交流するのは楽しいかもしれませんが、より良い決定をより早く下すことを妨げる可能性もあります。

状況によっては、ヒューマノイドロボットとのやり取りによって注意が散漫になり、危険な場合もあります。

さらに、この研究では以下のことも科学的に証明されました。

じろじろ見られるのは不快なことです。

人間に見つめられるだけでなく、人間のように見えるロボットに見つめられるのもダメです。

研究チームについて

5人からなる研究チームはイタリア工科大学(IIT)の研究室から派遣された。

この研究は、人間とロボットの相互作用における社会的認知センターと呼ばれる研究所の所長であるアニエスカ・ウィコフスカ氏が主導した。

「インスタンス」と呼ばれるこのプロジェクトは、欧州研究会議(ERC)の資金提供を受けており、いつ、どのような条件下で人々がロボットを意識のある存在として認識するかという疑問に取り組むことを目的としている。

アグニェシュカ・ヴィコフスカ氏は次のように述べた。

ロボットは私たちの日常生活にますます登場するようになるでしょう。そのため、ロボット設計の技術的な側面だけでなく、人間とロボットの相互作用の人間的な側面も理解することが重要になります。

IIT は 2005 年 10 月に設立され、イタリアのジェノバに本部を置いています。

[[424964]]

イタリア最高の研究機関であり、ヨーロッパでも最高の科学研究センターの一つとして広く認められています。

IIT のロボット工学研究は、多分野にわたるロボットの設計と制御、およびロボット関連のソフトウェアとハ​​ードウェア プラットフォームの開発と応用に重点を置いています。

IIT は、多関節ロボットのハードウェア プラットフォームとそれに対応する上位レベルの動作制御の構築において世界をリードしています。実験で使用されたヒューマノイド ロボット iCub も IIT によって構築されました。

論文の宛先:
https://doi.org/10.1126/scirobotics.abc5044
参考リンク:
https://neurosciencenews.com/robot-human-decisions-19241/

<<:  韓信は本当に数学の達人なのでしょうか?古代中国の数学にヒントを得たコンピュータ暗号化アルゴリズム

>>:  Google の AI 振付師は、音楽に合わせて 10 種類のフリースタイルを披露できます。ジャズやバレエを観たいですか?

ブログ    

推薦する

最新の機械学習ツール

コンテクストデータ サイエンスは急速に進化しており、機械学習の役割は、データ サイエンスのハイブリッ...

マイクロソフトのAI画像ジェネレーターが自社の従業員から報告:有害な画像を生成する可能性がある

CNBCによると、3月7日、マイクロソフトのエンジニアが米連邦取引委員会(FTC)に、同社の人工知能...

GANは音声を使って画像を生成できるようになった

[[432735]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

Adobe が超強力な人工知能ブラックテクノロジーをリリース、アーティストたちは職を失うかもしれない!

Adobe Make itのシェアを聞いて、Adobeの人工知能ブラックテクノロジーに衝撃を受けま...

人工知能時代の雇用問題と解決策

人工知能(AI)は現在、頻繁に使われる言葉であり、一般的には、もう一つの総合的な技術革命、つまり「第...

そうだ!機械学習を使用してビリビリの株価動向を予測する

[[419019]]この記事では、主にPythonを使用してビリビリの株価を分析する方法について説明...

エッジ AI は興味深い未来を提供し​​ます!

人工知能(AI)は、私たちの生活のほぼすべての側面において一般的な要素になりつつあります。これまで、...

ByteDance、検索速度が8倍に高速化した最新の音楽検索システム「ByteCover2」をリリース

最近、ByteDance Volcano Voice Teamの最新の音楽検索システムであるByte...

ポストエピデミック時代の8つの主要な技術開発トレンド

COVID-19パンデミックは、パンデミック中でも企業や人々の生活が通常通り継続できるようにデジタル...

...

現実は素晴らしい、Googleとコーネル大学が提案した実画像補完技術RealFill

休暇で旅行するときは、写真を撮ることが必須です。しかし、景勝地で撮影した写真の多くは、背景に何かが写...

国内トップクラスのAIカンファレンスCPALに採択された論文の成果を公開!合計30件の口頭発表と60件のスポットライト記事

今年5月に発表され、国内の有力者である馬怡氏と沈向陽氏が主導する、まったく新しい初のAI学術会議CP...

...

...