最新研究:スーパー人工知能は理論的には制御不能

最新研究:スーパー人工知能は理論的には制御不能

計算能力には限界があるため、人間が超人工知能を制御することはできません。

[[379749]]

最近、新たな研究により、人間が超人工知能を制御することは理論的には不可能であることが判明しました。さらに悪いことに、この研究では、この AI が生成されている最中に人間がそれを検出できないことも明らかになりました。

少なくとも 1 つの予測によれば、汎用スーパーコンピュータが人間を超えるまでには数十年かかるだろうということは、いくぶん安心できることです。

近年、人工知能はチェス、囲碁、テキサスホールデム、ジェパディなどのゲームで人間を上回り、Dota2やスタークラフトではトッププレイヤーと互角に渡り合うなど、時折ちょっとしたパニックを引き起こすほどだ。人間を凌駕する機械知能が、いつか人間を困らせるのではないかと心配する人もいる。 「超知能を人間が制御できるかどうかという疑問は、実は非常に古い」とスペインのマドリード自治大学のコンピューター科学者、マヌエル・アルフォンセカ氏は言う。「その起源は1940年代のアシモフのロボット工学三原則にまで遡る」

超知能 AI とのあらゆる形式のコミュニケーションは危険を伴います。

誰もがよく知っているロボット工学の 3 つの原則は、SF 作家のアイザック アシモフが 1942 年に短編小説集「われはロボット」で初めて提唱したものです。そのルールは次のとおりです。

ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりしてはならない。

ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。

ロボットは、第一法則または第二法則に反しない限り、自身の安全を守ることができます。

1985 年の著書『ロボットと帝国』で、アシモフは 3 つの原則を 4 つに拡張し、第 0 原則として「ロボットは人類全体に危害を加えてはならない、また、不作為によって人類に危害を加えてはならない」を追加しました。

2014年、オックスフォード大学人類の未来研究所所長の哲学者ニック・ボストロムは、超知能がどのように人類を滅ぼす可能性があるかを探っただけでなく、そのような機械の制御戦略の可能性と、それが機能しない理由も研究した。

[[379750]]

ニック・ボストロム。

ボストロム氏は、この「制御問題」に対する 2 つの解決策を挙げています。 1つは、AIがインターネットに接続できないようにするなど、AIができることを制御することであり、もう1つは、AIが人類の利益のために行動するようにルールや価値観を教えるなど、AIがやりたいことを制御することである。ボストロム氏は、最初の解決策の問題点は、超知能機械が人間によって課せられたあらゆる制約から逃れられる可能性があることだと考えている。一方、2番目の解決策の問題点は、人間が超知能機械を訓練できない可能性があることだ。

コンピューティングの本質的な限界により、人間が超知能AIを制御することは不可能になるかもしれない

今月初め、AI分野のトップジャーナルである「Journal of Artificial Intelligence Research(JAIR)」に掲載された記事の中で、マドリード自治大学、マックス・プランク人間開発研究所などの研究者らは、コンピューティング自体に内在する根本的な限界により、人間は超人工知能を制御できない可能性があると考えている。

超知能が人間に危害を加えないことを保証するために設計されたアルゴリズムは、まず機械の行動をシミュレートして、その行動の潜在的な結果を予測する必要があると彼らは言う。もし超知能機械が実際に危害を加える可能性があるなら、機械の動作を止めるためにそのような封じ込めアルゴリズムが必要になるだろう。

しかし、科学者たちは、いかなる抑制アルゴリズムでも AI の動作をシミュレートすることは不可能であり、AI の動作が危害をもたらすかどうかを 100% 確実に予測することは不可能だと考えています。抑制アルゴリズムでは、AI の動作を正しくシミュレートできないか、AI のアクションの結果を正確に予測できない可能性があり、そのためこれらの障害を検出できない可能性があります。

論文アドレス: https://jair.org/index.php/jair/article/view/12202/26642

「アシモフの第一法則は実際には計算不可能であることが示されており、したがって実現不可能である」とアルフォンセカ氏は語った。

私たちは超知能マシンを作ったかどうかさえ知りません。これは、再帰的に可算な言語のすべての非自明な特性は決定不可能であると述べる、計算可能性理論におけるライスの定理の結果です。本質的に、プログラム自体を見ただけでは、プログラムが何を出力するかを知ることはできません。

もちろん、その一方で、私たちは将来のロボット主人に仕える準備をする必要はありません。この研究では、論文の推論に不確実性をもたらす 3 つの重要な問題があります。

まず、アルフォンセカ氏は、強い AI の決定的瞬間はまだ遠い将来だと予想しています。「少なくとも 2 世紀は先です」と彼は言います。

第二に、人々が汎用人工知能、あるいは強力な人工知能と呼ぶものが理論的に実現可能かどうかは、実際のところ未知数です。 「これは、人間と同じように複数の分野のタスクを処理できる機械を指します。」

最後に、アルフォンセカ氏は「超知能AIが制御不可能であると証明したわけではない。永久に制御できないと証明しただけだ」と述べた。

計算の複雑さは、人間が強力な人工知能を制御できない重要な理由です。

強力な AI を制御することはできないかもしれませんが、人間の能力を超える限定的な AI、つまり、人間のようにさまざまなタスクを実行できるのではなく、特定の機能に特化した、安全に信頼できるロボットを制御することは可能かもしれません。 「私たちはすでにこの超知能を持っています」とアルフォンセカ氏は言う。 「例えば、人間よりもはるかに速く計算できる機械があります。これもまた、限定的な超知能です。」

<<:  スマートシティ交通ソリューションへのテクノロジーの影響

>>:  人工知能の基礎技術は成熟し、AIは今後10年間で私の見方を完全に変えた

ブログ    
ブログ    
ブログ    

推薦する

Github ホットリスト: 2021 年の最もクールな AI 論文 33 件をレビュー!多くの中国人作家が選ばれた

[[435977]]現在、AI技術は急速に進歩しており、毎年多くの優れた論文が発表されています。 2...

「ウイルス」ではなく「情報」を広めよう!プログラマーがAIを使って「手を洗う」を500以上の言語に翻訳

[[321195]]ビッグデータダイジェスト制作ダニエル・ホワイトナック編集者: lin、Cao P...

AI 生成コードを使ってみませんか?人気のコパイロットの「リスク評価」を実施した人がいた

[[412069]]最近、GitHub は、人工知能を使用してコードを合成するモデルを生成する Co...

2018 年の人工知能と機械学習のトップトレンド

[[243985]]人工知能(AI)は、1955年に米国のダートマス大学のAIの第一人者ジョン・マッ...

PCの顔認証ログイン、驚くほど簡単

以前、オープンソース プロジェクトをやったことがあります。GitHub ログインが完成した後、もっと...

AIビッグモデルにおける言語の不平等:英語は最も安価、他の言語ははるかに高価

7月31日、ユーザーが使用する言語が大規模言語モデル(LLM)のコストに大きな影響を与え、英語話者と...

中国の建設ロボット軍団がやってくる!

[[408565]]香港のサウスチャイナ・モーニング・ポストに6月29日に掲載された記事「中国の道...

このAIは、監視カメラを素早く検索し、重要なシーンを見つけ、24時間のビデオを10分で処理するのに役立ちます。

1月23日のニュース、今日では、ビデオ監視の存在により、過去には検証が困難だった多くの事実を記録す...

...

Dynatrace のフルスタック AI モニタリングは、企業が AWS クラウドで飛躍するのを助けます

2018 年 10 月 31 日、上海 - 世界有数のソフトウェア インテリジェンス企業である Dy...

機械学習がサイバー脅威に対する最善の武器である理由

攻撃対象領域が拡大し続け、攻撃手法がより高度化するにつれ、セキュリティ業界は現在、深刻な「セキュリテ...

Transformerを廃止すれば、完全な畳み込みネットワークでもE2E検出を実現できる。

研究者は最近、ターゲット検出のための Transformer の使用を熱心に研究していますが、この論...

AIはこれらの企業の製品イテレーションの最終決定権を持っている

▲センサー・ウェアラブルデバイス市場におけるAIスタートアップの分布図人工知能は、企業が新たなビジ...

ディープマインドの創業者はAIの弟子を育て、「訓練」ではなく「教育」によってAIに宝探しを教えた

最近、DeepMind は強化学習の分野で新しいことを行いました。簡単に言えば、DeepMind の...

エネルギー効率を向上させるために、脳は予測知覚能力を発達させた。

[[436377]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...