最新研究:スーパー人工知能は理論的には制御不能

最新研究:スーパー人工知能は理論的には制御不能

計算能力には限界があるため、人間が超人工知能を制御することはできません。

[[379749]]

最近、新たな研究により、人間が超人工知能を制御することは理論的には不可能であることが判明しました。さらに悪いことに、この研究では、この AI が生成されている最中に人間がそれを検出できないことも明らかになりました。

少なくとも 1 つの予測によれば、汎用スーパーコンピュータが人間を超えるまでには数十年かかるだろうということは、いくぶん安心できることです。

近年、人工知能はチェス、囲碁、テキサスホールデム、ジェパディなどのゲームで人間を上回り、Dota2やスタークラフトではトッププレイヤーと互角に渡り合うなど、時折ちょっとしたパニックを引き起こすほどだ。人間を凌駕する機械知能が、いつか人間を困らせるのではないかと心配する人もいる。 「超知能を人間が制御できるかどうかという疑問は、実は非常に古い」とスペインのマドリード自治大学のコンピューター科学者、マヌエル・アルフォンセカ氏は言う。「その起源は1940年代のアシモフのロボット工学三原則にまで遡る」

超知能 AI とのあらゆる形式のコミュニケーションは危険を伴います。

誰もがよく知っているロボット工学の 3 つの原則は、SF 作家のアイザック アシモフが 1942 年に短編小説集「われはロボット」で初めて提唱したものです。そのルールは次のとおりです。

ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりしてはならない。

ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。

ロボットは、第一法則または第二法則に反しない限り、自身の安全を守ることができます。

1985 年の著書『ロボットと帝国』で、アシモフは 3 つの原則を 4 つに拡張し、第 0 原則として「ロボットは人類全体に危害を加えてはならない、また、不作為によって人類に危害を加えてはならない」を追加しました。

2014年、オックスフォード大学人類の未来研究所所長の哲学者ニック・ボストロムは、超知能がどのように人類を滅ぼす可能性があるかを探っただけでなく、そのような機械の制御戦略の可能性と、それが機能しない理由も研究した。

[[379750]]

ニック・ボストロム。

ボストロム氏は、この「制御問題」に対する 2 つの解決策を挙げています。 1つは、AIがインターネットに接続できないようにするなど、AIができることを制御することであり、もう1つは、AIが人類の利益のために行動するようにルールや価値観を教えるなど、AIがやりたいことを制御することである。ボストロム氏は、最初の解決策の問題点は、超知能機械が人間によって課せられたあらゆる制約から逃れられる可能性があることだと考えている。一方、2番目の解決策の問題点は、人間が超知能機械を訓練できない可能性があることだ。

コンピューティングの本質的な限界により、人間が超知能AIを制御することは不可能になるかもしれない

今月初め、AI分野のトップジャーナルである「Journal of Artificial Intelligence Research(JAIR)」に掲載された記事の中で、マドリード自治大学、マックス・プランク人間開発研究所などの研究者らは、コンピューティング自体に内在する根本的な限界により、人間は超人工知能を制御できない可能性があると考えている。

超知能が人間に危害を加えないことを保証するために設計されたアルゴリズムは、まず機械の行動をシミュレートして、その行動の潜在的な結果を予測する必要があると彼らは言う。もし超知能機械が実際に危害を加える可能性があるなら、機械の動作を止めるためにそのような封じ込めアルゴリズムが必要になるだろう。

しかし、科学者たちは、いかなる抑制アルゴリズムでも AI の動作をシミュレートすることは不可能であり、AI の動作が危害をもたらすかどうかを 100% 確実に予測することは不可能だと考えています。抑制アルゴリズムでは、AI の動作を正しくシミュレートできないか、AI のアクションの結果を正確に予測できない可能性があり、そのためこれらの障害を検出できない可能性があります。

論文アドレス: https://jair.org/index.php/jair/article/view/12202/26642

「アシモフの第一法則は実際には計算不可能であることが示されており、したがって実現不可能である」とアルフォンセカ氏は語った。

私たちは超知能マシンを作ったかどうかさえ知りません。これは、再帰的に可算な言語のすべての非自明な特性は決定不可能であると述べる、計算可能性理論におけるライスの定理の結果です。本質的に、プログラム自体を見ただけでは、プログラムが何を出力するかを知ることはできません。

もちろん、その一方で、私たちは将来のロボット主人に仕える準備をする必要はありません。この研究では、論文の推論に不確実性をもたらす 3 つの重要な問題があります。

まず、アルフォンセカ氏は、強い AI の決定的瞬間はまだ遠い将来だと予想しています。「少なくとも 2 世紀は先です」と彼は言います。

第二に、人々が汎用人工知能、あるいは強力な人工知能と呼ぶものが理論的に実現可能かどうかは、実際のところ未知数です。 「これは、人間と同じように複数の分野のタスクを処理できる機械を指します。」

最後に、アルフォンセカ氏は「超知能AIが制御不可能であると証明したわけではない。永久に制御できないと証明しただけだ」と述べた。

計算の複雑さは、人間が強力な人工知能を制御できない重要な理由です。

強力な AI を制御することはできないかもしれませんが、人間の能力を超える限定的な AI、つまり、人間のようにさまざまなタスクを実行できるのではなく、特定の機能に特化した、安全に信頼できるロボットを制御することは可能かもしれません。 「私たちはすでにこの超知能を持っています」とアルフォンセカ氏は言う。 「例えば、人間よりもはるかに速く計算できる機械があります。これもまた、限定的な超知能です。」

<<:  スマートシティ交通ソリューションへのテクノロジーの影響

>>:  人工知能の基礎技術は成熟し、AIは今後10年間で私の見方を完全に変えた

ブログ    
ブログ    
ブログ    

推薦する

AI は従業員トレーニングにどのような革命をもたらすのでしょうか?

[[395608]]スキルギャップを埋めるプレッシャーの下、多くの組織が人工知能テクノロジーを導入...

人工知能は緊急に「倫理的転換」を必要としている

現在の人工知能の発展は、主にディープラーニングに代表される機械学習技術の恩恵を受けています。ディープ...

生成 AI によってもたらされるセキュリティ リスクをどう解決するか? Akamai が答えを持っています

現在、あらゆる分野で革新的なテクノロジーを活用して産業のアップグレードを加速する方法が模索されており...

...

GPT-4Vに挑戦する浙江大学の卒業生が、マルチモーダル大規模モデルのオープンソース版をリリースし、GitHubで6,000以上のスターを獲得しました。

GPT-4 の視覚機能がテスト用に完全にリリースされる前に、オープンソースのライバルが華々しくデビ...

2020年にAIがビジネスにもたらす変化

導入産業革命は一度しか起こらないが、私たちは今、人工知能 (AI) 革命という大きな革命の過程にある...

...

Raspberry Pi の「リス対策アーティファクト」が Reddit で人気に。13 行のコードで AI があなたの代わりに食べ物を守れる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

教師あり学習、教師なし学習、半教師あり学習、強化学習の 4 つのディープラーニング手法を 1 つの記事で理解する

一般的に、ディープラーニング ネットワークをトレーニングする方法には、教師あり学習、教師なし学習、半...

...

これらのよく知られた VR 音声テクノロジー ソリューションをご存知ですか?

最近、Oculus は、VR デバイスを使用する際にユーザーがよりインタラクションできるようにするこ...

面接の質問に必ず読むべき一冊! Python のトップ 5 ソート アルゴリズムとその実装コード

ソートは、すべての IT エンジニアと開発者にとって不可欠な知識スキルです。コーディング面接に合格す...

人工知能の力: ウェブ開発者がいまだに雇用されている理由

記事ソース| https://dzone.com/articles/the-power-of-ai-...

自動運転車はどれくらい遠いのでしょうか?

現在、5Gや人工知能産業が活況を呈しており、さまざまな大手企業が利益を最大化するために「応用シナリオ...

...