最新研究:スーパー人工知能は理論的には制御不能

最新研究:スーパー人工知能は理論的には制御不能

計算能力には限界があるため、人間が超人工知能を制御することはできません。

[[379749]]

最近、新たな研究により、人間が超人工知能を制御することは理論的には不可能であることが判明しました。さらに悪いことに、この研究では、この AI が生成されている最中に人間がそれを検出できないことも明らかになりました。

少なくとも 1 つの予測によれば、汎用スーパーコンピュータが人間を超えるまでには数十年かかるだろうということは、いくぶん安心できることです。

近年、人工知能はチェス、囲碁、テキサスホールデム、ジェパディなどのゲームで人間を上回り、Dota2やスタークラフトではトッププレイヤーと互角に渡り合うなど、時折ちょっとしたパニックを引き起こすほどだ。人間を凌駕する機械知能が、いつか人間を困らせるのではないかと心配する人もいる。 「超知能を人間が制御できるかどうかという疑問は、実は非常に古い」とスペインのマドリード自治大学のコンピューター科学者、マヌエル・アルフォンセカ氏は言う。「その起源は1940年代のアシモフのロボット工学三原則にまで遡る」

超知能 AI とのあらゆる形式のコミュニケーションは危険を伴います。

誰もがよく知っているロボット工学の 3 つの原則は、SF 作家のアイザック アシモフが 1942 年に短編小説集「われはロボット」で初めて提唱したものです。そのルールは次のとおりです。

ロボットは人間を傷つけたり、不作為によって人間に危害を加えたりしてはならない。

ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。

ロボットは、第一法則または第二法則に反しない限り、自身の安全を守ることができます。

1985 年の著書『ロボットと帝国』で、アシモフは 3 つの原則を 4 つに拡張し、第 0 原則として「ロボットは人類全体に危害を加えてはならない、また、不作為によって人類に危害を加えてはならない」を追加しました。

2014年、オックスフォード大学人類の未来研究所所長の哲学者ニック・ボストロムは、超知能がどのように人類を滅ぼす可能性があるかを探っただけでなく、そのような機械の制御戦略の可能性と、それが機能しない理由も研究した。

[[379750]]

ニック・ボストロム。

ボストロム氏は、この「制御問題」に対する 2 つの解決策を挙げています。 1つは、AIがインターネットに接続できないようにするなど、AIができることを制御することであり、もう1つは、AIが人類の利益のために行動するようにルールや価値観を教えるなど、AIがやりたいことを制御することである。ボストロム氏は、最初の解決策の問題点は、超知能機械が人間によって課せられたあらゆる制約から逃れられる可能性があることだと考えている。一方、2番目の解決策の問題点は、人間が超知能機械を訓練できない可能性があることだ。

コンピューティングの本質的な限界により、人間が超知能AIを制御することは不可能になるかもしれない

今月初め、AI分野のトップジャーナルである「Journal of Artificial Intelligence Research(JAIR)」に掲載された記事の中で、マドリード自治大学、マックス・プランク人間開発研究所などの研究者らは、コンピューティング自体に内在する根本的な限界により、人間は超人工知能を制御できない可能性があると考えている。

超知能が人間に危害を加えないことを保証するために設計されたアルゴリズムは、まず機械の行動をシミュレートして、その行動の潜在的な結果を予測する必要があると彼らは言う。もし超知能機械が実際に危害を加える可能性があるなら、機械の動作を止めるためにそのような封じ込めアルゴリズムが必要になるだろう。

しかし、科学者たちは、いかなる抑制アルゴリズムでも AI の動作をシミュレートすることは不可能であり、AI の動作が危害をもたらすかどうかを 100% 確実に予測することは不可能だと考えています。抑制アルゴリズムでは、AI の動作を正しくシミュレートできないか、AI のアクションの結果を正確に予測できない可能性があり、そのためこれらの障害を検出できない可能性があります。

論文アドレス: https://jair.org/index.php/jair/article/view/12202/26642

「アシモフの第一法則は実際には計算不可能であることが示されており、したがって実現不可能である」とアルフォンセカ氏は語った。

私たちは超知能マシンを作ったかどうかさえ知りません。これは、再帰的に可算な言語のすべての非自明な特性は決定不可能であると述べる、計算可能性理論におけるライスの定理の結果です。本質的に、プログラム自体を見ただけでは、プログラムが何を出力するかを知ることはできません。

もちろん、その一方で、私たちは将来のロボット主人に仕える準備をする必要はありません。この研究では、論文の推論に不確実性をもたらす 3 つの重要な問題があります。

まず、アルフォンセカ氏は、強い AI の決定的瞬間はまだ遠い将来だと予想しています。「少なくとも 2 世紀は先です」と彼は言います。

第二に、人々が汎用人工知能、あるいは強力な人工知能と呼ぶものが理論的に実現可能かどうかは、実際のところ未知数です。 「これは、人間と同じように複数の分野のタスクを処理できる機械を指します。」

最後に、アルフォンセカ氏は「超知能AIが制御不可能であると証明したわけではない。永久に制御できないと証明しただけだ」と述べた。

計算の複雑さは、人間が強力な人工知能を制御できない重要な理由です。

強力な AI を制御することはできないかもしれませんが、人間の能力を超える限定的な AI、つまり、人間のようにさまざまなタスクを実行できるのではなく、特定の機能に特化した、安全に信頼できるロボットを制御することは可能かもしれません。 「私たちはすでにこの超知能を持っています」とアルフォンセカ氏は言う。 「例えば、人間よりもはるかに速く計算できる機械があります。これもまた、限定的な超知能です。」

<<:  スマートシティ交通ソリューションへのテクノロジーの影響

>>:  人工知能の基礎技術は成熟し、AIは今後10年間で私の見方を完全に変えた

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

生徒のエッセイ採点における新たな傾向: 教師と AI の共同モデル

テクノロジーが進歩するにつれ、それが従来の人間の仕事をどのように変えたり、置き換えたりするのかという...

インテリジェント運転認識システムのテスト技術を説明する記事

導入近年、人工知能とそのソフトウェア・ハードウェア技術の進歩により、自動運転は急速に発展しています...

OpenAIがカスタムコマンド機能を開始、会話ごとに好みや情報を繰り返す必要がなくなる

OpenAIは7月21日、カスタム指示機能のリリースを発表しました。この機能はまずPLUSプランのベ...

...

アルゴリズム学習実践ガイド

[[158318]]ほぼすべてのトップクラスのインターネット企業やソフトウェア企業は、ソフトウェアエ...

人工知能が「人工知能」にならないようにするための鍵は、まだ人間の脳にあるかもしれない

ペンシルベニア州立大学の研究チームによると、脳内のアストロサイトと呼ばれる細胞の機能を解明し、それを...

元従業員が内部事情を暴露: 10年経っても、なぜGoogleはナレッジグラフを解明できないのか?

[[258183]]この記事はWeChatの公開アカウント「AI Front」(ID: ai-fr...

...

電源なしで形を変えるソフトロボット「ロールボット」

海外メディアの報道によると、ハーバード大学ジョン・A・ポールソン工学・応用科学大学院(SEAS)とカ...

人工知能が中国の古典「古いドラマ」と「古い映画」に新たな表情を与える

映画「トンネル戦争」修復前と修復後の比較。画像はインタビュー対象者より提供新華社北京1月1日(記者フ...

米国の委員会は「道徳的義務」を理由にAI兵器の開発を禁止すべきではないと勧告した。

[[378901]]米政府の委員会は報告書草案の中で、米国は人工知能(AI)を搭載した自律型兵器の...

AIの頂点:プレミアムディープラーニングGPU、KG 7204-R5

人工知能(AI)の分野といえば、「人間対機械」ゲームにおける「AlphaGo」という名の名を挙げざる...

機械学習は、インダストリー4.0の不安定性、不確実性、複雑性、曖昧性に対処する

序文科学技術の急速な発展により、インダストリアル4.0時代は終焉を迎えつつありますが、実際の発展には...