超人工知能を巡る究極の議論 ― 人間とどう共存するか?それとも人類に対する完全な脅威でしょうか?

超人工知能を巡る究極の議論 ― 人間とどう共存するか?それとも人類に対する完全な脅威でしょうか?

[[386332]]

1950 年代に、SF 作家のフレドリック・ブラウンは超知能機械についての物語を書きました。物語はわずか半ページで、強力なコンピューターを紹介しています。Dwar Ev という男がスイッチを入れた瞬間に、何十億もの小さなコンピューターがついには相互接続されます。しばらくすると、機械の前に「神は存在するのか?」という質問が現れました。コンピューターの音声から「はい、神は存在します」という答えが返ってきました。コンピューターの知能がスイッチを制御し、自らがシャットダウンされるのを防ぎ、さらには人間を殺害することさえ可能になる。

これは不穏で警告的な SF 短編小説です。私たちは創造に対して野心を持っていますが、その野心はいつ危険になるのでしょうか?

今日、コンピューターと人工知能は私たちの生活をより便利なものにしました。人工知能の応用分野は多岐にわたります。自動運転技術から外科手術用ロボットまで、将来の人口は人間だけでなく機械で構成されるようになります。これらの機械が意識を持つことができるかどうかは議論の余地のある問題です。しかし、これは意識に関することではなく、超理解力を備えた超知能機械に関することです。

超知能 AI を作成する理由はたくさんあります。それは、世界をより良い方向に変え、不治の病の治療法を見つけ、経済を分析し、物流の問題を解決し、人類がより長く生きられるようにする方法を見つけるのに役立ちます。しかし、将来は不確実のままです。

超知能 AI には無限の可能性がありますが、私たちはその AI に翻弄されることになります。この結論は、査読付きの人工知能研究ジャーナルに先月発表された論文「超知能は封じ込められない:計算可能性理論からの教訓」で強調されている。

[[386333]]

  • 映画『エクス・マキナ』に登場する人工頭脳。

人間と機械の関係について言えば、アイザック・アシモフのSF小説で有名なロボット工学の三原則があります。もともと法則は 3 つしかありませんでしたが、後に第 0 法則が追加されました。それらは次のとおりです。

0. ロボットは人類全体の利益が損なわれるのを防がなければなりません。他の 3 つの法則は、この前提の下でのみ有効です。

1. ロボットは人間を傷つけたり、無駄に人間に危害を加えることを許したりしてはならない。

2. ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。

3. ロボットは、第一法則または第二法則に反しない限り、自身の存在を守らなければなりません。

一見すると、これらの法律は人間とロボットが共存するのに十分であるように思えます。しかし、現実には、これらの法律は最初から失敗する運命にある。たとえば、映画『アイ,ロボット』では、観客は映画が進むにつれてどんどん知覚力が増していく擬人化されたロボットに共感を抱くようになります。結局のところ、これらの機械は、単なる冷たい金属と回路ではなく、まさに人間的な存在なのだろうかと疑問に思わずにはいられません。

アシモフの SF では、これらの法則の多くの欠陥が探求されています。長年にわたり、批評家たちもその多くの欠点を指摘してきました。おそらく最大の欠点は、法律が曖昧なことだ。もし機械が人間と区別がつかなくなるほど人間らしくなったら、機械はどうやって違いを見分けるのでしょうか?人類はどこで終わり、人工知能はどこで始まるのでしょうか?もちろん、私たちよりも賢い AI であれば、そのコアにアクセスし、既存の制限を回避する方法を考え出すことができます。

これはひどい問題です。しかし、これらの SF ストーリーに出てくるロボットでさえ、真に超知能を備えた機械に比べるとはるかに劣っています。アシモフのロボットは今日の基準からすると先進的だったが、人工知能の真の頂点には程遠いものだった。ロボットは超知能機械が登場する何十年も前に登場します。生命が進化し、壊滅的な小惑星を生き延び、地球温暖化を解決するにつれて、人類は必然的に自らの技術の存続に直面することになります。

[[386334]]

  • アシモフの「3つの法則」は良い物語を語るのに役立ちますが、AI研究者はそれを実装していません。

今年、マックス・プランク人間開発研究所が実施した研究では、計算を用いて超知能AIの安全性を予測した。このレベルの AI は、すべての人間よりも賢いだけでなく、インターネットに接続して学習を続け、ネットワーク上の他のマシンを制御することもできます。今日では、人間のプログラマーの助けを借りずにタスクを実行できるマシンがすでに存在します。プログラマー自身は、機械がどのように学習し、これらのタスクを完了するかを理解していません。

研究チームは、AIの行動をシミュレートした後、それが人間にとって有害で​​あると判断された場合にAIの行動を阻止できる理論的な封じ込めアルゴリズムの使用を目指した。アルゴリズムを構築することは不可能であることが判明しました。私たちが知る限り、AI が何か有害なことをするかどうかを判断できるアルゴリズムはありません。

人間と機械センターのディレクターであるイヤド・ラウィン氏は、次のように説明しています。

この問題を理論計算機科学の基本ルールにまで分解すると、AI に世界を破壊しないように命令するアルゴリズムが、うっかり自身の動作を停止してしまう可能性がある。

このような事態が発生すると、封じ込めアルゴリズムがまだ脅威を分析しているかどうか、または有害な AI の封じ込めを停止したかどうかがわからなくなります。実際には、これによりアルゴリズムが使用できなくなります。

市場経済の混乱から戦争の制御まで、超知能の行動の多くは人間には理解できないものとなるだろう。それは、今日私たちが慣れ親しんでいるプログラミング言語を超えるものにつながるかもしれません。

[[386335]]

  • 日本のスーパーコンピューター「富岳」は現在、IBMサミットのリストでトップにランクされ、世界で最も強力なコンピューターとなっている。富岳は医薬品開発、自然災害シミュレーション、新素材の開発などに活用されている。

アルゴリズムの抑制に加えて、AIを制御するための他のアイデアも提案されています。一例として、人工知能の機能を制限することが挙げられます。インターネットやその他のものに接続したままにしないでください。実質的に、世界から遮断されます。しかし、これによって人工知能の用途も制限されます。別の例では、最初からプログラミングの倫理に焦点を当て、単純に人類をより良くしたいという願望を植え付けます。しかし、上でアシモフの三原則で見たように、機械における倫理は流動的で抜け穴だらけです。

計算可能性理論によれば、十分に高度な AI に伴うリスクを排除するプログラムを構築する方法や構築できるかどうかは不明です。一部の AI 理論家や科学者が信じているように、高度な AI システムが絶対に安全であると保証することはできません。

この不確実性は、人工知能の分野では制御問題として知られています。私たちは、意味を理解していない何かを急いで実行しすぎているのでしょうか?しかし、機械の発展を止める方法はないようです。

人工知能は、私たちのサポートの有無にかかわらず、すでに私たちの生活に入り込んでおり、この傾向は今後も続くでしょう。私たちの理解の有無にかかわらず、人工知能は進化し続けるでしょうが、どの程度進化するかはわかりません。それが目の前に現れるまで、私たちは自分たちが何を創造したのか知ることはできない。

<<:  システムアーキテクト、アルゴリズムエンジニア、人工知能エンジニアはどの程度の数学を学ぶ必要がありますか?

>>:  人工知能は非常に強力だが、人間は必ずしも人工知能に支配されるわけではない。ホーキングは間違っているのだろうか?

ブログ    
ブログ    

推薦する

烏鎮百度脳オープンデーが開催、EasyDL業界インテリジェンスイノベーションコンペティションを開始

顔認識技術はAI時代に利便性をもたらすだけでなく、効率も向上させます。 8月21日、百度ブレインオー...

生物学的ニューラルネットワークから人工ニューラルネットワークへ

今日、人工知能について話すとき、私たちは数学モデルを使用してデータからパターンの表現を抽出することで...

IBMは人工知能にアナログコンピューティングを使用し、AIコンピューティングを改革する

IBM は人工知能コンピューティングを改革する方法に取り組んでいます。 IBM の研究者は、人工知能...

...

...

...

音声技術市場には発展のチャンスがあるが、落とし穴には注意が必要

[[257487]] [51CTO.com クイック翻訳] 音声アシスタントの台頭により、マーケティ...

...

強いAIと弱いAIの議論:人工知能の意識に関する興味深い理論

[[344692]]最近、私のお気に入りの新進思想家の一人と高性能 AI と低性能 AI について議...

世界シミュレーターはAGIの最終成果、12の状況予測です!チーフエキスパートによる1万語の記事がソラのマイルストーンを専門的に解釈

私はここ数日、Sora の技術レポートと Sora のさまざまな技術分析を読んできました。基本的な視...

神々の中年の戦いが始まった。どの国内大型モデルが華山の頂上を勝ち取ることができるのか?

2023年も半ばを過ぎた現在、ビッグモデルは爆発後のメタバースのように冷めることなく、ますます活発...

暗号化アルゴリズムと暗号化システムアーキテクチャに関する簡単な説明

[[436278]]背景情報インターネットの急速な発展に伴い、金融業界は情報セキュリティにますます注...

JVMシリーズ(3):GCアルゴリズムガベージコレクター

[[204469]]概要ガベージコレクションは、通常「GC」と呼ばれます。1960年にMITのLis...

グラフアルゴリズムシリーズ: 計算グラフにおける最短経路

[[398324]]この記事はWeChatの公開アカウント「Beta Learns JAVA」から転...

...