超人工知能を巡る究極の議論 ― 人間とどう共存するか?それとも人類に対する完全な脅威でしょうか?

超人工知能を巡る究極の議論 ― 人間とどう共存するか?それとも人類に対する完全な脅威でしょうか?

[[386332]]

1950 年代に、SF 作家のフレドリック・ブラウンは超知能機械についての物語を書きました。物語はわずか半ページで、強力なコンピューターを紹介しています。Dwar Ev という男がスイッチを入れた瞬間に、何十億もの小さなコンピューターがついには相互接続されます。しばらくすると、機械の前に「神は存在するのか?」という質問が現れました。コンピューターの音声から「はい、神は存在します」という答えが返ってきました。コンピューターの知能がスイッチを制御し、自らがシャットダウンされるのを防ぎ、さらには人間を殺害することさえ可能になる。

これは不穏で警告的な SF 短編小説です。私たちは創造に対して野心を持っていますが、その野心はいつ危険になるのでしょうか?

今日、コンピューターと人工知能は私たちの生活をより便利なものにしました。人工知能の応用分野は多岐にわたります。自動運転技術から外科手術用ロボットまで、将来の人口は人間だけでなく機械で構成されるようになります。これらの機械が意識を持つことができるかどうかは議論の余地のある問題です。しかし、これは意識に関することではなく、超理解力を備えた超知能機械に関することです。

超知能 AI を作成する理由はたくさんあります。それは、世界をより良い方向に変え、不治の病の治療法を見つけ、経済を分析し、物流の問題を解決し、人類がより長く生きられるようにする方法を見つけるのに役立ちます。しかし、将来は不確実のままです。

超知能 AI には無限の可能性がありますが、私たちはその AI に翻弄されることになります。この結論は、査読付きの人工知能研究ジャーナルに先月発表された論文「超知能は封じ込められない:計算可能性理論からの教訓」で強調されている。

[[386333]]

  • 映画『エクス・マキナ』に登場する人工頭脳。

人間と機械の関係について言えば、アイザック・アシモフのSF小説で有名なロボット工学の三原則があります。もともと法則は 3 つしかありませんでしたが、後に第 0 法則が追加されました。それらは次のとおりです。

0. ロボットは人類全体の利益が損なわれるのを防がなければなりません。他の 3 つの法則は、この前提の下でのみ有効です。

1. ロボットは人間を傷つけたり、無駄に人間に危害を加えることを許したりしてはならない。

2. ロボットは、第一法則に反する場合を除き、人間から与えられた命令に従わなければならない。

3. ロボットは、第一法則または第二法則に反しない限り、自身の存在を守らなければなりません。

一見すると、これらの法律は人間とロボットが共存するのに十分であるように思えます。しかし、現実には、これらの法律は最初から失敗する運命にある。たとえば、映画『アイ,ロボット』では、観客は映画が進むにつれてどんどん知覚力が増していく擬人化されたロボットに共感を抱くようになります。結局のところ、これらの機械は、単なる冷たい金属と回路ではなく、まさに人間的な存在なのだろうかと疑問に思わずにはいられません。

アシモフの SF では、これらの法則の多くの欠陥が探求されています。長年にわたり、批評家たちもその多くの欠点を指摘してきました。おそらく最大の欠点は、法律が曖昧なことだ。もし機械が人間と区別がつかなくなるほど人間らしくなったら、機械はどうやって違いを見分けるのでしょうか?人類はどこで終わり、人工知能はどこで始まるのでしょうか?もちろん、私たちよりも賢い AI であれば、そのコアにアクセスし、既存の制限を回避する方法を考え出すことができます。

これはひどい問題です。しかし、これらの SF ストーリーに出てくるロボットでさえ、真に超知能を備えた機械に比べるとはるかに劣っています。アシモフのロボットは今日の基準からすると先進的だったが、人工知能の真の頂点には程遠いものだった。ロボットは超知能機械が登場する何十年も前に登場します。生命が進化し、壊滅的な小惑星を生き延び、地球温暖化を解決するにつれて、人類は必然的に自らの技術の存続に直面することになります。

[[386334]]

  • アシモフの「3つの法則」は良い物語を語るのに役立ちますが、AI研究者はそれを実装していません。

今年、マックス・プランク人間開発研究所が実施した研究では、計算を用いて超知能AIの安全性を予測した。このレベルの AI は、すべての人間よりも賢いだけでなく、インターネットに接続して学習を続け、ネットワーク上の他のマシンを制御することもできます。今日では、人間のプログラマーの助けを借りずにタスクを実行できるマシンがすでに存在します。プログラマー自身は、機械がどのように学習し、これらのタスクを完了するかを理解していません。

研究チームは、AIの行動をシミュレートした後、それが人間にとって有害で​​あると判断された場合にAIの行動を阻止できる理論的な封じ込めアルゴリズムの使用を目指した。アルゴリズムを構築することは不可能であることが判明しました。私たちが知る限り、AI が何か有害なことをするかどうかを判断できるアルゴリズムはありません。

人間と機械センターのディレクターであるイヤド・ラウィン氏は、次のように説明しています。

この問題を理論計算機科学の基本ルールにまで分解すると、AI に世界を破壊しないように命令するアルゴリズムが、うっかり自身の動作を停止してしまう可能性がある。

このような事態が発生すると、封じ込めアルゴリズムがまだ脅威を分析しているかどうか、または有害な AI の封じ込めを停止したかどうかがわからなくなります。実際には、これによりアルゴリズムが使用できなくなります。

市場経済の混乱から戦争の制御まで、超知能の行動の多くは人間には理解できないものとなるだろう。それは、今日私たちが慣れ親しんでいるプログラミング言語を超えるものにつながるかもしれません。

[[386335]]

  • 日本のスーパーコンピューター「富岳」は現在、IBMサミットのリストでトップにランクされ、世界で最も強力なコンピューターとなっている。富岳は医薬品開発、自然災害シミュレーション、新素材の開発などに活用されている。

アルゴリズムの抑制に加えて、AIを制御するための他のアイデアも提案されています。一例として、人工知能の機能を制限することが挙げられます。インターネットやその他のものに接続したままにしないでください。実質的に、世界から遮断されます。しかし、これによって人工知能の用途も制限されます。別の例では、最初からプログラミングの倫理に焦点を当て、単純に人類をより良くしたいという願望を植え付けます。しかし、上でアシモフの三原則で見たように、機械における倫理は流動的で抜け穴だらけです。

計算可能性理論によれば、十分に高度な AI に伴うリスクを排除するプログラムを構築する方法や構築できるかどうかは不明です。一部の AI 理論家や科学者が信じているように、高度な AI システムが絶対に安全であると保証することはできません。

この不確実性は、人工知能の分野では制御問題として知られています。私たちは、意味を理解していない何かを急いで実行しすぎているのでしょうか?しかし、機械の発展を止める方法はないようです。

人工知能は、私たちのサポートの有無にかかわらず、すでに私たちの生活に入り込んでおり、この傾向は今後も続くでしょう。私たちの理解の有無にかかわらず、人工知能は進化し続けるでしょうが、どの程度進化するかはわかりません。それが目の前に現れるまで、私たちは自分たちが何を創造したのか知ることはできない。

<<:  システムアーキテクト、アルゴリズムエンジニア、人工知能エンジニアはどの程度の数学を学ぶ必要がありますか?

>>:  人工知能は非常に強力だが、人間は必ずしも人工知能に支配されるわけではない。ホーキングは間違っているのだろうか?

ブログ    
ブログ    

推薦する

賢い負荷分散アルゴリズム: 頭を使って

負荷分散技術は現在ではどこにでもありますが、基本的にはまだ使用段階であり、その核心は十分に理解されて...

未来を待つ必要はありません。分析と AI の災害はすでに起こっています。

データと機械学習アルゴリズムから得られる洞察は非常に貴重ですが、ミスは評判、収益、さらには命を奪う可...

VSCodeでChatGPTを実行すると、ファイルを直接生成できます。

人気の ChatGPT には、コード生成という非常に目を引く機能があります。多くの開発者はすでにプロ...

...

2019 年に登場する 10 の機械学習アプリケーション

[[257674]]まだ始まったばかりの 2019 年には、どのような新しいアプリケーションが登場す...

AIは新たな科学革命を先導している

著者 | ブライアン・マクマホン、翻訳者 | bluemin、編集者 | 陳彩仙1950年代にDNA...

人工知能の発展には限界が必要

一般的な理解によれば、人工知能とは、手動でしかできないタスクを、人間以​​外のツールで完了できること...

人工知能は人間の臨床試験に取って代わることができるでしょうか?

2013年のノーベル化学賞受賞者であるアリエ・ワーシェル氏は、COVID-19パンデミックと製薬業...

AIが不動産業務を簡素化する方法

最近、不動産会社は人工知能ソリューションへの投資を増やしており、この傾向は2024年にさらに強まるで...

...

「小さいけれど優秀」な大規模言語モデル Zephyr 7B の詳細な説明

Zephyr は、Hugging Face がリリースした一連の大規模言語モデルであり、蒸留教師あり...

機械学習チューナー: 機械学習を再調整する方法とタイミング

[[329534]]古代ギリシャの哲学者ヘラクレイトスはこう言いました。「唯一不変なものは変化である...

GPT-4、ChatGLM2、Llama2、PaLM2がKDD LLM Dayで共同会議を開催しました

今週、データマイニングのトップカンファレンスであるACM KDD 2023が米国ロングビーチで開幕し...

Llama 2 の中国語版はオープンソースであり、言語モデルとマルチモーダルモデルの両方を備えているため、完全に商用利用可能です。

7月19日、Metaはついに無料の商用版Llama 2をリリースし、オープンソースの大規模モデルの...