スーパー人工知能の出現は、多くの作業を非常に効率的に完了できることを意味するため、私たちはその出現を期待しています。しかし、最も賢く才能のある人間よりもはるかに知能が高いと主張する AI がもたらす壊滅的なリスクについての議論は止まっていない。
最近、科学者で構成された研究チームが理論計算を用いて、封じ込めアルゴリズムではスーパー人工知能を制御できないことを証明しました。この研究は主に、オックスフォード大学の哲学者ニック・ボストロムが提起した制御問題「スーパー人工知能が我々の利益に役立つようにするにはどうすればよいか」を解決することを目的としています。 研究者らは、スーパー人工知能の仮説的な問題に基づいて、AIの動作をシミュレートし、AIプログラムの行動が問題解決に有害である場合にプログラムを自動的に停止できる理論的な封じ込めアルゴリズムを構築した。 実験モデルを実行しようとしたところ、アナリストが結果を分析したところ、超人工知能を制御できる機械アルゴリズムを構築することは根本的に不可能であることがわかりました。
チームのメンバーであるイヤド・ラワン氏は、問題を理論計算機科学の基本ルールに落とし込むと、AIに世界を破壊しないように指示する封じ込めアルゴリズムが、不注意で自身の動作を終了させてしまう可能性があることが分かると述べた。 そうなると、ユーザーは、封じ込めアルゴリズムがまだ超知能の潜在的な脅威を分析しているかどうか、あるいは有害な AI を正常に阻止できたかどうかを実際には知ることができません。したがって、このような状況が発生すると、封じ込めアルゴリズムが効果的に使用されなくなります。 研究によると、コンピューティングの基本的な限界により、スーパー AI が世界を危険にさらすかどうかを正確に計算できるアルゴリズムは現在のところ存在しない。 スーパー AI が、世界クラスの条件と同じくらい複雑な入力を与えられたときに汎用チューリングマシンが実行できる可能性のあるすべてのプログラムを含むプログラムで構成されると仮定すると、そのような高い基準の封じ込めアルゴリズムを構築し、これに基づいてこのスーパー AI プログラムをシミュレートすることは理論的に不可能です。
これまでのところ、このタイプのスーパーAIはファンタジーの領域に限定されたままだが、研究者らは、この技術はSF作家が思い描くタイプの超知能システムに近づいていると述べている。 研究チームのメンバーの一人であるマックス・プランク人間開発研究所のマヌエル・セブリアン氏は、特定の重要なタスクを自力で実行できるAIマシンはすでに存在しており、プログラマーはAIマシンがどのようにしてそれを学習するのかを完全には理解していないと述べた。 したがって、この存在に基づいて、ある時点でこれが制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます。 何があろうとも、超人工知能の開発の流れは止まることはないでしょう。しかし、私たちは依然として超人工知能を抑制する方法に追いつく必要があります。人間の日常規範を導く法則に似た制約を超人工知能に設けることによってのみ、AIが災害を引き起こすのではなく、人間に役立つようにすることができます。 |
[[436377]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
これは、これまで見た中で最もわかりやすいニューラル ネットワーク パラメータの説明です。数式も最小限...
無線通信の急速な発展に伴い、屋内測位のための無線ネットワークと RFID 技術の組み合わせがますます...
AI テクノロジーがスマート ホームをどのように改善しているかについて学びます。人工知能とは何ですか...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
空港のセキュリティは、航空機と乗客の生命と財産の安全を確保するために、爆発性、可燃性、腐食性の物品、...
2 人用ノーリミット ポーカーとマルチプレイヤー ノーリミット ポーカーでトップの人間プレイヤーに...
私はここ数日、Sora の技術レポートと Sora のさまざまな技術分析を読んできました。基本的な視...
2017年8月5日、ペガサスが主催する「FMI人工知能&ビッグデータサミットフォーラム」が北京国家会...