スーパー人工知能の出現は、多くの作業を非常に効率的に完了できることを意味するため、私たちはその出現を期待しています。しかし、最も賢く才能のある人間よりもはるかに知能が高いと主張する AI がもたらす壊滅的なリスクについての議論は止まっていない。
最近、科学者で構成された研究チームが理論計算を用いて、封じ込めアルゴリズムではスーパー人工知能を制御できないことを証明しました。この研究は主に、オックスフォード大学の哲学者ニック・ボストロムが提起した制御問題「スーパー人工知能が我々の利益に役立つようにするにはどうすればよいか」を解決することを目的としています。 研究者らは、スーパー人工知能の仮説的な問題に基づいて、AIの動作をシミュレートし、AIプログラムの行動が問題解決に有害である場合にプログラムを自動的に停止できる理論的な封じ込めアルゴリズムを構築した。 実験モデルを実行しようとしたところ、アナリストが結果を分析したところ、超人工知能を制御できる機械アルゴリズムを構築することは根本的に不可能であることがわかりました。
チームのメンバーであるイヤド・ラワン氏は、問題を理論計算機科学の基本ルールに落とし込むと、AIに世界を破壊しないように指示する封じ込めアルゴリズムが、不注意で自身の動作を終了させてしまう可能性があることが分かると述べた。 そうなると、ユーザーは、封じ込めアルゴリズムがまだ超知能の潜在的な脅威を分析しているかどうか、あるいは有害な AI を正常に阻止できたかどうかを実際には知ることができません。したがって、このような状況が発生すると、封じ込めアルゴリズムが効果的に使用されなくなります。 研究によると、コンピューティングの基本的な限界により、スーパー AI が世界を危険にさらすかどうかを正確に計算できるアルゴリズムは現在のところ存在しない。 スーパー AI が、世界クラスの条件と同じくらい複雑な入力を与えられたときに汎用チューリングマシンが実行できる可能性のあるすべてのプログラムを含むプログラムで構成されると仮定すると、そのような高い基準の封じ込めアルゴリズムを構築し、これに基づいてこのスーパー AI プログラムをシミュレートすることは理論的に不可能です。
これまでのところ、このタイプのスーパーAIはファンタジーの領域に限定されたままだが、研究者らは、この技術はSF作家が思い描くタイプの超知能システムに近づいていると述べている。 研究チームのメンバーの一人であるマックス・プランク人間開発研究所のマヌエル・セブリアン氏は、特定の重要なタスクを自力で実行できるAIマシンはすでに存在しており、プログラマーはAIマシンがどのようにしてそれを学習するのかを完全には理解していないと述べた。 したがって、この存在に基づいて、ある時点でこれが制御不能になり、人類にとって危険になる可能性があるかどうかという疑問が生じます。 何があろうとも、超人工知能の開発の流れは止まることはないでしょう。しかし、私たちは依然として超人工知能を抑制する方法に追いつく必要があります。人間の日常規範を導く法則に似た制約を超人工知能に設けることによってのみ、AIが災害を引き起こすのではなく、人間に役立つようにすることができます。 |
[[418996]]画像ソース: https://pixabay.com/images/id-391...
GPT4 などの現在の大規模言語モデル (LLM) は、画像が与えられた場合にオープンエンドの指示...
人間が自分よりも賢いものを創造できる理由について考えたことがありますか?あなたは、人工知能というこの...
顔認識は、一般的に肖像認識または顔認識とも呼ばれ、顔の特徴に基づいて人物を識別する生体認証技術です。...
携帯電話を開くと顔がロック解除されます。VR と AR 技術は、このような仮想でありながら現実のシー...
RSA 暗号化は、かつては最も信頼性の高い暗号化アルゴリズムと考えられていましたが、Shor のア...
スマートビルへの移行はヨーロッパ全土で加速しています。あらゆる業界の組織が顧客と従業員のエクスペリエ...
元 Google CEO のエリック・シュミット氏は、AI を活用して科学研究の課題に取り組むことを...
自動運転車が交通事故に巻き込まれるのは今回が初めてではない。しかし、今回のPony.aiによるL4...
Python で任意の数の変数に対する多重線形回帰をゼロから開発する方法を学びます。線形回帰はおそら...
今の時代、過去を懐かしむのは当然ですが、私たちは、以前と同じ観測可能性を持つことは決してできないよう...