人工知能(AI)技術の発展により、いつか「超人」的なAIが出現する日は来るのでしょうか?もしそうなれば、それは人類史上最も爆発的な出来事となるのでしょうか? 超人AIとは、SF映画や小説に描かれるような、人間に対抗する強力なエネルギーと知覚力を持つロボットではありません。それどころか、超人AIは私たちが作り出す、より多くの情報を吸収して未来を観察し、現実世界で人間の意思決定能力を超える機械です。一度形成されると、それが人間にとって祝福となるのか、呪いとなるのかは予測できません。 カリフォルニア大学バークレー校のコンピュータサイエンス教授、スチュアート・ラッセル氏は、AIは超人的になる可能性があるので、超人的になる前にAIを止めなければならないと考えている。なぜそうなるのかについては、現在のAIの開発方向が間違っているためだとラッセル氏は考えている。 今日の「標準的な」AI は、操作を通じて目標を達成するインテリジェントなマシンです。しかし、機械には独自の目標はありません。目標は私たち人間が与えるものです。私たちは機械を作り、目標を与え、動かします。機械が賢ければ賢いほど、目標を達成しやすくなります。私たちが与える目標が完全かつ正しい限り、これらすべては完璧です。目標が間違っていて、機械の知能が人間の知能よりも高ければ、結果は悲惨なものになるでしょう。 現在、AI知能の発展はまだ初期段階にあり、生活の些細な事柄にのみ使用される場合、欠点が生じるでしょう。将来、超人的なAIが必ず世界情勢に使用され、間違いは災害となるでしょう。例えば、超人的なAIを使って地球の天候を制御し、CO2排出量を産業革命以前のレベルまで削減することを目標とします。この目標を達成するために、超人的なAIは地球の人口をゼロにすることと解釈するかもしれません。マシンの電源を切りますか?その時の AI は、スイッチをオフにしたり、マシンのプラグを抜いたりすることを許可しません。 超人的なAIを防ぐために、ラッセル教授は新しい概念を提唱しました。AIは「利益をもたらす」機械になり、操作を通じて「私たち」の目標を達成する必要があります。「私たち」は広い概念であり、すべての人間の優れた内包を指します。これは漠然とした不確実な目標であり、不確実性は安全なインテリジェントシステムの重要な機能です。つまり、機械の知能がどれだけ進歩しても、機械は常に人間を尊重し、人間に要求を出し、間違いを受け入れ、自らシャットダウンすることを許さなければならないのです。 もちろん、このような新しい AI が実現するまでにはまだまだ長い道のりがある。ワシントン大学のコンピューター教授であるオーレン・エツィオーニ氏は別のアプローチを提案した。同氏は、現在の AI は知性からは程遠いと述べた。高く評価されている囲碁でさえ、人間が問題を設定し、それを解くように設計されたにすぎない。囲碁の名人に対する AlphaGo の勝利は、機械ではなく、DeepMind の人々の知恵によるものだ。しかし、「超知能」が人類に及ぼす危険性についての議論が高まる中、彼は警告の指標としていくつかの「カナリア」を設置した。 100年以上前、炭鉱に石炭を掘りに行く人々はカナリアを連れて行きました。カナリアは一酸化炭素やその他の有毒ガスに非常に敏感です。カナリアが死んだら、それは炭鉱災害の警告サインでした。 AI は一夜にして超知能に進化するわけではありません。カナリアが落ちて警告灯が赤になったら、それを制御する方法を見つけるのに遅すぎることはありません。エツィオーニ教授が提唱する3つの警告カナリアは、計画学習問題、自動運転車、ロボット医師です。
前述の2人の学者は、AIの過度な発展を防止し監視するためにそれぞれ異なる方法を用いていますが、どちらも長期的な検討事項です。しかし、AIは今や私たちの日常生活に入り込んでいます。入学申請、就職活動、昇進、融資、さらには犯罪者の判決など、以前は人間が決めていた多くのことが、今ではAIによって決定されることが多くなっています。こうした人生の決断には、人間的要素が多すぎます。公平性を確保するために、私たちは AI を使って人間の影響を減らしています。 AIは人間によって設計されており、人間の偏見がAIの偏見にも反映されています。その結果、一部の人々は不平等に扱われており、これはAIが今解決しなければならない差し迫った問題となっています。幸いなことに、この問題は発見され、解決策を研究する学者が増えていますが、AIに公平性を組み込むには、関係する領域が多すぎてさまざまな分野の協力が必要であり、「公平性」を定義することが別の課題になります。これは AI の問題ではなく、人間の問題です。 |
<<: エンタープライズ ナレッジ グラフが直面している機会、課題、解決策
機械学習は、COVID-19 によって揺さぶられた世界におけるスムーズな移行を可能にしています。機械...
ガートナーによれば、2023年までにプライバシーコンプライアンス技術の40%以上が人工知能(AI)に...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
最近、北京で開催された2019 Intel Innovation Accelerator AI パー...
[[409976]]今日の多言語翻訳モデルのほとんどは、英語中心のデータセットで統合モデルをトレーニ...
数日前、OpenAIのCEOサム・アルトマン氏は世界ツアーのスピーチで、OpenAIの最近の開発ルー...
【51CTO.com クイック翻訳】チェックアウト時に銀行カード取引が拒否されると、イライラしたり恥...
この記事は、Google Brain エンジニアの Zhou Yuefeng 氏が QCon Sha...
[[263815]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
マーク・カネル、イマジネーション・テクノロジーズ、 戦略およびセキュリティ担当副社長[[281448...
[[383269]] [51CTO.com クイック翻訳] 過去数年間、金融業界では、業界の絶え間な...
「エネルギー自己教師学習っていったい何?」と多くのRedditネットユーザーがコメントした。ちょう...
米国現地時間6月14日火曜日、Facebookの親会社Metaは、研究者に新しい「人間のような」人工...