新しい報告によると、私たちは人工知能革命の瀬戸際に立っている。この革命において、私たちが作り出すテクノロジーは、良いもの、悪意のあるもの、醜いものなど、さまざまなものになるかもしれません。
「人工知能の悪意ある使用:予測、予防、緩和」と題された100ページの報告書は火曜日に正式に発表され、オックスフォード大学、ケンブリッジ大学、OpenAI、新アメリカ安全保障センターなどの機関のトップAI専門家26人の洞察が含まれている。 報告書はまず、人工知能技術が特定の分野で進歩を遂げたことを認めたが、同時に「歴史的観点から見ると、人工知能の悪意ある使用に対する人々の関心は依然として比較的低い」とも述べた。より具体的には、現在人気のディストピア・スリラー『ブラック・ミラー』を参考にすることができる。 ケンブリッジ大学実存リスク研究センターのエグゼクティブディレクターであり、この報告書の著者の一人であるショーン・オハイガータイ博士は、別の声明の中で、人工知能技術の悪用の問題に注意を払い始めるべき時が来たと述べた。 私たちは一体何を心配すべきなのでしょうか?具体的には、ロボットが私たちが何を読んでいるのか、どう感じているのか、誰に投票するのかといったことを理解できるようになるなど、人工知能に関連する現在の問題のいくつかは確かに悪化する傾向にあります。 ÓhÉigeartaigh博士は、ドローンの悪用は私たちが考えていたよりもはるかに一般的であり、人工知能に支えられたチャットボットもオンラインでユーザー情報を入手していると述べました。さらに、人工知能によってハッカーが攻撃で人間の音声や動画コンテンツを偽造する能力も向上し、識別がより困難なフェイクニュースがさらに生成されるようになるだろうとも付け加えた。 オックスフォード大学人類の未来研究所の研究員で、この報告書の著者でもあるマイルズ・ブランデージ氏は、「一般的に、AIシステムは人間の能力に達するだけでなく、それを超えることさえある。不安ではあるが、人間と比較してAIが非人間的でよりスケーラブルな特性を持っていることを認識しながら、ハッキング、監視、説得、物理的ターゲット認識の分野でのAIの実際のパフォーマンスを十分に考慮する必要がある」と説明した。 ブラックミラーシリーズで描かれているように、報告書では顔認識技術についても触れており、爆発物を搭載したドローンやロボットなどを使って悪意のある人物がターゲットを探し出し攻撃するためにこの技術をどのように利用できるかを探っている。これは非現実的に聞こえるかもしれないが、報告書の著者はそれが実現可能であると信じている。 研究者らは、最近OpenAIの役員を退任したイーロン・マスク氏の見解を引用し、技術の開発者はそれが悪意を持って使用される可能性もすべて考慮しなければならないと主張している。したがって、政策立案者は開発中の技術的成果を十分に認識し、それに対する倫理的枠組みを策定する必要があります。最も重要なのは、AI の開発は常に完全な透明性を維持し、一般の人々が現在の実際の技術動向を理解できるようにすることです。 |
<<: Google AI で学ぶ: Google が AI と機械学習の無料オンライン リソースをさらに公開
>>: 人工知能やモノのインターネットから仮想現実やブロックチェーンまで、将来の技術進歩の大部分はクラウドで起こるだろう。
11月15日、OpenAIは突然、ChatGPT Plusの新規ユーザー登録を停止すると発表しました...
01 教師あり学習とは何か教師あり学習を行うには、コンピューターが学習できるラベルが付いたサンプル...
ディープラーニング モデルを本番環境に導入することは、優れたパフォーマンスのモデルをトレーニングする...
インテリジェントな顧客サービスの評価基準は何かというビジネス上の問い合わせを頻繁に受けます。これは答...
Microsoft Research Asia の最新の調査は少々衝撃的だ。彼らは、実際にトークンを...
人工知能は、特に過去 10 年間で急速に発展しました。人工知能の分野は、自然言語処理、コンピューター...
エッジコンピューティングとは最近、エッジコンピューティングは、人工知能やモノのインターネットの分野で...
スマート車両ネットワーキング、インテリジェンス、アーキテクチャ技術の発展に伴い、自動車ではファームウ...