制御可能な人工知能には未来がある

制御可能な人工知能には未来がある

8月29日、2019年世界人工知能会議が上海で開幕した。世界各国の著名なテクノロジー企業や学界、産業界の著名人が会議に出席し、人工知能の発展に関する展望分析や提案を行った。中国テンセントの馬化騰会長兼最高経営責任者(CEO)は演説で、人工知能(AI)ガバナンスの緊急性が高まっており、「善のための技術」を活用してAIの全面的なガバナンスを主導し、AIが「認識可能」、「制御可能」、「使用可能」、「信頼できる」ことを保証すべきだと述べた。

[[275585]]

AI のこうした「缶」に誰もが同意するわけではありませんが、これは AI の方向性を示唆しています。つまり、AI 製品の研究開発と使用は、1 つの側面だけを開発するのではなく、同時に複数の側面を持つ必要があるということです。 AIやその他の技術製品がいかに斬新で実用的であったとしても、人々に普及するためには制御可能である必要があり、大きな利益を達成すると同時に、人類社会に起こり得るトラブルや災害を防止、軽減できなければなりません。これは、世界各国の経済発展と環境保護における過ちを反省して得られた経験なのかもしれません。

AIの「知識、制御、使用、信頼」を確保することは、科学技術の歴史において、まず研究開発、次に管理という伝統的な考え方と実践から学んだ教訓の要約でもあります。科学技術の歴史において、自動車の発明は人類社会を産業文明の時代へと導きました。しかし、自動車を使用する過程で、人々は自動車による交通事故や傷害を抑制することが困難であることに気づきました。シートベルトの発明と使用は、自動車傷害事件を抑制する要因の1つです。しかし、シートベルトは自動車の発明から80年も経ってから開発されました。

この理解に基づいて、マイクロソフトは人工知能の開発に関する原則を提唱しました。それは、すべての AI 製品は AI 倫理審査を受けなければならないというものです。 AIの急速な発展により、AIが使用可能でありながら制御不能になった場合、人間はより大きな代償を払うことになるということも人間は認識するようになりました。そのため、AI研究開発においては、AI製品ごとに倫理審査を行い、ルールを整備することが同時に行わなければならない課題となっている。 2016年、マイクロソフトのCEO、サティア・ナデラ氏は、人工知能の10大倫理原則を提唱しました。AIは人間を支援するために使用されなければならない、AIは透明性がなければならない、AIは人間の尊厳を傷つけることなく効率を最大化しなければならない、AIは人間のプライバシーを保護しなければならない、AIは人間が意図しない危害を元に戻せるようにアルゴリズムの責任を負わなければならない、AIは偏見を防止しなければならない、というものです。

上記6項目はAI製品に対して提案されているが、AI製品を使用する人間が持つべき倫理原則も4つ提案されている。共感は人間とAIが共存する世界で非常に価値がある。教育はAIの研究開発と管理の基盤となる。人間の創造性の維持は機械が人間の創造性を豊かにし、高め続ける。判断と責任は最終的には人間がAIを判断したり診断したり、AIが生み出した結果のすべてに責任を負うことになる。

これらの原則が実装されれば、AI を効果的に制御できるようになります。しかし、実際にはさまざまな理由により、多くの機関や開発者が設計した AI 製品は制御不能になっており、使用時にさまざまな問題が発生します。現状の最大の問題は、人々のプライバシーを侵害し、安全性の確保が困難になることであり、人々からの批判や反対につながっています。

最近の大きな教訓は、Apple 製品の音声アシスタントである Siri です。 2019年7月、メディアは、Siriが医師の診察中の医療情報など、ユーザーのプライベートな音声メッセージを秘密裏に録音し、音声ファイルに変換して各国のAppleの請負業者に送信していると報じた。オーディオファイルには、ユーザーの位置情報、使用データ、通信内容も記録されます。いくつかの説明と綱引きの末、Appleは8月28日に、Siriがユーザーとの通信を秘密裏に録音し、そのファイルを外注先に漏洩したことについて正式に謝罪した。ユーザーからはプライバシー侵害を理由にAppleを批判されており、状況が改善されなければAppleは大量のユーザーを失い、市場からも見捨てられることになるだろう。

しかし、この状況は、人工知能の発展は最終的には人間が制御できるかどうかにかかっていることも示しています。なぜなら、人間の制御がなければ、AIは進化もアップグレードもできないからです。人間と AI の相互作用において、AI の倫理的審査と監視が失敗したり、制御不能になったりして、セキュリティ上の脆弱性が生じる可能性があります。

したがって、AI は、認識可能で使用可能であるだけでなく、制御可能で信頼できる場合にのみ将来性があります。他の製品についても同様です。

<<:  ByteDance アルゴリズムの面接の質問、解けますか?

>>:  メリット、PyTorch中国語版の公式チュートリアルはこちら

ブログ    

推薦する

2040枚の画像で訓練されたViTの精度は96.7%で、移行パフォーマンスも驚異的だ

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能、機械学習、ディープラーニングの違いと関連性

最近では、新しいデータ処理技術に関して、さまざまな用語が飛び交っています。ある人は機械学習を使用して...

中国におけるAI人材の格差はどれほど大きいのか?教育省の学習基準では高校生にAIを学ぶことを義務付けている

[[220662]] 1956 年、ダートマス大学で開催された会議で、コンピューターの専門家であるジ...

金融分野における機械学習の4つの利点と5つの応用

[[198507]]誰の生活も金融から独立して存在することはできません。テクノロジーの発展により人々...

「成熟した」大型モデルが登場したときだけでしょうか? MIT: GPT-4はコードを自己修正できるが、GPT-3.5はできない

大規模言語モデルがコード生成において並外れた能力を発揮していることは誰もが知っています。しかし、コン...

自分に最適なオープンソース フレームワークを選択するにはどうすればよいでしょうか?

多くのニューラル ネットワーク フレームワークは長年にわたってオープン ソース化されており、機械学習...

人工知能の力: ウェブ開発者がいまだに雇用されている理由

記事ソース| https://dzone.com/articles/the-power-of-ai-...

...

...

人工知能とデータ分析の新たなトレンド

明らかに、AI とデータ分析の世界はダイナミックな変化の真っ只中にあります。将来は、イノベーションと...

よく使われる「生成AIフレームワーク」を1つの記事で理解する

こんにちは、皆さん。私は Luga です。今日は、人工知能 (AI) エコシステムに関連するテクノロ...

2024 年のデータ テクノロジーのトレンド: 基礎モデルと機密コンピューティング

おそらく、現代のデータ環境を形作る最大の力は、基礎となるモデルの遍在性です。これらのモデルは、外部の...

プライバシー情報セキュリティに注意を払い、顔認識の数十億ドル規模のブルーオーシャンを開拓しましょう

近年、人工知能の継続的な発展とインテリジェント時代の静かな到来に伴い、顔認識に代表される生体認証技術...

TransformerはAI分野を支配するのでしょうか?結論を出すのは時期尚早だ

自然言語処理タスクから始まり、画像分類と生成の分野で活躍する無敵のトランスフォーマーは、次の伝説とな...

...