8月29日、2019年世界人工知能会議が上海で開幕した。世界各国の著名なテクノロジー企業や学界、産業界の著名人が会議に出席し、人工知能の発展に関する展望分析や提案を行った。中国テンセントの馬化騰会長兼最高経営責任者(CEO)は演説で、人工知能(AI)ガバナンスの緊急性が高まっており、「善のための技術」を活用してAIの全面的なガバナンスを主導し、AIが「認識可能」、「制御可能」、「使用可能」、「信頼できる」ことを保証すべきだと述べた。
AI のこうした「缶」に誰もが同意するわけではありませんが、これは AI の方向性を示唆しています。つまり、AI 製品の研究開発と使用は、1 つの側面だけを開発するのではなく、同時に複数の側面を持つ必要があるということです。 AIやその他の技術製品がいかに斬新で実用的であったとしても、人々に普及するためには制御可能である必要があり、大きな利益を達成すると同時に、人類社会に起こり得るトラブルや災害を防止、軽減できなければなりません。これは、世界各国の経済発展と環境保護における過ちを反省して得られた経験なのかもしれません。 AIの「知識、制御、使用、信頼」を確保することは、科学技術の歴史において、まず研究開発、次に管理という伝統的な考え方と実践から学んだ教訓の要約でもあります。科学技術の歴史において、自動車の発明は人類社会を産業文明の時代へと導きました。しかし、自動車を使用する過程で、人々は自動車による交通事故や傷害を抑制することが困難であることに気づきました。シートベルトの発明と使用は、自動車傷害事件を抑制する要因の1つです。しかし、シートベルトは自動車の発明から80年も経ってから開発されました。 この理解に基づいて、マイクロソフトは人工知能の開発に関する原則を提唱しました。それは、すべての AI 製品は AI 倫理審査を受けなければならないというものです。 AIの急速な発展により、AIが使用可能でありながら制御不能になった場合、人間はより大きな代償を払うことになるということも人間は認識するようになりました。そのため、AI研究開発においては、AI製品ごとに倫理審査を行い、ルールを整備することが同時に行わなければならない課題となっている。 2016年、マイクロソフトのCEO、サティア・ナデラ氏は、人工知能の10大倫理原則を提唱しました。AIは人間を支援するために使用されなければならない、AIは透明性がなければならない、AIは人間の尊厳を傷つけることなく効率を最大化しなければならない、AIは人間のプライバシーを保護しなければならない、AIは人間が意図しない危害を元に戻せるようにアルゴリズムの責任を負わなければならない、AIは偏見を防止しなければならない、というものです。 上記6項目はAI製品に対して提案されているが、AI製品を使用する人間が持つべき倫理原則も4つ提案されている。共感は人間とAIが共存する世界で非常に価値がある。教育はAIの研究開発と管理の基盤となる。人間の創造性の維持は機械が人間の創造性を豊かにし、高め続ける。判断と責任は最終的には人間がAIを判断したり診断したり、AIが生み出した結果のすべてに責任を負うことになる。 これらの原則が実装されれば、AI を効果的に制御できるようになります。しかし、実際にはさまざまな理由により、多くの機関や開発者が設計した AI 製品は制御不能になっており、使用時にさまざまな問題が発生します。現状の最大の問題は、人々のプライバシーを侵害し、安全性の確保が困難になることであり、人々からの批判や反対につながっています。 最近の大きな教訓は、Apple 製品の音声アシスタントである Siri です。 2019年7月、メディアは、Siriが医師の診察中の医療情報など、ユーザーのプライベートな音声メッセージを秘密裏に録音し、音声ファイルに変換して各国のAppleの請負業者に送信していると報じた。オーディオファイルには、ユーザーの位置情報、使用データ、通信内容も記録されます。いくつかの説明と綱引きの末、Appleは8月28日に、Siriがユーザーとの通信を秘密裏に録音し、そのファイルを外注先に漏洩したことについて正式に謝罪した。ユーザーからはプライバシー侵害を理由にAppleを批判されており、状況が改善されなければAppleは大量のユーザーを失い、市場からも見捨てられることになるだろう。 しかし、この状況は、人工知能の発展は最終的には人間が制御できるかどうかにかかっていることも示しています。なぜなら、人間の制御がなければ、AIは進化もアップグレードもできないからです。人間と AI の相互作用において、AI の倫理的審査と監視が失敗したり、制御不能になったりして、セキュリティ上の脆弱性が生じる可能性があります。 したがって、AI は、認識可能で使用可能であるだけでなく、制御可能で信頼できる場合にのみ将来性があります。他の製品についても同様です。 |
<<: ByteDance アルゴリズムの面接の質問、解けますか?
>>: メリット、PyTorch中国語版の公式チュートリアルはこちら
Jupyter Notebook は、開発やドキュメントの作成からコードの実行、結果の表示まで、コン...
[[418456]]この記事は、Lee Hongyi によるチーム スタディ ブック「LeeML-...
AI と IBM Watson の Personality Insights を使用して見込み客に確...
[[270070]] 7月8日、国家インテリジェント自動車・スマート交通(北京・天津・河北)実証区海...
ロボットの学習能力と IoT アプリケーションの相互接続性は、実りある未来を約束します。モノのインタ...
今日は、人類が初めて電気を家庭や企業に供給するようになってから 140 年目の記念日です。電力産業は...
オラクルの会長兼最高技術責任者(CTO)ラリー・エリソンは本日、Oracle Fusion Clou...
[[398462]]最後の顔認識画像の前処理では、前処理ステップを追加し、環境やその他の要因からの干...
選択の余地はありません。2022年は近年で最も激動の年の一つになるでしょう。 テクノロジーもこの混乱...
数日前に話題になった「中国ビッグモデル「トップストリームグループチャット」ノート」を見た人は多いはず...
マイノリティ・リポートのトム・クルーズを覚えていますか? AI は将来のリスクを示唆する従業員の行動...
2020年が到来。テクノロジー規制は改善されたのでしょうか? [[311882]]空想を捨てなさい。...
現在、ディープラーニング テクノロジーを展開できる方法としては、デバイス上への直接展開、クラウド内へ...