信頼できるAIを開発する方法

信頼できるAIを開発する方法

[[410884]]

現在、人工知能の応用範囲と深さは絶えず拡大しており、情報インフラの重要な部分になりつつあります。しかし、このプロセスにおいて、人工知能はアルゴリズムのセキュリティ、データの差別、データの悪用などのいくつかのリスクも継続的にさらしてきました。人工知能のセキュリティ、信頼性、公平性をどのように確保するかが、業界の重要な懸念事項となっています。

「現在、世界各国は信頼できる人工知能の開発を非常に重視しています。信頼できる人工知能の開発は、私たちが最終的に人工知能の可能性を解き放ち、世界中の人々の発展に利益をもたらすための重要な基盤です。」中国情報通信研究院の于暁輝院長は、「2021年世界人工知能会議」の「信頼できるAIフォーラム」で述べた。

フォーラムでは、信頼できるAI分野の多くの学者、専門家、学者、政府や業界団体の代表者、AI企業が、人工知能の長期的な発展に関するこの重要な問題について議論しました。

信頼できるAIテクノロジーはAIが信頼できるものとなるための基盤です

「信頼できるAI技術は、AIが信頼性を獲得するのを支援するための基盤です。」JDディスカバリー研究所の学長であり、オーストラリア科学アカデミーのフェローであるタオ・ダチェン博士は、信頼できるAIについての見解を述べました。


「技術的な観点から、信頼できるAIの研究は、安定性、説明可能性、プライバシー保護、公平性の4つの側面にまとめることができます。信頼できるAIを上記の4つの観点から研究する場合、最初のタスクは、安定性、説明可能性、プライバシー保護、公平性の観点から、AIアルゴリズム、モデル、システムの機能を定量的に分析し、定量化する適切な方法を見つけることです」とタオ・ダチェン氏は述べています。

現在、安定性は、さまざまな攻撃アルゴリズムの攻撃成功率や攻撃パフォーマンスによって測定できます。解釈可能性における一般化能力は、一般化誤差の上限によって説明できます。プライバシー保護能力は、多くの場合、差分プライバシー法によって特徴付けられ、さまざまなプライバシー攻撃アルゴリズムの攻撃成功率や攻撃パフォーマンスによって評価することもできます。公平性は、一連の公平な意思決定指標を使用して測定され、主に個人の公平性とグループの公平性の2つのカテゴリに分けられます。

同時に、彼はこれら 4 つの側面には深いつながりがあり、それらは互いに孤立しているわけではないことを強調しました。したがって、信頼できる人工知能の研究を行う際には、単一の側面から始めるのではなく、さまざまな要因の影響を総合的に考慮する必要があります。このようにして、関連する研究をより適切に実行でき、信頼できる人工知能のさらなる発展が促進されます。

タオ・ダチェン氏はさらに、EUのGDPRであれ中国のプライバシー保護規制であれ、どちらもユーザーがデータの使用にもっと注意する必要があり、ユーザーには個人情報を保護するかなりの権利があることを示していると述べた。 「上記の 4 つの機能を統合し、責任を明確にすることによってのみ、信頼できる AI を測定する正しい方法を見つけることができます。」

将来的には信頼できるAIの統合研究が重要なトレンドとなるだろう

中国情報通信研究院クラウドコンピューティング・ビッグデータ研究所所長の何宝紅氏は「信頼できる人工知能についてはある程度合意に達しているが、全体としてはまだ研究の初期段階にある。まだ断片的な部分が多く、理論も十分ではない。学界、産業界、政府部門の共同の取り組みがまだ必要だ」と語った。

信頼できるAIフォーラムでは、中国情報通信研究院と京東探査研究所が共同で「信頼できる人工知能白書」を発表しました。この白書では、信頼できる人工知能はもはや人工知能技術、製品、サービス自体のステータスの定義に限定されず、徐々に体系的な方法論のセットにまで拡大し、「信頼できる」人工知能を構築する方法のあらゆる側面を網羅していると考えています。

タオ・ダチェン氏の見解では、信頼できるAIに関する統合研究は今後の重要なトレンドとなり、信頼できる能力評価も人工知能産業の実装の重要な部分となるだろう。理論と実践の両面から信頼できるAI研究を継続することで、AI産業の新たな波が生まれ、AIが信頼できるものとなり、AIの潜在能力が十分に発揮され、人類社会にさらなる利益をもたらすことになります。

信頼できる人工知能の開発を促進する4つの取り組み

特筆すべきは、このフォーラムにおいて、中国情報通信研究院、中国科学院自動化研究所中英人工知能倫理・ガバナンス研究センター、京東探索研究所、アントグループなどが共同で「信頼できる人工知能の開発を促進するためのイニシアチブ」(以下、「イニシアチブ」という)を発表したことだ。

「イニシアチブ」は、現在の人工知能技術の急速な発展に基づいており、人工知能に伴うリスクと課題、および信頼できる人工知能のコンプライアンス遵守の発展について深く考察しています。政府、産業界、学界、研究界のすべてのセクターが国際的な協調ガバナンスのコンセンサスの形成を加速し、信頼できるAIに対する社会の理解と関心を促進し、人工知能の産業的および社会的価値を十分に引き出すことを提唱することを目的としています。


このイニシアチブは、人工知能業界の同僚に、次の 4 つのイニシアチブに積極的に対応するよう呼びかけています。

まず、テクノロジーを善のために使うことを主張し、信頼できる AI が人類に利益をもたらすようにしなければなりません。信頼できる人工知能技術の研究を加速し、信頼できる汎用人工知能の将来的な準備を整え、制御可能で信頼性が高く、透明性と説明性があり、プライバシーが確保され、責任があり、多様で包括的な人工知能システムを構築します。技術設計、研究開発テスト、運用と使用の全プロセスに焦点を当て、人間本位と技術の善良さを堅持し、技術、社会、文化、価値観が統合され共存する良好な開発環境を構築します。

第二に、私たちは共有された権利と責任を守り、信頼できるAIの価値概念を推進しなければなりません。信頼できる人工知能の価値を広く宣伝し、人工知能の規制当局、開発者、メーカー、受益者が信頼の概念を継続的に改善し実践することに参加することを奨励し、個人、企業、業界の責任と権利を明確にし、信頼できる人工知能の全体的な枠組みと基本原則の指導の下で、相互調整、共同構築、共有の機敏で信頼できるメカニズムを構築します。

3つ目は、健全かつ秩序ある発展を堅持し、信頼できる AI 業界の慣行を促進することです。信頼できる人工知能の安全性/倫理に関する研究を継続的に推進し、信頼できる人工知能標準システムを構築し、信頼できる人工知能システムの構築を改善し、人工知能に対する信頼できる評価と管理能力を育成し、人工知能製品の応用に対する保険メカニズムを模索し、互いに影響し合い、支え合い、依存し合う健全で秩序ある開発エコシステムの構築を推進します。

第4に、多様性と包括性を維持し、信頼できるAIに関する国際的なコンセンサスを構築する必要があります。複数の主体が共同で相乗効果を生み出し、相互作用を調整して、企業の自主性、業界の自主規律、社会の監督、政府の規制を備えた人工知能ガバナンスシステムを共同で構築することをサポートします。グローバルなコミュニケーションと交流を促進し、共同研究を実施し、徹底した対話とコンセンサスに基づく信頼できる人工知能グローバルガバナンス協力フレームワークを構築し、人類が直面する共通の課題に協力して取り組みます。

<<:  成功の秘訣: AIを活用したオンライン文書検証

>>:  AI駆動型ソフトプラスチック選別ロボットがプラスチック廃棄物危機の解決に貢献

ブログ    

推薦する

...

Google Geminiはリリース直後から疑問視されていた:テスト基準に偏りがあり、エフェクトビデオは編集されている疑いがある

Google待望の大躍進、 Gemini大型モデルがついに発売!最も目を引くのは、次の写真とビデオで...

...

避けるべきよくあるコーディングミス

人は誰でも間違いを犯す。しかし、開発者が犯す間違いの多くは回避可能です。この記事で説明した一般的な間...

ロビン・リー:AIネイティブ時代の「冷たい」思考と「熱い」ドライブ

11月15日、科学技術部と深セン市人民政府が共催する「2023西里湖フォーラム」が深セン大学城国際会...

...

...

ロボティックプロセスオートメーションの開発展望

ロボティック プロセス オートメーション (RPA) は、今日のデジタル サポート エクスペリエンス...

...

...

AIが仕事や生活を奪ったら、人類の未来はどうなるのでしょうか?

AIの発展は、人間の仕事の効率を向上させ、人間の働き方を変え、さらには人類の発展の方向を導く上で大...

AIとデータセンターの相互依存

2か月前にFacebookのザッカーバーグとテスラのマスクがAIをめぐって口論したことから、ちょうど...

...

最新レビュー!拡散モデルと画像編集の愛憎関係

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

統計分析と人工知能の9つの有名な大惨事

2017年、『エコノミスト』誌は、石油ではなくデータが世界で最も価値のある資源になったと宣言しました...