人工知能倫理ガバナンスは早急に実践段階へ移行する必要がある

人工知能倫理ガバナンスは早急に実践段階へ移行する必要がある

今日の社会では、デジタル工業化と産業のデジタル化により、デジタル世界と物理世界の深い融合と発展が促進され続け、人間の生活と生産方法はますます再形成されつつあります。人工知能のアルゴリズムとデータは、この経済的および社会的変革の原動力として、今後数年間の話題の中心となるでしょう。適切なアプリケーション シナリオに組み込まれたデータと人工知能アルゴリズムの組み合わせが、大きな経済的および社会的利益をもたらすことは間違いありません。

[[392793]]

しかし、公平性、セキュリティ、プライバシー、透明性、責任、雇用などの面で人工知能アルゴリズムがもたらす可能性のある問題にも注意を払う必要があります。アルゴリズム システムの出力結果によって、特定の個人やグループに対する差別、不公平、排除が生じる可能性があります。たとえば、顔認識アルゴリズムは有色人種の識別精度が低いと非難されており、広告アルゴリズムや採用アルゴリズムは女性労働者を排除していると非難されています。アルゴリズムによる配信は、誤った情報の拡散や増殖を促進する可能性があり、また、ユーザーの情報の自由な選択を制限し、「情報の繭」効果を生み出す可能性があります。同時に、顔情報の過剰な収集と分析、古い顧客をターゲットにしたビッグデータ、ディープフェイクなど、アルゴリズムが悪用または誤用され、個人の権利、公共の利益、国家の安全保障などに脅威を与える可能性もあります。

このような背景から、人工知能の開発と応用には、ガイドラインと制約を提供する倫理的価値観が緊急に必要であり、これは国内外の人工知能分野における基本的なコンセンサスとなっている。

3つの段階

2016年以来、人工知能技術の急速な発展と応用に伴い、人工知能倫理はおおよそ3つの発展段階を経ており、現在は「実践」段階に移行することが急務となっている。

第一段階は2016年に始まり、主爆発段階といえます。この段階の核心は、さまざまな分野が倫理原則を提案または策定していることです。人工知能が特定の倫理原則に従う必要があることを出発点として、国、政府機関、国際組織からテクノロジー企業、業界団体、学術団体に至るまで、あらゆるセクターが AI 倫理原則を提案または策定してきました。マイクロソフト、グーグル、IBM、テンセントなど国内外の主流テクノロジー企業も積極的に反応し、独自のAI倫理原則を次々と提唱している。不完全な統計によると、関連する AI 原則文書は 100 件以上あります。つまり、現段階では、すべてのセクターが AI の倫理原則を積極的に提唱していますが、必要なコンセンサスと具体的な実践が欠けています。

第2段階は2018年に始まり、合意形成段階とも言えます。さまざまな国や組織が、数多くの AI の原則や倫理的枠組みを提案してきました。これらの原則や枠組みはまったく同じではなく、ある程度の意見の相違や対立さえあります。しかし、人工知能とデジタル経済はグローバルなものであるため、人々は世界的に認められた AI の原則に到達し、策定することを望んでいます。 OECD と G20 の人工知能原則は、この段階の成果です。

第3段階は2019年に始まり、AI倫理実践段階といえます。この段階で、業界では AI の原則をどのように実装および実行するかについて考え始め、AI の原則を実践に移すことができるメカニズム、実践、ツールを模索し始めました。現在、Google、Microsoft、IBMなどのテクノロジー企業は、AI倫理の実装を積極的に推進し、AI原則を運用可能かつ実用的なものにし、AI研究開発プロセスやビジネスアプリケーションに真に統合・組み込んでいます。つまり、AI 倫理の実践は、現在および将来の AI 倫理活動の中核となるべきです。なぜなら、AI 倫理を真に実装するには、AI 倫理原則を単に提唱するだけでは不十分だからです。次の段階では、抽象的な AI 原則を具体的な実践に「翻訳」または「変換」するガバナンス パスの探求に重点を置く必要があります。

5つの道

原則から実践へは、AI倫理の分野の発展方向です。現在、我が国は「新世代人工知能ガバナンス原則 - 責任ある人工知能の開発」など、AI倫理に関する原則や枠組みを提唱しています。いくつかのテクノロジー企業も同様の取り組みを提案している。これを踏まえて、AI倫理の実施計画をさらに検討し、倫理ガバナンスの関連実践をより重視して、責任ある、安全で信頼できるAIの開発と応用を促進する必要があります。国内外の関連調査と研究に基づくと、AI倫理ガバナンスには主に5つの実践的な道があります。

1つ目は倫理委員会です。人工知能が将来の知的社会の礎であるならば、倫理は、この礎を安定させるために必要な保証であると言えるでしょう。したがって、さまざまな AI システムのさまざまな影響や、立法の遅れ、不完全な法律などの要因を考慮すると、テクノロジー企業は法令遵守の最低限の要件を超えて、倫理的責任を積極的に果たす必要があります。倫理委員会は、テクノロジー企業が AI の倫理的責任を果たすための最も基本的なメカニズムです。 AI関連のビジネスやアプリケーションに必要な倫理的審査を行う倫理委員会の設立は、マイクロソフトのAETHER委員会、グーグルのAI原則審査グループ、IBMのAI倫理委員会など、テクノロジー業界では「必須」となっている。倫理委員会の主な責務は、AI倫理に関する社内基準やプロセスを策定し、それに基づいてAI関連事業の倫理審査を実施し、AI関連アプリケーションのセキュリティ、公平性、プライバシーなどにおけるリスクを特定、防止、排除することです。具体的な運営においては、倫理委員会は多様な参加、すなわち技術、法律、倫理など異なる専門分野の人々の連携と協力を必要とし、倫理委員会は事例、基準、手順、ツール、リソースなどを確立する責任を負い、組織知識のデータベースとなり、ガバナンス主体としての役割を果たします。さらに、倫理委員会は政府の立法よりも迅速に対応し、技術革新と応用の急速な発展に対応することができます。

2つ目は倫理的実践の枠組みです。海外のテクノロジー企業は、AIビジネスの倫理審査を実施するだけでなく、人工知能がもたらす差別、不透明性、説明不可能性、プライバシーなどの問題に対処するために、AI倫理に関する実践的なフレームワークを導入しています。例えば、アルゴリズムの透明性の面では、Google は人工知能の「モデル カード」メカニズムを立ち上げ、IBM は「AI ファクト リスト」メカニズムを立ち上げました。これらのメカニズムは、製品の説明書や食品の栄養情報表に似ています。モデルの詳細、用途、影響要因、指標、トレーニング データ、評価データ、倫理的考慮事項、人工知能モデルに関連する警告や提案を説明し、人々が AI モデルをよりよく理解し、認識できるようにします。たとえば、プライバシー保護の観点から見ると、フェデレーテッド ラーニング フレームワークは、データ活用を促進するだけでなく、個人のプライバシーをしっかりと保護することもできます。簡単に言えば、フェデレーテッド ラーニングとは、機械学習のプロセス中に、各参加者がデータ リソースを共有することなく、他の参加者のデータを使用して共同モデリングを行えることを意味します。フェデレーテッドラーニングの助けを借りれば、個人のプライバシーとデータのセキュリティを保護しながら、不完全で不十分なデータなどの問題を解決できます。フェデレーテッド ラーニングは、自動車保険の価格設定、信用リスク管理、売上予測、視覚セキュリティ、補助診断、プライバシー保護された広告、自動運転などに大きな応用の見込みがあります。さらに、AI倫理チェックリストやAI公平性チェックリストなどのメカニズムはテクノロジー企業からますます評価されるようになり、AIが倫理的要件に準拠していることを保証する上でますます重要な役割を果たすようになります。

3つ目は倫理的なツールです。倫理的なツールは、透明性、説明可能性、公平性、セキュリティ、プライバシー保護などの問題に対する技術的な解決策を見つけることに重点を置いています。さらに、顔の偽造を含むディープフェイクを識別するためのツールも含まれています。倫理ツールのオープンソース開発から商用サービスまで、大手テクノロジー企業と AI 倫理のスタートアップ企業は、AI 分野のミッシングリンクを埋め、AI 倫理の実装に新しいアイデアを提供しています。現在、Google、Microsoft、IBM、およびいくつかのAI倫理スタートアップ企業は、多様なAI倫理ツールを積極的に開発し、それらをクラウドサービスに統合して、顧客と業界を支援するAI倫理をサービスとして提供(EaaS)しています。 EaaSは今後、クラウドサービスやクラウドAIの標準となることが期待されています。

4つ目は規格認証です。現在のプライバシー保護と同様に、人工知能倫理も標準認証を通じて促進することができます。AI倫理基準を満たすAI製品とサービスは、対応する認証を申請できます。現在、IEEEやISOなどの国際標準化機構は、関連規格の策定を積極的に組織し、認証プログラムを立ち上げようとしています。今後、我が国もこの点に積極的に投資し、標準の優位性を獲得し、標準認証を通じて信頼性と責任のあるAIの開発と応用を奨励し、推進する必要があります。

5番目は倫理研修です。技術研究開発担当者はAI事業の最前線に立っており、技術の第一責任者です。彼らは倫理意識を養い、実際のAI事業において倫理要件を積極的に実施し、製品の開発、設計、運用の全プロセスに倫理要件を組み込む必要があります。そのため、政府や企業も技術者に対する倫理教育を強化する必要があり、大学もAI倫理に関する教育・研修システムの構築を強化すべきである。

3つのアプローチ

AI ガバナンスに関しては、倫理的ガバナンス、法的ガバナンス、技術的ガバナンスのすべてが独自の役割を果たしており、どれも無視されるべきではありません。しかし現時点では、AI ガバナンスは倫理的ガバナンスにさらに依存する必要があります。 AI アルゴリズムの複雑さと継続的な反復を考慮すると、強制的な法律を急いで導入することが適切でない場合、倫理的なガバナンスは、AI アルゴリズムの適用によってもたらされる問題に対処するための最も適切で効果的な方法であることは間違いありません。

AI倫理は確かに重要であり、責任ある、安全で信頼できるAIの実現を確実にするための重要な道です。しかし、AI技術の革新的な応用やその経済的・社会的利益の最大化に影響を与えないよう、倫理や立法規制を一方的に重視することはできません。

例えば、個人情報やプライバシー保護を過度に重視すると、AI アプリケーションが利用可能なデータを十分に取得できず、AI アプリケーションと個人や社会に対するその価値が損なわれる可能性があります。アルゴリズムの透明性を過度に重視すると、アルゴリズムの精度や効率が低下し、大規模なアプリケーションが妨げられる可能性があります。すべてのシナリオで人間による最終的な意思決定と制御の必要性を一方的に重視すると、既存の意思決定リンクにおける人間の意思決定者に関連する偏見や差別などの問題を解決するために AI を十分に活用できない可能性があります。さらに、多くの高リスクAIアプリケーションは、高価値AIアプリケーションでもある場合が多いため、さまざまな利益を比較検討した上で倫理と開発のバランスを取り、責任ある技術革新と応用を実現する必要があります。

<<:  機械学習がシステム設計に与える影響: 学習したインデックス構造の簡単な分析

>>:  ディープラーニング入門

ブログ    
ブログ    

推薦する

...

...

インテリジェント製造自動化、中国電子山地がインテリジェント製造の新しいモデルを実践

中国電子サンディとオートデスクは2017年に関係を築き始めました。中国電子三迪の創業者である于楊氏は...

速報、AI専門家のJing Kun氏がBaiduを退社! CIOの李英がXiaoduのCEOに就任

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能が人の感情を認識できるなんてすごいですね。信じられません。

感情認識技術は、実際には人工知能を使用して顔の表情から感情を検出する新興技術であり、数十億ドル規模の...

糖尿病網膜症のスクリーニングの改善におけるAIの役割

糖尿病は網膜症を引き起こす可能性があり、これは失明につながる合併症です。しかし、良いニュースとしては...

シンプルな人工ニューラル ネットワークをゼロから構築する: 入力層 1 つと出力層 1 つ

[51CTO.com クイック翻訳] この 2 部構成のシリーズでは、numpy Python ライ...

売上を予測するための 5 つの機械学習テクニック

売上予測は、機械学習 (ML) の一般的かつ重要な用途です。予測売上は、ベースラインを確立して新しい...

...

AIが書いたコンテンツは判別が難しく、言語の専門家でさえ無力である

9月10日のニュース、2023年は人工知能の年です。チャットボットChatGPTから、グラミー賞に参...

人工知能の今後の発展はどうなるのでしょうか?

汎用人工知能の任務は、ユビキタスな視覚と聴覚を制御することです。「認識」を例にとると、汎用人工知能の...

...

人間を機械に置き換える流れはますます激しくなっており、この2つの発展点は無視できません。

近年、伝統産業の変革の要求が継続的に解放されるにつれて、人間を機械に置き換えることが重要なトレンドに...

2024 年の CIO の 14 の優先事項とトレンド

GenAI は 2024 年の最大のテクノロジー トレンドとなり、新しいツールのレビュー、インフラス...

物体検出にディープラーニングを使用する方法

[51CTO.com クイック翻訳]ディープニューラルネットワークは、視覚情報を処理する強力な能力で...