AI法案は、AIの開発方法、企業がAIを使ってできること、要件に従わなかった場合の法的結果など、AIの使用に関する共通の規制および法的枠組みを構築することを目的としています。この法案は、企業がAIを導入する前に特定の状況下で承認を得ることを義務付けたり、リスクが高すぎるとみなされる特定のAIの使用を禁止したり、その他の高リスクのAIの使用に関する公開リストを作成したりする可能性があります。 欧州委員会は、この法律に関する公式報告書の中で、この法律は、広い意味では、信頼できるAIに関するEUのパラダイムを成文化することを目指していると述べた。このパラダイムでは、「AI は、民主的価値観、人権、法の支配を尊重しながら、法的、倫理的、技術的に堅牢であることが求められる」としています。 提案されている AI 規制枠組みの目的は次のとおりです。1. EU市場で導入され使用されるAIシステムが安全であり、既存の法的基本的権利とEUの価値観を尊重していることを保証する。 2. AIへの投資とイノベーションを促進するために法的確実性を確保する。 3. AIシステムに適用される基本的権利と安全に関する既存の法律のガバナンスと効果的な執行を強化する。 4. 合法的、安全、信頼できる AI アプリケーションの統一市場の開発を促進し、市場の分断を防ぐ。 新法の詳細は未だ不明な点が多いが、その鍵となるのは人工知能の定義だ。その中核となるのは「製品安全フレームワーク」で、将来のAI製品を全業界に適用される4つの安全レベルカテゴリーに分類している。 スタンフォード・ウィーン大西洋横断技術法フォーラムのマルリッツ・コップ氏がまとめた、新法に関する2021年の欧州委員会の報告書によると、「重要度ピラミッド」の底辺には最もリスクの少ないシステムがある。このカテゴリに分類される AI アプリケーションには、リスクの高いシステムが満たさなければならない透明性要件は適用されません。 「限定的なリスク」カテゴリでは、チャットボットなどの AI システムに対して透明性の要件がいくつか存在します。 ——EUの新しいAI法では、AIプログラムを、下から順に、低リスク、限定リスク、高リスク、容認できないリスクの4つのカテゴリーに分類しています。 透明性に対する厳しい要件がある高リスクの AI カテゴリでは、規制がより厳しくなります。序文によると、高リスクのカテゴリには、次のような AI アプリケーションが含まれます。
ピラミッドの頂点にある 4 番目のカテゴリは、「許容できないリスク」を伴う AI システムです。これらのアプリは、リスクが多すぎるため、本質的に違法です。このようなアプリケーションの例としては、行動や人、または「特定の脆弱なグループ」を操作するシステム、ソーシャル スコアリング、リアルタイムおよびリモートの生体認証システムなどがあります。 多くの企業が透明性とコンプライアンスの確保に取り組む分野として、高リスクカテゴリーに重点が置かれる可能性が高いでしょう。 EUのAI法案では、高リスクカテゴリーに該当するAI製品やサービスを開始する前に、企業に4つの手順を踏むことを推奨している。
|
>>: 機械学習において、トレーニングおよび検証メトリック グラフから何がわかるでしょうか?
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
過去 10 年間で、金融業界ではこれまでにない最先端のテクノロジーが数多く導入されました。この変化は...
歩き方は人それぞれ違います。歩き方は、その時々の気分など、あなたに関する秘密を明らかにします。たとえ...
[[416907]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
1 か月前、Mistral AI が突然マグネット リンクをリリースし、AI コミュニティ全体が騒然...
[[375635]] 2020 年は激動の年であり、組織は数多くの課題に直面しました。 2021年に...
[[256388]]この試合はイギリス・ロンドンにあるDeepMind本社からライブ配信された。 G...
ちょうど昨日、第 1 回 CPAL ミニマリスト アカデミック カンファレンスで、ライジング スター...
[51CTO.com クイック翻訳] 分散アプリケーションは何も新しいものではありません。最初の分...