欧州のAI法案がまもなく導入され、世界の技術規制に影響を及ぼす可能性がある

欧州のAI法案がまもなく導入され、世界の技術規制に影響を及ぼす可能性がある

AI法案は、AIの開発方法、企業がAIを使ってできること、要件に従わなかった場合の法的結果など、AIの使用に関する共通の規制および法的枠組みを構築することを目的としています。この法案は、企業がAIを導入する前に特定の状況下で承認を得ることを義務付けたり、リスクが高すぎるとみなされる特定のAIの使用を禁止したり、その他の高リスクのAIの使用に関する公開リストを作成したりする可能性があります。

欧州委員会は、この法律に関する公式報告書の中で、この法律は、広い意味では、信頼できるAIに関するEUのパラダイムを成文化することを目指していると述べた。このパラダイムでは、「AI は、民主的価値観、人権、法の支配を尊重しながら、法的、倫理的、技術的に堅牢であることが求められる」としています。

提案されている AI 規制枠組みの目的は次のとおりです。

1. EU市場で導入され使用されるAIシステムが安全であり、既存の法的基本的権利とEUの価値観を尊重していることを保証する。

2. AIへの投資とイノベーションを促進するために法的確実性を確保する。

3. AIシステムに適用される基本的権利と安全に関する既存の法律のガバナンスと効果的な執行を強化する。

4. 合法的、安全、信頼できる AI アプリケーションの統一市場の開発を促進し、市場の分断を防ぐ。

新法の詳細は未だ不明な点が多いが、その鍵となるのは人工知能の定義だ。その中核となるのは「製品安全フレームワーク」で、将来のAI製品を全業界に適用される4つの安全レベルカテゴリーに分類している。

スタンフォード・ウィーン大西洋横断技術法フォーラムのマルリッツ・コップ氏がまとめた、新法に関する2021年の欧州委員会の報告書によると、「重要度ピラミッド」の底辺には最もリスクの少ないシステムがある。このカテゴリに分類される AI アプリケーションには、リスクの高いシステムが満たさなければならない透明性要件は適用されません。 「限定的なリスク」カテゴリでは、チャットボットなどの AI システムに対して透明性の要件がいくつか存在します。

——EUの新しいAI法では、AIプログラムを、下から順に、低リスク、限定リスク、高リスク、容認できないリスクの4つのカテゴリーに分類しています。

透明性に対する厳しい要件がある高リスクの AI カテゴリでは、規制がより厳しくなります。序文によると、高リスクのカテゴリには、次のような AI アプリケーションが含まれます。

  • 人命や健康を危険にさらす可能性のある交通機関などの重要なインフラ(自動運転車など)
  • 個人の教育または職業上の達成度(テストの成績など)に影響を与える教育または職業訓練。
  • 製品の安全コンポーネント(ロボット支援手術など)
  • 雇用、従業員管理、自営業(履歴書や履歴書分類ソフトウェアなど)
  • 基本的な民間および公共サービス(信用スコアなど)
  • 法執行のユースケース(証拠評価など)
  • 入国管理および国境管理(パスポートの真正性評価を含む)
  • 公正かつ民主的なプロセス(特定の事実に法律を適用するなど)
  • 監視システム(生体認証や顔認識など)。

ピラミッドの頂点にある 4 番目のカテゴリは、「許容できないリスク」を伴う AI システムです。これらのアプリは、リスクが多すぎるため、本質的に違法です。このようなアプリケーションの例としては、行動や人、または「特定の脆弱なグループ」を操作するシステム、ソーシャル スコアリング、リアルタイムおよびリモートの生体認証システムなどがあります。

多くの企業が透明性とコンプライアンスの確保に取り組む分野として、高リスクカテゴリーに重点が置かれる可能性が高いでしょう。 EUのAI法案では、高リスクカテゴリーに該当するAI製品やサービスを開始する前に、企業に4つの手順を踏むことを推奨している。

  1. 高リスクの AI システムの開発は、包括的かつ多分野にわたるチームが監督する AI 影響評価と行動規範を使用して、まず社内で行うのが最適です。
  2. 高リスク AI システムは適合性評価と承認を受け、ライフサイクル全体を通じて EU AI 指令の要件に準拠し続ける必要があります。システム外の特定の機関が適合性評価監査に関与することになります。この動的なプロセスにより、ベンチマーク、監視、検証が確実に行われます。さらに、高リスク AI を備えた動的システムの場合は、手順 2 を繰り返す必要があります。
  3. スタンドアロンの高リスク AI システムの登録は、専用の EU データベースで行われます。
  4. 適合宣言書に署名する必要があり、高リスク AI システムには CE マークを付ける必要があります。​

<<:  AIが人間社会に与える影響

>>:  機械学習において、トレーニングおよび検証メトリック グラフから何がわかるでしょうか?

ブログ    
ブログ    
ブログ    

推薦する

分析と AI に関する 6 つの警告すべき間違い

[[439096]] 2017年、英国の雑誌『エコノミスト』は、データが石油に代わって世界で最も価値...

...

...

アルゴリズムのパフォーマンスを最適化するためにデータ品質を確保するための 6 つのヒント

今日、企業は、分析アルゴリズムの良し悪しは、そのアルゴリズムをトレーニングするデータの良し悪しによっ...

顔認識は壊れているのでしょうか?心配しないでください。「フェイスプロテクションプラン」が始まります

かつて、顔認識は人々が非常に信頼する技術でした。生産と生活に利便性、効率性、正確性をもたらしたため、...

...

ハイパーオートメーション – AIの新時代における自動化

「自動化」の本質的な意味は変わりませんが、その用語の使用法は時間の経過とともに確実に変化してきました...

業界の競争が激化する中、人工知能が経済のデジタル化をどう推進するかを見てみましょう。

新しいインフラストラクチャの配置が加速するにつれて、5G、モノのインターネット、クラウドコンピューテ...

...

6144個のTPU、5400億個のパラメータ、バグ修正、ジョーク解釈など、GoogleはPathwaysを使用して大規模なモデルをトレーニングしました

Google の次世代アーキテクチャ Pathways は、大規模なモデルのトレーニングに使用されて...

ビジョンレーダーは、センサーコンピューティングによる次世代の自動運転システムの重要なコンポーネントです。

[[438879]] 2021年10月25日、テスラの時価総額は1兆ドルを超え、米国株式市場で時価...

ミツバチたちは、巣を監視し、餌を自動で分配できる多機能ロボットを搭載したこのスマートな巣箱に感銘を受けています。

ビッグデータダイジェスト制作著者: カレブスマート農場はますます私たちの身近なものになってきています...

...

...

あなたは人工知能の前で「透明な人」ですか?

プライバシーがないと感じる人が増えているのは紛れもない事実です。最も直接的な例は、買い物をしたい場合...