欧州の新しいAI法は倫理監査を強化する

欧州の新しいAI法は倫理監査を強化する

EU があらゆる業界での AI および機械学習技術の使用を効果的に規制する AI 法の施行に向けて進むにつれ、偏見、透明性、説明可能性などの AI 倫理の問題がますます重要になっています。 AIの専門家は、AIユーザーが倫理的な概念に慣れるには今がよい時期だと言います。

欧州のAI法の最新版は昨年導入され、現在急速に検討が進められており、早ければ2023年にも施行される可能性がある。法律はまだ策定中ですが、欧州委員会は AI の規制に向けて大きな一歩を踏み出す準備ができているようです。

たとえば、この法律では AI システムの使用に関する新たな要件が設定され、特定の使用事例が全面的に禁止されることになります。自動運転車や、教育、移民、雇用に関する意思決定支援システムなどで使用される、いわゆる高リスク AI システムでは、ユーザーが AI アプリケーションの影響評価と監査を実施する必要があります。 AI の使用事例の中には、データベースで厳密に追跡されるものもあれば、使用前に外部監査人の承認を必要とするものもあります。

ペンシルベニア州ニュータウンに拠点を置くソフトウェアエンジニアリング企業、EPAM Systems のデータ分析コンサルティング担当ディレクター、ニック・カレル氏は、MLOps エンゲージメントやデータサイエンスコンサルティングエンゲージメントの一環として、説明不可能性と説明可能性に対する需要が大きいと述べています。 EUのAI法案は、企業に倫理的なAIについての洞察と答えを求めるよう促しているとも同氏は述べた。

「現在、機械学習モデルを運用化する科学であるML Opsと呼ばれるものに対する需要が非常に高まっています。私たちは倫理的なAIをその重要な基盤の1つと強く考えています」とキャレル氏は語った。 「今年末にAIシステムに関するEUの法律が施行されることを知り、備えておきたいという顧客からの要望も増えています。」

解釈不可能性と解釈可能性は別個の概念ですが、関連しています。モデルの解釈可能性とは、モデルがどのような決定を下すかを人間が理解し予測できる程度を指し、説明可能性とは、モデルが実際にどのように機能するかを正確に説明する能力を指します。 EPAM Systems のデータサイエンスおよび機械学習部門の責任者である Andrey Derevyanka 氏は、どちらか一方だけを使用することは可能だと述べています。

「何かの実験、おそらく2つの液体を混ぜる化学実験をしているところを想像してください。この実験は、ここで何をしたかがわかるので説明可能です。1つの物体を取り、別の物体を加え、結果が得られました」とデレビャンカ氏は語った。 「しかし、この実験を解釈可能にするには、化学について知る必要があり、反応がどのように起こり、どのように機能するかを知る必要があり、プロセスの内部の詳細を知る必要があります。」

特にディープラーニングモデルは特定の状況を説明することはできても、特定することはできないとデレビャンカ氏は言う。 「ブラックボックスがあり、それは特定の方法で動作しますが、その中に何が入っているかはわかりません」と彼は言いました。 「しかし、次のように説明できます。この入力を与えると、この出力が得られます。」

偏見を排除する

倫理的な AI に関しては、バイアスも重要なトピックです。 EPAM Systems のデータおよび AI プラクティス リーダーである Umit Cakmak 氏は、データの偏りを完全に排除することは不可能だが、組織が AI モデルの偏りを排除する取り組みをすることが重要であると述べています。

「こうしたことは時間をかけて分析する必要がある」とカクマク氏は語った。 「これはプロセスです。なぜなら、バイアスは過去のデータに埋め込まれているからです。データからバイアスを取り除く方法はありません。したがって、企業としては、時間の経過とともに意思決定が改善されるように、特定のプロセスを導入する必要があります。そうすることで、時間の経過とともにデータの品質が向上し、時間の経過とともにバイアスが減ります。」

EUのAI法案はAIの利用をリスク別に分類する

説明可能性は、AI モデルが偏ったデータに基づいて誤った決定を下していないことを、内部または外部の監査人、さらには評判を危険にさらしている顧客や経営陣などの利害関係者に納得させるために重要です。

カクマク氏は、従業員のパフォーマンスを評価したり、履歴書から求職者を選んだりするために使用されるモデルに人種的偏見が現れることなど、データの偏りが自動化された意思決定システムに漏れる例は文献に溢れていると述べている。モデルがどのように結論に到達するかを示すことができることは、モデル内のデータの偏りを排除するための手順が実行済みであることを示すために重要です。

カクマク氏は、説明可能性の欠如が原因で、ある医療会社ががん診断用に開発していた AI システムを放棄した経緯を振り返る。 「AIはある程度は機能したが、アルゴリズムに対する信頼と自信を構築できなかったため、プロジェクトは中止された」と彼は語った。 「なぜこのような結果になったのか説明できないのであれば、治療を続けることはできません。」

EPAM Systems は、企業が信頼できる方法で人工知能を実装できるよう支援します。企業は通常、データの収集方法から機械学習モデルの準備方法、モデルの検証と解釈の方法に至るまで、一連の特定のガイドラインに従います。 Cakmak 氏は、AI チームがこれらのチェック、つまり「品質ゲート」に合格し、それを文書化することを保証することが、倫理的な AI の重要な要素であると述べました。

倫理とAI法

ボストン コンサルティング グループのグローバル GAMMA の最高 AI 倫理責任者であるスティーブン ミルズ氏は、最大規模で最も経営が順調な企業は責任ある AI の必要性を認識していると述べています。

しかし、AI法が法律化に近づくにつれ、変化する規制環境や新たな期待に反しないように、世界中でより多くの企業が責任あるAIプロジェクトを加速させることになるでしょう。

「AI の導入を開始した企業は数多くあり、AI がもたらす潜在的な予期せぬ影響について、期待していたほど把握できていないことに気付き始めています。この問題にできるだけ早く対処する必要があります」とミルズ氏は言う。「これが最も重要なことです。AI の適用方法は、単に恣意的なものであると感じないようにする必要があります」

AI を倫理的に実装するというプレッシャーは、組織の上層部から生じます。ミルズ氏は、AIを悪用することで投資リスクが危険にさらされることを望まない外部投資家からの提案もあると述べた。

「上場企業であれベンチャーファンドであれ、投資家はAIが責任ある方法で開発されていることを確認したい傾向にあります」と同氏は述べた。「それは明らかではないかもしれません。誰にとっても明らかではないかもしれません。しかし、舞台裏では、これらのベンチャーキャピタル企業の一部は、これらのスタートアップが正しい方法で物事を行っていることを確認するために、どこに資金を投入するかを考えています。」

カレル氏は、AI法の詳細も現時点では曖昧だが、この法律はAIの利用について明確化する可能性を秘めており、企業と消費者の両方に利益をもたらすだろうと述べた。

「私の最初の反応は、これは非常に制限的になるだろうということでした」と、EPAM Systems に入社する前に金融サービス業界で機械学習モデルを実装していた Carrel 氏は言います。 「私は何年も金融サービス政策の限界を押し広げようとしてきたが、突然、私たちの取り組みを弱体化させる法案が提出された。

しかし、審議中の法律を見れば見るほど、彼は見たものに満足するようになった。

「これにより、さまざまな業界でのAIの利用に対する国民の信頼も徐々に高まるだろうと思う」とカレル氏は語った。 「法律では、EU では高リスクの AI システムを登録しなければならないと定められています。つまり、使用されているすべての高リスク AI システムの非常に明確なリストがどこかに存在するということです。監査人に強力な権限が与えられ、悪質な行為者や悪質な行為者は徐々に罰せられることになります。そして、AI や機械学習をより良い目的、つまり責任ある方法で使用したい人々のために、時間の経過とともにベストプラクティスを残すことができると期待しています。」

<<:  OpenAI: 大規模ニューラルネットワークをトレーニングするための 4 つの基本手法

>>:  エッジAIがスマートホームの未来である理由

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

Adobe、フォトショップで加工された人間の顔を自動検出できるAIツールを開発

偽の動画や画像の拡散に対する懸念は世界中で高まっており、Adobe もその懸念を共有していると述べて...

AIに「擬人化技術」を使う?人工知能による認識への道は長く困難である

人工知能アルゴリズムやディープラーニングなどのさまざまな技術の徹底的な発展により、人工知能(AI)は...

...

LiDARは自動運転以外にも様々な用途があります!

近年、スマートカーの継続的な発展に伴い、LIDARはますます注目を集めており、特にテスラと他の自動車...

人工知能は目覚めたのか?アマゾンのAIは人間の命令を聞かず不気味な笑い声を上げる

人類が人工知能の開発に熱心に取り組み始めて以来、著名な科学者ホーキング博士をはじめ、疑問や反対の声が...

LeCun はそれを見て良かったと言っていました! Meta AI は音声、視覚、テキストで同時に SOTA を達成

人間の知能は「マルチモーダル学習」の総体であり、分類の境界を越えてさまざまな情報源や形式からの情報と...

ハイリアンと手を携えてデジタル変革の道を議論する

モバイルインターネットの発展に伴い、企業の生産・運営プロセスで生成されるデータは、これまでにない爆発...

「ディープラーニング」市場の動向を多面的に分析

[[192373]]業界分析2016 年、世界のディープラーニング市場規模は 2 億 2,700 万...

...

...

「世界AI人材追跡調査」:米国の上級AI研究者の29%は中国出身。人材を追放することは自らの道を断つことに等しい

中国は世界最大の人工知能研究者の供給国となった。米国の人工知能分野のトップ研究者のほぼ3分の1は中国...

失業よりも悪い:人工知能の新たな進歩

劉慈欣には『鏡』という短編小説があり、次のような物語が語られています。気象庁のソフトウェアエンジニア...

...

ファーウェイ、データインフラを再定義するAIネイティブデータベースを世界規模で展開

[中国、北京、2019年5月15日] ファーウェイは、2018年にAI戦略とフルスタックの全シナリオ...

指紋と顔の認識が手のひらスキャンにアップグレードされ、大ヒット映画でしか見られない新技術がシティエキスポでデビュー

[[250312]]手のひらをスワイプするだけで入場や支払いができ、道路清掃車にセンサーを追加するこ...