欧州の新しいAI法は倫理監査を強化する

欧州の新しいAI法は倫理監査を強化する

EU があらゆる業界での AI および機械学習技術の使用を効果的に規制する AI 法の施行に向けて進むにつれ、偏見、透明性、説明可能性などの AI 倫理の問題がますます重要になっています。 AIの専門家は、AIユーザーが倫理的な概念に慣れるには今がよい時期だと言います。

欧州のAI法の最新版は昨年導入され、現在急速に検討が進められており、早ければ2023年にも施行される可能性がある。法律はまだ策定中ですが、欧州委員会は AI の規制に向けて大きな一歩を踏み出す準備ができているようです。

たとえば、この法律では AI システムの使用に関する新たな要件が設定され、特定の使用事例が全面的に禁止されることになります。自動運転車や、教育、移民、雇用に関する意思決定支援システムなどで使用される、いわゆる高リスク AI システムでは、ユーザーが AI アプリケーションの影響評価と監査を実施する必要があります。 AI の使用事例の中には、データベースで厳密に追跡されるものもあれば、使用前に外部監査人の承認を必要とするものもあります。

ペンシルベニア州ニュータウンに拠点を置くソフトウェアエンジニアリング企業、EPAM Systems のデータ分析コンサルティング担当ディレクター、ニック・カレル氏は、MLOps エンゲージメントやデータサイエンスコンサルティングエンゲージメントの一環として、説明不可能性と説明可能性に対する需要が大きいと述べています。 EUのAI法案は、企業に倫理的なAIについての洞察と答えを求めるよう促しているとも同氏は述べた。

「現在、機械学習モデルを運用化する科学であるML Opsと呼ばれるものに対する需要が非常に高まっています。私たちは倫理的なAIをその重要な基盤の1つと強く考えています」とキャレル氏は語った。 「今年末にAIシステムに関するEUの法律が施行されることを知り、備えておきたいという顧客からの要望も増えています。」

解釈不可能性と解釈可能性は別個の概念ですが、関連しています。モデルの解釈可能性とは、モデルがどのような決定を下すかを人間が理解し予測できる程度を指し、説明可能性とは、モデルが実際にどのように機能するかを正確に説明する能力を指します。 EPAM Systems のデータサイエンスおよび機械学習部門の責任者である Andrey Derevyanka 氏は、どちらか一方だけを使用することは可能だと述べています。

「何かの実験、おそらく2つの液体を混ぜる化学実験をしているところを想像してください。この実験は、ここで何をしたかがわかるので説明可能です。1つの物体を取り、別の物体を加え、結果が得られました」とデレビャンカ氏は語った。 「しかし、この実験を解釈可能にするには、化学について知る必要があり、反応がどのように起こり、どのように機能するかを知る必要があり、プロセスの内部の詳細を知る必要があります。」

特にディープラーニングモデルは特定の状況を説明することはできても、特定することはできないとデレビャンカ氏は言う。 「ブラックボックスがあり、それは特定の方法で動作しますが、その中に何が入っているかはわかりません」と彼は言いました。 「しかし、次のように説明できます。この入力を与えると、この出力が得られます。」

偏見を排除する

倫理的な AI に関しては、バイアスも重要なトピックです。 EPAM Systems のデータおよび AI プラクティス リーダーである Umit Cakmak 氏は、データの偏りを完全に排除することは不可能だが、組織が AI モデルの偏りを排除する取り組みをすることが重要であると述べています。

「こうしたことは時間をかけて分析する必要がある」とカクマク氏は語った。 「これはプロセスです。なぜなら、バイアスは過去のデータに埋め込まれているからです。データからバイアスを取り除く方法はありません。したがって、企業としては、時間の経過とともに意思決定が改善されるように、特定のプロセスを導入する必要があります。そうすることで、時間の経過とともにデータの品質が向上し、時間の経過とともにバイアスが減ります。」

EUのAI法案はAIの利用をリスク別に分類する

説明可能性は、AI モデルが偏ったデータに基づいて誤った決定を下していないことを、内部または外部の監査人、さらには評判を危険にさらしている顧客や経営陣などの利害関係者に納得させるために重要です。

カクマク氏は、従業員のパフォーマンスを評価したり、履歴書から求職者を選んだりするために使用されるモデルに人種的偏見が現れることなど、データの偏りが自動化された意思決定システムに漏れる例は文献に溢れていると述べている。モデルがどのように結論に到達するかを示すことができることは、モデル内のデータの偏りを排除するための手順が実行済みであることを示すために重要です。

カクマク氏は、説明可能性の欠如が原因で、ある医療会社ががん診断用に開発していた AI システムを放棄した経緯を振り返る。 「AIはある程度は機能したが、アルゴリズムに対する信頼と自信を構築できなかったため、プロジェクトは中止された」と彼は語った。 「なぜこのような結果になったのか説明できないのであれば、治療を続けることはできません。」

EPAM Systems は、企業が信頼できる方法で人工知能を実装できるよう支援します。企業は通常、データの収集方法から機械学習モデルの準備方法、モデルの検証と解釈の方法に至るまで、一連の特定のガイドラインに従います。 Cakmak 氏は、AI チームがこれらのチェック、つまり「品質ゲート」に合格し、それを文書化することを保証することが、倫理的な AI の重要な要素であると述べました。

倫理とAI法

ボストン コンサルティング グループのグローバル GAMMA の最高 AI 倫理責任者であるスティーブン ミルズ氏は、最大規模で最も経営が順調な企業は責任ある AI の必要性を認識していると述べています。

しかし、AI法が法律化に近づくにつれ、変化する規制環境や新たな期待に反しないように、世界中でより多くの企業が責任あるAIプロジェクトを加速させることになるでしょう。

「AI の導入を開始した企業は数多くあり、AI がもたらす潜在的な予期せぬ影響について、期待していたほど把握できていないことに気付き始めています。この問題にできるだけ早く対処する必要があります」とミルズ氏は言う。「これが最も重要なことです。AI の適用方法は、単に恣意的なものであると感じないようにする必要があります」

AI を倫理的に実装するというプレッシャーは、組織の上層部から生じます。ミルズ氏は、AIを悪用することで投資リスクが危険にさらされることを望まない外部投資家からの提案もあると述べた。

「上場企業であれベンチャーファンドであれ、投資家はAIが責任ある方法で開発されていることを確認したい傾向にあります」と同氏は述べた。「それは明らかではないかもしれません。誰にとっても明らかではないかもしれません。しかし、舞台裏では、これらのベンチャーキャピタル企業の一部は、これらのスタートアップが正しい方法で物事を行っていることを確認するために、どこに資金を投入するかを考えています。」

カレル氏は、AI法の詳細も現時点では曖昧だが、この法律はAIの利用について明確化する可能性を秘めており、企業と消費者の両方に利益をもたらすだろうと述べた。

「私の最初の反応は、これは非常に制限的になるだろうということでした」と、EPAM Systems に入社する前に金融サービス業界で機械学習モデルを実装していた Carrel 氏は言います。 「私は何年も金融サービス政策の限界を押し広げようとしてきたが、突然、私たちの取り組みを弱体化させる法案が提出された。

しかし、審議中の法律を見れば見るほど、彼は見たものに満足するようになった。

「これにより、さまざまな業界でのAIの利用に対する国民の信頼も徐々に高まるだろうと思う」とカレル氏は語った。 「法律では、EU では高リスクの AI システムを登録しなければならないと定められています。つまり、使用されているすべての高リスク AI システムの非常に明確なリストがどこかに存在するということです。監査人に強力な権限が与えられ、悪質な行為者や悪質な行為者は徐々に罰せられることになります。そして、AI や機械学習をより良い目的、つまり責任ある方法で使用したい人々のために、時間の経過とともにベストプラクティスを残すことができると期待しています。」

<<:  OpenAI: 大規模ニューラルネットワークをトレーニングするための 4 つの基本手法

>>:  エッジAIがスマートホームの未来である理由

ブログ    
ブログ    

推薦する

...

機械学習の成功事例 5 つ

人工知能と機械学習は企業の世界で注目を集めており、組織はますますこれらのテクノロジーを活用して顧客の...

中国情報通信科学院の張琳琳氏:AIセキュリティの標準化は、今後も基本的かつ規範的、主導的な役割を果たし続けるべきである。

最近、「強力なイノベーション、新しいことに挑戦、未来の共有」をテーマにしたチャイナモバイルの第4回テ...

AI時代に医療データの品質が重要な理由

効果的な医療データ分析においては、データの品質は主観的なものになります。データから得られる情報の正確...

「質問の海」戦略を取り除き、モデルに人間のように考えることを学習させる

[[395305]]最近、Ant Security Tianzhu Labのセキュリティ専門家である...

2022 年の優れたインテリジェント オートメーションのトレンドと予測

調査によると、2022年までにインテリジェントオートメーションのトレンドが拡大し、デジタル変革が急速...

世界のAI競争は中国と米国がリード。人工知能は過大評価されているのか?

[[315351]]少し前、グーグルの元CEOであるシュミット氏は下院科学宇宙技術委員会の公聴会で...

...

GoogleのオープンソースビッグモデルGemmaは何をもたらすのか?「Made in China」のチャンスはすでに到来していることが判明

Google の珍しいオープン AI は、オープンソースのビッグモデルに何をもたらすのでしょうか? ...

なぜ人工知能は技術的な問題ではなく、社会的な研究の問題なのでしょうか?

[[252833]]無人スーパーで買い物をすることに慣れている人なら、ある日のある瞬間、他のスーパ...

デジタルパフォーマンスの向上における人工知能の役割

AI は、正確なバイヤーペルソナをターゲットにすることで、パーソナライゼーションを迅速かつ簡単に実現...

...

線形ネットワークに基づく音声合成のための話者適応

[51CTO.com からのオリジナル記事] 話者適応アルゴリズムは、少量の話者データを使用して、満...

...