AI はどのようにして既存の人間の偏見を強化するのでしょうか?

AI はどのようにして既存の人間の偏見を強化するのでしょうか?

定義上、人工知能 (AI) は人間の脳の働きを模倣して組織活動を最適化することを目的としています。

[[421223]]

残念ながら、人間の知能を人工的に再現することに近づく一方で、AI は人種、民族、性別に基づく偏見という、人間に特有の別の特性も示しています。 AIにおけるバイアスは新しい概念ではありません。偏ったアルゴリズムの例は、最近も過去にも、医療、法執行機関、雇用業界で発見されています。

このように、世界がすべての人々を包摂する方向に進んでいるように見えても、何世紀にもわたる不寛容と差別は、何らかの形で再び表面化し続けています。 AI が長年にわたる人間の偏見をどのように強化するかを理解するには、偏見が AI モデルやニューラル ネットワークに侵入する仕組みを特定する必要があります。

AIモデルのトレーニングのためのバイアスデータセット

AI 駆動型システムの決定は、モデルのトレーニングに使用される入力データの種類のみを反映します。したがって、AI モデルが取り込むデータセットが差別的である場合、出力される推奨事項や決定は同じ傾向に従います。初期の機械学習フェーズでバイアスのある AI モデルを作成する方法は 2 つあります。まず、前述したように、AI モデルのトレーニングに使用されるデータは (全体的に) 狭く偏っています。次に、与えられたデータセット内のサンプルの偏りにより、識別アルゴリズムが作成されます。入力データが狭いのは、不注意のためか、トレーニング プロセスに携わるデータ サイエンティスト自身が保守的、視野が狭く、偏見を持っているためである可能性があります。

差別的 AI の最も良い例の 1 つは、米国のいくつかの州で使用されている悪名高い COMPAS システムです。 AI 駆動型システムは、過去の刑務所データベースと回帰モデルを使用して、釈放された犯罪者が将来再犯する可能性があるかどうかを予測します。予想通り、システムの予測では、アフリカ系アメリカ人の再犯率は白人のほぼ2倍であることが示されました。このバイアスの主な理由の 1 つは、ネットワーク管理者が予測を分析する際に、システム内の差別的な手がかりを検出しようとしないことです。通常、AI バイアスの被害者は女性、特定地域の少数民族、または移民の背景を持つ人々です。よく言われるように、AI モデルは新しい偏見を生み出すのではなく、社会にすでに存在する偏見を反映するだけです。

前述のように、機械学習のデータ収集プロセスにも偏りが生じる可能性があります。この場合、指定された AI ガバナンス担当者は、収集されたデータの偏りに気づきますが、それでもそれを無視することを選択します。たとえば、入学背景に関連するデータを収集する場合、学校は白人の候補者だけを選択する可能性があります。さらに、学校は他の子供たちの学習機会を単純に拒否する可能性もあります。おそらくサイクルとして、AI モデルは学校が白人の学生だけを選抜するという選択を綿密に観察するかもしれません。その後、このモデルは人種差別の遺産を引き継ぐことになる。なぜなら、そのパターン分析は、これが学校入学における正しい行動方針であると単純に示唆しているからだ。したがって、このプロセスを処理する洗練されたテクノロジーが存在するにもかかわらず、人種差別は何倍にも強化されます。

AI における偏見は、人種差別や性差別に加え、富裕層を優遇するという形でも存在する可能性があります。その結果、貧困層は AI データセットで十分に表現されない可能性があります。現在進行中のCOVID-19時代において、このことの仮説的な例を想像することさえできる。一部の国では、ウイルスに感染した人を追跡し、特定の地域にいる人々にその人たちと距離を保つよう警告するために使用できる独自のモバイルアプリを開発している。この取り組みは崇高な目的を持っているかもしれないが、スマートフォンを持たない個人はアプリ内で完全に見えなくなってしまう。この種の偏見は誰のせいでもありませんが、そもそもそのようなアプリを設計する目的を無効にします。

要約すると、差別的なトレーニング データと運用慣行は、AI システムとモデルの偏りに直接つながる可能性があります。

エージェント関連の理由によるAIバイアス

AI モデルにバイアスが入り込むもう一つの方法は、プロキシを介することです。機械トレーニングに使用される一部の詳細と情報は、保護された特性と一致する場合があります。結果として生じる偏見の例は意図的ではない可能性があり、合理的かつ調整された決定を行うために使用されるデータが、最終的にはクラスのメンバーシップの代理として機能する可能性があります。

たとえば、金融機関が AI システムを使用して、どのローン申請者がローンの返済に困難を抱える可能性があるかを予測するとします。 AI システムのトレーニングに使用されるデータセットには、3 世紀以上に及ぶ歴史的情報が含まれます。現在、この入力データには、申請者の肌の色や性別に関する詳細は含まれていません。しかし、システムが、特定の場所(特定の郵便番号に関連付けられている場所)に住んでいる人々がローンの分割払いを滞納すると予測したとします。この予測は過去のデータのみに基づいています。銀行が居住地に基づいて融資申請を承認しないことを決定した場合、その地域に住む人々は差別されていると感じるかもしれません。 AI のこの偏りは、単なる歴史的記録ではなく実際の事実に基づいて AI システムの決定を覆すことができる人間の役人を関与させることで排除できます。

それ以外にも、偏った AI が作成される方法はいくつかあり、それが現代においても古くからの偏見を強化し続けることになる。 AI のバイアスを完全に排除する方法、または少なくとも大幅に削減する方法はいくつかあります。

より代表的なデータセットを選択する


組織内の全員が、職場で AI システムが偏向する可能性を減らすよう取り組む必要があります。これまで見てきたように、AI のバイアスは、機械学習や日常業務で受け取るデータの種類に完全に起因します。大量のトレーニング データや運用データを収集するデータ サイエンティストやその他の専門家は、あらゆる人種や民族の少数派に属する人々を含む多様なデータを扱う必要があります。このようなデータセットでは、男性と同数の女性がいるはずです。さらに、AI モデルにおけるセグメンテーションは、データ エキスパートがセグメンテーションのようなモデルに入力データを提供する場合にのみ存在するはずです。

さらに、AI アプリケーションを使用する組織は、人種や民族の多様性に応じて異なるモデルを使用してはなりません。単一の母集団のデータが不十分な場合、組織は重み付けなどの手法を使用して、他の母集団と比較してその母集団の重要性のバランスをとることができます。各データ グループが慎重に扱われず、均等に重み付けされない場合、AI モデルにバイアスが導入されるリスクがあります。

潜在的なバイアスの引き金や原因を特定する

特定の種類のバイアスが AI システムに侵入した可能性のある領域と操作を検出することは、あらゆる組織の AI ガバナンス チームと経営幹部レベルのスタッフの主な責任です。理想的には、このプロセスは AI を組織に組み込む前に実行する必要があります。組織は、データ セットを調べて AI モデルの「視点」が狭まっ​​ていないか確認することで、バイアスを軽減できます。徹底的な検査の後、組織は AI システムが動作中にバイアスを示すかどうかを確認するために試行を実行する必要があります。最も重要なのは、組織が偏った AI のすべての領域を網羅する問題をリストアップする必要があることです。そして、これらの質問に一つずつ答えるための解決策を探し続けなければなりません。

厳格なAIガバナンスガイドラインを実装する

AI ガバナンス チームは、AI システムが時間の経過とともに差別的になるのを防ぐ上で重要な役割を果たします。 AI の偏りを回避するには、ガバナンス チームが AI モデルを定期的に更新する必要があります。さらに重要なのは、チームが、機械トレーニングに使用される入力データセットの偏りを検出して排除するか、少なくとも軽減するための、交渉の余地のない規制とガイドラインを策定する必要があることです。

さらに、AI 差別に関する顧客からの苦情を組織内のどのレベルの従業員も受け取った場合にガバナンス チームに通知できるように、明確なコミュニケーション チャネルを確立する必要があります。これらのチャネルは、従業員自身が組織の AI に偏りがある可能性があることを発見した場合でも機能します。

AI の偏見は、その決定の犠牲になる個人やグループにとって非常に苦痛となる可能性があります。さらに問題なのは、偏向した AI システムが、人類の歴史を通じて何世紀にもわたって不運な犠牲者たちが直面してきた疎外と差別の新世代の象徴であるという点です。したがって、モデルのトレーニングと適切な AI ガバナンスのための多様な入力データセットを確保することで、アルゴリズムの偏りを未然に防ぐ必要があります。差別的 AI はすべての人の問題であるため、AI モデルの設計、実装、保守の各段階に関与する組織内のすべての関係者が協力して対処する必要があります。

<<:  ハイパーオートメーション: 次世代のサイバーセキュリティソリューション

>>:  ついに誰かが自動運転を明確にした

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

大規模グラフニューラルネットワークの応用と最新のパラダイムの探究

1. 大規模グラフメモリ/計算問題を解決するための3つのパラダイム2年前に作成したチュートリアルでは...

認知システムが機械学習とセマンティック技術を組み合わせるべき理由

ワインとチーズの組み合わせを識別するのに役立つアプリケーションを構築したいとします。最も優れたパフォ...

ディープラーニングタスクに最適な GPU を選択するにはどうすればよいでしょうか?

ディープラーニングは計算集約型の分野であり、GPU の選択によってディープラーニングの実験が根本的に...

Yann LeCun 氏は衝撃的な発言をしました。「ディープラーニングは死んだ、微分可能プログラミング万歳!」

ディープラーニングの分野で最も有名な学者の一人であるヤン・ルカン氏が本日、自身のFacebookに投...

製造業者はデジタルツインをどのように活用して生産性を向上できるでしょうか?

メーカーは、競争上の優位性を獲得し、コストを削減し、顧客によりカスタマイズされた体験を提供するために...

自動化された機械学習は AI 研究の次の主流となるでしょうか?データサイエンティストの意見

自動化された機械学習は、過去 1 年間で大きな関心を集めるトピックになりました。 KDnuggets...

2021年以降の人工知能について何かお考えはありますか?

中国科学技術協会、中国科学院、中国工程院、浙江省人民政府、杭州市人民政府、浙江省人工知能開発専門委員...

...

WeChat、サードパーティのエコシステムに統合するインテリジェント会話システム「Xiaowei」を発表

2019年WeChatオープンクラスPROで、WeChat AIチームが開発したインテリジェント対話...

...

AI のブラックボックスを開く: 「説明可能な」人工知能 (XAI) への認知ガイド!

今日、企業組織は意思決定に人工知能や機械学習モデルをますます頼りにしており、こうした意思決定は私たち...

「トランスフォーマー」は5年でクレイジーなCNNに取って代わりました!トランスフォーマーは人工知能を支配するのでしょうか?

AI業界では今や誰もが知る名前となったTransformerが、これほど短期間でなぜこれほど人気を...

設計原則、テスト指標...顔アルゴリズムテストのハードコアスキルを体系的に整理

ビジュアル AI 分野の開発者にとって、適切なアルゴリズムを選択することはプロジェクトの戦いの半分を...

...