AI はどのようにして既存の人間の偏見を強化するのでしょうか?

AI はどのようにして既存の人間の偏見を強化するのでしょうか?

定義上、人工知能 (AI) は人間の脳の働きを模倣して組織活動を最適化することを目的としています。

[[421223]]

残念ながら、人間の知能を人工的に再現することに近づく一方で、AI は人種、民族、性別に基づく偏見という、人間に特有の別の特性も示しています。 AIにおけるバイアスは新しい概念ではありません。偏ったアルゴリズムの例は、最近も過去にも、医療、法執行機関、雇用業界で発見されています。

このように、世界がすべての人々を包摂する方向に進んでいるように見えても、何世紀にもわたる不寛容と差別は、何らかの形で再び表面化し続けています。 AI が長年にわたる人間の偏見をどのように強化するかを理解するには、偏見が AI モデルやニューラル ネットワークに侵入する仕組みを特定する必要があります。

AIモデルのトレーニングのためのバイアスデータセット

AI 駆動型システムの決定は、モデルのトレーニングに使用される入力データの種類のみを反映します。したがって、AI モデルが取り込むデータセットが差別的である場合、出力される推奨事項や決定は同じ傾向に従います。初期の機械学習フェーズでバイアスのある AI モデルを作成する方法は 2 つあります。まず、前述したように、AI モデルのトレーニングに使用されるデータは (全体的に) 狭く偏っています。次に、与えられたデータセット内のサンプルの偏りにより、識別アルゴリズムが作成されます。入力データが狭いのは、不注意のためか、トレーニング プロセスに携わるデータ サイエンティスト自身が保守的、視野が狭く、偏見を持っているためである可能性があります。

差別的 AI の最も良い例の 1 つは、米国のいくつかの州で使用されている悪名高い COMPAS システムです。 AI 駆動型システムは、過去の刑務所データベースと回帰モデルを使用して、釈放された犯罪者が将来再犯する可能性があるかどうかを予測します。予想通り、システムの予測では、アフリカ系アメリカ人の再犯率は白人のほぼ2倍であることが示されました。このバイアスの主な理由の 1 つは、ネットワーク管理者が予測を分析する際に、システム内の差別的な手がかりを検出しようとしないことです。通常、AI バイアスの被害者は女性、特定地域の少数民族、または移民の背景を持つ人々です。よく言われるように、AI モデルは新しい偏見を生み出すのではなく、社会にすでに存在する偏見を反映するだけです。

前述のように、機械学習のデータ収集プロセスにも偏りが生じる可能性があります。この場合、指定された AI ガバナンス担当者は、収集されたデータの偏りに気づきますが、それでもそれを無視することを選択します。たとえば、入学背景に関連するデータを収集する場合、学校は白人の候補者だけを選択する可能性があります。さらに、学校は他の子供たちの学習機会を単純に拒否する可能性もあります。おそらくサイクルとして、AI モデルは学校が白人の学生だけを選抜するという選択を綿密に観察するかもしれません。その後、このモデルは人種差別の遺産を引き継ぐことになる。なぜなら、そのパターン分析は、これが学校入学における正しい行動方針であると単純に示唆しているからだ。したがって、このプロセスを処理する洗練されたテクノロジーが存在するにもかかわらず、人種差別は何倍にも強化されます。

AI における偏見は、人種差別や性差別に加え、富裕層を優遇するという形でも存在する可能性があります。その結果、貧困層は AI データセットで十分に表現されない可能性があります。現在進行中のCOVID-19時代において、このことの仮説的な例を想像することさえできる。一部の国では、ウイルスに感染した人を追跡し、特定の地域にいる人々にその人たちと距離を保つよう警告するために使用できる独自のモバイルアプリを開発している。この取り組みは崇高な目的を持っているかもしれないが、スマートフォンを持たない個人はアプリ内で完全に見えなくなってしまう。この種の偏見は誰のせいでもありませんが、そもそもそのようなアプリを設計する目的を無効にします。

要約すると、差別的なトレーニング データと運用慣行は、AI システムとモデルの偏りに直接つながる可能性があります。

エージェント関連の理由によるAIバイアス

AI モデルにバイアスが入り込むもう一つの方法は、プロキシを介することです。機械トレーニングに使用される一部の詳細と情報は、保護された特性と一致する場合があります。結果として生じる偏見の例は意図的ではない可能性があり、合理的かつ調整された決定を行うために使用されるデータが、最終的にはクラスのメンバーシップの代理として機能する可能性があります。

たとえば、金融機関が AI システムを使用して、どのローン申請者がローンの返済に困難を抱える可能性があるかを予測するとします。 AI システムのトレーニングに使用されるデータセットには、3 世紀以上に及ぶ歴史的情報が含まれます。現在、この入力データには、申請者の肌の色や性別に関する詳細は含まれていません。しかし、システムが、特定の場所(特定の郵便番号に関連付けられている場所)に住んでいる人々がローンの分割払いを滞納すると予測したとします。この予測は過去のデータのみに基づいています。銀行が居住地に基づいて融資申請を承認しないことを決定した場合、その地域に住む人々は差別されていると感じるかもしれません。 AI のこの偏りは、単なる歴史的記録ではなく実際の事実に基づいて AI システムの決定を覆すことができる人間の役人を関与させることで排除できます。

それ以外にも、偏った AI が作成される方法はいくつかあり、それが現代においても古くからの偏見を強化し続けることになる。 AI のバイアスを完全に排除する方法、または少なくとも大幅に削減する方法はいくつかあります。

より代表的なデータセットを選択する


組織内の全員が、職場で AI システムが偏向する可能性を減らすよう取り組む必要があります。これまで見てきたように、AI のバイアスは、機械学習や日常業務で受け取るデータの種類に完全に起因します。大量のトレーニング データや運用データを収集するデータ サイエンティストやその他の専門家は、あらゆる人種や民族の少数派に属する人々を含む多様なデータを扱う必要があります。このようなデータセットでは、男性と同数の女性がいるはずです。さらに、AI モデルにおけるセグメンテーションは、データ エキスパートがセグメンテーションのようなモデルに入力データを提供する場合にのみ存在するはずです。

さらに、AI アプリケーションを使用する組織は、人種や民族の多様性に応じて異なるモデルを使用してはなりません。単一の母集団のデータが不十分な場合、組織は重み付けなどの手法を使用して、他の母集団と比較してその母集団の重要性のバランスをとることができます。各データ グループが慎重に扱われず、均等に重み付けされない場合、AI モデルにバイアスが導入されるリスクがあります。

潜在的なバイアスの引き金や原因を特定する

特定の種類のバイアスが AI システムに侵入した可能性のある領域と操作を検出することは、あらゆる組織の AI ガバナンス チームと経営幹部レベルのスタッフの主な責任です。理想的には、このプロセスは AI を組織に組み込む前に実行する必要があります。組織は、データ セットを調べて AI モデルの「視点」が狭まっ​​ていないか確認することで、バイアスを軽減できます。徹底的な検査の後、組織は AI システムが動作中にバイアスを示すかどうかを確認するために試行を実行する必要があります。最も重要なのは、組織が偏った AI のすべての領域を網羅する問題をリストアップする必要があることです。そして、これらの質問に一つずつ答えるための解決策を探し続けなければなりません。

厳格なAIガバナンスガイドラインを実装する

AI ガバナンス チームは、AI システムが時間の経過とともに差別的になるのを防ぐ上で重要な役割を果たします。 AI の偏りを回避するには、ガバナンス チームが AI モデルを定期的に更新する必要があります。さらに重要なのは、チームが、機械トレーニングに使用される入力データセットの偏りを検出して排除するか、少なくとも軽減するための、交渉の余地のない規制とガイドラインを策定する必要があることです。

さらに、AI 差別に関する顧客からの苦情を組織内のどのレベルの従業員も受け取った場合にガバナンス チームに通知できるように、明確なコミュニケーション チャネルを確立する必要があります。これらのチャネルは、従業員自身が組織の AI に偏りがある可能性があることを発見した場合でも機能します。

AI の偏見は、その決定の犠牲になる個人やグループにとって非常に苦痛となる可能性があります。さらに問題なのは、偏向した AI システムが、人類の歴史を通じて何世紀にもわたって不運な犠牲者たちが直面してきた疎外と差別の新世代の象徴であるという点です。したがって、モデルのトレーニングと適切な AI ガバナンスのための多様な入力データセットを確保することで、アルゴリズムの偏りを未然に防ぐ必要があります。差別的 AI はすべての人の問題であるため、AI モデルの設計、実装、保守の各段階に関与する組織内のすべての関係者が協力して対処する必要があります。

<<:  ハイパーオートメーション: 次世代のサイバーセキュリティソリューション

>>:  ついに誰かが自動運転を明確にした

ブログ    
ブログ    

推薦する

...

VB.NET 暗号化アルゴリズムの基本概念の分析

プログラミング言語の場合、その機能性を評価する上で最も重要な要素の 1 つはセキュリティ評価です。 ...

...

AIによる顔の改造の一般的な手法の詳細な説明

最近また「AI変顔」が流行っていますね。 Leiphone.com(公式アカウント:Leiphone...

ビッグデータと人工知能のデュアルエンジンが企業のデジタル変革を推進

[51CTO.comより引用] デジタル時代において、ビッグデータと人工知能は企業のビジネス成長を推...

...

...

人工知能について、2020年に研究すべきトップ10のトレンド

いつの間にか、2019年は完全に私たちの前から去ってしまいました。過去1年を振り返ると、人工知能は間...

IBM CEOがパートナーに「一緒にAIで大儲けしましょう」

IBM CEO の Arvind Krishna 氏は CRN とのインタビューで、今年 IBM ...

業界最高品質の AI データを作成するにはどうすればよいでしょうか?クラウドデータの成功の秘密を明かす

[[344160]] AIの実装が加速する中、AIデータのラベリングは人工知能産業の実装における重要...

とても怖い!最初のAIはすでに詐欺行為を行っている

​​ [[250441]]​​この記事はGeek View (ID: geekview) の許可を得...

Ocado が機械学習を活用して食品廃棄を減らし、飢餓と闘う方法

[[282701]] [51CTO.com クイック翻訳] 食品廃棄は世界中で大きな問題となっていま...

...

...

プロのようにビッグデータをマイニングするにはどうすればいいでしょうか?

股関節置換手術にはどれくらいの時間がかかりますか?これは病院にとって学術的な問題ではありません。 2...