AI バイアス: 機械は絶対的に合理的か?

AI バイアス: 機械は絶対的に合理的か?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。

人工知能はすでに私たちの日常生活に浸透しています。 YouTube のホームページのおすすめから医薬品の製造まで、インターネットはあらゆるところに存在し、私たちの生活に与える影響は想像以上に大きいものです。しかし、AI は必ずしも公平なのでしょうか? いいえ、絶対にそうではありません。

[[354470]]

公平な AI とは何かを定義するのは困難です。私が思いつく最良の定義は次のとおりです。社会的差別の対象となる特定のタスクについては、特定の AI モデルが、敏感なパラメーター (性別、人種、性的指向、宗教的信念、障害など) に依存しない結果を出力できる場合、その AI モデルは公平です。

この記事では、AI バイアス、その実際の例、そしてその対処方法について説明します。

質問

AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって引き起こされ、社会的差別につながり、ひいては機会均等の欠如につながります。

私の仕事が、場所をパラメータとして個人の信用スコアを計算するモデルを作成することだとします。特定の人種グループは特定の場所に集中しているため、作成されたモデルはそれらの人種グループに対して偏りがあり、クレジットカードや銀行ローンの申し込みに影響を及ぼします。偏った AI モデルは、現在の社会的差別を悪化させます。

AIバイアスの実例

  • COMPAS (代替制裁のための刑罰管理分析) は、被告人が再犯者 (以前に犯した犯罪を再び犯す犯罪者) になる可能性を判断するために米国の裁判所が使用するソフトウェアです。重大なデータ偏りのため、モデルは黒人犯罪者の再犯率を白人犯罪者の2倍の偽陽性率で予測した。
  • 2014年、Amazonは採用プロセスを簡素化するために人工知能採用システムを開発しました。研究では、モデルのトレーニングに使用されたデータが過去10年間のものであったため、システムが女性に対して差別的であったことが判明した。過去10年間、テクノロジー業界は男性中心だったため、選ばれた応募者の大半は男性だった。アマゾンは2018年にそのシステムを廃止した。
  • 米国の医療制度では、同じ病気に関して黒人は白人よりもリスクが低いことを示唆する人工知能モデルを使用している。これは、モデルがコストを最適化し、黒人は支払い能力が低いと認識されているため、モデルが黒人の健康リスクを白人より低くランク付けし、結果として黒人の医療水準が低くなるためです。
  • 2019年、Facebookは広告主が人種、性別、宗教に基づいて人々をターゲットにすることを許可した。その結果、看護師や秘書などの職業は女性をターゲットにし、清掃員やタクシー運転手などの職業は男性、特に有色人種の男性をターゲットにしているのです。また、このモデルは、不動産広告は白人に表示された方がクリック率が高くなることも学習したため、少数派グループに表示される不動産広告は少なくなります。
  • 2020年9月、Twitterユーザーは、画像切り抜きアルゴリズムが黒人の顔よりも白人の顔を優先していることを発見した。プレビューウィンドウとは異なるアスペクト比で画像が Twitter に投稿されると、アルゴリズムによって画像の一部が自動的に切り取られ、画像の特定の部分のみがプレビューとして表示されます。黒人の顔と白人の顔が同じフレーム内にある場合、AI モデルは通常、プレビュー ウィンドウに白人を表示します。

これらの例はほんの一滴に過ぎません。開発者が知っているかどうかに関わらず、多くの不公平な AI 慣行が存在します。

この問題を解決するにはどうすればいいでしょうか?

公平な AI への第一歩は、問題を認めることです。 AIは不完全であり、データは不完全であり、アルゴリズムは不完全であり、テクノロジーは不完全です。問題に目をつぶれば、解決策を見つけることは不可能だろう。

次に、このソリューションに AI が必要かどうかを自問してください。被告が再犯する可能性を見つけるなどのタスクなど、データよりも感情に依存する問題の中には、データに依存しないものもあります。

3番目に、責任ある AI プラクティスに従います。 Google の責任ある AI 実践ガイドラインに基づいて、いくつかの重要なポイントを追加しました。責任あるAIの実践:

  • 人間中心設計アプローチを使用します。適切な開示が組み込まれたモデルを設計し、展開前にテスターからのフィードバックを取り入れます。
  • トレーニングと監視を評価するための複数のメトリックを特定します。タスクに適したさまざまなメトリックを使用して、さまざまなエラーとエクスペリエンス間のトレードオフを理解します。これらの指標は、消費者からのフィードバック、偽陽性率、偽陰性率などから得られます。
  • 可能であれば、元のデータを確認してください。AI モデルは、モデルのトレーニングに使用されたデータを反映します。データに問題があれば、モデルにも問題が生じます。したがって、データのバランスを保つようにしてください。
  • モデルの限界を理解する: 相関関係を検出するようにトレーニングされたモデルは、因果関係を確立するのに必ずしも役立つとは限りません。たとえば、バスケットボール シューズを購入する人は一般的に背が高いということをモデルが学習したとしても、バスケットボール シューズを購入したユーザーが結果として背が高くなるというわけではありません。
  • テスト: 厳密なユニット テストを実行して、モデルの障害を特定します。
  • 展開後もモデルの監視と更新を継続する: モデルを展開した後は、ユーザーからのフィードバックに注意し、定期的にモデルを更新します。
  • 公平で包括的なモデルを設計する: 倫理と社会研究の専門家と協力して、さまざまな視点を理解して考慮し、モデルを可能な限り公平にするよう努めます。
  • 代表的なデータセットを使用してモデルをトレーニングおよびテストし、データの公平性を評価します。つまり、特徴とラベルの間の偏った、または差別的な関連性を探します。
  • 不公平な偏見がないか確認する: さまざまなバックグラウンドを持つテスターからユニット テストの入力を取得します。これにより、モデルの影響を受ける可能性のある人々のグループを特定するのに役立ちます。
  • パフォーマンスを分析する: あるメトリックの改善が別のメトリックのパフォーマンスに悪影響を及ぼす可能性があるため、さまざまなメトリックを検討します。

公正なAIを開発するためのツール

  • AIFairness 360: これは、機械学習モデルにおける差別や偏見を検出、報告、軽減するのに役立つ IBM のオープン ソース ツールキットです。
  • ML Fairness Gym: これは、機械学習システムにおける AI バイアスの長期的な影響を調査するために Google が提供するツールです。
  • FATE: AI における公平性、説明責任、透明性、倫理 (FATE)、Microsoft は視覚化ダッシュボードとバイアス緩和アルゴリズムを評価するためのツールを提供します。主に公平性とシステムパフォーマンスのバランスをとるために使用されます。

最近、企業や政府は人工知能における偏見を真剣に受け止め始めています。多くの企業が AI の公平性を評価するツールを開発し、AI の偏見に対処するために最善を尽くしています。

AI には大きな可能性がありますが、私たちはこれまで以上に AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力しなければなりません。

<<:  スマート製造技術:効率的な生産の未来?

>>:  機械学習の成功事例 5 つ

ブログ    

推薦する

Pythonを全く知らなかった私がAIエンジニアになるまでに2年かかりました

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

マイクロソフトの面接アルゴリズムに関する 4 つの質問

(1)要素が0から65535までの任意の数値であり、同じ値が繰り返し出現しない整数列。 0 は例外で...

人工知能で最前線の医療従事者を守る

私たちは前例のない危機を生きています。 COVID-19パンデミックの間、医療従事者は最前線のヒーロ...

...

...

Nvidiaは写真編集ソフトウェアGANを

[[438694]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

...

Tensorflowを使用して畳み込みニューラルネットワークを構築する

1. 畳み込みニューラルネットワーク畳み込みニューラル ネットワーク (CNN) は、人工ニューロン...

...

ザッカーバーグはオープンソース AGI に全力を注ぐ: Llama 3 をトレーニング、35 万台の H100 を年末までに提供開始

ザッカーバーグ氏は新たな目標「すべてをオープンソースの AGI に」を発表しました。そう、ザッカーバ...

Keras の創設者: ディープラーニング関連の仕事は過去 6 か月で減少

[[340767]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

AIによって人間が失業しないのはなぜでしょうか?

人工知能が20年間進歩したにもかかわらず、オフィスワークのほとんどは単純な頭脳労働で構成されているよ...

...

プログラマーはどのようにして人工知能を学ぶのでしょうか? 2019 年の人工知能の給与見通しはどうでしょうか?

2019年の人工知能の給与水準、まずは全体の給与水準の2つの分析グラフを見てみましょう! ***は...