AI バイアス: 機械は絶対的に合理的か?

AI バイアス: 機械は絶対的に合理的か?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。

人工知能はすでに私たちの日常生活に浸透しています。 YouTube のホームページのおすすめから医薬品の製造まで、インターネットはあらゆるところに存在し、私たちの生活に与える影響は想像以上に大きいものです。しかし、AI は必ずしも公平なのでしょうか? いいえ、絶対にそうではありません。

[[354470]]

公平な AI とは何かを定義するのは困難です。私が思いつく最良の定義は次のとおりです。社会的差別の対象となる特定のタスクについては、特定の AI モデルが、敏感なパラメーター (性別、人種、性的指向、宗教的信念、障害など) に依存しない結果を出力できる場合、その AI モデルは公平です。

この記事では、AI バイアス、その実際の例、そしてその対処方法について説明します。

質問

AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって引き起こされ、社会的差別につながり、ひいては機会均等の欠如につながります。

私の仕事が、場所をパラメータとして個人の信用スコアを計算するモデルを作成することだとします。特定の人種グループは特定の場所に集中しているため、作成されたモデルはそれらの人種グループに対して偏りがあり、クレジットカードや銀行ローンの申し込みに影響を及ぼします。偏った AI モデルは、現在の社会的差別を悪化させます。

AIバイアスの実例

  • COMPAS (代替制裁のための刑罰管理分析) は、被告人が再犯者 (以前に犯した犯罪を再び犯す犯罪者) になる可能性を判断するために米国の裁判所が使用するソフトウェアです。重大なデータ偏りのため、モデルは黒人犯罪者の再犯率を白人犯罪者の2倍の偽陽性率で予測した。
  • 2014年、Amazonは採用プロセスを簡素化するために人工知能採用システムを開発しました。研究では、モデルのトレーニングに使用されたデータが過去10年間のものであったため、システムが女性に対して差別的であったことが判明した。過去10年間、テクノロジー業界は男性中心だったため、選ばれた応募者の大半は男性だった。アマゾンは2018年にそのシステムを廃止した。
  • 米国の医療制度では、同じ病気に関して黒人は白人よりもリスクが低いことを示唆する人工知能モデルを使用している。これは、モデルがコストを最適化し、黒人は支払い能力が低いと認識されているため、モデルが黒人の健康リスクを白人より低くランク付けし、結果として黒人の医療水準が低くなるためです。
  • 2019年、Facebookは広告主が人種、性別、宗教に基づいて人々をターゲットにすることを許可した。その結果、看護師や秘書などの職業は女性をターゲットにし、清掃員やタクシー運転手などの職業は男性、特に有色人種の男性をターゲットにしているのです。また、このモデルは、不動産広告は白人に表示された方がクリック率が高くなることも学習したため、少数派グループに表示される不動産広告は少なくなります。
  • 2020年9月、Twitterユーザーは、画像切り抜きアルゴリズムが黒人の顔よりも白人の顔を優先していることを発見した。プレビューウィンドウとは異なるアスペクト比で画像が Twitter に投稿されると、アルゴリズムによって画像の一部が自動的に切り取られ、画像の特定の部分のみがプレビューとして表示されます。黒人の顔と白人の顔が同じフレーム内にある場合、AI モデルは通常、プレビュー ウィンドウに白人を表示します。

これらの例はほんの一滴に過ぎません。開発者が知っているかどうかに関わらず、多くの不公平な AI 慣行が存在します。

この問題を解決するにはどうすればいいでしょうか?

公平な AI への第一歩は、問題を認めることです。 AIは不完全であり、データは不完全であり、アルゴリズムは不完全であり、テクノロジーは不完全です。問題に目をつぶれば、解決策を見つけることは不可能だろう。

次に、このソリューションに AI が必要かどうかを自問してください。被告が再犯する可能性を見つけるなどのタスクなど、データよりも感情に依存する問題の中には、データに依存しないものもあります。

3番目に、責任ある AI プラクティスに従います。 Google の責任ある AI 実践ガイドラインに基づいて、いくつかの重要なポイントを追加しました。責任あるAIの実践:

  • 人間中心設計アプローチを使用します。適切な開示が組み込まれたモデルを設計し、展開前にテスターからのフィードバックを取り入れます。
  • トレーニングと監視を評価するための複数のメトリックを特定します。タスクに適したさまざまなメトリックを使用して、さまざまなエラーとエクスペリエンス間のトレードオフを理解します。これらの指標は、消費者からのフィードバック、偽陽性率、偽陰性率などから得られます。
  • 可能であれば、元のデータを確認してください。AI モデルは、モデルのトレーニングに使用されたデータを反映します。データに問題があれば、モデルにも問題が生じます。したがって、データのバランスを保つようにしてください。
  • モデルの限界を理解する: 相関関係を検出するようにトレーニングされたモデルは、因果関係を確立するのに必ずしも役立つとは限りません。たとえば、バスケットボール シューズを購入する人は一般的に背が高いということをモデルが学習したとしても、バスケットボール シューズを購入したユーザーが結果として背が高くなるというわけではありません。
  • テスト: 厳密なユニット テストを実行して、モデルの障害を特定します。
  • 展開後もモデルの監視と更新を継続する: モデルを展開した後は、ユーザーからのフィードバックに注意し、定期的にモデルを更新します。
  • 公平で包括的なモデルを設計する: 倫理と社会研究の専門家と協力して、さまざまな視点を理解して考慮し、モデルを可能な限り公平にするよう努めます。
  • 代表的なデータセットを使用してモデルをトレーニングおよびテストし、データの公平性を評価します。つまり、特徴とラベルの間の偏った、または差別的な関連性を探します。
  • 不公平な偏見がないか確認する: さまざまなバックグラウンドを持つテスターからユニット テストの入力を取得します。これにより、モデルの影響を受ける可能性のある人々のグループを特定するのに役立ちます。
  • パフォーマンスを分析する: あるメトリックの改善が別のメトリックのパフォーマンスに悪影響を及ぼす可能性があるため、さまざまなメトリックを検討します。

公正なAIを開発するためのツール

  • AIFairness 360: これは、機械学習モデルにおける差別や偏見を検出、報告、軽減するのに役立つ IBM のオープン ソース ツールキットです。
  • ML Fairness Gym: これは、機械学習システムにおける AI バイアスの長期的な影響を調査するために Google が提供するツールです。
  • FATE: AI における公平性、説明責任、透明性、倫理 (FATE)、Microsoft は視覚化ダッシュボードとバイアス緩和アルゴリズムを評価するためのツールを提供します。主に公平性とシステムパフォーマンスのバランスをとるために使用されます。

最近、企業や政府は人工知能における偏見を真剣に受け止め始めています。多くの企業が AI の公平性を評価するツールを開発し、AI の偏見に対処するために最善を尽くしています。

AI には大きな可能性がありますが、私たちはこれまで以上に AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力しなければなりません。

<<:  スマート製造技術:効率的な生産の未来?

>>:  機械学習の成功事例 5 つ

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

スーパー人工知能とは何ですか?

進化し続けるテクノロジーの世界において、魅力的であると同時に不安も抱かせる概念の出現が、スーパー人工...

...

Google、再生可能エネルギーと機械学習の力を借りて風力発電の予測に成功

従来の観点から見ると、目に見えず、実体のない風が新しい日にどのような挙動を示すかを予測することは依然...

産業オートメーションにおけるコンピュータビジョンの応用と利点

コンピューター ビジョンは、製造および生産プロセスを自動化および最適化して、効率を高め、製品の品質を...

ディープラーニングがなぜディープラーニングと呼ばれるのかご存知ですか?

これは単純なプッシュです。今日はディープラーニングという名前についてのみお話します。ディープラーニン...

Yann LeCun 氏は衝撃的な発言をしました。「ディープラーニングは死んだ、微分可能プログラミング万歳!」

ディープラーニングの分野で最も有名な学者の一人であるヤン・ルカン氏が本日、自身のFacebookに投...

...

マッキンゼーのレポート: 2030 年までに 8 億人が機械に置き換えられ、約 1 億人の中国人が転職を余儀なくされる!

マッキンゼー・グローバル・インスティテュートは最近の報告書で、テクノロジーの進歩により、将来世界で約...

海外メディア:ニューラリンクの「人間の脳チップ」を埋め込むために何千人もの人が列をなしており、2030年には手術件数が2万2000件を超える見込み

11月8日、米国現地時間の火曜日、著名な伝記作家アシュリー・ヴァンス氏が、イーロン・マスク氏の脳コン...

暗号化アルゴリズムの鍵交換は少し安全ではない

今日は対称暗号化アルゴリズムの重要な問題についてお話ししましょう。暗号化の基本的な概念に精通していな...

AI、新たなアリババとテンセント

インターネット時代の恩恵が徐々に薄れていくにつれ、プレイヤーは次の発展のトレンドを求めて模索と実践を...

無駄な文化に抵抗しましょう!チューリング賞受賞者のジューディア・パール氏と21人の学者が共同で公開書簡を発表

2020年末、チューリング賞受賞者のジュディア・パール氏、機械学習の専門家ペドロ・ドミンゴス氏、量子...

ガートナー:AIと自動化は次世代SASEの重要な機能となる

近年、セキュア アクセス サービス エッジ (SASE) テクノロジーは急速に発展し、産業界で広く使...

ヨシュア・ベンジオ:私は国家間のAI競争を見たくないし、現在のAIの考え方を心配している。

[[250218]]ヨシュア・ベンジオ氏は、間違いなく現代の人工知能技術分野の第一人者です。ベンジ...