なぜ人工知能には欠陥があるのでしょうか?

なぜ人工知能には欠陥があるのでしょうか?

人工知能は、すべての人の生活に欠かせないものとなっています。 YouTube のおすすめなどの単純なタスクから、病気を治す薬を生成するといった複雑で命を救うタスクまで、AI はすでにあらゆるところに存在しています。 それは私たちが認識している以上に私たちの生活に影響を与えます。

しかし、AIは公平なのでしょうか? いいえ、絶対にそうではありません。

[[350140]]

公平な AI を定義するのは困難です。 それが私が思いつく最善の説明です。 特定の AI モデルが公平であるとは、その出力が、すでに社会的差別の対象となっている特定のタスクの繊細なパラメータ (性別、人種、性的指向、宗教的信念、障害など) から独立している場合を指します。

この記事では、AI バイアス、AI バイアスの実際の例、そしてその対処方法について書きます。

質問

AI バイアスは、モデルのトレーニングに使用されるデータに内在するバイアスによって発生し、社会的差別につながります。 これにより、平等な機会が失われます。

たとえば、場所をパラメータとして使用して個人の信用スコアを計算するモデルを作成するというタスクがあるとします。 特定の民族は特定の場所に集中しています。 これにより、私のモデルはそれらの人種グループに対して人種的に偏向することになり、クレジットカードや銀行ローンを取得する際にそれらのグループに影響を与えることになります。

好まれる AI モデルは、現在の社会的差別を悪化させ、抑圧への道を開きます。

AIバイアスの実例

AI バイアスの実際の例をいくつか示します。

  • COMPAS: COMPAS (代替制裁のための矯正犯罪者管理分析) は、米国の裁判所が被告 (犯罪で告発された人) が再犯者 (以前に犯罪を再び犯した人) であるかどうかを判断するために使用するソフトウェアです。 データに重大な偏りがあるため、モデルは黒人犯罪者の再犯率が白人犯罪者の 2 倍であると予測しています。
  • Amazon の採用: 2014 年に、Amazon は採用プロセスを効率化するために AI 採用システムを開発しました。 モデルのトレーニングに使用されたデータは過去 10 年間のものであったため、選ばれた応募者のほとんどが男性であり、男性中心のテクノロジー業界においては差別的であることが判明しました。 Amazonは2018年にこのシステムを廃止した。
  • 米国の医療: 米国の医療制度で使用されている AI モデルでは、同じ病気に対して黒人には白人よりも低い料金が割り当てられています。 これは、モデルがコストに対して最適化されており、黒人は支払い能力が低いと考えられるため、モデルは黒人の健康リスクを白人よりも低く評価しているためです。 その結果、黒人の医療水準は低下しました。
  • Twitter の画像切り抜き: 2020 年 9 月、Twitter ユーザーは、画像切り抜きアルゴリズムが黒人の顔よりも白人の顔を優先していることを発見しました。 つまり、プレビューウィンドウとは異なるアスペクト比の画像が Twitter に投稿されると、アルゴリズムによって画像の一部が切り取られ、その特定の部分のみがプレビューとして表示されます。 この AI モデルでは、プレビュー ウィンドウに白人の顔と黒人の顔が並んで表示されることがよくあります。
  • Facebook の広告アルゴリズム: 2019 年に、Facebook は広告主が人種、性別、宗教に基づいて人々をターゲットにすることを許可しました。 その結果、看護師や秘書などの職業は女性をターゲットにし、清掃員やタクシー運転手などの職業は男性、特に有色人種の男性をターゲットにしているのです。 このモデルはまた、不動産広告は白人に表示された場合にはクリック率が高くなり、その結果、少数派グループに配信される不動産広告が少なくなることも学習しました。

これらは AI バイアスの一般的な例の一部にすぎません。 開発者の認識の有無にかかわらず、不公平な AI 実践の例は数多くあります。

それで、どうやって解決するのでしょうか?

> Unsplash の Yancy Min による写真

公平な AI への第一歩は、問題を認めることです。 人工知能は完璧ではありません。 データは完璧ではありません。 私たちのアルゴリズムは完璧ではありません。 私たちの技術は不完全です。 問題が存在しないふりをしていては、解決策を見つけることは不可能です。

次に、このソリューションに AI が必要かどうかを自問してください。

機械学習なしで製品をリリースすることを恐れないでください - Google

データに依存しない問題もいくつかあります。 被告の再犯の可能性を発見するなどの作業は、データよりも感情に依存します。

3番目に、責任ある AI プラクティスに従います。 以下に、Google の責任ある AI 実践ガイドから重要なポイントを追加しました。

責任あるAIの実践:

  • 人間中心設計アプローチを使用します。適切な開示を伴う設計モデルを構築し、展開前にテスターからのフィードバックを取り入れます。
  • トレーニングと監視を評価するための複数のメトリックを特定します。タスクに適したさまざまなメトリックを使用して、さまざまなエラーとエクスペリエンス間のトレードオフを理解します。 これらの指標には、消費者からのフィードバック、偽陽性率、偽陰性率などがあります。
  • 可能であれば、元のデータを確認してください。AI モデルには、モデルのトレーニングに使用されたデータが反映されます。 データに問題があれば、モデルにも問題が生じます。 バランスの取れたデータを取得するようにしてください。
  • モデルの限界を理解する: 相関関係を検出するようにトレーニングされたモデルは、必ずしも因果関係を確立するのに役立つわけではありません。 たとえば、バスケットボール シューズを購入する人は平均的に背が高い傾向があることをモデルが学習したとしても、それが結果としてバスケットボール シューズを購入したユーザーの背が高くなることを意味するわけではありません。
  • テスト: 厳密なユニット テストを実行して、モデルの障害を特定します。
  • 展開後もモデルの監視と更新を継続する: ユーザーからのフィードバックを考慮し、展開後にこのフィードバックに基づいてモデルを定期的に更新します。
  • 公平性と包括性という具体的な目標を持つモデルを設計します。倫理学や社会学の分野の専門家と協力して、さまざまな視点を理解し、解釈します。 モデルをできるだけ公平に作成するようにしてください。
  • 代表的なデータセットを使用してモデルをトレーニングおよびテストし、データの公平性を評価します。 つまり、特徴とラベルの間の偏った、または差別的な関連性を探します。
  • 不公平な偏見がないか確認する: 多様なバックグラウンドを持つテスターからユニット テストの入力を取得します。 これは、モデルが影響を与える可能性のある集団を特定するのに役立ちます。
  • パフォーマンスを分析する: さまざまな指標を考慮します。 ある指標の改善は、別の指標のパフォーマンスに悪影響を及ぼす可能性があります。

公正なAIを開発するためのツール

  • FATE: Microsoft の AI における公平性、説明責任、透明性、倫理 (FATE) は、視覚化ダッシュボードを評価し、アルゴリズムの偏りを軽減するためのツールを提供します。 これは主に、システムの公平性とパフォーマンスのトレードオフを比較するために使用されます。
  • AI Fairness 360: AI Fairness 360 は、機械学習モデルにおける差別や偏見を検査、報告、軽減するのに役立つ IBM のオープン ソース ツールキットです。
  • ML Fairness Gym: ML Fairness Gym は、機械学習システムにおける AI バイアスの長期的な影響を調査するための Google のツールです。

結論は

ここ数年、企業や政府は AI の偏見を真剣に受け止め始めています。 多くの企業が AI の公平性を評価するツールを開発し、AI の偏見と戦うために最善を尽くしています。 AI には大きな可能性がありますが、AI システムの潜在的な差別的危険性を念頭に置き、公正な AI モデルの開発に協力することがこれまで以上に重要になっています。

<<:  人工知能変革の転換点をどう乗り越えるか

>>:  新しいエッジAI手法であるTinyMLは、超低消費電力でエッジデバイス上で機械学習を実行します。

ブログ    
ブログ    
ブログ    

推薦する

...

IBMがAIチップNorthPoleを発売:内蔵メモリを搭載し、「人間の脳の働きをシミュレート」できると主張

▲ 画像出典: IBM IBM Researchは10月24日、人間の脳の動作にヒントを得たというA...

MapReduceアルゴリズムをわかりやすく説明する方法

Hackbright でメンターをしているときに、技術的な背景が限られている学生に MapReduc...

...

一般相対性理論の予測に沿って、M87ブラックホールの最新の研究結果がネイチャー誌に掲載されました。

9月27日、ネイチャー誌は45の機関からなる国際科学研究チームの最新の研究成果を発表した。 200...

あなたの脳と音楽ストリーミングは直接つながっているのでしょうか?ニューラリンクの脳コンピューターインターフェースが来月発売予定

ヘッドホンは必要なく、脳コンピューターインターフェースを通じて直接音楽を聴くことができ、体内のホルモ...

コーダーの皆さん、おめでとうございます!マイクロソフトは、LLMを使用して168のコードベースにわたるコーディングタスクを自動化するCodePlanを提案している。

大規模なモデルの場合、ローカライズされたエンコード タスクに優れています。しかし、タスクが複数の相互...

伝説のゲーム開発者カーマック氏:汎用人工知能は2030年に誕生する

伝説のゲーム開発者ジョン・カーマック氏は、2030年頃に汎用人工知能(AGI)が登場する可能性がある...

ドローンの墜落を防ぐにはどうすればいいですか?

「墜落」とは模型飛行機の用語です。簡単に言うと、模型飛行機が不適切な操作や機械の故障により異常に地...

プリンストン大学とインテルは、ResNetよりも大幅に高速で正確なParNetを提案している。

[[434088]]深さはディープ ニューラル ネットワークの鍵となりますが、深さが増すと、順次計...

...

...

機械学習プロジェクトにおけるデータの前処理とデータ ラングリング

要点一般的な機械学習/ディープラーニング プロジェクトでは、データ準備が分析パイプライン全体の 60...

人工知能はこれからどのように発展していくのでしょうか?

人工知能、略してAIの起源は非常に古い。1956年の夏、アメリカのハノーバーという小さな町に、コンピ...