[51CTO.com クイック翻訳]非常に複雑な技術的アプリケーションで AI バイアスが発生する可能性があることは憂慮すべきことですが、特定の業界で採用されている AI ツールの AI バイアスを識別して軽減する方法はまだあります。 人工知能技術の幅広い応用に伴い、それがもたらすいくつかの問題も人々の注目を集めています。人工知能はもともと、人間がより公平で透明性の高い意思決定を行えるように設計されたが、すでに偏見や不適切な意思決定の兆候が見られ始めている。しかし、この状況はテクノロジーのせいにすべきではありません。なぜなら、偏見を引き起こすのはデータとシナリオの偏差だからです。 AIバイアスとは何ですか?AI バイアスには通常、関連するアルゴリズムからの異常な出力が含まれます。さらに、AI 環境での意思決定に影響を与えるあらゆる要因がバイアスの発生につながる可能性があります。人間の意思決定ではバイアスが事前に定義された概念や意見に基づいていることが多いのに対し、AI のバイアスはよりターゲットを絞ったものであることが多いですが、出発点は似ています。 周知のとおり、人工知能は人間の設計と構想から生まれたものであり、そのため、人間に由来する隠れた、あるいは明らかな偏見の影響を受けやすい傾向にあります。 AI 開発の複数の段階で、システム設定に浸透する専門的および社会的傾向が偏見につながる可能性があります。 より正確な説明は、意思決定アルゴリズムや AI モデルを設計する際に人間が偏見を持つということです。さらに、AI モデルの調査によると、AI を定義機能として使用するテクノロジーの意思決定に最終的に影響を与える可能性のあるバイアスは 180 種類以上あります。 AIバイアスのより明確な理由まず、AI モデルの設計時に保護されたクラスが含まれていない場合、AI におけるアルゴリズムの偏りが頻繁に発生します。性別や人種などの保護されたカテゴリがないため、このような AI モデルが明確な決定を下すには時間が足りません。さらに、地理データや人口統計データなどの保護されていない分析情報については、保護されたカテゴリにアクセスすると、準拠していない結果が返される可能性があります。 AI バイアスのもう 1 つの理由は、特定のモデルをトレーニングするために利用できるデータ セットの数が少ないことです。たとえば、企業が AI ベースの従業員採用ツールを導入する予定の場合、全体的なデータセットに基づいてツールをモデル化し、トレーニングする必要があります。 AI モデルが男性従業員の仕事に関連する洞察でトレーニングされている場合、性別による偏見は偏見の最も論理的な形態であると思われます。 言語の偏見も一般的であり、大きな懸念を引き起こします。 Google 翻訳などの翻訳プラットフォームに関連付けられている自然言語処理 (NLP) アルゴリズムは、性別に特化した翻訳を生成し、男性特有の用語を返すことが多いとして、以前から論争を呼んでいます。 理由が何であれ、AI モデルがどのようにトレーニングされるかによって、バイアスの重大度や性質が決まります。さらに、一部のデータ サイエンティストは、特定の項目を除外したり、サンプリング不足やサンプリング過剰になったりして、不均衡による AI バイアスが生じる可能性があります。 さまざまな種類の偏見(1)選択バイアス この形式のバイアスは、トレーニング データが過小評価されているか、ランダム化されたレベルに達したときに発生します。良い例としては、3 つの画像認識 AI 製品を使用してアフリカとヨーロッパ諸国の 1,200 人以上を分類した人物分類に関する研究レポートがあります。調査では、男性の方が識別がより正確で優れており、女性の方がより公平であることが示された。肌の色が濃い人が正確に識別されたのはわずか 66% で、選択バイアスの影響が明らかになりました。 (2)報道の偏り 報告バイアスは、多くの場合、データ セットが現実を十分に反映していない、トレーニングされていない、不正確または不正確な AI モデルの結果です。さらに、報告バイアスを示すモデルのほとんどは、同じ歴史的仮定とより小さなサンプル空間を無視して特定の地域を定義したいデータ サイエンティストによって考案されています。 (3)暗黙の偏見 データ サイエンティストの未精製でずさんな個人的な推論を AI モデルに適用すべきではありません。そうしないと、暗黙の偏見に遭遇する可能性があります。 (4)集団帰属バイアス これは、偏った AI モデルにつながる特定の種類のバイアスです。ランダムサンプリングではなく一般的な外挿法に頼るデータ サイエンティストは、最終的にこの形式のバイアスをデータに持ち込むことになります。 AIにおけるバイアスを管理するにはどうすればよいでしょうか?一般的な AI モデルは、企業が望ましい目標を達成するのに役立ちますが、医療、刑事司法、金融サービスなどのより機密性の高い分野で AI モデルを実装する場合、AI バイアスはより差し迫った問題になります。 したがって、人々は人種、年齢、性別を問わずより正確な AI ツールを採用する必要があるため、AI の偏見を排除することがさらに重要になります。これまでに発表された AI 関連の規制の一部は、AI ベンダーの認定への道を開き、AI バイアスを最小限に抑えるのに役立つ可能性がありますが、AI バイアスを削減するには、次のようなよりターゲットを絞ったアプローチが必要です。 (1)インクルーシブデザイン 組織が AI モデルを設計するつもりなら、人間の判断をその範囲から除外するのが最善です。包括的なアプローチを採用する必要があり、トレーニングの数には、ツールが使用される業界に関連する大規模なサンプル サイズを含める必要があります。 (2)現場調査 人工知能モデルはますます賢くなってきています。ただし、特定の業界に導入する場合には、前提だけでなく、意思決定のシナリオに頼る必要があります。 (3)ターゲットを絞った検査が鍵 いずれにしても、メトリックの集約を改善するには、AI モデルをサブグループに分割する必要があります。さらに、複雑なケースに対処するためのストレス テストの実行も容易になります。つまり、AI の偏りを確実に低減するには、複数の段階にわたる詳細なテストが必要です。 (4)合成データを使用してモデルをトレーニングする 組織が AI ツールの開発を計画している場合、データの収集、サンプリング、前処理に注意を払う必要があります。また、AI バイアスの相関関係を整理する必要があり、これにより精度の範囲がさらに広がります。 これらの対策を講じるだけでなく、人間による意思決定をさらに推進する必要があります。なぜなら、人間は人工知能の先駆者であり、多くの違いを示しているからです。結局のところ、AI のバイアスを取り除くための最善のアドバイスは、AI モデルがどのように予測や決定を行うかを理解して、AI モデルの解釈可能性を大幅に向上させることです。 結論AI バイアスはほぼすべての業界固有の領域に存在しますが、より公平なモデルとアルゴリズムを確保するために、責任ある実践が求められています。さらに、AI技術を導入する企業は、意思決定の質をさらに向上させるために、継続的な監査と評価を実施する必要があります。 原題: AI バイアスは偏見のない視点を必要とする未解決の問題か?、著者: アナンダ・バネルジー [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
<<: ビジネスコミュニケーションで機械学習を活用する9つの方法
>>: 工業生産は変化している:機械は人間よりも製造に優れている
WAVE SUMMIT+ ディープラーニング開発者カンファレンス 2023 が 12 月 28 日...
AIに「感情」を与える時が来たのかもしれない[[236486]]今後のビジネスモデルはますます「感情...
全国的な送電網の障害を特定することは、巨大な干し草の山から針を見つけるようなものです。米国全土に設置...
[[327734]]ユーザーポートレートに基づいた広告は、広告効果を最適化し、精密なマーケティングを...
[[205087]]あまり巧妙になりすぎずに、機械学習の学術界に触れ、すでに業界に入った人間の視点...
著者 | ユン・チャオユーザーと情報の間には、検索か推奨のいずれかが存在します。百度の執行副社長であ...
01 ハイテク時代の失業ゼロ半世紀以上前、有名な数学者ジョン・フォン・ノイマンは、機械を製造するコ...
近年、世界経済の発展に伴い、人間の生活環境は徐々に改善され、人口も増加傾向にありますが、急速な人口増...
コンピューターは小型化、高性能化していますが、動作には大量のエネルギーが必要です。過去 10 年間で...
以前、ショッピングバスケット分析についての記事を書きました。その中で、C5.0 と Apriori ...
2021年スタンフォードAIインデックスレポートが正式にリリースされ、過去1年間のAIの全体的な発...
生成 AI の爆発的な増加により、無限の可能性がもたらされました。最近、国内ではミャオヤカメラがイン...
AI の実装は一度で終わるものではなく、幅広い戦略と継続的な調整のプロセスが必要です。ここでは、AI...