AI バイアスを検出して防止するにはどうすればよいでしょうか?

AI バイアスを検出して防止するにはどうすればよいでしょうか?

[[417154]]

[51CTO.com クイック翻訳]あらゆる AI アプリケーションの成功は、トレーニング データと密接に関係しています。適切なデータ品質と適切な量のデータが必要なだけでなく、AI エンジニアが開発する製品に自身の潜在的な偏見を反映させないように積極的に確認する必要もあります。エンジニアが自分の世界観や偏見をデータ セットに反映させ、特定の人口統計や焦点に限定したデータを提供すると、AI に依存して問題を解決するアプリケーションも同様に偏見が生まれ、不正確になり、有用性が低下します。

つまり、このテクノロジーがその可能性を実現するには、AI アプリケーションにおける人間の偏見を継続的に検出し、排除する必要があります。 AI が比較的新しい技術から完全にユビキタスな技術へと急速に進化し続けるにつれて、偏見の監視の厳しさは増すばかりだと予想しています。しかし、これを本当に実現するには、人間の偏見を克服しなければなりません。 2018 年のガートナーのレポートでは、2030 年までに AI プロジェクトの 85% が、データやアルゴリズムに組み込まれたバイアス、またはそれらの展開を管理するチーム内に存在するバイアスにより、誤った結果を出すようになると予測されています。リスクは大きいです。AI の欠陥により、AI が出した誤った結論に基づいて意思決定を行う企業は、深刻な評判の失墜や高額な損失を被る恐れがあります。

AIバイアスの特定

AI の偏見にはさまざまな形があります。開発者から生じる認知バイアスは、機械学習モデルやトレーニング データセットに影響を及ぼす可能性があります。実際には、バイアスはアルゴリズムに組み込まれています。不完全なデータ自体がバイアスを生み出す可能性があります。特に、認知バイアスにより情報が無視される場合はそうです。偏りなくトレーニングおよび開発された AI が使用される場合でも、その結果は展開の偏りによって影響を受ける可能性があります。集計バイアスは別のリスクであり、AI プロジェクトに関して行われた小さな選択が結果の整合性に大きな集合的な影響を及ぼす場合に発生します。つまり、あらゆる AI プロセスには、本質的にバイアスを導入する傾向があるステップが多数存在します。

AIバイアスの検出と排除

さまざまなユースケース (およびユーザー) にわたって一貫して正確な出力を生成する、信頼性の高い AI 依存アプリケーション システムを実現するには、組織は AI バイアスを特定し、積極的に軽減するための効果的なフレームワーク、ツールキット、プロセス、ポリシーを必要とします。利用可能なオープンソース ツールは、AI アプリケーションをテストして、データ内に特定の偏り、問題、盲点があるかどうかを確認するのに役立ちます。

AIフレームワーク。 AI バイアスのリスクから組織を保護するように設計されたフレームワークは、アプリケーションの開発および展開プロセス全体にわたって不当な影響を最小限に抑えるためのチェックとバランスを導入できます。これらのフレームワークを使用すると、信頼できる公平なプラクティスのベンチマークを自動化し、製品に組み込むことができます。

以下にいくつか例を挙げます。

  • ロールス・ロイスの Aletheia フレームワークは、正確で適切に管理された AI アプリケーションを設計するための 32 段階のプロセスを提供します。
  • Deloitte の AI フレームワークでは、AI の安全対策と倫理的慣行を実施するための 6 つの重要な側面を強調しています。
  • Naveen Joshi のフレームワークでは、信頼できる AI を開発するための中核的なプラクティスについて詳しく説明しています。説明可能性、機械学習の整合性、意識的な開発、再現性、スマートな規制のニーズに重点を置いています。

ツールキット。組織は、利用可能なツールキットを活用して、機械学習モデルからバイアスを特定して除去し、機械学習パイプラインのバイアス パターンを識別する必要もあります。特に役立つツールキットをいくつか紹介します。

  • IBM の AI Fairness 360 は、機械学習モデルにおける差別や偏見を検出、報告、削減するためのスケーラブルなオープンソース ツールキットです。
  • IBM Watson OpenScale は、リアルタイムのバイアス検出と軽減を提供し、詳細な説明可能性を実現して、AI 予測の信頼性と透明性を高めます。
  • Google の What-If ツールは、機械学習モデルの動作を視覚化して、機械学習の公平性指標に対してトレーニング済みのモデルを簡単にテストし、バイアスを特定できるようにします。

プロセスとポリシー。組織は、AI からバイアスを取り除き、AI システムへの信頼を高めるために特別に設計された新しいプロセスを導入する必要があるかもしれません。これらのプロセスでは、バイアス メトリックを定義し、それらの基準に照らしてデータを定期的かつ徹底的にレビューします。政策も同様の役割を果たすべきであり、偏見を最小限に抑え、盲点に対処するために厳格な実践と慎重な行動を必要とするガバナンスメカニズムを確立する必要があります。

覚えておいてください: AI信頼はビジネスチャンスです

AI システムのバイアスを減らすための措置を講じる組織は、この潜在的な危機を競争上の差別化を獲得する機会に変えることができます。偏見防止対策を推進することで、顧客が AI アプリケーションにさらに自信と信頼を持てるようになり、組織を差別化できます。これは今日特に当てはまりますが、AI が普及するにつれてさらに当てはまるようになります。公平な AI の追求において透明性を確保することは、ビジネスにとって有益です。

高度な新しい AI アルゴリズムにより、合成データ生成から転移学習、強化学習、生成ネットワーク、ニューラル ネットワークまで、AI は新しい領域に進出しています。これらの刺激的な新しいアプリケーションはそれぞれバイアス効果の影響を受けやすいため、これらのテクノロジーが普及する前にその影響に対処する必要があります。

AI の偏見に関しては、その責任は AI にあるのではなく、私たち自身にあります。 AI における人間の偏見を排除するために、あらゆる利用可能な対策を講じる必要があります。そうすることで、組織はより正確で効果的、そして顧客にとってより魅力的なアプリケーションを開発できるようになります。

原題: AI バイアスは蔓延しているが予防可能 — それを根絶する方法はここにある、著者: Shomron Jacob、Iterate.ai

[51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください]

<<:  保険業界は人工知能をどのように活用しているのか

>>:  合意アルゴリズムRaftの簡単な紹介

ブログ    

推薦する

今後 30 年間、人工知能の時代において、どの職業が消滅し、あるいは存続するのでしょうか?

最近の教育プロセスの中で、何人かの子供たちが私に大学で何を専攻すればいいかと尋ねました。将来的に発展...

...

Python でよく使われるアルゴリズム - 貪欲アルゴリズム (別名 greedy algorithm) をご存知ですか?

貪欲アルゴリズム (または貪欲アルゴリズム) とは、問題を解決するときに、その時点で適切と思われる選...

...

機械学習プロジェクトにおけるデータの前処理とデータ ラングリング

要点一般的な機械学習/ディープラーニング プロジェクトでは、データ準備が分析パイプライン全体の 60...

人工知能の明るい未来

[[407856]]私たちが今、そして近い将来に下す決断は、人工知能 (AI) がどのように発展し、...

リアルタイム6自由度オブジェクトトラッキングを実現するDeepACが登場

本記事では、国立国防科技大学の劉宇教授チームと浙江大学-SenseTime合同研究室の周暁偉教授チー...

...

OpenAI: 大規模ニューラルネットワークをトレーニングするための 4 つの基本手法

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

ディープラーニングは自動運転車にとって何を意味するのでしょうか?

[[348074]]自動運転車でディープラーニングを使用すると、歩行者の行動を理解したり、最短ルー...

...

...