NIST: AIの偏りはデータだけにとどまらない

NIST: AIの偏りはデータだけにとどまらない

現時点では、ほとんどの AI がある程度問題のある偏見に基づいて構築され、現在もそれを使用していることに異論を唱える人はいないはずです。これは何百回も観察され、証明されてきた課題です。組織にとっての課題は、より優れた偏りのないデータを推進するだけでなく、AI の偏りを根絶することです。

米国国立標準技術研究所 (NIST) は、昨年のパブリックコメント期間に続いて、出版物「人工知能におけるバイアスの識別と管理の標準に向けて (NIST 特別出版物 1270)」を大幅に改訂し、データ、さらには ML プロセスを超えて AI バイアスを検出して破壊することの必要性を強く主張しています。

著者らは、不適切に収集されたデータや適切にラベル付けされていないデータを非難するのではなく、AIバイアスの次のフロンティアは「人的および体系的な制度的および社会的要因」であると述べ、社会技術的な観点からより良い答えを求めている。

「文脈がすべてだ」と、NISTのAIバイアス研究の主任研究者であり、報告書の著者の一人であるレヴァ・シュワルツ氏は述べた。 「AI システムは単独で動作するわけではありません。AI システムは、他人の生活に直接影響を与える決定を下す人々を支援します。信頼できる AI システムを開発するには、AI に対する国民の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の多くは、テクノロジー自体を超えて、テクノロジーにも影響を与えます。これは、さまざまな人々や組織から寄せられたコメントからも明らかです。」

AI バイアスを引き起こす人間的および体系的なバイアスとは何ですか?

NIST のレポートによると、人間の偏見は個人と集団という 2 つの大きなカテゴリに分類され、各カテゴリには多くの具体的な偏見が当てはまります。

人間の個々の偏見には、自動化への満足感(人々が自動化されたスキルに過度に依存する)、暗黙の偏見(誰かの意思決定に影響を与える無意識の信念、態度、連想、または固定観念)、および確証バイアス(人々が既存の信念と一致する情報を好む)が含まれます。

集団の人間的基盤には、集団思考(人々が集団に同調したい、または意見の相違を避けたいという欲求から最適ではない決定を下す現象)や、資金提供機関や資金提供者を満足させるために偏った結果が報告され、それがさらに個人/集団の偏見の影響を受ける可能性がある資金提供偏見が含まれます。

NIST レポートでは、体系的な偏見を歴史的、社会的、制度的なものとして定義しています。本質的には、長年にわたる偏見は時間の経過とともに社会や制度に組み込まれ、「事実」または「ありのままの姿」として広く受け入れられています。

これらのバイアスが重要な理由は、AI の導入が今日の組織の働き方にどれほど劇的な影響を与えているかということです。人種的に偏ったデータのせいで、人々は住宅ローンを拒否され、住宅所有の最初のチャンスを奪われている。 AIは、女性よりも男性を優遇する過去の採用決定に基づいて訓練されているため、求職者が面接を拒否されている。将来有望な若い学生が、名字が過去の成功者の名字と一致しないという理由で、大学から面接や入学を拒否されることがあります。

言い換えれば、偏った AI は、効率性を高めるための扉と同じ数の鍵のかかった扉を作り出します。 組織が展開における偏見を排除するために積極的に取り組まなければ、すぐに深刻な信頼の欠如を抱えたまま考え、行動することになります。

NIST が推奨する社会技術的視点とは何ですか?

その中核にあるのは、あらゆる AI アプリケーションの成果は単なる数学的および計算的入力以上のものであるという認識です。これらは開発者やデータ サイエンティストによって作成され、職名や所属はさまざまで、いずれもある程度の負担を抱えています。

「AIに対する社会技術的アプローチでは、データセットからモデル化された価値観や行動、それらとやりとりする人間、そしてそれらの運用、設計、開発、最終的な展開に関わる複雑な組織的要因を考慮する」とNISTの報告書には記されている。

NIST は、社会技術的な視点から、組織は「正確性、説明可能性、理解可能性、プライバシー、信頼性、堅牢性、安全性、セキュリティの回復力」を通じて信頼を育むことができると考えています。

推奨事項の 1 つは、組織がテスト、評価、検証、検証 (TEVV) プロセスを実装または改善することです。特定のデータセットまたはトレーニング済みモデルでは、バイアスを数学的に検証する方法が必要です。また、AI 開発の取り組みにはさまざまな分野や役職からの関与を増やし、さまざまな部門や組織外から複数の関係者を集めることも推奨されています。個人またはグループが基礎となる ML 出力を継続的に修正する「人間が関与する」モデルも、バイアスを排除するための効果的なツールです。

これらおよび改訂されたレポートと並んで、NIST の人工知能リスク管理フレームワーク (AI RMF) があります。これは、AI システムに関連するリスクを管理するためのコンセンサスに基づく一連の推奨事項です。完成すると、AI テクノロジーと製品の透明性、設計と開発、ガバナンス、テストがカバーされるようになります。 AI RMF の最初のコメント期間は終了しましたが、AI のリスクと軽減策について学ぶ機会はまだ十分にあります。

<<:  産業用ロボットの限界

>>:  古典的な論文を実装するための60行のコード:ポアソンディスクサンプリングを完了するのに0.7秒、Numpyよりも100倍高速

ブログ    
ブログ    
ブログ    

推薦する

...

...

人工知能の時代では、科学技術分野の人材は職を失うのでしょうか?

インターネット技術の発展、ビッグデータや人工知能技術の進歩により、一部の伝統的な産業は革命的な変化を...

産業用 IoT が人工知能の時代へ

インテリジェンスは近年、製造業における最も重要なトレンドです。過去数年間の市場教育を経て、過去2年間...

...

...

...

ファイアウォールは再び進化します。よりスマートで安全になりましたか?

ハッカーがネットワーク攻撃を開始すると、まず会社のパブリック IP で SSH サービスに使用される...

...

Java プログラミング スキル - データ構造とアルゴリズム「スパース配列」

[[385874]]基本的な紹介配列内のほとんどの要素が 0 であるか、同じ値を持つ配列である場合...

スイスのCERTがボットネットのドメイン名生成アルゴリズムを解読し、多数のトップレベルドメインをブロック

スイス政府コンピュータ緊急対応センター(GovCERT)は、ボットネットTofseeが通信に使用して...

「アルゴリズム経済」はどのような新しいモデルやトレンドを生み出すのでしょうか?

2000年から10年間の発展を経て、中国のPC時代のインターネットは「交通経済」を生み出しました。...

暗唱することは理解を意味するわけではない。ビッグモデルの背後にある知識の蓄積と抽出の詳細な分析

モデルのサイズが大きくなるにつれて、大規模なモデルが大量の知識を習得できる方法を模索し始めます。一つ...