現時点では、ほとんどの AI がある程度問題のある偏見に基づいて構築され、現在もそれを使用していることに異論を唱える人はいないはずです。これは何百回も観察され、証明されてきた課題です。組織にとっての課題は、より優れた偏りのないデータを推進するだけでなく、AI の偏りを根絶することです。 米国国立標準技術研究所 (NIST) は、昨年のパブリックコメント期間に続いて、出版物「人工知能におけるバイアスの識別と管理の標準に向けて (NIST 特別出版物 1270)」を大幅に改訂し、データ、さらには ML プロセスを超えて AI バイアスを検出して破壊することの必要性を強く主張しています。 著者らは、不適切に収集されたデータや適切にラベル付けされていないデータを非難するのではなく、AIバイアスの次のフロンティアは「人的および体系的な制度的および社会的要因」であると述べ、社会技術的な観点からより良い答えを求めている。 「文脈がすべてだ」と、NISTのAIバイアス研究の主任研究者であり、報告書の著者の一人であるレヴァ・シュワルツ氏は述べた。 「AI システムは単独で動作するわけではありません。AI システムは、他人の生活に直接影響を与える決定を下す人々を支援します。信頼できる AI システムを開発するには、AI に対する国民の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の多くは、テクノロジー自体を超えて、テクノロジーにも影響を与えます。これは、さまざまな人々や組織から寄せられたコメントからも明らかです。」 AI バイアスを引き起こす人間的および体系的なバイアスとは何ですか?NIST のレポートによると、人間の偏見は個人と集団という 2 つの大きなカテゴリに分類され、各カテゴリには多くの具体的な偏見が当てはまります。 人間の個々の偏見には、自動化への満足感(人々が自動化されたスキルに過度に依存する)、暗黙の偏見(誰かの意思決定に影響を与える無意識の信念、態度、連想、または固定観念)、および確証バイアス(人々が既存の信念と一致する情報を好む)が含まれます。 集団の人間的基盤には、集団思考(人々が集団に同調したい、または意見の相違を避けたいという欲求から最適ではない決定を下す現象)や、資金提供機関や資金提供者を満足させるために偏った結果が報告され、それがさらに個人/集団の偏見の影響を受ける可能性がある資金提供偏見が含まれます。 NIST レポートでは、体系的な偏見を歴史的、社会的、制度的なものとして定義しています。本質的には、長年にわたる偏見は時間の経過とともに社会や制度に組み込まれ、「事実」または「ありのままの姿」として広く受け入れられています。 これらのバイアスが重要な理由は、AI の導入が今日の組織の働き方にどれほど劇的な影響を与えているかということです。人種的に偏ったデータのせいで、人々は住宅ローンを拒否され、住宅所有の最初のチャンスを奪われている。 AIは、女性よりも男性を優遇する過去の採用決定に基づいて訓練されているため、求職者が面接を拒否されている。将来有望な若い学生が、名字が過去の成功者の名字と一致しないという理由で、大学から面接や入学を拒否されることがあります。 言い換えれば、偏った AI は、効率性を高めるための扉と同じ数の鍵のかかった扉を作り出します。 組織が展開における偏見を排除するために積極的に取り組まなければ、すぐに深刻な信頼の欠如を抱えたまま考え、行動することになります。 NIST が推奨する社会技術的視点とは何ですか?その中核にあるのは、あらゆる AI アプリケーションの成果は単なる数学的および計算的入力以上のものであるという認識です。これらは開発者やデータ サイエンティストによって作成され、職名や所属はさまざまで、いずれもある程度の負担を抱えています。 「AIに対する社会技術的アプローチでは、データセットからモデル化された価値観や行動、それらとやりとりする人間、そしてそれらの運用、設計、開発、最終的な展開に関わる複雑な組織的要因を考慮する」とNISTの報告書には記されている。 NIST は、社会技術的な視点から、組織は「正確性、説明可能性、理解可能性、プライバシー、信頼性、堅牢性、安全性、セキュリティの回復力」を通じて信頼を育むことができると考えています。 推奨事項の 1 つは、組織がテスト、評価、検証、検証 (TEVV) プロセスを実装または改善することです。特定のデータセットまたはトレーニング済みモデルでは、バイアスを数学的に検証する方法が必要です。また、AI 開発の取り組みにはさまざまな分野や役職からの関与を増やし、さまざまな部門や組織外から複数の関係者を集めることも推奨されています。個人またはグループが基礎となる ML 出力を継続的に修正する「人間が関与する」モデルも、バイアスを排除するための効果的なツールです。 これらおよび改訂されたレポートと並んで、NIST の人工知能リスク管理フレームワーク (AI RMF) があります。これは、AI システムに関連するリスクを管理するためのコンセンサスに基づく一連の推奨事項です。完成すると、AI テクノロジーと製品の透明性、設計と開発、ガバナンス、テストがカバーされるようになります。 AI RMF の最初のコメント期間は終了しましたが、AI のリスクと軽減策について学ぶ機会はまだ十分にあります。 |
>>: 古典的な論文を実装するための60行のコード:ポアソンディスクサンプリングを完了するのに0.7秒、Numpyよりも100倍高速
「ロールプレイング」は、大規模言語モデルのより興味深い応用シナリオです。LLMは、指定されたロール...
人工知能は驚くべきことを実現できますが、いくつかの障害にも直面しています。 2021年に3,500人...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
モノのインターネットは現代のビジネスと経済を急速に変革しています。この革新的なテクノロジーにより、膨...
最近、メタバースに新たな水が流れ込んできました。 Metaが開催した研究室でのディスカッションにおい...
[[409522]]動画は徐々にテキストや画像を超え、最も広く利用されているメディア形式になったと...
ディープマインドの主任研究科学者であり、ロンドン大学ユニバーシティ・カレッジのコンピューターサイエン...
近年、多くの物事の成功はテクノロジーの進歩によるものと言えます。その一つは、気候変動のリスクから地球...
AIに対して幻想を抱いている人もいれば、偏見を持っている人もいます。 AIはツールとコンピューティ...
[[195107]]機械学習ルーチンほとんどの機械学習アルゴリズム(ディープラーニングを含む)は、実...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...