王立歴史協会は最近、人工知能アルゴリズムを使用した初の研究で、英国の労働力に「大きな性差別」があることが示されたと明らかにした。 AIベースのシステムは英国のインターネット全体から情報を収集し、既存の男性と女性の役職の分布を確認した。この調査では108の異なる経済分野を調査し、そのうち87%で男性に有利な不平等があり、その結果、上級管理職に就く男性の数が不釣り合いに多いことが判明した。 この画期的な研究は、私たちの世界を説明する人工知能の大きな可能性を示す素晴らしい例です。結局のところ、人工知能の強力な機能の 1 つは、膨大な量のデータを分析し、人間では見つけられないパターンを見つけることです。しかし、AI は偏見や不公平さを検出するのに役立ちますが、実際にはさらなる偏見や不公平さを生み出す可能性があります。 次の例を考えてみましょう。現在ローズ奨学生であり、MITメディアラボの研究者であるガーナ系アメリカ人のコンピューター科学者、ジョイ・ブオラムウィニ氏(https://twitter.com/jovialjoy?lang=en)は、大学院生のときに、使用していたAI顔認識システムが自分の顔を認識できないことに気付きました。彼女が白いマスクを着用して初めて、システムは彼女の存在を確認できる。ブオラムウィニさんの場合、顔認識システムは彼女を識別できなかった。ソフトウェアのトレーニングに使用されたデータプールが主に白人の顔で構成されており、十分な多様性がなかったためだ。言い換えれば、問題はデータ自体から始まります。人工知能システムは、この欠陥のあるデータセットから学習する必要があります。システムがますます「インテリジェント」になるにつれて、問題は長引くようになります。実際のところ、偏見自体が偏見をさらに強化するため、実際のシステムはますます愚かなものになっていくでしょう。 Buolamwini 氏は、AI バイアスの認識を促進し、組織に AI プラクティスを実装するためのトレーニングを行うことを目的とした Algorithmic Justice League (https://www.ajlunited.org/) を設立しました。ブオラムウィニ氏は、このプログラムが人工知能に対するより公平で倫理的なアプローチを促進することを期待しており、これはAIが意思決定を主導する時代に特に重要な使命である。 企業は、データセットとアルゴリズムのトレーニングを再配置するだけでなく、AI を取り巻くプロセスと人材も再配置する必要があります。 (写真:AP通信) バイアスをかけた AI は、刑事司法、採用、雇用などの他の分野にも拡大しています。 IBM が発表した調査レポートによると、定義され分類された人間の偏見は 180 種類もあり、それぞれが判断を妨げ、最終決定に影響を及ぼす可能性があるとのことです。人工知能はこれらのバイアスを簡単に再現できます。ある企業が、報酬履歴に基づいて AI を使って従業員の給与を決定したいとします。これにより、女性は大きな不利な立場に置かれる可能性があります (https://www.brookings.edu/blog/techtank/2019/01/03/artificial-intelligence-and-bias-four-key-challenges/)。基本的に、女性は過去に差別を受けてきたからです。別の例として、推奨エンジンもユーザーの好みを学習し、それに応じた提案を行います。 組織は、自社や AI システムが依存するデータが適切であり、差別的なパターンを強化しないことをどのように確認できるでしょうか? 他の多くの問題と同様に、それらを克服するには、その存在を認めることから始まります。企業は、データセットとアルゴリズムのトレーニングだけでなく、AI を取り巻くプロセスと人材も再編する必要があります。より公平な職場環境の実現を目指す上で、これらの問題に対処することは非常に重要です。専用のチームとプロセスを用意する必要があり、データをレビューして厳格な倫理基準を確保する「最高バイアス責任者」などの役職を設ける必要があるかもしれません。AI ツールは職場環境にますます普及するでしょうが、彼の任務は偏見や先入観と戦うことです。 たとえば、多様性を推進することでエンジニアリング チームの採用に影響を与え、エンジニアが AI アルゴリズムに入力することを選択したデータ入力を定期的に確認することができます。これは「人が政策である」という例です。 AI は絶対的なものではないことを認識し、入力が悪ければ出力も悪くなることを認識することが重要です。定期的なパフォーマンスレビューを実施し、制御テストを実行し、検証可能なアルゴリズムの出力を継続的に微調整する必要があります。 組織は、歪みや盲点を防ぐために、複数のコンテキストが使用されるようにする必要があります。 Buolamwini 氏自身は、組織がさまざまなバイアスのセットについてアルゴリズムを調査することを推奨しており、さまざまな視点からこの作業を強化し、偏ったデータを減らし、より公平なアルゴリズム コードを確保できると述べています。 アルゴリズムの偏りを修正するには、経営陣、人事、エンジニアの共同の取り組みが必要です。3 者が協力して初めて、システムから意識的および無意識的な人間の偏りを効果的に排除できます。人間の愚かさを完全になくすことはできませんが、それを認識することで、職場での意思決定をより不自然なものではなく、よりインテリジェントなものにすることができる、より公平でスマートな AI システムを構築できます。 |
<<: Uberの自動運転車の死亡事故から忘れてはならない10の教訓
>>: 調査によると、経営幹部はAIが職務記述書を時代遅れにしていると考えている
ヒントン氏は、AI はすでに感情を持っているか、あるいは将来感情を持つようになると信じている。その後...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
10月27日、外国メディアは、人工知能企業Jina AIがこのほど、第2世代のテキスト埋め込みモデル...
[[253094]]がんの早期発見から国境を越えた人間の言語理解、リアルタイムの高解像度ビデオでの顔...
[[220537]]リアム・ヘーネル編纂者:趙怡雲、江宝尚、銭天培新年を前に、温翁氏は音声認識から...
人工知能は、あらゆる種類の企業のバックオフィスに大きく浸透しつつあります。バックオフィスは、ビジネス...
[51CTO.com からのオリジナル記事] 今日の情報化社会には、さまざまな情報リソースが溢れて...
ケンブリッジ大学人工知能研究センターは、人工知能によってもたらされる新しい能力とそれが直面するリスク...
[[417184]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
2017 年に成熟したと言われる 2 つの技術的進歩があるとすれば、それは間違いなく仮想現実と人工知...