ジョージ・フロイドの悲劇的な殺害が世界に衝撃を与えてから、まだ3か月しか経っていません。白人警察官が黒人市民の上に8分46秒間ひざまずいたという映像は、アメリカ人の集団的記憶にまだ生々しい。 これは米国における人種差別を動機とした警察の残虐行為の最初の事例ではない。残念ながら、これも最後ではありませんでした。 この国では人種差別が深く根付いている。それは、無視されるか、感染薬で治療される化膿した傷です。米国における制度的人種差別に終わりは見えず、さらに悪いことに、この病気は新たな感染経路を見つけつつある。 現代史上最大の技術的進歩の一つとされる人工知能でさえ、社会に蔓延している偏見の一部を引き継いでいる。 AIは偏見を持つことができますか? 以前であれば、コンピュータ プログラムに偏りがある可能性があると主張するのは不合理に思われたでしょう。結局のところ、ソフトウェアが人種、性別、肌の色を気にする理由は何でしょうか? しかし、それは機械学習とビッグデータによってコンピューターが独自の判断を下せるようになる前の話です。 現在、アルゴリズムは顧客サポートを強化し、現代のファッションを再形成し、法と秩序から都市管理までのすべてのプロセスを自動化できる未来への道を切り開いています。 「我々はAIディストピアの非常に現実的な可能性に直面している」と、ビッグデータとアルゴリズムを使ってブログ名を生成するウェブサイト、Namobotのマイケル・レイノルズ氏は説明する。 「人間の解釈や認知評価を含む不完全なデータセットは、機械学習モデルがアルゴリズムに人間の偏見を移す原因となる可能性があります。」 これは手の届かないことではなく、すでに起こっていることです。 アルゴリズムの偏りの残念な例 リスク評価ツールは、重罪犯が再犯する可能性を予測するために刑事司法制度でよく使用されます。理論的には、この「マイノリティ・リポート」のような手法は将来の犯罪を抑止するために使用されます。しかし、批評家たちは、これらのプログラムは少数派グループに害を及ぼすと主張している。 プロパブリカは2016年にこれをテストし、7,000人以上のリスクスコアをチェックした。この非営利団体は、フロリダ州ブロワード郡で2年以上にわたって逮捕された受刑者に関するデータを分析し、その後数年間に誰が新たな犯罪で起訴されたかを確認した。 すでに多くの人が心配しすぎていることが判明しました。このアルゴリズムによれば、黒人の被告が犯罪を犯す可能性は白人の被告の2倍である。しかし、犯罪行為に手を染めるつもりがあるのはわずか20%の人々であることが判明しました。 同様に、警察が使用する顔認識ソフトウェアは、アフリカ系アメリカ人に不釣り合いな影響を及ぼすことになる可能性がある。 FBIが共同執筆した研究によると、シアトルなどの都市で使用されている顔認識は黒人に対しては精度が低く、誤認や誤逮捕につながる可能性があるという。 アルゴリズムによる偏見は司法制度に限ったことではありません。黒人は、複雑な病状を持つ患者のケアを改善するために設計されたプログラムを受けることができないことが多い。同様に、これらのプログラムでは、同じ病気の患者を白人患者に紹介するよりも、黒人患者に紹介する可能性が低い。 つまり、テクノロジー企業は独自の偏見をシステムに注入しているのです。公正でデータに基づいた意思決定を行うために設計された正確なシステム。 では、この状況をどのように解決すればよいのでしょうか? 透明性が鍵 アルゴリズムの偏りは、主に観察が難しいため、複雑な問題です。プログラマーは、自分のアルゴリズムが性別や肌の色に基づいて人々を差別していることに気付いて困惑することがよくあります。昨年、スティーブ・ウォズニアックは、妻の信用スコアの方が高かったにもかかわらず、アップルが彼に妻の10倍の信用枠を与えたことを明らかにした。 消費者がその違いに気づくことはほとんどない。 AIによる差別を調査する研究にも、多くの時間とリソースがかかるだろう。その結果、擁護者たちはシステム全体の仕組みの透明性を高めるよう求めている。 この問題は業界全体で解決する必要があるが、まだ障害が残っている。アルゴリズムに偏りが見つかった場合でも、企業は他者にデータの分析を許可せず、調査は十分に徹底されていなかった。アップルはウォズニアック問題を調査すると述べたが、これまでのところ進展はない。 透明性を高めるには、企業はトレーニングデータを監視者に公開するか、第三者による監査を受ける必要があります。プログラマーは、さまざまな背景を持つ個人にシステムを適用した場合にシステムがどのように機能するかを判断するために、積極的にテストを実施することもできます。 一定の透明性を確保するためには、AIの学習に用いられるデータやAIの評価に用いられるデータを公開する必要がある。政府の問題では、これを実行するのがより容易になるはずです。しかし、ビジネス界はこの考えを拒否するだろう。 データの多様化 ニューヨーク大学の研究センターが発表した論文によると、人工知能における多様性の欠如は「反省点」に達している。研究によれば、この理由から、AI 分野は圧倒的に白人男性が多く、そのため権力の不均衡や歴史的偏見が再び現れる危険性があるとされています。 「AI業界は状況の深刻さを認識し、既存のアプローチではこれらの問題に対処できていないことを認めなければならない」と報告書の著者であるケイト・クロフォード氏は説明した。 Facebook と Microsoft の両社とも黒人従業員が 4% であることから、AI 分野では少数民族が公平に代表されていないことは明らかです。研究者とプログラマーは、一定レベルの特権を持つ同質の人々のグループです。 リソースのプールが多様であれば、データは私たちが住む世界をよりよく表すものになります。アルゴリズムは現在無視されている視点を獲得し、AI プログラムの偏りは大幅に減少します。 要約する 完全に偏りのないアルゴリズムを作成することは可能でしょうか? おそらく不可能でしょう。 AIは人間によって設計されており、人間が真に偏見を持つことは決してありません。しかし、恵まれたグループに属する個人によって作成されたプログラムは、少数派グループに対する不正を永続させるだけです。 アルゴリズムが黒人やヒスパニック系コミュニティに対する抑圧の道具にならないようにするために、公的機関と民間機関は一定レベルの透明性を維持するよう圧力をかけられるべきだ。 大手テクノロジー企業は多様性を受け入れ、過小評価されているグループに属するプログラマーを昇進させることが必須です。このような動きは、私たちの社会が AI ディストピアになることを防ぐ可能性があります。 |
ワクチン開発からオンラインショッピング、農作物の栽培まで、人工知能技術はますます活用されるようになり...
人工知能の分野における画像分類問題に関して言えば、トレーニングとテストに最もよく使用されるデータセッ...
人工知能(AI)や自動車用チップの複雑さが徐々に増し、エッジ処理の割合も増加するにつれて、ストレージ...
ビデオ編集は、編集者が適切なフレームを見つけてつなぎ合わせる必要がある、時間と労力を要する作業です。...
[[425432]]この記事は、ソリューションの選択から再現の試みなど、軽量な人間の姿勢推定モデルを...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
何をしたいのかを伝えるだけで、AI が自動的にコードを作成します。今、私たちはこの目標に一歩近づきま...