AIが人種差別や性差別も学習したのはなぜでしょうか?

AIが人種差別や性差別も学習したのはなぜでしょうか?

[[232177]]

外見の偏見や言語の差別など、AI による差別についてはこれまでたくさん話してきましたが、AI による差別は明らかにこの表面的な領域に限定されるものではありません。その外見や言語の差別の背後に実際に存在するのは、この社会に対する AI による包括的かつ一方的な判断です。

そうすると、AIの判別問題は単純なアルゴリズムの問​​題ではないということになります。今日は、AI バイアスの問題と、それに対して何ができるかについてお話しします。

人間こそがAI差別の根本原因

まず、AI差別が起こる理由を明確にする必要があります。現時点では、大きく分けて2つの側面があります。

1. データとアルゴリズムの制限。

1 つ目はデータの制限です。 AI による物事の判断は、根拠もなくランダムに行われるわけではなく、一連のトレーニングと学習を経る必要があります。したがって、特定の分野で能力を訓練したい場合は、学習するために関連分野のデータを収集する必要があります。この点、学習データの量が不十分だとAIの学習が不完全となり、誤った判断を下してしまう可能性があります。

データ制限のもう 1 つの側面は、データ自体に起因します。たとえば、あるグループの人々に共通の特徴がある場合、AI はこれらの共通の特徴データのほとんどをラベルとして使用します。オブジェクトがこのグループの特性を持たない場合、またはこのグループの少数の特性に属している場合は、否定的な態度を取る可能性が高くなります。

2 つ目はアルゴリズムの制限です。プログラマーが AI 学習プログラムを設定する場合、すべての否定的な情報をフィルタリングすることはできません。そのため、AIは大量のデータから学習した後、異なるグループ間でキーワードを自動的にマッチングさせて判断を下すことになります。たとえば、職業における男女格差。

実際、現在私たちが直面している AI 差別の問題はすべて、基本的にこの 2 つの側面を中心に展開しています。学習するデータが十分でなかったり、十分なデータを学習した後、学習範囲がプログラマーが設定した内容を超えてしまい、その後は自分で学習して判断し始めます。これは差別的な行動につながります。

2. 人間に本来備わっている偏見の強化。

しかし、AI の差別問題の根本的な原因はデータやアルゴリズムにはありません。ある程度、AI による差別は、実際には人間の偏見の現れであり、強化です。人間は、言葉の抑制を働かせたり、コミュニケーションにおいて表面的な礼儀正しさを示したりするのが得意です。時間が経つにつれて、人々は他人に対する偏見を隠すことを一種の高潔な美徳とみなすようになったようです。問題は、心の中で差別しているかどうかは関係なく、表面上は良い振る舞いをしていれば、あなたは良い人だということです。

この点では、慈善家がスキャンダルに巻き込まれた後では、その対比は特に顕著です。

AIの出現の意義の一つは、表面的な親しみやすさを保とうとする人々の自己欺瞞を打ち破ることです。AIは、人々が意図的に隠してきた、あるいはうまく隠していたように見える事柄を明らかにします。これは顕現ですが、なぜ強化されると言われるのでしょうか?

まず、AI の学習は消去法のプロセスです。たとえば、画像セマンティックセグメンテーションの場合、眼球を見つけたい場合、まず画像をセグメント化し、眼球に適さない他のものを排除する必要があります。同様に、適切な従業員を採用するためには、不適切な選択肢を排除することも重要です。否定のプロセスは強化のプロセスです。

第二に、それは AI の特殊な特性に基づいています。 AIは、歴史上初めて独自の判断力を持つ人工物です。表面的な親しみやすさを保つために人間が定めたルールを破るようなことをAIがすると、人々は驚く一方で、自分自身をより明確に認識することになります。それは人類を容赦なく辱め、当然ながらより大きな注目を集めました。

アルゴリズムの限界と人間本来の考えの強化により、AI 差別が蔓延している理由をほぼ説明できます。

AIによる差別は多様であるだけでなく、その影響も甚大になる可能性がある

私たちが単に AI によって差別されていて、その差別がアルゴリズムや人間自身の問題によって引き起こされていることが分かっているのであれば、心配する必要はありません。結局のところ、差別はどこにでもあり、精神が十分に強ければ、いかなる差別も十分な害を及ぼすことはできません。恥知らずな自虐精神に関しては、現代人に匹敵する者はいないようです。

しかし、AIがあなたを差別するだけでなく、あなたについて判断を下し、あなたの人生、仕事、地位などを決定するとき、あなたはまだその差別を黙って見ていることができるでしょうか?

たとえば、現在非常に人気のあるコンセプトは、採用に AI を使用するというものです。

理論的には、既存の従業員のプロフィールを学習することで、企業のニーズに最も適した新入社員を選別することができます。これらの従業員にラベルを付けて分類することは学習の一部です。優れた能力、優れた雄弁さ、豊富なインターンシップ経験を持つ人はふるい落とされる可能性があります。しかし、AI がこれらのサンプルで採用とは無関係な非常に類似したラベルを見つけたらどうなるでしょうか?

例えば、これらの人々のうち男性の方が多い場合、女性はこの仕事に適していないとみなされる可能性があります。都市部の戸籍を持つ人々の方が多い場合、農村部出身者は除外される可能性があります。23歳未満の人々の方が多い場合、23歳以上の人は不適格とみなされる可能性があります...

ご覧のとおり、これらのいくつかの側面には、性差別、地域差別、年齢差別が含まれています。面接官が主観的な印象に基づいて決定を下すことを避けるために採用用の AI が開発されていますが、あまりに客観的な AI 採用は、検討する価値のある問題を引き起こす可能性もあります。

もう一つの例は、警察業務への AI の導入です。

最近最も話題になっている問題は、犯罪者の特定や予測に AI を活用することです。例えば、上海交通大学が昨年発表した論文では、人の外見によって犯罪傾向があるかどうかを判断できる可能性があると示唆されている。簡単に言えば、「犯罪者の顔」を持っているかどうかを確認することです。米国の警察も最近、犯罪が発生する人物や地域を予測し、標的を絞った監視を強化するための警察システムの導入を試みている。英国も犯罪防止に同様のアプローチを採用している。

当然ながら、ここには深刻な問題があります。顔を見て犯罪者を見分けることができますか?外見による差別は昔から存在していますが、基本的には顔の特徴の欠陥に基づいています。今はアップグレードされました。米国の犯罪予測は黒人や黒人が集中する地域に焦点が当てられることが多いが、これは受け入れがたいことだ。特に、黒人差別が非常にタブー視されている米国のような国では、AIが人間でなくても、この動きは人々に嫌われる原因となるでしょう。言うまでもなく、英国では監視システムがしばらく稼働した後、特に貧困層が標的になったため、最終的には緊急に停止しなければならなくなりました。

これらの事例から、AI には依然として外見、人種、富に基づく差別があることがわかりました。さらに、AIによる差別はあらゆる分野で根強く存在しています。将来的には、私たちが本当に『ブラックミラー』のようにコンタクトレンズを着用し、メガネを通して近づいてくる人の安全を確認できるようになるかもしれません。セキュリティが高いということは必ずしも本当に安全というわけではなく、偽物である可能性も高いのでしょうか?

つまり、AIによる判別は総合的なものなのです。問題は、この理由で AI を放棄すべきかどうかだ。人間はそんなに脆弱なのだろうか?

もちろん、AI を放棄するのは現実的ではありません。それは、大切なものを無駄にしてしまうことになるからです。結局のところ、それは私たちの社会に依然として大きな変化をもたらしています。しかし、AI の大規模な応用に伴い、AI バイアスを削減、あるいは排除するための取り組みが急務となっています。

AIによる差別への解決策

Google データベースには明らかに性別による偏りがあることが判明しました。たとえば、簡単な質問と回答で、パリ:フランス、東京:X の場合、システムは X=日本 と返します。 「父:医師」であれば、「母:看護師」、「男性:プログラマー」、「女性:主婦」などに対応します。

研究者らは「ハードエラー訂正」という手法を開発した。簡単に言えば、システムによって決定された対応関係をフォーラムプラットフォームに投稿し、それが適切かどうかを尋ねることです。半数の人が不適切だと思うなら、その類推は不適切です。この方法を一定期間使用した後、AI の単語のコロケーションの改善が非常に顕著になりました。

この方法は効果的ですが、データ範囲が狭い側面にしか適用できないことは明らかです。例えば、企業が採用活動を行う場合、採用前に AI をトレーニングし、問題を特定してから、この方法を使用してハードエラー修正を実行できます。しかし、これを使ってすべての AI 問題を解決するのは、少し非現実的です。

コロンビア大学の研究者たちは別のアプローチを開発した。ディープラーニング研究の進歩はAI復活の重要な要素だが、AIのブラックボックス問題はまだ解決されていない。そのため、研究者たちは、AI がなぜ間違った判断を下すのかを理解するためにブラックボックスを開こうとしました。彼らは、ニューラルネットワーク内のシステムを欺き、その欠陥を暴くことができる「DeepX plore」と呼ばれるソフトウェアを開発した。このソフトウェアは、システム内のニューロンのほぼ 100 パーセントをアクティブ化できるため、ニューラル ネットワーク全体でエラーをスキャンできます。

[[232178]]

プログラミングを通じて問題を解決することを提案する人もいます。しかし、根本的には、人間はAIの差別を鏡として使い、社会活動に植え付けた悪の根源を注意深く検証すべきだ。このようにして、私たちは実際の意味での差別や偏見を継続的に減らすことができます。学習内容が消えた場合にのみ、AI は識別の問題を回避できます。

しかし、私たちがまだ注意しなければならないのは、AI の「差別的扱い」をすべて「偏見」や「差別」で一般化するのは不適切だということです。人類が現在まで発展するにつれ、職業によって求められることが変わってきました。男性が農業をし、女性が織物をするというのは、実は長い歴史の発展の過程における自然な分業を反映しているのです。そのため、AI差別の問題を扱う際には、単純なアルゴリズムの修正ではなく、社会学や経済学などさまざまな側面の問題も絡んでくる。

この観点から見ると、AIの差別や偏見を解決するにはまだまだ長い道のりがあるのか​​もしれません。今私たちにできることは、生殺与奪の権限を人間自身に委ねることです。

<<:  畳み込みニューラルネットワーク(CNN)を使用して、最大95%の精度で皮膚がんを検出します。

>>:  人工知能が再び大学入試に挑戦:AIはエッセイの書き手と比べて何点取れるのか?

ブログ    

推薦する

知能の本質:人間の知能と人工知能

なぜコンピューターは知能を発揮できるのでしょうか? コンピューターの知能と人間の知能の類似点、相違点...

香水アートとAIが出会うとき

[51CTO.com 速訳] 香水は依然として人工物とみなされており、「スーパーな鼻」を持つトップマ...

ファーウェイの石耀宏氏:成都にインテリジェントシティを構築し、スマートで美しい都市を創る

「巴斯」と呼ばれる快適さと「成都」と呼ばれるライフスタイルがあり、中国で最も幸せな都市として、成都は...

機械学習は計算化学研究の発展にどのように役立つのでしょうか?

過去数年間、化学研究は、個人の経験と文献から得られた過去の研究結果を使用する実験方法のみに焦点を当て...

...

日常の問題を自動的に解決する 5 つの AI API

今日の AI テクノロジーを使用して手作業を自動化しましょう。文書の校正、アートの作成、Google...

論文のイラストは拡散モデルを使用して自動的に生成することもでき、ICLRに受け入れられました。

ジェネレーティブ AI は人工知能コミュニティに旋風を巻き起こしました。個人も企業も、Vincent...

Google、AIが出力コンテンツの正しさを自己判断できるモデルトレーニングフレームワーク「ASPIRE」をリリース

IT Homeは1月23日、Googleが最近、大規模言語モデル向けに特別に設計されたASPIREト...

Python で機械学習を簡単に

ナイーブ ベイズ分類器を使用して、現実世界の機械学習の問題を解決します。ナイーブベイズナイーブベイズ...

...

パラメータ調整器、ここを見てください!ディープラーニングのトレーニング効率を向上させる2つのコツ

[[343402]] 1. トレーニングのボトルネックはどこですか? GPU 使用率が低い: モデル...

脳コンピューターインターフェースが人間の思考を制御するのではないかと心配ですか?神経科学者:考えすぎ

[[400401]]現在、脳コンピューターインターフェースの急速な発展により、人々はパニックに陥って...

小型モデルは大型モデルとどう比較できるのか?北京理工大学はMindの大型モデルであるMindLLMをリリースし、小型モデルの大きな可能性を示した。

大規模言語モデル (LLM) は、さまざまな自然言語タスクで優れたパフォーマンスを発揮しています。た...

人工知能によって人々の仕事が失われることは確実だが、仕事がなくなることはないと言われているのはなぜでしょうか。

1956年に人工知能の概念が提案されて以来、人工知能と労働市場の関係については議論されてきました。...