ロボットは電気羊の夢を見るか?Google AI 従業員の辞職から AI 倫理について何を学ぶことができるか?

ロボットは電気羊の夢を見るか?Google AI 従業員の辞職から AI 倫理について何を学ぶことができるか?

2月20日、Googleの倫理AIチームの創設者であるミッチェル氏はTwitterに「私は解雇されました」という短い声明を投稿した。これは昨年、別の女性研究者であるティムニット・ゲブル氏に起こったことと全く同じである。この2人の女性は、Googleの倫理AI部門の元共同ディレクターだった。

昨年末、ゲブル氏は同社から解雇されたとツイートした。同氏は論文の発表をめぐって同社の上層部と対立。論文の撤回を求められたゲブル氏は社内メールで同社の人種差別に対する不満を表明し、その後解雇された。

外部の視点から見ると、ミッチェルの解雇とゲブル事件との関連を見出さずにはいられないようだ。

Twitterでの論争

ゲブル氏は、GoogleのAI倫理部門の共同責任者であり、Google内では数少ない黒人女性研究者の一人です(同社の2020年の年次多様性レポートによると、Google従業員の3.7%が黒人です)。また、アルゴリズムの分野における黒人の平等な権利の実現を目指すBlack In AIの共同創設者でもあります。

[[385878]]

グーグル側では、ゲブル氏の上司であるジェフ・ディーン氏が「論文は出版基準を満たしておらず、辞職をちらつかせたのは女性だった」と発言した。双方はそれぞれ独自の意見を持ち、ツイッター上で言葉の応酬を繰り広げた。

事件後、AIコミュニティのほとんどはゲブル氏の側に立った。 BBCによると、マイクロソフトやグーグルなど大手企業の研究者4,500人以上がゲブル氏を支持する公開書簡に署名し、グーグルにゲブル氏を解雇した理由をさらに説明するよう求めた。

同社のピチャイCEOは消火活動に先頭に立って取り組み、このセンセーショナルな茶番劇に終止符を打つためにさらなる調査を約束した。今年2月、ディーン氏はゲブル氏を解雇したことと、他の女性社員に与えた損害についても謝罪した。グーグルはまた、DEI(多様性、公平性、包括性)目標を副社長以上の社員の業績評価に結び付けるなど、新たな多様性ポリシーを発表した。これはさらなる火消しのように見えたが、その後ミッチェルは解雇された。

解雇されたミッチェル氏は、機械の偏見、人種や性別の多様性、画像キャプチャの言語モデルなどに取り組んできたAI倫理の専門家でもある。同氏はゲブル氏とともに同社の倫理AIチームを共同で率いていた。彼女がこの論文の共著者でもあったことも注目に値する。

ゲブル氏が解雇された後、ミッチェル氏は公の場で繰り返しグーグルに対する不満を表明した。 1月、彼女は社内メールへのアクセスを制限され、解雇される数時間前にはツイッターでグーグルの「黒人女性に対する慢性的な疎外」を非難した。

グーグルはミッチェル氏の解雇に対し、「マネージャーの行動を調査した結果、業務上機密となる文書や他の従業員の個人情報の漏洩など、当社の行動規範とセキュリティポリシーに複数の違反があったと判断した」と述べた。

アルゴリズムの偏り

ゲブルとミッチェルの両者の解雇につながった、物議を醸した元の論文「ランダムなオウムの危険性: 言語モデルは大きすぎる可能性があるか?」に戻りましょう。 「(確率的オウムの危険性について:言語モデルは大きすぎる可能性がありますか?) 」では、大規模な言語モデル(BERT など)がもたらす高電力消費のリスクを、環境保護とコスト、人種と性別の観点から探ります。同時に、ゲブル氏は、既存のデータを無差別に人工知能の訓練に使用した場合、AI言語モデルにおける少数派の疎外されたグループに対する偏見がさらに深まることになると指摘した。

「これらの技術の開発に伴う潜在的なリスクと、それを軽減する戦略について、十分な検討がなされてきたかどうかを問う」と論文の序文には書かれている。

Google AIは2017年に初めてTransformer言語モデルを発明しました。2018年にこれを基盤として発表されたBERT言語モデルは、人工知能の分野でセンセーションを巻き起こしました。また、Google検索エンジンのトレーニングにも広く使用され、Googleにとって重要な経済的収入源となっています。

[[385879]]

この論文は、Google の最も収益性の高い AI 研究について懸念を提起しているが、この懸念は根拠のないものではない。AI に関わる倫理的偏見が現れたのは今回が初めてではない。

2015年、Googleフォトは肌の色が濃い2人を「ゴリラ」と分類し、同社は同様の間違いが再発しないように「直ちに行動を起こす」と約束した。しかし、この問題を解決するために、Google はこの用語のラベルを検索結果から直接削除しました。ワイアード誌は、Google フォト上の 4 万枚以上の動物画像をテストし、たとえこれらの動物の画像であっても、Google は今後は画像をゴリラ、チンパンジー、またはサルとして分類しないという結論に達しました。

今年の流行の際、Google AI でも同様の状況が発生しました。

非営利の研究・擁護団体AIgorithmWatchは、GoogleのコンピューターサービスGoogle Vision Cloudが、体温計を持っている肌の色の濃い人の画像に「銃」というラベルを付け、同じ状況にある肌の色の薄い人の画像には「電子機器」というラベルを付けていることを確認した。原因は、データのトレーニング中に暴力的なシーンで肌の黒い人の画像が頻繁に現れたためだ。その後、Googleは謝罪してアルゴリズムを更新し、温度計の画像に「銃」マークは表示されなくなった。データトレーニングにおける有色人種の無視は、AI バイアスの一般的な現象となっている。

紛争の中心に立つGoogle

AI の倫理的問題の根本的な原因は、人間社会に同じ偏見が存在することです。

シリコンバレーのテクノロジー企業は、常にオープンで平等な文化を外の世界に向けて示してきました。 2014年には、シリコンバレーのテクノロジー企業33社が多様性に関する誓約書に署名しました。しかし、近年ではアルゴリズムによる偏見に加え、マイクロソフト、アマゾン、ウーバーなどの企業が性差別や肌の色による偏見に関する倫理的なスキャンダルに頻繁に巻き込まれており、かつては世界最高の雇用主だったグーグルも例外ではない。

2018年、ニューヨーク・タイムズは、グーグルがセクハラの噂で辞任した「アンドロイドの父」アンディ・ルービン氏に約9000万ドルを支払い、過去10年間に性的不正行為で告発されたルービン氏を含む男性幹部3人を擁護したと報じた。

これはグーグルの従業員による激しい抗議を引き起こし、世界中の20以上のオフィスから2万人以上の従業員が歴史的な集団ストライキを起こし、街頭に出て「透明性、説明責任、構造調整を求める」などのスローガンを叫んだ。グーグルは後に謝罪し、性的違法行為に対する強制仲裁を取りやめる約束をした。

近年、Google社内ではAIに関するさまざまな倫理的議論が続いているが、外部からはGoogleがこれらの分野で十分な対応をしていないと批判され続けている。しかし別の視点から見ると、AI産業が世界中で急速に発展しているこの時期に、これほど大規模で真剣な議論が巻き起こったのはGoogle社内だけであり、それはまさにGoogleの長年にわたる自由な経営と率直な意見表明の文化から生まれたものである。

ゲブル氏の辞任後、倫理AIチームだけでなくGoogle社全体の雰囲気も緊張したままだった。

今年、数度の批判を受けた後、ディーン氏はゲブル事件について謝罪し、別の黒人女性、マリアン・クローク氏をエシカルAIのディレクターに任命した。クローク氏は引き続きディーン氏に報告することになる。倫理AIはもともと、Google AIの倫理的方向性を監視するために設立されました。この目的のため、この部門は社内で最も多様性のある部門でもあり、アルゴリズムの偏見によって被害を受ける可能性が最も高い脆弱なグループを集めています。

ブラックボックスと未知の要素が満載のテクノロジーである AI については、調査する価値のある問題がまだ数多く残っています。 Google は白熱した議論を経験した最初の企業だが、最後ではないだろう。

<<:  会話型AIチャットボットの成功を測定する方法

>>:  Java プログラミング スキル - データ構造とアルゴリズム「スパース配列」

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

中国の自動運転が新たなブレークスルーをもたらす:百度世界2020のCCTV生中継で完全無人運転を体験

中国の自動運転は新たな進歩を遂げ、無人運転の時代が到来した。 9月15日、百度はCCTVニュースと提...

シングルトランスフォーマー情報検索、Google は微分可能な検索インデックスでデュアルエンコーダーモデルに勝利

情報検索 (IR) は、インターネットの誕生以来、揺るぎない地位を築いてきました。膨大なデータからユ...

...

OpenAIはChatGPTを軍事目的で使用する予定か?国防総省との協力禁止が解除、元グーグルCEO「AIは核爆弾になる」

AIの兵器化?大規模言語モデルの誕生以来、人々はその潜在的な影響について議論し続けています。しかし...

開発のボトルネックを打破し、人工知能の未来は何に頼って「はしごを登る」のでしょうか?

[[411053]]ファーウェイは7月9日、2021年世界人工知能大会およびアセンド人工知能サミッ...

未来はここにあります。人工知能がもたらすリスクをどう軽減できるでしょうか?

この新しい時代に成功するには、企業のセキュリティは AI がもたらすリスクを軽減し、AI がもたらす...

地下鉄乗車時の「顔認識」:AI専門家にとって新たな金鉱

[[276754]]業界のすべての実務者が合意に達することはまれですが、AI業界は例外です。ほぼすべ...

アルゴリズムの原理から推奨戦略まで

[[195281]]推奨アルゴリズムの紹介現在の推奨アルゴリズムは、一般的に次の 4 つのカテゴリに...

...

AIはどんどん強くなってきていますが、人間は恐れるべきでしょうか?実は、ロボットに置き換えられるよりも大きな危機があるのです。

人工知能は急速に発展しており、多くの人が脅威を感じています。しかし実際には、取って代わられることを心...

MITは超伝導体を使用して、人間の脳に近いエネルギー効率を持つ極めて低電力のニューロンを作成します。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能の継続的な発展により、ロボットが人間に取って代わり、あらゆる労働を行うようになるのでしょうか?

[[385749]]写真はロボット最近、メディアの報道によると、人類の生存を脅かすと言われる米国の...

歯科サービスを変える人工知能の6つのトレンド

ロボット歯科医はすでに存在するのでしょうか?まだ……。しかし、歯科医院では、日常的なケアに新しい技術...

...