過去 1 年間、私は何百人ものクライアントにインタビューし、AI によって可能性に対する認識がどのように変化したかを聞きました。私たちは、アルゴリズムの応用を通じてインテリジェントなトリアージを可能にして医療スタッフの作業負荷を軽減する方法、ジャーナリストと世界中の視聴者をつなぐ正確な言語翻訳を実現する方法、一般的なリクエストに自動的に応答してカスタマーサービスの待ち時間を短縮する方法について議論しました。私たちが AI を適用してお客様の多くのビジネス上の問題を解決できることには本当に驚いていますが、これらのお客様は AI に対して躊躇や懸念も示しています。 この技術のおかげで、私たちは想像を超える多くのことを達成してきましたが、予期せぬ結果をもたらす可能性もあります。多くのお客様から、「AI がもたらす課題を回避しながら AI のメリットを享受するにはどうすればよいのか」という質問を受けています。
議論において正しい視点を得るために、私はよく上の図から始めます。これは 1993 年の Mosaic ウェブ ブラウザです。私にとって、2018 年の AI の状態は、当時の Mosaic ウェブ ブラウザのようなものです。 1990 年代半ばのインターネット技術と同様に、AI は現在、学術分野から主流の技術へと急速に移行しています。インターネット革命は私たちに多くの利益をもたらしましたが、多くのリスクももたらしており、私たちには目の前にある可能性を検討する責任があります。結局のところ、電子メールやテキストメッセージなどのテクノロジーによって、私たちが簡単につながりを保てるようになることは容易に理解できますが、マルウェアやネットいじめなどの現象の拡大にこうしたテクノロジーがどのような役割を果たしているかを想像するのはそれほど簡単ではありません。 今後 10 年間に私たちが直面する課題は、ネットワーク テクノロジーの初期の頃に直面するものよりも複雑で困難なものになる可能性がありますが、お客様がこれらの課題に熱心に取り組んでいることに私は勇気づけられています。実際、同じ質問が何度も繰り返される傾向があります。
不公平な偏見 アルゴリズムは客観的で絶対的なものと考えるのは簡単ですが、実際には、機械学習モデルの信頼性は、それをトレーニングするために使用されるデータと同じくらいしか信頼できません。さらに、このデータの検索、整理、ラベル付けは人間が担当するため、わずかな不規則性でも結果に大きな違いが生じる可能性があります。さらに悪いことに、アルゴリズムは人間の能力をはるかに超える速度で、世界規模で動作するため、不公平な偏見が複製されるだけでなく、増幅されます。 不公平な偏見は意図的な偏見の産物である場合もありますが、私たちの盲点がより広範囲に及んでいます。たとえば、私たちは自分の信念を裏付ける人や考えに惹かれ、自分の信念に疑問を投げかける人や考えを避ける傾向があります。この現象は確証バイアスと呼ばれ、最も善意のある開発者の認識さえも歪めてしまう可能性があります。 さらに、不公平な偏見はすでに私たちの周囲で見られるため、正直に収集されたデータであっても、そのような偏見が反映される可能性があります。たとえば、自然言語処理や翻訳に関わる機械学習モデルのトレーニングには、大量の歴史的テキストが使用されることが多く、これを修正しないと、このような有害な固定観念が永続化する可能性があります。 Bolukbasi らによる画期的な研究では、この現象が驚くほど明瞭に定量化され、統計言語モデルが「医師」は「男性」で「看護師」は「女性」であるといった性別に関する時代遅れの仮定をいかに簡単に「学習」できるかが実証されています。人種に関しても、同様の根深い偏見の問題が発生します。 私たちは複数の領域、特に認識の領域でこれらの問題に取り組んでいます。機械学習などのテクノロジーにおける公平性の必要性について広く理解してもらうために、ml-fairness.com や、ML 教育クラッシュ コースで新たに開始された公平性モジュールなどの教育リソースを作成しました。 また、機械学習ソリューションで何が起こっているかをより深く理解するためにドキュメントを使用するという、心強い傾向も見られます。今年初め、研究者らはデータセットに人間中心の情報や人口統計的に機密性の高い情報が含まれている場合に特に役立つ、データセットを文書化する正式な方法を提案しました。この考えに基づいて、Google の研究者は、機械学習モデルの目的、前提、パフォーマンス メトリック、さらには倫理的考慮事項を記述するための標準化された形式である「モデル カード」を提案しました。一見すると、モデル カードは、開発者 (ML の専門知識の有無にかかわらず) が特定のコンポーネントの責任ある使用について情報に基づいた決定を下せるように設計されています。 もちろん、私たちは開発者に信頼できるツールを提供することに常に尽力しており、偏見に挑戦する場合もそれは変わりません。これは、AutoML に統合されている Inclusive ML ガイドラインなどの埋め込みドキュメントから始まり、TensorFlow Model Analysis (TFMA) や What-If Tool などのツールにまで及びます。これらのツールは、モデルがすべてのユーザーを公平に扱っていることを開発者が確信するために必要な分析データを提供します。 TFMA を使用すると、さまざまな環境、特性、ユーザー層のサブセットでモデルがどのように機能するかを簡単に視覚化できます。また、What-If を使用すると、開発者は反事実を簡単に実行して、主要な特性 (特定のユーザーの人口統計属性など) が逆転した場合に何が起こるかを示すことができます。どちらのツールも、機械学習の動作を詳細に調査するための没入型でインタラクティブな方法を提供し、公平性と表現の欠陥を特定するのに役立ちます。 最後に、データ サイエンス プラットフォーム Kaggle を通じてコミュニティの力を活用する予定です。私たちが最近開始した Inclusive Imagery Challenge は、画像トレーニング セットにおける地理的多様性の偏りの問題の解決に重点を置いています。この偏りにより、分類器は代表性の低い地域の人々を説明できなくなることがよくあります。参加者にとっての課題は、新しいデータを統合することなく、地域を越えてより一般化できるモデルを構築し、それによって世界中のユーザーベースにより適した、より包括的で信頼性の高いツールを作成することです。私たちは、このタスクの進歩が他の分野にも応用されると楽観しており、2018 年の神経情報処理システム会議でこれらの結果を発表できることを嬉しく思っています。 私たちは、自分たちが取っている取り組みを誇りに思っており、この知識と開発中のツールが AI の公平性の向上に大きな影響を与えると信じています。しかし、このような複雑な問題を一社だけで解決できる企業はありません。不当な偏見との戦いは、多くの利害関係者からの意見を基にした共同の取り組みとなり、私たちは多くの声に耳を傾けます。世界は変化し続け、私たちは学び続けます。 説明可能性 AI はどのようにして本当に私たちの信頼を獲得できるのでしょうか? これはより根本的な質問ですが、不公平な偏見に取り組むという課題と同じくらい緊急性の高い質問です。かつては人間が独占していた意思決定において、機械学習がより大きな役割を果たすようになると、答えはますます「説明可能性」という重要な要素に依存するようになります。 多くのディープラーニングアルゴリズムは、その作成者でさえ入力と出力の間で何が起こるかを正確に表現することが困難であるため、その誕生以来「神秘的なブラックボックス」と見なされてきました。 AIを「謎のブラックボックス」として扱い続けると、人々の信頼を得ることは期待できません。信頼は理解から生まれるからです。従来のソフトウェアでは、ソース コードを 1 行ずつ調べることでロジックを明らかにすることができますが、ニューラル ネットワークは、数千または数百万のトレーニング例にさらされることで形成される密に接続されたネットワークであるため、結果は妥協したものとなり、柔軟性のために直感的な解釈可能性が犠牲になります。 ベスト プラクティスが確立され、ツール セットが拡張され、開発サイクルの最初から誰もが解釈可能な結果を得るよう努めるにつれて、この分野では進歩が遂げられています。実際、今年初めに責任ある AI システムを構築するための原則を発表したとき、私たちは説明可能性を 4 つの基本的な柱の 1 つとして挙げました。 現在、業界ではすでに説明可能性の問題が現実に検討されていることがわかります。たとえば、画像分類の分野では、Google AI の最近の研究では、縞模様の毛皮や巻き毛など、人間に似た概念を表現し、特定の画像におけるこれらの概念の普及度を定量化する方法を示しました。結果として得られる分類器は、人間のユーザーにとって最も意味のある特徴に関してその推論を明確に表現することができます。たとえば、「縞模様」の特徴が目立つ一方で、「水玉模様」の特徴は比較的目立たないため、画像を「シマウマ」として分類する場合があります。実際、研究者たちはこのアプローチを糖尿病網膜症の診断に適用する実験を行っており、これにより出力の透明性が高まり、専門家がモデルの推論に同意しない場合にはモデルを調整できるようになる可能性もある。 従業員の変更 仕事に対する私たちの関係が変化していることは否定できません。多くのクライアントは、自動化テクノロジーの可能性と従業員の価値のバランスをどのように取るべきかを考えています。 しかし、自動化技術の将来はゼロサムゲームではないと思います。 PWC の最近のレポートによると、経営幹部の 67% が、AI によって人工知能と人間の知能が融合し、人間と機械がより強力に連携できるようになると考えています。 また、仕事が単独で行われることはほとんどないことを覚えておく必要があります。ほとんどの仕事は、非常に創造的なものから反復的なものまで、無数のさまざまなタスクで構成されており、それぞれがある程度自動化の影響を受けます。たとえば、放射線科では、アルゴリズムが単純で一般的な症状の評価を自動化することで補助的な役割を果たし、人間の専門家がより迅速かつ一貫して作業しながら、より困難なタスクに集中できるようにします。 しかし、一部の仕事の分野は他の分野よりも緊急な変化に直面しており、移行を円滑に進めるためにより多くの努力が必要になります。この目的のため、Google.org は、次の 3 つの主要分野で非営利団体が将来の仕事に備えるために 5,000 万ドルの支援を行うことを約束しました。
もちろん、これはほんの第一歩に過ぎず、今後数年間で同様の取り組みをさらにサポートしていくことを楽しみにしています。 適切な使用 最後に、最も重要な質問が 1 つあります。「AI を活用して人々の生活に良い影響を与えていると確信するにはどうすればよいでしょうか?」 これは答えるのが難しい質問であり、極端なケースでの AI の動作に重点を置く傾向があるため、さらに難しくなります。たとえば、ロンドン動物学会が行ったように、AutoML を使用してコスト効率の高い方法で絶滅危惧種を監視することは、間違いなく優れたアプローチであり、それを否定する人はほとんどいないでしょう。また、Google のオープンソース機械学習フレームワークである TensorFlow が、Rainforest Connection による違法な森林伐採の防止、農家による病気の植物の特定、森林火災の可能性の予測にどのように役立っているかを直接確認しました。さらに、当社の AI for Social Good イニシアチブは最近、人道的および環境的課題の解決を目的とした AI 研究に資金を提供するため 2,500 万ドルの助成金を発表しました。 当社の Data Solutions for Change プログラムは、非営利団体や NGO が目的主導の分析を使用して失業対策、アルツハイマー病の検出、より持続可能な食品システムの構築、コミュニティ計画の改善を行えるよう、引き続き支援していきます。 しかし、特に AI 兵器のような物議を醸す分野では、ここには大きな「グレー」領域があり、その「グレー」領域とは、AI 原則に記載されているように、私たちが追求しないことに決めた技術応用の領域です。当社のクライアントは、物議を醸すユースケースの可能性に関してさまざまな状況に直面しており、AI が自社のビジネスにとって何を意味するのかを考えるための支援を当社に求めています。 当社は、顧客および製品チームと協力して、これらの分野の問題に取り組んでいます。この問題に関する情報を提供し、より多くの外部の視点を取り入れるために、私たちは、Cloud AI のコンサルタントを務める技術倫理学者の Shannon Vallor 氏の協力を得て、この進化する「グレー」な領域を理解し、私たちの仕事がそこにどのように当てはまるかを理解しました。 社内の AI 倫理のベスト プラクティス教育プログラムから AI 原則の実装に関するコンサルティング アドバイスまで、彼女は倫理的な設計、分析、意思決定を通じてこのテクノロジーの開発をリードする方法について、Cloud AI に専門的な視点を提供しています。たとえば、倫理的な設計原則は、より公平な機械学習モデルの構築に役立ちます。慎重な倫理的分析は、視覚技術のどのような潜在的な使用が不適切、有害、または侵害的であるかを理解するのに役立ちます。倫理的な意思決定の実践は、AI アプリケーションで透明性とプライバシーのどちらを優先するか (透明性が高ければプライバシーは低くなり、その逆もまた同様) などの困難なジレンマや複雑なトレードオフについて、より適切に推論するのに役立ちます。 AIの未来を共に築く 今後の不確実性は大きいものの、ひとつだけはっきりしているのは、AI の未来を構築するには、テクノロジー以上のものが必要になるということです。これは、ツール、情報、そして世界に良い影響を与えたいという共通の願望に基づいた共同作業です。 したがって、これはマニフェストではなく対話です。私たちは長年にわたりテクノロジーの最前線で学んだことをぜひ共有したいと願っていますが、お客様ニーズを最もよく理解しているのはあなたであり、両方の視点が公正で責任ある、信頼できる AI を構築する上で重要な役割を果たします。結局のところ、あらゆる業界が独自の AI 革命に直面しているため、AI の開発をリードする上で各業界が不可欠です。この約束をいかに実現できるかについて、私たちはあなたと継続的に対話できることを楽しみにしています。 投稿者: Rajen Sheth、クラウド AI プロダクト管理ディレクター |
<<: 百度AIシティが上海と契約を締結、インテリジェントイノベーションで上海に新たな伝説を刻む
>>: 優秀な AI 技術者が不足しています。学生たちはこの波にまだ追いつくことができるでしょうか?
AIに「感情」を与える時が来たのかもしれない[[236486]]今後のビジネスモデルはますます「感情...
索引多層パーセプトロン (MLP) 入門ディープニューラルネットワークの活性化関数ディープニューラル...
1. 現在の状況:ディープラーニングは現在非常に注目されており、あらゆる種類のカンファレンスがそれと...
人工知能 (AI) とモノのインターネット (IoT) の統合により、技術革新と機能の新しい時代が到...
11 月 11 日が過ぎ、12 月 12 日の「ショッピング シーズン」が再び到来しました。 202...
大規模言語モデル (LLM) は、さまざまな言語タスクで優れたパフォーマンスを発揮するにもかかわらず...
7月31日、「ハッカーがAIを使って犯罪ツールを作る」という研究者の懸念が徐々に現実のものとなりつつ...
アメリカのテクノロジーの天才イーロン・マスク氏は、彼の研究チームが脳と機械の相互接続を可能にする脳・...
「再帰的に自己進化する AI が人間を支配する」という問題に対する解決策はあるのでしょうか? !多く...
ビッグデータダイジェスト制作親愛なる友人たち、人工知能(AI)がチェス、囲碁、Dotaを征服した後、...
Windows 11がメジャーアップデートされ、まさに「AI OS」になりました!長い歴史を持つ古い...