人工知能は間違いに気づくのでしょうか?

人工知能は間違いに気づくのでしょうか?

1956年8月、10人の科学者がアメリカのダートマス大学に集まり、機械を使って知覚、推論、意思決定などの人間の知能をシミュレートする方法について議論しました。これは人工知能誕生の画期的な出来事と考えられています。

60年が経ち、人工知能は急速に発展し、私たちの日常生活に浸透してきました。

一部のフードデリバリープラットフォームのインテリジェントアルゴリズムは絶えず最適化されており、11万のルートから最適な配達プランを見つけ、配達時間を1時間から45分に短縮し、さらに38分に圧縮して、フードデリバリーボーイの潜在能力を十分に引き出し、より速く食べ物を配達できるようになりました。

一部の企業では、OAアルゴリズム管理システムのサポートにより、従業員の勤務状況をリアルタイムで監視しています。従業員の心拍数、呼吸、座り方、疲労度などのデータがリアルタイムでアップロードされます。トイレに行く時間さえも秒単位の精度で記録できるため、従業員の潜在能力を十分に引き出し、会社にとって完璧な財務報告を実現できます。

従業員の目から見ると、一部のオフィスアプリは使いやすく、必要な機能がすべて揃っていますが、上司にとっては「神の目」を開き、さまざまなレポート分析、ランキング、労働時間計算、移動ルートを一目で表示できるようにすることで、質と量の両方で「義務」と「祝福」を遂行できるようにします。

テクノロジーが進歩するにつれて、私たちの生活はなぜ自由度が低くなるのでしょうか?

人工知能は私たちを退屈な仕事から解放してくれるのでしょうか、それとも私たちに敵対し、抑圧するのでしょうか?

[[378178]]

科学ジャーナリストで神経科学者のシャーリー・ファン氏は著書「AIは私たちに取って代わるのか?」の中で、過去60年間の人工知能の爆発的な発展と将来の発展の見通しを振り返り、人工知能の現在の限界と既存の道徳的・倫理的問題について説明し、人間と人工知能の関係をより明確に理解できるようにしています。

Shirley Fan 氏は、CITIC Dafang と Zaojiu が共同で提起した質問を受け入れ、読者から寄せられたいくつかの質問に答えました。

  • 過去 20 年間に AI 分野で起こった出来事で、最も印象に残ったもの、または驚いたものは何ですか?
  • AIは私たちの日常生活にどのような影響を与えるのでしょうか?
  • AIの将来について懸念や期待はありますか?
  • AIと人間の知能の最も根本的な違いは何でしょうか?
  • AI の開発は技術と政治の競争だとお考えですか?

以下の内容は「AI は私たちに取って代わるのか?」から抜粋したもので、出版社の許可を得ています。

2016 年に半自動運転のテスラ車が関与した死亡事故が証明しているように、不完全なアルゴリズムは恐ろしい結果につながる可能性があります。

事故当時、オートパイロットモードの車は、逆光の角度から見た明るい空の一部に白いトラクタートレーラーを誤って認識し、トレーラーの底部に衝突しました。

2018年3月、アリゾナ州テンピでウーバーのロボットタクシーが歩行者をはねて死亡させた。その後の調査で、人工知能は実際に女性を検知していたが、アルゴリズムが誤って女性が車両の進路上にいないと判断していたことが判明した。

その後間もなく、自動運転モードの Huimo 車が人間が運転する車に衝突されました。この事故は研究者にとって難しい問題も提起しました。それは、人工知能ドライバーのプログラミングを改善して、人間のドライバーとより安全に道路を共有できるようにすることです。

数か月後、テスラ モデルS セダンがコンクリートの壁に衝突し、乗員2名が死亡した。

それでも、こうした悲惨な事故にもかかわらず、自動運転車の安全性に関する全体的な統計は印象的です。

例えば、Huimo の車は約 30 件の軽微な衝突事故に巻き込まれましたが、Huimo の車が原因となった事故は 1 件だけでした。

2016年、Huimoの自動車が自動運転モードで車線を変更し、バスの車線に入り、車に軽微な損傷を与えた。しかし、この事件で負傷者は出なかった。

インテルが2017年に発表した調査では、自動運転車の導入によりわずか10年で50万人以上の命が救われる可能性があると予測されている。

それにもかかわらず、AI搭載車に対する国民の信頼は依然として過去最低水準にとどまっています。

2017年のピュー・リサーチ・センターの調査によると、調査対象者の半数以上が自動運転車に乗ることに不安を感じており、安全性や制御の欠如への懸念を反対の理由として挙げている。

2018年3月のウーバー事故後にアメリカ自動車協会が実施した調査によると、アメリカ人の73%が自動運転車に乗るのが怖いと答えており、2017年末から10%増加している。

こうした懸念の一部は、機械学習と人工知能の背後にある仕組みに対する理解不足から生じています。

一般の人々にとって、人工知能は神秘的な錬金術のように感じられる。一部のアルゴリズムはときどき正しい答えを出すが、失敗すると(たとえば Siri が質問に対して意味不明な答えを出すなど)、消費者はその理由を理解できない。

同様に、Netflix のユーザーの興味に関するプロフィールがまったく間違っていた場合や、自動運転車が自転車道に現れた場合、ユーザーはテクノロジーのどこで間違いが生じたのか正確に尋ねることはできない。

さらに深刻なのは、AI兵器の使用など、生死に関わる問題だ。米軍は、諜報分析官が大量の監視データのパターンを認識したり、自律型ドローンを制御したりできるように、機械学習技術を軍事任務に適用することを検討している。

これらのアプリケーションでは、間違いを犯してもその間違いを説明できないアルゴリズムは、壊滅的な結果をもたらす可能性があります。

この信頼の欠如は医療界にも及んでいます。放射線科 AI 開発者の約束にもかかわらず、医療専門家は AI 診断技術を全面的に採用することに依然として慎重です。

一つの反論は、AI テクノロジーは確かに興味深いが、ほとんどの AI ツールは十分な数の独立した研究グループによってテストされていないというものです。

したがって、いくつかの重要な詳細は検証されておらず、すべての患者サンプルまたは一部の患者サンプルに適用できることを示すことはできません。

しかし、Siri、自動運転車、自律型兵器が直面している問題と同様に、より強力な反論は次の通りです。

現在、AI システムは、その決定が正しいか間違っているかを説明することができず、開発者でさえ、システムの決定に至った理由について混乱しています。

この問題は非常に深刻であるため、AI アルゴリズムはしばしば「ブラックボックス システム」と表現されます。

したがって、理解不能性は AI アルゴリズムの大きな制限であり、AI システムに対する一般の信頼を妨げる重要な要因です。

機械学習の不透明性は、アルゴリズムのトレーニング方法に一部起因しています。今日私たちが使用しているほとんどの AI アプリケーションは、人間の脳とほぼ同様の構造を持つ人工ニューラル ネットワークであるディープラーニングに依存しています。

このようなニューラル ネットワークの出発点は、何百万枚もの犬の写真などの大量のデータです。

データがニューラル ネットワークの複雑な計算層を通過すると、各層は次第に抽象的な特徴を抽出し、最終的な出力層でチワワとミニチュア ピンシャーを区別するなど、正しい答えを生成できるようになります。

ただし、このプロセスはニューラル ネットワーク内で行われるため、研究者は必ずしもすべての抽象的な特徴を説明したり、ネットワークが特定の特徴セットを抽出することを決定した方法を理解できるわけではありません。

機械学習があらゆる業界に革命を起こす可能性を秘めていることは疑いようがありません。機械学習は人間の能力を拡張し、一部のタスクでは人間に取って代わることもできます。

しかし、研究者がアルゴリズムをより理解しやすくし、その結果、自らの責任をより高める方法を見つけるまでは、このような事態を起こさせてはならない。

幸いなことに、最近の研究は、機械学習のブラックボックス的な性質に対して私たちが無力ではないことを示唆しています。実際、研究者たちはすでに、AI 神経科学と呼ばれる研究分野である機械学習の脳内を覗くことができる新しいツールの開発に取り組んでいます。

1 つの考え方は、アルゴリズムへの入力を微妙に変更し、変更が出力に影響を与えるかどうか、またどのような変更が出力に影響を与えるかを観察することで、説明を得ることができるというものです。

たとえば、Local Interpretable Model–Agnostic Explanation (LIME) と呼ばれるツールは、元の入力を微妙に変更することで、AI の判断に影響を与える重要な要素を見つけることができます。

映画の評価を担当する AI に何が影響を与えるかを理解するために、Lem は映画レビューの元のテキストから肯定的な評価につながった単語を注意深く削除または置き換えます。次に、システムは映画の評価の変化を観察します。

このプロセスを何度も繰り返すことで、レムは「マーベル」という言葉がほぼ常に高い評価と正の相関関係にあるなど、いくつかの結論を導き出すことができました。

Google によって開発された、上記のパスの別のブランチは、空白の参照 (純粋な黒の画像など) から開始し、それを徐々に入力画像に変換します。

変換プロセスの各ステップで、研究者は AI によって生成された結果の画像を観察し、どの特徴が AI の決定に重要であったかを推測できます。

もう 1 つのコンセプトは、本質的に機械から人間への翻訳者として機能するアルゴリズムに依存しています。具体的には、アルゴリズムは特定の AI が何をしようとしているのかを人間の観察者に説明できます。

OpenAI はこの戦略を使用して、ハッカーに対する防御に使用される人工知能アルゴリズムを調査します。このアプローチでは、翻訳者である基本アルゴリズムに加えて、自然言語処理アルゴリズムが導入されます。

翻訳機は、ハッキング対策アルゴリズムに質問してその知能をテストするために使用されます。研究者は質疑応答部分を観察し、翻訳者の助けを借りて、ハッキング防止アルゴリズムの決定の背後にあるロジックを理解することができます。

もちろん、AI の決定の一部は完全には説明できない可能性も十分にあります。結局のところ、人間の意思決定は直感的であり、本能と経験に導かれることが多いのです。

研究者にとっての疑問は、自分たちの発明がどの程度まで合理的に説明できるかということだ。

私たちが非常に警戒しなければならないもう一つのより陰険な結果があります。それは、AI アルゴリズムが人種、性別、またはイデオロギーに基づいて、特定のグループを微妙に、しかし体系的に異なる扱いをする可能性があるということです。

よく知られている悪い例としては、グーグルの第一世代の自動写真タグ付けシステムがある。このシステムはかつて、アフリカ系アメリカ人を誤ってゴリラと認識し、世論の怒りを買ったことがある。

2016年、プロパブリカは、犯罪者の再犯の可能性を予測するために使用されるリスク評価ソフトウェアCOMPASを調査しました。その結果、このソフトウェアは特に人種をターゲットに設計されていないにもかかわらず、黒人に対して偏見があることが示されました。

2017年の研究では、アルゴリズムは言葉の連想にも偏りを示す可能性があることが示されました。男性は仕事、数学、科学と関連付けられる可能性が高く、女性は家族や芸術と関連付けられる可能性が高くなります。こうした偏見は、就職活動に直接影響を及ぼす可能性があります。

たとえば、AI プログラムが「男性」と「プログラマー」という言葉が本質的に関連していると信じている場合、コンピューター プログラミング職の履歴書を検索すると、男性らしい名前の履歴書を面接リストの一番上にランク付けする可能性が高くなります。

[[378179]]

アルゴリズムは、単語の連想にも偏りを示す可能性があります 画像ソース: 絵本「男の子でよかった!女の子でよかった!」

バイアスは翻訳ソフトウェアにも問題を引き起こします。たとえば、Google 翻訳が性別に中立な代名詞を別の言語から英語に翻訳する場合、文脈内の代名詞が医師を指している場合は、その単語を男性形の「彼」として翻訳します。

文脈の中で代名詞が看護師を指している場合は、女性の「彼女」として翻訳されます。

さらに、音声認識ソフトウェアは女性の声や方言ではパフォーマンスが大幅に低下するため、非標準的な発音を使用する社会の重要なメンバーが疎外される可能性があります。

他のアルゴリズムは、人々が受ける医療や保険の種類を微妙に歪めたり、刑事司法制度における扱いを変えたり、どの家族が子供を虐待する可能性が高いかについて不適切な予測を行ったりした可能性がある。

偏見と不公平は人間と AI システム間の信頼を損ない、当初人々が社会に大きく貢献すると予想していた平等化の役目を果たすことができていません。AI は中立的な視点から人生に影響を与える決定を下すという点では人間より優れているわけではないかもしれません。

もしこれが真実なら、なぜ社会は機械が銀行家、採用担当者、警察官、裁判官よりも「公平な」代替手段になり得ると考えるのでしょうか?

2017年、学界、非政府組織、産業界から20人以上の著者が、人工知能技術がより強力になり、普及するにつれて、それがいかに悪の共犯者になる可能性があるかを論じた報告書を発表しました。報告書には一連の恐ろしい例が列挙されている。

盗まれた自動運転車は、群衆に突っ込むように操作されたり、爆発物を運ぶためにハイジャックされたりする可能性がある。マルウェアに感染した脳チップやペースメーカーは遠隔暗殺に利用される可能性があり、犯罪者は顔や声のなりすまし技術を使用して正確なサイバー詐欺を実行する可能性があります。

報告書は、AI研究者に対し、技術製品に安全策を組み込み、潜在的な安全性とセキュリティの問題についてよりオープンに議論するよう求めている。

驚くべきことに、この報告書では、研究者は特定のアイデアやアプリケーションを自社製品として公開する際には控えるべきだとさえ示唆している。

今日では、ほとんどの研究者はオープンで透明性のある姿勢を持ち、ブログ投稿で研究成果を公開し、コードをオープンソース化しています。

この分野の多くの人は、潜在的に問題のある AI アプリケーションについては、気付かれずに開発されるのを許すのではなく、問題が発生する前に明らかにして警告を発する方がよい戦略であると考えています。

実際、Google は音声模倣プログラム Duprex の弁護でも同じ議論を展開した。つまり、潜在的に有害な AI プログラムをリリースすることで、同社はその技術を規制する最善の方法について一般からのフィードバックを得ることができる、というものだ。

AI 実践者の間のこのようなオープンな雰囲気は、ナイーブに思える人もいるかもしれないが、それはこの分野の歴史によるところが大きい。

これまで、人工知能の浮き沈みにより、人工知能の応用と社会を変えるその能力は過大評価されてきたと人々は感じてきました。

AI 開発の現状に懐疑的な人々は、AI の技術が完全に成熟することは決してないかもしれないので、AI の道徳や倫理に関する懸念はまったく意味がないと考えています。

こうした反対​​派が怒るのももっともだ。自動化における最近の革命にもかかわらず、現在の人工知能ブームの大きな原動力となっている機械学習アルゴリズムの重大な限界も明らかになったのだ。

これらの問題が適時に解決されず、投資家の期待が満たされなければ、新たな AI の冬がそう遠くない将来に訪れるかもしれません。

<<:  AI を使って亡くなった愛する人を「復活」させることができるとしたら、そうしたいですか?

>>:  因果推論と正規化がリストに載っています。権威ある専門家が過去 50 年間で最も重要な統計的アイデアをレビューします。

ブログ    
ブログ    
ブログ    

推薦する

大型模型のレイアウトは何度も変わります!

ChatGPT の Android バージョンが登場します。 OpenAI は今年 5 月に早くも...

...

10 のカテゴリ、142 のデータソース、中国語 NLP データセットがオンライン検索で利用可能になりました

このオープンソース プロジェクトがあれば、適切な中国語 NLP データセットが見つからないと心配する...

...

音声認識が検索ボックスに取って代わり、人工知能が3つの主要な応用分野で主導権を握る

マイクロソフトのレドモンド研究所の副社長であるデュメイス氏は、ディープラーニング技術が2017年にオ...

10行のコードで物体検出を実行する方法

導入人工知能の重要な分野はコンピュータービジョンです。コンピューター ビジョンは、コンピューターとソ...

AWS CISO: GenAI は単なるツールであり、万能薬ではない

Chris Betz 氏は、サイバーセキュリティにおける GenAI の役割について恐れたり、過度に...

未来の戦場は「瞬殺」の時代へ、人工知能が威力を発揮

近年、人工知能技術は飛躍的な進歩を遂げ、戦闘指揮の分野で広く応用され、観察・判断・決定・行動(OOD...

...

テンセントクラウドのフルリンクAI開発者サービスシステムがAIと産業の融合を加速

12月15日、第1回テンセントクラウド+コミュニティ開発者会議で、テンセントクラウドの副社長である王...

...

エコノミスト:AI産業の急成長によりサンフランシスコの雇用は38%回復

7月7日のニュースによると、サンフランシスコのテクノロジー業界は、数か月に及ぶレイオフの後、人工知能...

...

人工知能を活用して顧客サービスを向上させる方法

顧客エンゲージメント、パーソナライゼーションなど、5 つの異なる領域で AI を使用して顧客サービス...

3行のコードで損失なく40%高速化、You YangチームのAIトレーニングアクセラレータがICLR口頭発表論文に選出

プルーニングを使用すると、AI トレーニングを高速化し、ロスレス操作を実現できます。わずか 3 行の...