人工知能は間違いに気づくのでしょうか?

人工知能は間違いに気づくのでしょうか?

[[378419]]

画像出典: Analytics India Magazine

1956年8月、10人の科学者がアメリカのダートマス大学に集まり、機械を使って知覚、推論、意思決定などの人間の知能をシミュレートする方法について議論しました。これは人工知能誕生の画期的な出来事と考えられています。

60年が経ち、人工知能は急速に発展し、私たちの日常生活に浸透してきました。

一部のフードデリバリープラットフォームのインテリジェントアルゴリズムは継続的に最適化されており、11万のルートから最適な配達プランを見つけ、配達時間を1時間から45分に短縮し、さらに38分に圧縮して、フードデリバリーボーイの潜在能力を十分に引き出し、より速く食べ物を配達できるようになりました。

一部の企業では、OAアルゴリズム管理システムのサポートにより、従業員の勤務状況をリアルタイムで監視しています。従業員の心拍数、呼吸、座り方、疲労度などのデータがリアルタイムでアップロードされます。トイレに行く時間さえも秒単位の精度で測定できるため、従業員の潜在能力を十分に引き出し、会社にとって完璧な財務報告を実現できます。

従業員の目から見ると、一部のオフィスアプリは使いやすく、必要な機能がすべて揃っていますが、上司にとっては「神の目」を開き、あらゆる種類のレポート分析、ランキング、労働時間計算、移動ルートを一目で表示できるようにすることで、質と量の両方で「義務」と「祝福」を完了できるようにします。

テクノロジーが進歩するにつれて、私たちの生活はなぜ自由度が低くなっていくのでしょうか?

人工知能は私たちを退屈な仕事から解放してくれるのでしょうか、それとも私たちに敵対し、抑圧するのでしょうか?

[[378420]]

画像ソース: Unsplash

「AIは私たちに取って代わるのか?」科学ジャーナリストで神経科学者のシャーリー・ファン氏は著書『未来の人工知能』の中で、過去60年間の人工知能の爆発的な発展と今後の発展の見通しを振り返り、人工知能の現在の限界と存在する道徳的・倫理的問題について説明し、人間と人工知能の関係についてより明確な理解を与えている。

Shirley Fan 氏は、CITIC Dafang と Zaojiu が共同で提起した質問を受け入れ、読者から寄せられたいくつかの質問に答えました。

過去 20 年間に AI 分野で起こった出来事で、最も印象に残ったもの、または驚いたものは何ですか?
AIは私たちの日常生活にどのような影響を与えるのでしょうか?
AIの将来について懸念や期待はありますか?
AIと人間の知能の最も根本的な違いは何でしょうか?
AI の発展を技術政治的競争として見ていますか?
以下の内容は「AIは私たちに取って代わるのか?」より抜粋したものです。 」は出版社の許可を得て出版されています。

2016 年に半自動運転のテスラ車が関与した死亡事故が証明しているように、不完全なアルゴリズムは恐ろしい結果につながる可能性があります

事故当時、オートパイロットモードの車は、逆光の角度から見た明るい空の一部に白いトラクタートレーラーを誤って認識し、トレーラーの底部に衝突しました。

2018年3月、アリゾナ州テンピでウーバーのロボットタクシーが歩行者をはねて死亡させた。その後の調査で、人工知能は実際に女性を検知していたが、アルゴリズムが誤って女性が車両の進路上にいないと判断していたことが判明した。

その後間もなく、自動運転モードの Huimo 車が人間が運転する車に衝突されました。この事故は研究者にとって難しい問題も提起しました。それは、人工知能ドライバーのプログラミングを改善して、人間のドライバーとより安全に道路を共有できるようにすることです。

数か月後、テスラ モデルS セダンがコンクリートの壁に衝突し、乗員2名が死亡した。

[[378421]]

画像出典: NBCニュース

それでも、こうした悲惨な事故にもかかわらず、自動運転車の安全性に関する全体的な統計は印象的です。

例えば、Huimo の車は約 30 件の軽微な衝突事故に巻き込まれましたが、Huimo の車が原因となった事故は 1 件だけでした。

2016年、Huimoの自動車が自動運転モードで車線を変更し、バスの車線に入り、車に軽微な損傷を与えた。しかし、この事件で負傷者は出なかった。

インテルが2017年に発表した調査では、自動運転車の導入によりわずか10年で50万人以上の命が救われる可能性があると予測されている。

それにもかかわらず、AI搭載車に対する国民の信頼は依然として過去最低水準にとどまっています。

ピュー・リサーチ・センターが2017年に実施した調査では、回答者の半数以上が安全性や制御の欠如への懸念を理由に自動運転車に乗ることに不安を抱いていることが明らかになった。

2018年3月のウーバー事故後にアメリカ自動車協会が実施した調査によると、アメリカ人の73%が自動運転車に乗るのが怖いと答えており、2017年末から10%増加している。

こうした懸念の一部は、機械学習と人工知能の背後にある仕組みに対する理解不足から生じています。

一般の人々にとって、人工知能は神秘的な錬金術のように感じられる。一部のアルゴリズムはときどき正しい答えを出すが、失敗すると(たとえば Siri が質問に対して意味不明な答えを出すなど)、消費者はその理由を理解できない。

[[378422]]

消費者は、Siri がなぜばかげた答えを返すのか理解できない。画像ソース: Unsplash

同様に、Netflix のユーザーの興味に関するプロフィールがまったく間違っていた場合や、自動運転車が自転車道に現れた場合、ユーザーはテクノロジーのどこで間違いが生じたのか正確に尋ねることはできない。

さらに深刻なのは、AI兵器の使用など、生死に関わる問題だ。米軍は、諜報分析官が大量の監視データのパターンを認識したり、自律型ドローンを制御したりできるように、機械学習技術を軍事任務に適用することを検討している。

これらのアプリケーションでは、間違いを犯してもその間違いを説明できないアルゴリズムは、壊滅的な結果をもたらす可能性があります。

この信頼の欠如は医療界にも及んでいます。放射線科 AI 開発者の約束にもかかわらず、医療専門家は AI 診断技術を全面的に採用することに依然として慎重です。

一つの反論は、AI テクノロジーは確かに興味深いが、ほとんどの AI ツールは十分な数の独立した研究グループによってテストされていないというものです。

したがって、いくつかの重要な詳細は検証されておらず、すべての患者サンプルまたは一部の患者サンプルに適用できることを示すことはできません。

しかし、Siri、自動運転車、自律型兵器が直面している問題と同様に、より強力な反論は次の通りです。

現在、 AI システムは、その決定が正しいか間違っているかを説明することができず、開発者でさえ、システムの決定に至った理由について混乱しています。

[[378423]]

画像出典: Pixabay

この問題は非常に深刻であるため、AI アルゴリズムはしばしば「ブラックボックス システム」と表現されます。

したがって、理解不能性は AI アルゴリズムの大きな制限であり、AI システムに対する一般の信頼を妨げる重要な要因です。

機械学習の不透明性は、アルゴリズムのトレーニング方法に一部起因しています。今日私たちが使用しているほとんどの AI アプリケーションは、人間の脳とほぼ同様の構造を持つ人工ニューラル ネットワークであるディープラーニングに依存しています。

このようなニューラル ネットワークの出発点は、何百万枚もの犬の写真などの大量のデータです。

データがニューラル ネットワークの複雑な計算層を通過すると、各層は次第に抽象的な特徴を抽出し、最終的な出力層でチワワとミニチュア ピンシャーを区別するなど、正しい答えを生成できるようになります。

ただし、このプロセスはニューラル ネットワーク内で行われるため、研究者は必ずしもすべての抽象的な特徴を説明したり、ネットワークが特定の特徴セットを抽出することを決定した方法を理解できるわけではありません。

機械学習があらゆる業界に革命を起こす可能性を秘めていることは疑いようがありません。機械学習は人間の能力を拡張し、一部のタスクでは人間に取って代わることもできます。

しかし、研究者がアルゴリズムをより理解しやすくし、その結果、自らの責任をより高める方法を見つけるまでは、このような事態を起こさせてはならない。

幸いなことに、最近の研究は、機械学習のブラックボックス的な性質に対して私たちが無力ではないことを示唆しています。実際、研究者たちはすでに、 AI神経科学と呼ばれる研究分野である機械学習の脳内を覗くことができる新しいツールの開発に取り組んでいます。

1 つの考え方は、アルゴリズムへの入力を微妙に変更し、変更が出力に影響を与えるかどうか、またどのような変更が出力に影響を与えるかを観察することで、説明を得ることができるというものです。

たとえば、Local Interpretable Model–Agnostic Explanation (LIME) と呼ばれるツールは、元の入力を巧みに変更することで、人工知能の判断に影響を与える重要な要素を見つけることができます。

映画の評価を担当する AI に何が影響を与えるかを理解するために、Lem は映画レビューの元のテキストから肯定的な評価につながった単語を注意深く削除または置き換えます。次に、システムは映画の評価の変化を観察します。

このプロセスを何度も繰り返すことで、レムは「マーベル」という言葉がほぼ常に高い評価と正の相関関係にあるなど、いくつかの結論を導き出すことができました。

Google によって開発された、上記のパスの別のブランチは、空白の参照 (純粋な黒の画像など) から開始し、それを徐々に入力画像に変換します。

変換プロセスの各ステップで、研究者は AI によって生成された結果の画像を観察し、どの特徴が AI の決定に重要であったかを推測できます。

もう 1 つのコンセプトは、本質的に機械から人間への翻訳者として機能するアルゴリズムに依存しています。具体的には、アルゴリズムは特定の AI が何をしようとしているのかを人間の観察者に説明できます。

OpenAI はこの戦略を使用して、ハッカーに対する防御に使用される人工知能アルゴリズムを調査します。このアプローチでは、翻訳者である基本アルゴリズムに加えて、自然言語処理アルゴリズムが導入されます。

翻訳機は、ハッキング対策アルゴリズムに質問してその知能をテストするために使用されます。研究者は質疑応答部分を観察し、翻訳者の助けを借りて、ハッキング防止アルゴリズムの決定の背後にあるロジックを理解することができます。

もちろん、AI の決定の一部は完全には説明できない可能性も十分にあります。結局のところ、人間の意思決定は直感的であり、本能と経験に導かれることが多いのです。

研究者にとっての疑問は、自分たちの発明がどの程度まで合理的に説明できるかということだ。

私たちが非常に警戒しなければならないもう一つのより陰険な結果があります。それは、AI アルゴリズムが人種、性別、またはイデオロギーに基づいて、特定のグループを微妙に、しかし体系的に異なる扱いをする可能性があるということです。

よく知られている悪い例としては、グーグルの第一世代の自動写真タグ付けシステムがある。このシステムはかつて、アフリカ系アメリカ人を誤ってゴリラと認識し、世論の怒りを買ったことがある。

2016年、プロパブリカは、犯罪者の再犯の可能性を予測するために使用されるリスク評価ソフトウェアCOMPASを調査しました。その結果、このソフトウェアは人種をターゲットにするように明確に設計されていないにもかかわらず、黒人に対して偏見があることが示されました。

2017年の研究では、アルゴリズムは言葉の連想にも偏りを示す可能性があることが示されました。男性は仕事、数学、科学と関連付けられる可能性が高く、女性は家族や芸術と関連付けられる可能性が高くなります。こうした偏見は、就職活動に直接影響を及ぼす可能性があります。

たとえば、AI プログラムが「男性」と「プログラマー」という言葉が本質的に関連していると信じている場合、コンピューター プログラミング職の履歴書を検索すると、男性らしい名前の履歴書を面接リストの一番上にランク付けする可能性が高くなります。

[[378424]]

アルゴリズムは、単語の連想にも偏りを示す可能性があります 画像ソース: 絵本「男の子でよかった!女の子でよかった!」

バイアスは翻訳ソフトウェアにも問題を引き起こします。たとえば、Google 翻訳が性別に中立な代名詞を別の言語から英語に翻訳する場合、文脈内の代名詞が医師を指している場合は、その単語を男性形の「彼」として翻訳します。

文脈上、代名詞が看護師を指す場合は、女性の「彼女」として翻訳されます。

さらに、音声認識ソフトウェアは女性の声や方言ではパフォーマンスが大幅に低下するため、非標準的な発音を使用する社会の重要なメンバーが疎外される可能性があります。

他のアルゴリズムは、人々が受ける医療や保険の種類を微妙に歪めたり、刑事司法制度における扱いを変えたり、どの家族が子供を虐待する可能性が高いかについて不適切な予測を行ったりした可能性がある。

偏見と不公平は人間と AI システム間の信頼を損ない、当初人々が社会に大きく貢献すると予想していた平等化の役目を果たすことができていません。AI は中立的な視点から人生に影響を与える決定を下すという点では人間より優れているわけではないかもしれません。

もしこれが真実なら、なぜ社会は機械が銀行家、採用担当者、警察官、裁判官よりも「公平な」代替手段になり得ると考えるのでしょうか?

2017年、学界、非政府組織、産業界から20人以上の著者が、人工知能技術がより強力になり、普及するにつれて、それがいかに悪の共犯者になる可能性があるかを論じた報告書を発表しました。報告書には一連の恐ろしい例が列挙されている。

盗まれた自動運転車は、群衆に突っ込むように操作されたり、爆発物を運ぶためにハイジャックされたりする可能性がある。マルウェアに感染した脳チップやペースメーカーは遠隔暗殺に利用される可能性があり、犯罪者は顔や声のなりすまし技術を使用して正確なサイバー詐欺を実行する可能性があります。

報告書は、AI研究者に対し、技術製品に安全策を組み込み、潜在的な安全性とセキュリティの問題についてよりオープンに議論するよう求めている。

驚くべきことに、この報告書では、研究者は特定のアイデアやアプリケーションを自社製品として公開する際には控えるべきだとさえ示唆している。

今日では、ほとんどの研究者はオープンで透明性のある姿勢を持ち、ブログ投稿で研究成果を公開し、コードをオープンソース化しています。

この分野の多くの人は、潜在的に問題のある AI アプリケーションについては、気付かれずに開発されるのを許すのではなく、問題が発生する前に明らかにして警告を発する方がよい戦略であると考えています。

実際、Google は音声模倣プログラム Duprex の弁護でも同じ議論を展開した。つまり、潜在的に有害な AI プログラムをリリースすることで、同社はその技術を規制する最善の方法について一般からのフィードバックを得ることができる、というものだ。

AI 実践者の間のこのようなオープンな雰囲気は、ナイーブに思える人もいるかもしれないが、それはこの分野の歴史によるところが大きい。

これまで、人工知能の浮き沈みにより、人工知能の応用と社会を変えるその能力は過大評価されてきたと人々は感じてきました。

AI 開発の現状に懐疑的な人々は、AI の技術が完全に成熟することは決してないかもしれないので、AI の道徳や倫理に関する懸念はまったく意味がないと考えています。

[[378425]]

人工知能は完全に成熟することは決してないかもしれない。画像クレジット: Jason Reed/The Daily Dot

こうした反対​​派が怒るのももっともだ。自動化における最近の革命にもかかわらず、現在の人工知能ブームの大きな原動力となっている機械学習アルゴリズムの重大な限界も明らかになったのだ。

これらの問題が適時に解決されず、投資家の期待が満たされなければ、新たな AI の冬がそう遠くない将来に訪れるかもしれません。

<<:  ついに誰かが5G+AIをわかりやすく説明してくれた

>>:  AIは人間に取って代わるでしょうか?シリコンバレーの大物が人工知能の将来の発展の傾向を解説

ブログ    
ブログ    

推薦する

アルバータ大学のチームのプロジェクトは、しかめ面の細部まで完璧に再現した超リアルな肖像画を制作する

深層畳み込みニューラル ネットワークは、顕著なオブジェクトの検出に広く使用されており、最先端のパフォ...

デジタル変革戦略における AI の位置づけを決める際に尋ねるべき 5 つの質問

COVID-19 パンデミックにより、顧客および従業員エクスペリエンスのデジタル化に対する企業の投資...

...

...

製造業における機械学習

機械学習と人工知能:違いは何ですか?機械学習は人工知能のサブフィールドですが、すべての人工知能技術が...

ちょっとした会話の後に心を開いてみませんか?この世代の人工知能はあなたのプライバシーを会話の話題に変えました

あまりに多くのことを知ると、誰かがあなたを困らせたくなるでしょう。ドラマに出演するときも、会社を立ち...

Amazon が「AI チケット」を購入するために 40 億ドルを費やす!ユニコーン企業に投資し、ライバル企業から幹部を引き抜く

米国現地時間9月25日、AmazonとAnthropicは共同で次のように発表した。アマゾンはアント...

お気に入りのランダムフォレストは? TensorFlow オープンソース決定森ライブラリ TF-DF

[[402276]]人工知能の発展の歴史の中で、さまざまなアルゴリズムが際限なく登場してきました。...

知っておくべき 19 の実用的なコンソール デバッグのヒント!

みなさんこんにちは、CUGGZです。ブラウザの開発者ツールは、DOM ツリー構造の表示、CSS スタ...

データ、アルゴリズム、処理は人工知能にとって不可欠である

[[276859]]人工知能プロジェクトにおいて、最も重要なのはデータ、アルゴリズム、プロセスのうち...

平安生命保険の謝家彪氏: ビッグデータでの機械学習に Microsoft R Server を使用する

[51CTO.comより引用] 2017年12月1日~2日、51CTO主催のWOTDグローバルソフト...

「AI顔変換」技術の悪用はサイバーセキュリティ詐欺の氷山の一角を露呈

今年に入ってからは、ChatGPTやGPT-4などの技術の応用により、深層合成製品やサービスが増加し...

DeepMindの長い記事によると、AlphaZeroのブラックボックスニューラルネットワークが学習した知識は基本的に人間の知識と似ているという。

AlphaZero がチェスをプレイすることと人間がチェスをプレイすることの違いは何ですか?あなた...

...