昨年、自動運転車がニュージャージー州モンマス郡に侵入した。チップメーカーのNvidiaが製造したこの実験車は、Google、Tesla、General Motorsなどの他の自動運転車と見た目はあまり変わらない。 しかし、その内部の質は全く異なります。この車はエンジニアやプログラマーからの指示を必要とせず、人間のドライバーを観察して自ら運転方法を学習する一連のアルゴリズムに依存している。 車がこのレベルに到達できるようになったのは、確かに大きな進歩です。 しかし同時に、人々に不安を感じさせます。この車がどうやって決断するのか、誰が知っているでしょうか?運転プログラムによれば、車のセンサーが収集した情報は巨大な人工ニューラルネットワークに直接入力され、データ処理されてから、ハンドルを回す、ブレーキをかける、その他の動作などの指示が送られる。この車は人間の運転手の反応を模倣できるようです。 しかし、ある日、車が木にぶつかったり、青信号で止まったりするなど、予期せぬ事態に陥ったらどうなるでしょうか。現状では、その理由を簡単に突き止めることはできないかもしれません。システムは非常に複雑なため、それを開発したエンジニアでさえ、各アクションの背後にある理由を特定するのは困難です。そして、エンジニアにすべての動作を説明できるシステムを設計するように要求することはできません。 自動車の「不思議な」思考パターンは、人工知能技術における大きな潜在的問題である。 Nvidia の自動車に使用されている人工知能技術は、ディープラーニングとも呼ばれます。近年、この技術は強力な問題解決能力を発揮しており、人工知能は画像キャプチャ、音声認識、翻訳などで広く使用されています。現在、致命的な病気の診断やビジネス上の意思決定などに人工知能を使用することを考え始めている人もいます。 しかし、技術開発者がユーザーに対して責任を持ちながら AI の考え方をよりよく理解できる方法を見つけない限り、これは実現しないでしょうし、実現すべきでもありません。この技術が性急に導入されれば、災害がいつ起こるかを予測することができなくなり、災害は必ず起こるでしょう。 Nvidia の自動車がまだ実験段階にあるのもこのためです。 私たちは長い間、誰が仮釈放されるか、誰がローンを借りられるか、誰が就職できるかといった決定を下すために数学モデルを活用してきました。これらの数学モデルにアクセスできれば、意思決定のパターンを理解できるかもしれません。しかし現在、銀行、軍隊、雇用主などは、意思決定プロセス全体を自動化するために、より洗練された機械学習の手法に注目しています。 ディープラーニングは意思決定に使用される最も一般的な技術であり、これまでとはまったく異なるコンピュータープログラミング方法を表しています。 「この問題は現在私たちにとって非常に重要であり、将来的にはより一般的になるだろう」と、機械学習技術の応用を研究するマサチューセッツ工科大学の教授トミ・ヤッコラ氏は言う。「投資の決定、病気の診断の決定、軍事上の決定のいずれを行うにしても、ブラックボックスモデルに完全に依存することは望ましくない」 人工知能システムによる決定の理由を疑問視することが合法であるべきかどうかについては、多くの議論がなされてきた。 2018年夏以降、EUは企業に対し、自動化システムによる決定を説明することを要求する可能性がある。しかし、ディープラーニングを使って広告を配信したり曲を推薦したりするアプリやウェブサイトなど、一見比較的単純なシステムであっても、そのルールを実装するのは不可能かもしれない。これらのサービスを提供するコンピューターは、私たちには理解できない方法で再プログラムされています。これらのアプリケーションを開発したエンジニアでさえ、その動作を完全に説明することはできません。 このことは反対派の間で疑問を引き起こした。確かに、私たち人間は自分の思考プロセスを常に説明できるわけではありませんが、直感に基づいて他人を信頼し、評価することはできます。しかし、思考や意思決定のプロセスが人間とはまったく異なる機械に直面した場合、直感はまだ機能するのでしょうか? 開発者自身でさえ理解できない機械を発明したことがないのに、これらの予測不可能な機械とどうやってコミュニケーションをとり、うまくやっていけるというのでしょうか? これらの疑問を抱きながら、私は答えを見つける旅に出ました。 Google から Apple まで、人工知能アルゴリズムを開発している企業を訪問し、当代で最も有名な哲学者の一人と会話を交わすこともありました。
2015年、ニューヨークのマウントサイナイ病院の研究者グループは、病院内の膨大な医療記録データを分析するためにディープラーニング技術を使用することを思いつきました。これらのデータは、患者の検査結果、医療記録など、数百の項目に分類できます。研究者らが「Deep Patient」と名付けた分析システムが開発されると、研究者らは70万人の患者から得たデータを使ってそれを訓練した。結果によると、新しいデータをテストすると、Deep Patient は非常に高い疾患予測率を示しました。 Deep Patient は専門家の指導なしに、病院のデータから、人が特定の病気を発症するかどうかを予測するパターンを発見しました。もちろん、医療記録から病気を予測する方法は他にもあるが、マウントサイナイの研究チームを率いたジョエル・ダドリー氏は「これはより良いアプローチだ」と語った。 しかし同時に、「Deep Patient」は医師たちを少々困惑させるものでもある。たとえば、Deep Patient は統合失調症などの精神疾患を予測するのに非常に優れています。医療分野に携わる人なら誰でも、統合失調症は人間の医師が診断するのが非常に難しいことを知っていますが、ダドリーはディープ・ペイシェントがそれをどのように特定したのか理解できませんでした。今日まで彼は知らない。 Deep Patient のようなシステムが本当に医師の役に立つのであれば、予測の根拠を示す必要があります。そうでないと、人々はその正確性に信頼を置けなくなります。 「こうしたモデルを作ることはできる」とダドリー氏は苦笑いしながら言った。「しかし、それがどのように機能するかは分からない。」 人工知能はこのように生まれるものではありません。 AI をどのように理解し、説明するかについては、主に 2 つの考え方があります。 多くの人は、機械は特定のルールとロジックに従って構築されるべきであり、特定のコードを調べたい人にとって機械の内部の仕組みがオープンで透明であるべきだと考えています。また、知能は生物学的インスピレーション、つまり人間の活動の観察と経験の助けによってのみよりスムーズに発達できると信じる人もいます。つまり、コンピュータプログラミングのタスクをマシン自体に任せる必要があるということです。 今日の機械学習は次のように機能します。プログラマーが問題を解決するための命令を記述し、プログラムはサンプルデータと目的の目標に基づいて独自のアルゴリズムを生成します。機械学習テクノロジーは後者の道、つまり独自のプログラムの作成を辿り、今日最も強力な人工知能システムとなるでしょう。 当初、上記のパターンの実際の使用例は非常に限られていました。 1960 年代と 1970 年代には、機械学習技術は主に業界の周辺にありました。しかしすぐに、多くの業界が計算指向になり始め、ビッグデータによって新たな関心が生まれ、より強力な機械学習技術、特に人工ニューラルネットワークが誕生しました。 1990 年代までに、ニューラル ネットワークはすでに手書き文字をデジタル化できるようになりました。 しかし、人工知能が本格的に普及したのはここ 10 年です。数回の開発の転換と改良を経て、非常に大規模な、つまり「ディープ」なニューラル ネットワークは、自動認識において目覚ましい進歩を示しました。ディープラーニングは、今日の人工知能の爆発的な発展の基盤です。これにより、ほぼ人間レベルの音声認識など、コンピューターに無限の機能がもたらされます。音声認識システムは複雑すぎるため、プログラマーはそれをうまく開発することができませんでした。現在、このシステムは医療、金融、製造など多くの業界で使用されています。
コンピューター科学者にとっても、機械学習技術の仕組みは不明瞭であり、人間によるプログラミングよりもはるかに理解しにくいものです。しかし、これは将来の人工知能技術がすべて予測不可能であることを意味するわけではありません。ディープラーニングは本質的に内部が見えないブラックボックスのようなものだということです。 ニューラル ネットワークを直接覗いて、それがどのように動作するかを確認することはできません。ニューラル ネットワークの推論は、数十または数百の複雑に相互接続された層に分散された数千のシミュレートされたニューロンに基づいています。最初の層の各ニューロンは、画像のピクセル強度などのデータ入力を受け取る役割を担っています。これらのニューロンは、データを計算し、新しい信号を生成して次の層に送信するなど、最終結果が得られるまでこれを繰り返します。さらに、バックプロパゲーションにより、ニューラル ネットワークが目的の結果を生成することが保証されます。 ディープ ネットワークの多層構造により、複数の抽象化レベルでオブジェクトを認識することも可能になります。たとえば、子犬を認識するように設計されたシステムでは、下位層のニューロンは線や色などの単純な物体を認識し、上位層のニューロンは髪の毛や目などの複雑な物体を認識し、最上位層のニューロンはそれが犬であると認識します。大まかに言えば、このアプローチは、言語の発音、テキスト内の文字や単語、運転中にハンドルを回す動作を認識するなど、機械の自己学習にも使用できます。 数年前、研究者たちはこれらのシステムの内部で何が起こっているのかを理解するための戦略を考案し始めました。 2015 年、Google の研究者はディープラーニング ベースの画像認識アルゴリズムを改良し、オブジェクト認識機能を生成または変更機能に変えました。アルゴリズムを逆に実行することで、プログラムが鳥や建物などの物体をどのように認識するかを解明することができました。すぐに、この逆研究プロジェクト(コード名「ディープ ドリーム」)の結果が発表されました。このプログラムは、雲や植物を基にして、不条理で恐ろしいエイリアンのような動物の群れの絵を描きました。森と谷の間には、幻覚の中にしか現れない仏塔がありました。 Deep Dream が描いた絵は、ディープラーニングがまったく理解できないものではないことを証明しています。鳥のくちばしや言語など、身近な視覚的特徴を認識することはできますが、人間の認知能力と比べるとまだ大きなギャップがあります。たとえば、画像内のアーティファクトを無視することは誰もが知っていますが、ディープラーニング ネットワークはこれを理解しません。グーグルの研究者らは、アルゴリズムがダンベルの絵を描く準備をしていたとき、システムが人の腕をダンベルの一部だと認識したため、自動的に人の腕を追加したと指摘した。 上記の問題に対応するため、科学者たちは神経科学や認知科学の知識を借りて、さらなる改善を図ってきました。たとえば、ワイオミング大学の助教授であるジェフ・クルーネ氏は、上記のような幻覚画像を使用してディープニューラルネットワークをテストするチームを率いました。 2015年、クルーネ氏のチームは、特定の画像がシステムを騙して存在しない物体を識別させることができることを実証した。これは、これらの画像がシステムが検索するパターンをキャプチャするためです。 私たちに必要なのは狭い視野ではなく、人工知能の思考モードの包括的な探求ですが、これは簡単なことではありません。ディープ ニューラル ネットワーク計算の相互作用は、高レベルのパターン認識と意思決定に不可欠ですが、これらの計算の背後には多数の数学関数と変数があります。 「小さなニューラルネットワークであれば、その仕組みを理解できるかもしれない」とヤッコラ氏は言う。「しかし、数百層になり、各層に数千のニューロンが存在するようになると、理解するのは難しくなる」 ヤッコラ氏の隣のオフィスには、機械学習技術を医療業界に応用することを決意しているMIT教授のレジーナ・バルジレイ氏がいる。バルジレイさんは43歳のとき、乳がんと診断されショックを受けた。しかし、最先端の統計学や機械学習の手法ががん研究や患者の治療に適用されていないことに彼女はさらに驚きました。バルジレイ氏は、人工知能は医療業界に革命を起こす大きな可能性を秘めているが、この可能性を引き出すには、医療記録の分析をさらに進める必要がある、と述べた。 Barzilay 氏は、将来的には画像データや病理データなどの生データをさらに活用したいと考えています。 昨年、がん治療を終えた後、バルジレイ氏はマサチューセッツ総合病院の学生や医師と協力し、病理報告書を分析し、研究者が研究したい特定の臨床的特徴を特定するシステムの開発に着手した。しかし、バルジレイは、そのシステムが自らの推論を説明できないことを知っていた。そこで彼女とカアコラ、そしてある学生は、テキスト内の特定の病的なパターンを表す文章を選択して注釈を付けるという手順をシステムに追加しました。同時に、バルジレイ氏と彼の学生たちは、マンモグラムで乳がんの初期兆候を見つけ、分析結果の理由を示すためのディープラーニングアルゴリズムを作成しています。 人間の行動が完全に説明できないのと同様に、AI もなぜその決定を下したのかわからない場合があります。クルーネ氏は、「たとえ誰かが自分の行動の理由を説得力のある形で話したとしても、その理由は一方的なものになる可能性が高い。人工知能についても同じことが言える。人工知能は独自の直感や潜在意識を持っているかもしれないし、あるいは謎めいているかもしれない」と語った。 もしこれが真実なら、将来のある時点で私たちは人工知能の判断を信頼するか、まったく使わないかという選択肢しか残されていないかもしれない。同様に、人工知能の判断は社会的知能と組み合わせる必要があります。人間社会は期待される行動の契約に基づいて構築されており、AI システムは社会規範を尊重して統合する必要があります。ロボット戦車やその他の殺人マシンを造るのであれば、その意思決定プロセスは道徳的判断の基準を満たしていなければなりません。 この点について、タフツ大学の有名な哲学者で認知科学者のダニエル・デニー氏は次のように述べている。「問題は、人工知能システム、あるいは私たち自身に要求するためにどのような基準を採用すべきかということだ。人工知能システムが自らの行動を説明するのに人間ほど優れていないのであれば、それを信頼してはならない。」 |
<<: Python 学習パス - Python スライス シミュレーション LRU アルゴリズム
3月27日、2019 Unisound AIテクノロジーオープンデーの第一弾が北京で成功裏に開催され...
英国の雑誌「ネイチャー」は26日、ロボット工学の最新成果を発表した。ロボットを動かすための重要な部品...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
科学技術の進歩と社会の発展に伴い、ロボット産業は繁栄の時代を迎えています。ロボット工学は、コンピュー...
Python は機械学習の分野で広く使われるようになりました。しかし、Python は、全能の神が...
機械学習技術の発展により、企業内のさまざまな構造化コンテンツや非構造化コンテンツから、より多くの情報...
ChatGPT キング爆弾の新たな波が来ています。本日、OpenAI は「カスタム指示」と呼ばれる...