ニューヨーク大学の心理学教授であるゲイリー・マーカス氏は、かつてウーバーの人工知能研究所の所長を務めていた。同氏が設立した人工知能の新興企業、ジオメトリック・インテリジェンスは2016年12月にウーバーに買収され、同氏は同社の人工知能研究所の設立に協力するためウーバーに入社した。ゲイリー・マーカス氏はまた、研究者らに対し、人間に似た認知概念をさらに構築するために「認知科学の分野から知識を借りる」よう呼びかけている。 しかし、ゲイリー・マーカスは感動的な「前向きな人物」ではない。実際、彼は人工知能とディープラーニングに繰り返し冷水を浴びせかけ、我々がいかに進歩していないか、そして人々がいかに楽観的すぎるかを皆に警告してきた。 クリスマスと新年の休暇が終わった直後、ゲイリー・マーカス氏はarXivに論文をアップロードしました。この論文では、話題のディープラーニングの現状について、包括的かつ楽観的ではない分析が示されていました。彼は論文の中で、現在注目されているディープラーニングの 10 の問題点を指摘しました。これらの 10 の問題点を簡単に紹介すると、次のようになります。 1. 大量のデータへの渇望 人類学は明確なルールに従って学ぶことができます。たとえば、二次方程式の3つの形式を学んだ後、それらを使用してさまざまな問題を解決できます。また、いくつかのサンプルから暗黙のルールをすばやく学習することもできます。ペキニーズと柴犬を見た後、ジャーマンシェパードを見ると、それも犬の一種であることがわかります。しかし、ディープラーニングはそうではありません。「データが多いほどモデルのパフォーマンスが向上する」というのがディープラーニングの基本ルールです。文字通り与えられたルールから学習することはできません。 企業にとって、ディープラーニングの時代では、IT大手が大量のデータでマシュー効果を確立することが容易になり、二流の競合他社は不安になり始めている。学者たちはこれについてあまり楽観的ではありません。ジェフリー・ヒントン氏も最近の要約論文で、「畳み込みネットワークを新しいカテゴリに一般化することの難しさは、特徴検出器をグリッドに複製するか、グリッドのサイズが次元数とともに指数関数的に増加するか、ラベル付けされたトレーニング セットのサイズを指数関数的に増やすかのいずれかである」と述べています。利用できるデータが限られている場合、ディープラーニングは最適な選択肢ではないことがよくあります。 第二に、学んだ知識は深くなく、伝達が難しい。 ディープラーニングの「ディープ」とは、ネットワークの深さと多数の隠れ層を指すことは誰もが知っていますが、人間が好み、尊敬する物事の動作法則の深遠な要約は、ディープラーニングのどこにも見つかりません。 環境と相互作用する必要があり、環境の法則をよりよく理解する必要がある強化学習モデルの場合でも、環境が変化すると再び適応する必要があります。つまり、強化学習モデルは「壁」とは何か、または「チャネル」とは何かを実際には理解していないのです。 Atari ゲームをプレイするための DeepMind の強化学習モデルに加えて、他の多くの研究者もそれぞれの研究分野で、入力データのわずかな変更が出力結果に大きな違いをもたらす可能性があることを観察しています。 ディープラーニング モデルによって学習されたデータ内のパターンは、私たちが考えていたよりもはるかに弱いようです。 3. 階層構造の扱いの難しさ たとえば、ほとんどのディープラーニング言語モデルでは、文は単なる単語の羅列です。しかし、言語学者の目には、文は本質的に階層構造を持っています。長い英語の文の帰属節は典型的な例です。これも基本的に完全な構造を持つ文ですが、階層的な観点からは、特定の単語や句の補足説明にすぎません。 ディープラーニングはさまざまな階層構造に対して無力です。人間は「ご飯を炊く」という目標を「米を洗う、水を入れる、火にかける時間を設定する」といったいくつかの動作に分解し、一つずつ実行することができます。ゲームAIでは、個々の動作と全体の戦略のバランスや調整も必要です。しかし、ディープラーニングでは、階層的な理解、要約、制御などの機能を提供することはできません。学習する特徴は「フラット」または非階層的であり、各特徴はリスト内の単なる項目です。そのため、ディープラーニングシステム自体は階層構造を表現することができず、何らかの技術を使って階層構造を抽出しようとする Word2Vec などのモデルがすぐに目立つようになります。 しかし、ほとんどのタスク、ほとんどのデータ、ほとんどの電気システムには明らかな階層構造があるため(これは人間が実用的なシステムを構築する際の基本的な考え方でもあります)、それらに対するディープラーニングのパフォーマンスは依然として疑問です。 4. 自由回答形式の推論問題には対応していない 人間は、本を読んだり映画を見たりした後、物語の展開についてさまざまな洞察を常に生み出し、著者のヒントについてさまざまな推測をすることができます。しかし、SQuAD 質問応答データセットで最高のパフォーマンスを発揮するモデルであっても、与えられたテキストで最も関連性の高い単語と文を見つけて組み合わせることしかできません。ヒントを革新したり理解したりする能力はありません。一部の研究者は試みたものの、現在のところ、実際の知識に基づいて自由な推論を行う能力において人間に匹敵するディープラーニング システムはありません。 5. ディープラーニングはまだ十分に透明性がない ディープラーニングの「ブラックボックス」ニューラルネットワーク問題は、ここ数年間、幅広い注目と議論の的となってきました。現在、ディープラーニング システムには数百万、あるいは数十億ものパラメータが存在することが多く、開発者が複雑なニューラル ネットワーク (ネットワーク モジュール k のレイヤー j の i 番目のノードのアクティビティ値など) を解釈可能な方法 (「last_character_typed」) で注釈付けすることが困難になっています。視覚化ツールを使用すると、複雑なネットワーク内の個々のノードの貢献を確認できますが、研究者はニューラル ネットワークが依然としてブラック ボックスの謎であることに気付くことがよくあります。 これが私たちにどのような影響を与えるかはまだ分かりません。システムが十分に堅牢で適応性があれば、説明可能かどうかは問題にはなりません。しかし、より大規模なシステムで使用する必要がある場合は、デバッグ可能性が特に重要になります。 ディープラーニングの透明性の問題はまだ解決されておらず、金融や医療診断などの応用分野では避けられない落とし穴となるでしょう。結局のところ、機械の決定に対して説明可能な答えを人間が求める必要があるのです。キャサリン・オニール (2016) が指摘しているように、ディープラーニングの不透明性は、一連のバイアスの問題につながります。 6. ディープラーニングは、既存の知識と密接に統合されているとは言えない ディープラーニングの重要な方向性は、それを他の知識と区別する解釈学にあります。典型的なディープラーニングの手法は、データセットを探し、パラメータを調整するなどさまざまな方法を通じて入力と出力の関係を学習し、問題を解決する手法を習得することが多いです。 LeCun に代表されるニューラル ネットワークの接続制約に関する研究など、事前の知識を意図的に弱める研究もいくつかあります。 Lerer らの研究を例にとり、研究チームは高い塔から落下する物体の物理的特性をシステムに学習させようとしました。この研究では、畳み込みの暗黙的コンテンツに加えて、研究チームは物理学の事前知識を追加しませんでした。これについては、今後発表する論文でも取り上げますが、その論文では、たとえその知識がよく知られている場合でも、ディープラーニングの研究者は事前の知識に対して偏見を持っているように見えることを示しています。 さらに、事前の知識をディープラーニング システムに組み込むのは簡単ではありません。主な理由は、知識表現が抽象的な定量的特徴ではなく、主に特徴間の関係を記述することであり、機械学習はシステムの独立性を過度に重視し、一般的な知識を排除します。 Kaggle機械学習コンペティションプラットフォームを例にとると、データセットと提起された問題はすべて与えられています。研究者はコンペティションのパラダイムに駆り立てられて大きな進歩を遂げていますが、現実世界で緊急に解決する必要がある問題との間には依然として大きなギャップがあります。 人生は Kaggle のコンペではありません。現実世界のデータはきれいにパッケージ化されて提供されるわけではなく、問題は競争で遭遇する問題よりもはるかに複雑です。ディープラーニングは、音声認識など、ラベルの数が多い問題でも優れたパフォーマンスを発揮します。しかし、もしそれが自由回答形式の質問だったらどうなるでしょうか? ほとんど誰も何をすべきか分かりません。ロープにチェーンが引っかかった自転車をどうやって修理すればいいでしょうか? 数学と神経科学のどちらを専攻すべきでしょうか? 解決方法を教えてくれるデータセットはありません。 問題が分類から遠ざかり、常識に近づくほど、機械学習で解決するのは難しくなります。私の知る限り、誰もこの問題を解決しようとはしていません。 7. ディープラーニングは因果関係と相関関係を区別できない 因果関係と相関関係が実際に異なる場合、この 2 つを区別することはディープラーニングにとって深刻な問題になります。簡単に言えば、ディープラーニングは因果関係の表現ではなく、入力機能と出力機能間の複雑な関係を学習します。ディープラーニングシステムは人間を全体として扱い、身長と語彙の相関関係を学習できますが、成長と発達の関係を理解することはできません。つまり、子どもは成長するにつれてより多くの言葉を覚えますが、より多くの言葉を覚えれば子どもが成長するというわけではありません。因果関係は AI にとって中核的な問題ですが、おそらくディープラーニングの目標はこれらの問題を解決することではないため、ディープラーニング分野ではこの研究がほとんど行われていません。 8. ディープラーニングには環境の安定性が必要であり、それが問題となる可能性がある ディープラーニングは現在、囲碁のようにルールが変わらない非常に安定した環境では最も効果的に機能しますが、常に変化する政治や経済の問題に関してはうまく機能しません。 株価予測などのタスクにはある程度ディープラーニングを適用できますが、最終的な結果は、初期の流行予測では優れたパフォーマンスを発揮したものの、2013年のインフルエンザシーズンを事前に予測できなかったGoogle Flu Trendsと似たものになる可能性が高いです。 9. ディープラーニングによって得られた結果はあくまでも近似値であり、完全に信頼できるものではありません。 上で挙げた問題からわかるように、ディープラーニング システムは特定のドメインではほとんどの場合非常にうまく機能しますが、簡単に騙される可能性があります。 前述のロビン・ジアとパーシー・リャンによる言語に関する研究や、黄色と黒の縞模様をスクールバスと間違えたり、ステッカーの貼られた一時停止標識を食品が詰まった冷蔵庫と間違えたりするようなコンピュータービジョンの大規模な事例など、ディープラーニングが攻撃に対して脆弱であることを示す論文が増えています。また、最近では、少し汚損された一時停止標識がディープラーニングシステムによって速度制限標識と間違えられたり、3Dプリントされたカメがライフルと間違えられたりといった現実世界の例もあります。最近、英国の警察システムが裸と砂丘を適切に区別できないというニュースも報道されました。 ディープラーニング システムのスプーフィング可能性は、おそらく Szegedy らが 2013 年の論文で初めて提案したものです。それから 4 年が経ち、多くの研究が行われたにもかかわらず、研究者は堅牢な解決策を見つけていません。 10. ディープラーニングの設計は依然として困難です。 上で述べたすべての問題からわかるもう 1 つの事実は、ディープラーニングによる堅牢性エンジニアリングは難しいということです。 Google チームが公開した論文「機械学習: 技術的負債の高利クレジットカード」では、タイトルで機械学習を「技術的負債の高利クレジットカード」と表現しています。これは、システムが特定の制約下では機能するが、新しいデータが追加され、そのデータが以前のトレーニング データと異なる場合に機能することを保証するのは難しいことを示しています。 ICML 2015 で、レオン・ボットー氏は機械学習を航空機エンジンの開発と比較し、航空機の設計は信頼性の高いパフォーマンスを保証する複雑なシステムの構築に依存しているが、機械学習システムには同様の保証がないと述べました。 Google の Peter Norvig 氏が 2016 年に指摘したように、機械学習には従来のプロジェクトの増分性、透明性、デバッグ可能性が欠けており、機械学習の堅牢性を実現するのは困難です。この点は最近、深層強化学習に焦点を当て、堅牢性と再現性に関してこの分野におけるいくつかの重大な問題を指摘したヘンダーソン氏とその同僚によって指摘されました。 機械学習システムの開発ではある程度の進歩は遂げていますが、まだ道のりは長いです。 ディープラーニングは、コンピュータービジョン、強化学習、NLPなどの分野で多くの困難な問題を優れた方法で解決してきたのは事実ですが、ディープラーニングに熱狂する一方で、ディープラーニングがすべての問題を解決できるわけではないこと、また、その優れた特徴抽出能力と非線形抽象化能力は、汎用人工知能の基本アーキテクチャを構成するにはほど遠いことも認識する必要があります。私たちは、ディープラーニングの研究は継続する必要があると考えています。また、その人気は機械学習と人工知能コミュニティ全体に多くの注目と才能をもたらしました。しかし、ディープラーニングは必ずしも良い開発状況ではありません。私たちは、さまざまな技術と認知方法が手を取り合って協力し、人類が理想とする「人工知能」を構築できることを願っています。 |
<<: 自動運転、論文採点のための人工知能…インテリジェントテクノロジーにはどのような破壊的可能性が秘められているのでしょうか?
>>: Python + 機械学習手法を使用した感情分析 (詳細な手順)
かつて、人工知能医療診断の先駆者であったIBM Watson(通称ワトソン)は、現実世界における人工...
【51CTO天津6月29日】本日、「偉大な知能時代へ向かう」をテーマとする世界知能会議が天津梅江会議...
最近、ByteDanceの応用機械学習チームは、veGiantModelという大規模モデルトレーニン...
[[437580]]導入私たちは皆、キャッシュについて聞いたことがあります。キャッシュとは何かと尋ね...
人工知能の急速な発展に伴い、高品質なデータの重要性がますます明らかになっています。大規模言語モデルを...
OpenAI は本日、大規模言語モデル API (GPT-4 および gpt-3.5-turbo を...
滴滴出行は5月5日、スタンフォード人工知能研究所との提携を発表した。両者は人工知能のホットな話題につ...
皆さんもご存知のとおり、GPT-4 や PaLM などの最先端の言語モデルは、複雑な質問に答えたり、...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[191977]]現在、機械学習のトレンドは、従来の方法のシンプルなモデル + 少量データ (手動...
翻訳者 |ブガッティレビュー | Chonglou OpenAIのGPT-4やAnthropicのC...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...