ディープラーニングは人工知能の分野に多大な貢献をしてきましたが、その技術自体には依然として致命的な欠陥があります。それは、大量のデータが必要になることです。ディープラーニング分野の先駆者や批評家でさえ、この点についてはコンセンサスに達しています。実際、利用可能なデータの量が限られており、大量のデータを処理するための計算能力が不十分なため、ディープラーニングは近年まで AI 分野の最先端技術になっていませんでした。 したがって、ディープラーニングのデータへの依存を減らすことは、AI 研究者にとって最も重要な探求方向の 1 つになっています。
AAAI カンファレンスの基調講演で、コンピューター科学者の Yann LeCun 氏は、現在のディープラーニング技術の限界について議論し、「自己教師あり学習」の青写真を示した。これは、ディープラーニングのデータ問題を解決するために同氏が構築したロードマップである。ディープラーニング分野のゴッドファーザーの一人であるルカン氏は、過去 10 年間の人工知能革命を推進する中核的な要素となった畳み込みニューラル ネットワーク (CNN) の発明者です。 自己教師あり学習は、人工知能システムのデータ利用効率を向上させるための現在の多くの試みの 1 つです。どの具体的な試みが次の AI 革命につながるかは分かりませんが (最終的にはまったく異なるポリシーが採用されることになるかもしれません)、LeCun 氏の計画とアイデアは慎重に検討する価値があります。 ディープラーニングの限界を明らかにする まず、ルカン氏は、ディープラーニング技術が直面している限界は、実は教師あり学習技術の限界でもあると強調しました。いわゆる教師あり学習は、学習プロセスを正常に完了するためにトレーニング データにラベルを付ける必要があるタイプのアルゴリズムに属します。たとえば、画像分類モデルを作成する場合、分類用に適切にラベル付けされ、モデルが完全にトレーニングされた大量の画像をシステムに提供する必要があります。 LeCun 氏は AAAI 基調講演で次のように述べています。「ディープラーニングは教師あり学習ではなく、単なるニューラル ネットワークでもありません。基本的に、ディープラーニングは、パラメータ化されたモジュールを計算グラフに組み立てて AI システムを構築します。その利点は、システムを直接プログラムする必要がなく、アーキテクチャを定義してパラメータを調整するだけでよいことです。ただし、調整が必要なパラメータは数十億に及ぶ場合があります。」 LeCun 氏はまた、ディープラーニングは、教師あり学習、強化学習、教師なし学習/自己教師学習など、さまざまな学習パラダイムに適用可能であると付け加えました。 しかし、ディープラーニングや教師あり学習に関する現在の不満は根拠のないものではありません。現在、実際に使用できるディープラーニングアルゴリズムのほとんどは教師あり学習モデルに基づいており、既存の AI システムの欠点が完全に露呈しています。私たちが日常的に使用する画像分類器、顔認識システム、音声認識システム、その他多くの AI アプリケーションでは、完全にトレーニングするために何百万ものラベル付きサンプルが必要です。 これまでのところ、強化学習と教師なし学習は、理論上は存在し、実際のシナリオではほとんど使用されていない他のタイプの機械学習アルゴリズムとしてのみ考えることができます。 ディープラーニングの現在の開発レベルはどの程度ですか? 教師ありディープラーニングは、特にコンピュータービジョンや自然言語処理などの特定の分野において、非常に実用的なアプリケーションソリューションを数多くもたらします。ディープラーニングは、がん検出などの機密性の高いアプリケーションにおいてますます重要な役割を果たしており、人間が解決できないいくつかの問題において中心的な役割を果たすことができることが証明されています。たとえば、大手ソーシャルメディア企業は、このテクノロジーを使用して、ユーザーが自社のプラットフォームに投稿する大量のコンテンツをレビューし、報告しています。 「Facebook、Instagram、YouTubeなどからディープラーニングを取り除けば、それらのビジネスは即座に崩壊するだろう」とルカン氏は言う。「実際、それらのビジネスは完全にディープラーニングを中心に構築されているのだ。」 しかし、前述したように、教師あり学習は、十分な高品質のデータがあり、データの内容があらゆる可能性のある状況をカバーするのに十分であるシナリオにのみ適用できます。トレーニング済みのディープラーニング モデルがトレーニング例とは異なる新しい状況に遭遇すると、そのパフォーマンスは制御不能になります。場合によっては、オブジェクトをわずかに異なる角度から表示するだけで、ニューラル ネットワークがそれを別のものと誤って解釈することがあります。 深層強化学習は、ゲームやシミュレーションのシナリオで強力な能力を発揮します。過去数年間にわたり、強化学習は、これまで人工知能がアクセスできなかった多くのゲーム プロジェクトを征服してきました。現在、AI プログラムは、StarCraft II、Dota、古代の囲碁などのゲームでトップクラスの人間プレイヤーに勝利しています。 しかし、これらの AI プログラムは、問題を解決する方法を見つける方法が人間とは大きく異なります。基本的に、強化学習エージェントは白紙の状態であり、特定の環境で実行する基本的なアクション セットのみが提供されます。次に、AIは試行錯誤しながら、どうすれば最高の報酬が得られるか(ゲームにできるだけ勝つなど)を学習しながら、自ら試行錯誤を続けます。 このタイプのモデルは、問題空間が単純で、多数の繰り返し実験セッションを実行するのに十分な計算能力がある場合に適しています。ほとんどの場合、強化学習エージェントがゲームを習得するには長い時間がかかり、コストが莫大なため、この種のテクノロジーはハイテク企業内か、そうした企業が資金を提供する研究室内でしか存在できません。 強化学習システムのもう一つの大きな欠点は転移学習にあります。 StarCraft 2 をマスターしたエージェントであっても、Warcraft 3 をプレイするにはゼロからトレーニングを受ける必要があります。実際、StarCraft II 環境を少し調整するだけでも、AI の実際のパフォーマンスに大きな影響を与える可能性があります。対照的に、人間は、あるゲームから抽象的な概念を抽出し、それを新しいゲームに素早く転送するのが非常に得意です。 強化学習は、正確にシミュレートできない現実世界の問題を解決する際にも大きな限界を示します。 LeCun 氏は、「自動運転車をトレーニングしたい場合、どうすればよいでしょうか」と語りました。このタイプのユースケースを正確にシミュレートすることは確かに難しいため、真の自動運転機能を備えた車を開発するには、「多くの車を衝突させる必要があるのではないかと思います」。また、シミュレートされた環境とは異なり、実際のシナリオで迅速に実験を行うことはできません。実際の実験には莫大なコストがかかることは言うまでもありません。 ディープラーニングが直面する3つの大きな課題 LeCun 氏は、ディープラーニングが直面している課題を 3 つの特定の領域に分類しています。 まず、より少ないサンプルや試行回数でトレーニングを学習できる AI システムを開発する必要があります。 LeCun 氏は次のように指摘しています。「私の提案は、教師なし学習を使用することです。個人的には、自己教師あり学習と呼ぶことを好みます。使用されるアルゴリズムは教師あり学習に似ていますが、教師あり学習の役割は主にギャップを埋めることです。つまり、タスクを学習する前に、システムはまず世界を理解する必要があります。これは、赤ちゃんや小動物が成長する方法です。私たちはまず世界と接触してその動作ルールを理解し、次に特定のタスクを解決する方法を検討します。世界を理解することができれば、新しいタスクを学習するには、少数の実験とサンプルのみが必要です。」 生後数か月で、赤ちゃんは重力、大きさ、物体の特性についての概念を急速に発達させます。研究者たちは、これらの属性のうちどれだけが脳に組み込まれており、どれだけが具体的な認識であるかをまだ確信していませんが、私たち人間がまず周囲の世界を観察し、それから実際に行動し、それとやりとりすることは確かです。 2 番目の課題は、推論機能を備えたディープラーニング システムを構築することです。既存のディープラーニング システムは推論と推測が非常に苦手で、最も単純なタスクを解決するためにも大量のデータが必要になります。 「問題は、既存のフィードフォワード計算とシステム 1 をどうやって超えるかということです。どうすれば推論を勾配ベースの学習と互換性のあるものにできるでしょうか。どうすれば推論の差別化を実現できるでしょうか。これらは根本的な問題です」と LeCun 氏は言います。 システム 1 は、既知のエリアを移動したり、小さな計算を実行したりするなど、能動的な思考を必要としない学習タスクを指します。システム 2 は、推論能力のサポートを必要とする、より積極的な思考方法を表します。 AI 分野における古典的なソリューションとして、シンボリック人工知能は推論と抽象化の分野で広く評価されている機能の向上をもたらしました。 しかし、ルカン氏は、科学者の間で非常に人気のあるシンボリック AI やハイブリッド AI システムを広く採用することを推奨していません。 AI の将来の発展に関するビジョンに関して、彼の考えは、もう一人のディープラーニングの先駆者であるヨシュア・ベンジオの考えに近いです。彼は NeurIPS 2019 で System 2 Deep Learning の概念を紹介し、AAAI 2020 でさらに詳しく議論しました。しかし、ルカン氏は、ディープラーニングシステムの推論能力を実現することに関しては「完璧な答えはない」とも認めた。 3 番目の課題は、複雑なアクション シーケンスを学習して計画し、タスクを複数のサブタスクに分割できるディープラーニング システムを構築する方法です。ディープラーニング システムは、問題に対するエンドツーエンドのソリューションを提供するのが得意ですが、説明可能で変更可能な特定のステップに問題を分解するのが困難です。現在、AI システムによる画像、音声、テキストの分解は業界で一定の進歩を遂げており、ジェフリー・ヒントン氏が発明したカプセル ネットワークは、いくつかの問題を解決することに成功しました。 しかし、複雑な推論タスクを学習することは、依然として既存の AI の能力をはるかに超えています。 「この機能をどうやって実現するかは分からない」とルカン氏は認めた。 自己教師学習 自己教師学習の基本的な考え方は、上記のギャップを埋めることができるディープラーニングシステムを開発することです。 「これらのシステムにテキスト、ビデオ、画像などの入力を見せ、その一部を削除すると、トレーニング済みのニューラル ネットワーク、または選択したクラスやモデルが何が欠けているかを予測します」と LeCun 氏は説明します。「ビデオ コンテンツの次の方向や、テキスト内の欠落した単語などが予測される可能性があります。」 現在市場にある自己教師あり学習システムに最も近いものは、自然言語処理で非常に成功したアーキテクチャである Transformers です。トランスフォーマーはラベル付けされたデータを必要とせず、Wikipedia などのソースからの大量の非構造化テキストでトレーニングできます。そして、Transformer は、以前の同様のシステムよりもテキストの生成、会話の整理、応答の構築に優れていることがわかりました。 (しかし、彼らはまだ人間の言語を完全に理解することはできません。) トランスフォーマーは非常に人気が高まり、Google の BERT、Facebook の RoBERTa、OpenAI の GPT2、Google の Meena チャットボットなど、ほぼすべての最新言語モデルの基盤となっています。 最近、AI 研究者は、Transformer が積分計算を実行し、微分積分を解くことができることも実証しました。つまり、記号処理の問題を解決する能力を実証したのです。これは、Transformer の開発が、最終的にはニューラル ネットワークがパターン認識や近似タスクの統計などの従来のアプリケーションの障壁を突破するのに役立つ可能性があることを示唆している可能性があります。 これまでのところ、Transformer は単語や数学記号などの離散データの処理においてその価値を証明してきました。 「これらのシステムを訓練するのは比較的簡単です。単語の欠落により不確実性が生じる可能性はありますが、完全な辞書からの巨大な確率ベクトルを使用してこの不確実性を表現できるため、大きな問題にはなりません」とルカン氏は述べた。 しかし、トランスフォーマーはまだ視覚データにその力を発揮していません。 「画像や動画で不確実性を表現したり予測したりするのは、テキストで不確実性を表現したり予測したりすることよりはるかに難しいことがわかりました」とルカン氏は説明します。「これは、画像や動画が離散的ではないためです。辞書からすべての単語の分布を生成することはできますが、すべての潜在的な動画フレームの分布を表現することは不可能です。」 すべてのビデオクリップには、無数のフォローアップが可能です。このため、AI システムがビデオの次の数フレームに何が表示されるかなど、特定の結果を予測することは困難です。ニューラル ネットワークは、可能な結果の平均を計算することしかできず、これに基づいて非常にぼやけた画像を出力することができません。 LeCun 氏は、「自己教師学習をビデオなどの複数の形式に適用したい場合は、まずこの中核となる技術的問題を解決する必要があります」と指摘しました。 LeCun 氏が個人的に気に入っている教師あり学習法は、いわゆる「エネルギーベースの潜在変数モデル」です。中心となるアイデアは、潜在変数 Z を導入し、変数 X (ビデオの現在のフレーム) と予測 Y (ビデオの将来のフレーム) 間の互換性を計算し、互換性スコアが最も高い結果を選択することです。 LeCun 氏は講演の中で、エネルギーベースのモデルと自己教師学習の実装方法についても詳しく説明しました。 ディープラーニングの将来について AAAI カンファレンスでのスピーチで、ルカン氏は次のように述べました。「自己教師あり学習こそが未来だと考えています。これは、AI システムとディープラーニング システムが次のレベルに引き上げられることを意味します。おそらく、観察を通じて現実世界に関する十分な背景知識を学習し、独自の常識システムのようなものを形成できるようになるでしょう。」 自己教師あり学習の主な利点の 1 つは、AI が膨大な量の情報を出力できることです。強化学習では、AI システムのトレーニングはスカラー レベルでのみ決定され、モデル自体は関連する動作に対する報酬またはペナルティを表す数値を受け取ります。教師あり学習では、AI システムは各入力に対して対応するカテゴリまたは値を予測します。 しかし、自己教師あり学習では、出力を完全な画像、さらには画像グループにまで拡張できます。ルカン氏は「情報はより豊富になる。そして、より少ないサンプルで、システムは現実世界についてより多くの知識を習得できる」と語った。 確かに、不確実性に対処するためにはまだやるべきことが残っていますが、解決策が生まれれば、AI テクノロジーは明るい未来への道を切り開くでしょう。 LeCun 氏は、「人工知能を簡単なものと考えると、自己教師あり学習も簡単なものだ。次の AI 革命の核心は、教師あり学習や純粋な強化学習ではないだろう」と指摘した。 |
>>: Python か Java か? 2020年、優秀なプログラマーが習得すべき7つのプログラミング言語
脳科学研究は大きな前進を遂げました!プリンストン大学の科学者らは最近、成体動物の全脳コネクトームマッ...
9月26日、国家新世代人工知能ガバナンス専門委員会は「新世代人工知能倫理規範」(以下、「規範」という...
Android システムでは、Nut Hidden APP をダウンロードして、セキュリティリスク...
[[328414]]マイクロソフトは、マイクロソフトニュースとMSNチームから数十人のジャーナリスト...
315 Gala で摘発された企業は、業界内ではほんの少数派です。ユーザーのプライバシーを侵害するア...
これは非常に興味深いスピーチです。これは、MWC 2017でソフトバンクの孫正義氏が行ったスピーチで...
[[426834]]国慶節のゴールデンウィークが近づいてきました。旅行の計画はお決まりですか?昨今...
北京時間の今朝早く、SpaceXは再び人類を宇宙に送り出すことに成功した。これは、米国の民間航空宇宙...
がんの検出から就職面接の実施者の決定まで、AI システムは多くのことを人間よりも速く、正確に、確実に...
製造業は大きなデジタル変革を遂げています。従来のモデルはインダストリー 4.0 へと進化しています。...
5月6日、アント・ファイナンシャルの副CTOである胡曦氏はオープンソースの機械学習ツールSQLFlo...