ディープラーニングの中心的な問題は非常に難しい最適化問題です。そのため、ニューラル ネットワークが導入されてから数十年にわたり、ディープ ニューラル ネットワークの最適化問題の難しさは、ディープ ニューラル ネットワークが主流になるのを妨げる重要な要因となっていました。これにより、1990 年代から 2000 年代初頭にかけて衰退が進みました。しかし、今ではこの問題は基本的に解決されています。このブログ記事では、ニューラル ネットワークの最適化の「難しさ」と、この問題を理論的にどのように説明できるかについて説明します。つまり、ニューラル ネットワークが深くなるほど、最適化の問題は難しくなります。 最も単純なニューラル ネットワークは単一ノード パーセプトロンであり、最適化問題は凸型です。凸最適化問題の良いところは、すべての局所最小値は大域最小値でもあることです。凸最適化問題を解決するためのさまざまな最適化アルゴリズムが存在し、数年ごとに凸最適化のためのより優れた多項式時間アルゴリズムが発見されています。単一ニューロンの重みは、凸最適化アルゴリズムを使用して簡単に最適化できます (下の図を参照)。単一のニューロンを拡大すると何が起こるか見てみましょう。 図1 左: 凸関数。右: 非凸関数。凸関数の底を見つけるのは非凸関数よりも簡単です (出典: Reza Zadeh) 自然な次のステップは、ニューラル ネットワークを単一層のままにしたまま、ニューロンをさらに追加することです。単層 n ノード パーセプトロン ニューラル ネットワークの場合、ニューラル ネットワークがトレーニング セットを正しく分類できるようにするエッジ ウェイトがある場合、そのようなエッジ ウェイトは線形計画法を使用して多項式時間 O(n) で見つけることができます。線形計画法も凸最適化の特殊なケースです。これにより、次のような疑問が生じます。より深い多層ニューラル ネットワークに対しても同様の保証を行うことができるでしょうか?残念ながら、いいえ。 2 層以上の一般的なニューラル ネットワークの最適化問題を証明可能に解決するには、コンピューター サイエンスにおける最も未解決の問題のいくつかに対処するアルゴリズムが必要です。したがって、ディープニューラルネットワークの最適化問題を証明可能に解決するアルゴリズムを見つけようとしている機械学習研究者にはあまり期待していません。この最適化問題は NP 困難であるため、多項式時間で解決できることが証明できれば、何十年も未解決のまま残っていた他の何千もの問題も解決できることになります。実際、J. Stephen Judd は 1988 年に次の問題が NP 困難であることを発見しました。 一般的なニューラル ネットワークと一連のトレーニング例が与えられた場合、ニューラル ネットワークがすべてのトレーニング例に対して正しい出力を生成するようなネットワーク エッジ重みのセットが存在するでしょうか。 ジャッド氏の研究では、ニューラル ネットワークにトレーニング サンプルの 3 分の 2 のみに対して正しい出力を生成するよう要求しても、NP 困難な問題であることも示されました。これは、最悪の場合でも、ニューラル ネットワークを近似的にトレーニングすることが本質的に困難であることを意味します。 1993 年に Blum と Rivest によって発見された事実はさらに悪いもので、2 つの層と 3 つのノードのみを持つ単純なニューラル ネットワークのトレーニング最適化問題でさえ、依然として NP 困難な問題です。 理論的には、ディープラーニングと機械学習における多くの比較的単純なモデル (サポート ベクター マシンやロジスティック回帰モデルなど) との違いは、これらの単純なモデルではモデルの最適化が多項式時間で完了することが数学的に証明できることです。これらの比較的単純なモデルの場合、多項式時間よりも長く実行される最適化アルゴリズムであっても、より優れたモデルを見つけることができないことが保証されます。しかし、ディープニューラルネットワークの既存の最適化アルゴリズムでは、そのような保証を提供することはできません。ディープ ニューラル ネットワーク モデルをトレーニングした後、このネットワーク モデルが現在の構成で見つけられる最適なモデルであるかどうかはわかりません。したがって、モデルのトレーニングを継続すると、より優れたモデルが得られるのではないかと疑問に思うかもしれません。 幸いなことに、実際には、これらの最先端の結果に非常に効率的にアプローチできます。古典的な勾配降下法の最適化手法を実行することで、十分に優れた局所最小値に到達し、画像認識、音声認識、機械翻訳などの多くの一般的な問題で大きな進歩を遂げることができます。 *** の結果は無視し、時間の許す限り勾配降下法の反復を実行します。 従来の最適化理論の結果は残酷であるように思われますが、ヒューリスティックな方法、マシンの追加、新しいハードウェア (GPU など) の使用などのエンジニアリング手法と数学的なトリックを通じて、これらの問題を回避することができます。一部の研究では、理論的な結果が非常に厳しいにもかかわらず、これらの古典的な最適化アルゴリズムが非常にうまく機能する理由を積極的に調査しています。 |
<<: Google の最も強力なチップアップグレード、第 2 世代 TPU はディープラーニングの未来となるか?
>>: DeepMap COO 羅偉氏との独占インタビュー:自動運転の時代に、スタートアップは高精度地図の分野でどのように躍進できるのか?
[[439322]]自動車の知能化と電動化の急速な発展に伴い、自動運転センサー構成の需要は増加し続け...
12月28日、工業情報化部など各部門は「第14次5カ年計画:インテリジェント製造業発展計画」(以下、...
Microsoft は、テストにおいてセキュリティ脆弱性と非セキュリティ脆弱性を 99% の精度で...
AIが「コーダー」に取って代わるという現実はまだ実現していないが、その逆を行い、コーダーを使ってA...
4月29日、テンセントのAIモデル「Hunyuan」がCLUE(中国語言語理解評価コレクション)部門...
ChatGPT などの一般的な大規模モデルは数百の機能をサポートしていますが、一般的な日常的なユーザ...
650 億パラメータの大規模モデルの事前トレーニング ソリューションは、リリース時にオープン ソース...
人工知能技術は農業にどのような力を与えるのでしょうか?将来、農業に変化をもたらす最も重要な技術は何で...
21 世紀に革命をもたらした技術を 1 つ挙げるとすれば、それは人工知能でしょう。人工知能は私たちの...
これはマイクロソフトと中国科学院大学による新たな研究の結論です。すべての LLM は 1.58 ビッ...
[[203908]]誰かが尋ねたディープラーニング — どこから始めればよいですか?今はTenso...
ロボット工学は医療分野で一般的になりつつあり、生物医学工学の分野における医療用ロボットへの資金提供が...
現在、機械学習とディープラーニング技術は、IoT 向け人工知能の世界市場で 5.7% の CAGR ...