拡散モデルは新たな大きな応用をもたらしました—— ソラが動画を生成するのと同じように、ニューラルネットワークのパラメータを生成することで、AIの最下層に直接浸透します。 これは、シンガポール国立大学のYou Yang教授のチームがUCB、Meta AI Labなどの機関と共同で行った最新のオープンソース研究成果です。 具体的には、研究チームはニューラルネットワークパラメータを生成するための拡散モデルp (パラメータ) -diffを提案しました。 これを使用してネットワーク パラメータを生成すると、直接トレーニングするよりも最大 44 倍高速になり、パフォーマンスも同様に良好になります。 このモデルがリリースされると、AI コミュニティではすぐに白熱した議論が巻き起こり、業界関係者の驚きは、一般の人々がソラを見たときの反応に劣らないものでした。 これは基本的に AI が新しい AI を作成するのと同じだと叫ぶ人もいました。 AI界の巨人LeCunでさえ、この成果を見て「本当にかわいいアイデアだ」と称賛した。 実際、p-diff は Sora と同じくらい重要であり、同じ研究室の Fuzhao Xue 博士が詳しく説明しています。 Sora は高次元データ、つまりビデオを生成するため、Sora は世界シミュレーターになります (1 次元の AGI に近い)。 そして、モデル内でパラメータを生成できるこのニューラル ネットワーク拡散という作業は、メタ世界クラスの学習者/最適化者になる可能性があり、別の新しい重要な次元から AGI に向かって進んでいます。 さて、本題に戻りましょう。p-diff はどのようにしてニューラル ネットワーク パラメータを生成するのでしょうか? オートエンコーダと拡散モデルを組み合わせるこの問題を理解するには、まず拡散モデルとニューラル ネットワークの動作特性を理解する必要があります。 拡散生成プロセスは、ランダムな分布から高度に特定の分布への移行であり、複合ノイズの追加によって視覚情報が単純なノイズ分布に劣化します。 ニューラル ネットワークのトレーニングもこの変換プロセスに従い、ノイズを追加することで劣化させることもできます。この特徴にヒントを得て、研究者は p-diff 法を提案しました。 構造的には、p-diff はオートエンコーダーと組み合わせた標準的な潜在拡散モデルに基づいて研究チームによって設計されました。 研究者らはまず、訓練されて良好なパフォーマンスを示したネットワークパラメータの一部を選択し、それを1次元ベクトル形式に拡張した。 次に、オートエンコーダーを使用して、拡散モデルのトレーニング データとして 1 次元ベクトルから潜在表現を抽出します。これにより、元のパラメーターの主要な特徴を捉えることができます。 トレーニング中、研究者は順方向プロセスと逆方向プロセスを通じて p-diff にパラメータの分布を学習させます。学習が完了すると、拡散モデルは視覚情報を生成するプロセスと同じ方法で、ランダムノイズからこれらの潜在的表現を合成します。 最後に、新しく生成された潜在表現は、エンコーダーに対応するデコーダーによってネットワーク パラメーターに復元され、新しいモデルの構築に使用されます。 下の図は、p-diff と 3 つのランダム シードを使用して最初からトレーニングされた ResNet-18 モデルのパラメーター分布を示しており、異なるレイヤー間および同じレイヤー内の異なるパラメーター間の分布パターンを示しています。 p-diff によって生成されたパラメータの品質を評価するために、研究者らは、それぞれ 2 つのサイズの 3 種類のニューラル ネットワークを使用して 8 つのデータセットでテストしました。 以下の表では、各グループの 3 つの数字は、元のモデル、統合モデル、p-diff によって生成されたモデルの評価結果を表しています。 結果からわかるように、p-diff によって生成されたモデルのパフォーマンスは、基本的に手動でトレーニングされた元のモデルに近いか、それを上回っています。 効率の面では、精度を損なうことなく、p-diff は従来のトレーニングよりも 15 倍速く ResNet-18 ネットワークを生成し、Vit-Base を 44 倍速く生成します。 追加のテスト結果は、p-diff によって生成されたモデルがトレーニング データと大幅に異なることを示しています。 下の図 (a) からわかるように、p-diff によって生成されたモデル間の類似度は、元のモデル間の類似度や、p-diff と元のモデル間の類似度よりも低くなっています。 (b)と(c)からわかるように、p-diffの類似度も、微調整とノイズ追加の類似度よりも低くなっています。 これらの結果は、p-diff がトレーニング サンプルを単に記憶するのではなく、実際に新しいモデルを生成することを示しています。また、優れた一般化能力を備えており、トレーニング データとは異なる新しいモデルを生成できることも示しています。 現在、p-diff のコードはオープンソースになっています。興味のある方は、GitHub で確認してみてください。 論文アドレス: https://arxiv.org/abs/2402.13144 GitHub: https://github.com/NUS-HPC-AI-Lab/Neural-Network-Diffusion |
<<: 8/8/6/3のマンバ論文はついにICLR2024で却下された。ネットユーザー:吊り下げられた心臓はついに死んだ
>>: ソラのトレーニングデータが流出した疑い、ネットユーザー「UE5が間違いなく使われている」
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
近年、我が国のドローン産業は、継続的な技術革新、継続的な政策奨励、加速した資本注入、段階的な市場改善...
質問に答えたり、翻訳したり、記事を書いたり、コードを書いたり、数式を計算したり、アイコンを描いたりす...
人工知能は、ビジネスから工業デザイン、エンターテインメントまで、さまざまな分野で新たな機会を提供して...
[[441262]]人々がシーンを観察するとき、通常はシーン内のオブジェクトとそれらの間の関係を観...
大規模言語モデルがコード生成において並外れた能力を発揮していることは誰もが知っています。しかし、コン...
大規模モデルの「幻覚」問題は解決されつつあるのでしょうか?ウィスコンシン大学マディソン校とグーグルの...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能(AI)の急速な発展は、さまざまな業界に革命的な変化をもたらし、イノベーションの新たな時代を...
エッジに AI を導入すると、強力なリアルタイム分析と処理を実現できる可能性があります。使用例には、...