拡散モデルは新たな大きな応用をもたらしました—— ソラが動画を生成するのと同じように、ニューラルネットワークのパラメータを生成することで、AIの最下層に直接浸透します。 これは、シンガポール国立大学のYou Yang教授のチームがUCB、Meta AI Labなどの機関と共同で行った最新のオープンソース研究成果です。 具体的には、研究チームはニューラルネットワークパラメータを生成するための拡散モデルp (パラメータ) -diffを提案しました。 これを使用してネットワーク パラメータを生成すると、直接トレーニングするよりも最大 44 倍高速になり、パフォーマンスも同様に良好になります。 このモデルがリリースされると、AI コミュニティではすぐに白熱した議論が巻き起こり、業界関係者の驚きは、一般の人々がソラを見たときの反応に劣らないものでした。 これは基本的に AI が新しい AI を作成するのと同じだと叫ぶ人もいました。 AI界の巨人LeCunでさえ、この成果を見て「本当にかわいいアイデアだ」と称賛した。 実際、p-diff は Sora と同じくらい重要であり、同じ研究室の Fuzhao Xue 博士が詳しく説明しています。 Sora は高次元データ、つまりビデオを生成するため、Sora は世界シミュレーターになります (1 次元の AGI に近い)。 そして、モデル内でパラメータを生成できるこのニューラル ネットワーク拡散という作業は、メタ世界クラスの学習者/最適化者になる可能性があり、別の新しい重要な次元から AGI に向かって進んでいます。 さて、本題に戻りましょう。p-diff はどのようにしてニューラル ネットワーク パラメータを生成するのでしょうか? オートエンコーダと拡散モデルを組み合わせるこの問題を理解するには、まず拡散モデルとニューラル ネットワークの動作特性を理解する必要があります。 拡散生成プロセスは、ランダムな分布から高度に特定の分布への移行であり、複合ノイズの追加によって視覚情報が単純なノイズ分布に劣化します。 ニューラル ネットワークのトレーニングもこの変換プロセスに従い、ノイズを追加することで劣化させることもできます。この特徴にヒントを得て、研究者は p-diff 法を提案しました。 構造的には、p-diff はオートエンコーダーと組み合わせた標準的な潜在拡散モデルに基づいて研究チームによって設計されました。 研究者らはまず、訓練されて良好なパフォーマンスを示したネットワークパラメータの一部を選択し、それを1次元ベクトル形式に拡張した。 次に、オートエンコーダーを使用して、拡散モデルのトレーニング データとして 1 次元ベクトルから潜在表現を抽出します。これにより、元のパラメーターの主要な特徴を捉えることができます。 トレーニング中、研究者は順方向プロセスと逆方向プロセスを通じて p-diff にパラメータの分布を学習させます。学習が完了すると、拡散モデルは視覚情報を生成するプロセスと同じ方法で、ランダムノイズからこれらの潜在的表現を合成します。 最後に、新しく生成された潜在表現は、エンコーダーに対応するデコーダーによってネットワーク パラメーターに復元され、新しいモデルの構築に使用されます。 下の図は、p-diff と 3 つのランダム シードを使用して最初からトレーニングされた ResNet-18 モデルのパラメーター分布を示しており、異なるレイヤー間および同じレイヤー内の異なるパラメーター間の分布パターンを示しています。 p-diff によって生成されたパラメータの品質を評価するために、研究者らは、それぞれ 2 つのサイズの 3 種類のニューラル ネットワークを使用して 8 つのデータセットでテストしました。 以下の表では、各グループの 3 つの数字は、元のモデル、統合モデル、p-diff によって生成されたモデルの評価結果を表しています。 結果からわかるように、p-diff によって生成されたモデルのパフォーマンスは、基本的に手動でトレーニングされた元のモデルに近いか、それを上回っています。 効率の面では、精度を損なうことなく、p-diff は従来のトレーニングよりも 15 倍速く ResNet-18 ネットワークを生成し、Vit-Base を 44 倍速く生成します。 追加のテスト結果は、p-diff によって生成されたモデルがトレーニング データと大幅に異なることを示しています。 下の図 (a) からわかるように、p-diff によって生成されたモデル間の類似度は、元のモデル間の類似度や、p-diff と元のモデル間の類似度よりも低くなっています。 (b)と(c)からわかるように、p-diffの類似度も、微調整とノイズ追加の類似度よりも低くなっています。 これらの結果は、p-diff がトレーニング サンプルを単に記憶するのではなく、実際に新しいモデルを生成することを示しています。また、優れた一般化能力を備えており、トレーニング データとは異なる新しいモデルを生成できることも示しています。 現在、p-diff のコードはオープンソースになっています。興味のある方は、GitHub で確認してみてください。 論文アドレス: https://arxiv.org/abs/2402.13144 GitHub: https://github.com/NUS-HPC-AI-Lab/Neural-Network-Diffusion |
<<: 8/8/6/3のマンバ論文はついにICLR2024で却下された。ネットユーザー:吊り下げられた心臓はついに死んだ
>>: ソラのトレーニングデータが流出した疑い、ネットユーザー「UE5が間違いなく使われている」
AI の健全性と進歩に関する最近の調査、研究、予測、その他の定量的評価では、労働力の再訓練の必要性、...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
[51CTO.comよりオリジナル記事]秋から冬にかけての季節が近づき、インフルエンザやCOVID...
11月8日、烏鎮で開催された世界インターネット大会で、馬化騰氏と李ロビン氏が首脳対談を行った。2人の...
2月28日、BaiduはXiaodu新製品戦略発表会で、Xiaodu TV CompanionとXi...
【51CTO.com クイック翻訳】ロボティックデータオートメーション (RDA) とは?ロボティッ...
今年初めの Red Hat Summit で、Red Hat は OpenShift AI によるプ...
12 月 9 日、Amazon Cloud Service (AWS) が開催する年次イベント AW...
共有は主に次の 5 つのポイントを中心に行われます。リスク管理センターの設計背景戦略のフルサイクル管...
ChatGPT Team は OpenAI の Enterprise Edition 製品の小型版で...
[[385209]]ビル・ホームズは、象徴的なフェンダー・ストラトキャスターとテレキャスターのギター...