OpenAI が Stable Diffusion を救います! Ilya Song Yang らによるオープンソースの Dall E3 デコーダー

OpenAI が Stable Diffusion を救います! Ilya Song Yang らによるオープンソースの Dall E3 デコーダー

予想外にも、OpenAI は「競合相手」である Stable Diffusion を活用しました。

話題の「AI Spring Festival Gala」で、OpenAI は 2 つの作品を一度にオープンソース化しました。その 1 つは、SD 専用の VAE モデルである一貫性デコーダーです。

複数の顔、テキストを含む画像、線の制御など、より高品質で安定した画像生成が可能になります。

大手 V ブロガーは、このデコーダーはDall·E 3 と同じであるはずだと分析し、OpenAI も GitHub プロジェクトページで Dall·E 3 の論文を提供しました。


サポートされる具体的なバージョンは、Stable Diffusion 1.4/1.5 です。

プロジェクトページには例が1つだけ掲載されており、具体的なトレーニング方法も記載されていない。ネットユーザーらはこれを「口数の少ない冷酷な人風のオープンソース」と呼んでいる。

そのままロードして使用することができます。

そして、この一貫性デコーダーには長い歴史があります。

これは、OpenAI の共同設立者兼主任科学者の Ilya 氏、OpenAI の中国の新星 Song Yang 氏らが提案した一貫性モデルから生まれたものです。

このモデルが今年上半期にオープンソース化された際、業界に衝撃を与え、「普及モデルに終止符を打つ」可能性があると評された。

つい最近、Song Yangらはモデルのトレーニング方法を最適化し、画像生成の品質をさらに向上させることができました。

開発者デーでのもう一つの主要なオープンソース リリースは、大規模な音声モデル Whisper 3 でした。これは、GPT シリーズの構築に重要な役割を果たした伝説の人物、アレック・ラドフォードによって作成されました。

ネットユーザーはため息をつくほかなかった。「OpenAI がオープンソース化されるのは嬉しいし、今後もさらに多くのモデルが公開されることを期待しています。」

一貫性モデルは進化した

まずは、もともと世界的に有名だった一貫性モデルの最初のバージョン(Consistency Models)を見てみましょう。

拡散モデルでは段階的な反復により画像生成が遅くなるという問題を解決することを目的としています。約 64 枚の 256×256 画像を生成するのにかかる時間はわずか 3.5 秒です。

拡散モデルと比較すると、主に 2 つの利点があります。

まず、敵対的トレーニングなしで高品質の画像サンプルを直接生成できます。

第二に、拡散モデルでは数百、あるいは数千回の反復が必要になる場合もありますが、一貫性モデルでは、さまざまな画像タスクを処理するのに 1 つまたは 2 つのステップしか必要ありません。

カラー化、ノイズ除去、超解像度など、これらのタスクの明示的なトレーニングを必要とせずに、すべて数ステップで実行できます。 (もちろん、少数サンプル学習を行えば、生成効果はより高くなります)

原理的には、一貫性モデルはランダムノイズを複雑な画像に直接マッピングし、出力は同じ軌道上の同じポイントとなるため、ワンステップ生成が実現されます。

この論文では、2 つのトレーニング方法を提案しています。1 つは一貫性蒸留に基づくもので、事前トレーニング済みの拡散モデルを使用して隣接するデータ ペアを生成し、モデル出力間の差異を最小限に抑えることで一貫性モデルをトレーニングします。

もう 1 つのアプローチは、一貫性モデルを別の生成モデルとしてトレーニングする独立したトレーニングです。

実験結果によると、一貫性モデルは、1 ステップおよび数ステップのサンプリングの両方で、漸進的蒸留などの既存の蒸留技術よりも優れていることが示されています。

スタンドアロン生成モデルとしてトレーニングされた場合、一貫性モデルは、CIFAR-10、ImageNet 64×64、LSUN 256×256 などの標準ベンチマークで既存のワンステップ非敵対的生成モデルと同等のパフォーマンスを発揮します。

半年後に出版された論文の第2版では、トレーニング方法が最適化されました。

重み関数、ノイズ埋め込み、ドロップアウトを最適化することで、一貫性モデルは学習した特徴に依存せずに優れた生成品質を実現できます。

重み関数の選択が改善され、ノイズ レベルが増加するにつれて重み関数が減少するようになっており、これにより、ノイズ レベルが小さい場合の一貫性の損失がより重視され、サンプルの品質が向上します。

同時に、ノイズ埋め込み層の感度が調整され、小さなノイズの違いに対する感度が低くなり、連続時間一貫性トレーニングの安定性が向上します。

また、一貫性モデルでより大きなドロップアウトを使用し、教師ネットワークで EMA を削除し、擬似 Huber 損失関数を学習した特徴距離 (LPIPS など) に置き換えると、画像の品質がさらに向上することがわかりました。

もう一つ

この最新のオープンソース デコーダーに戻ると、実際のテスト エクスペリエンスの最初の波がここにあります。

今のところ効果はあまり明らかではなく、走るスピードが遅いという報告が多くありました。

しかし、これはまだ初期のテストであり、将来的にはさらに改善される可能性があります。

特筆すべきは、一貫性モデルの立ち上げを主導した宋楊氏は若手ながら、普及モデル界ではOG(ベテラン)と評価されていることだ。

△NvidiaのAI科学者ジム・ファン氏のTwitterより

今年、宋楊もその一貫性あるモデルのおかげで有名になった。この男は16歳で理科の成績トップで、清華大学に進学した。彼に関する他の記事は、こちらをクリック:OpenAIの人気新星、宋楊:最新の研究は「普及モデルの終焉」と評価され、16歳で清華大学に進学した。

論文の宛先:

[1] https://arxiv.org/abs/2310.14189.

[2] https://arxiv.org/abs/2303.01469.

<<:  描いた場所に画像が動きます! Gen-2の新機能「マジックブラシ馬良」が大ヒット、ネットユーザー:緊急、緊急、緊急

>>:  PaddleOCRのスーパーパワーを解き放つ

ブログ    
ブログ    

推薦する

ChatGPTメジャーアップデート!新しい API 関数呼び出し、コンテキストが 4 倍に急増、価格が下落

ビッグデータダイジェスト制作ただ! OpenAI は GPT シリーズのメジャーアップデートをリリー...

人工知能開発における5つの制約問題、数千の問題を解決する5つの解決策

[[237095]]人工知能はどこにでもあるようです。私たちはそれを自宅や携帯電話で体験します。起業...

...

UAI Trainプラットフォームに基づく分散トレーニング

序文大規模なデータセットでトレーニングされた最新のニューラル ネットワーク アーキテクチャは、画像認...

...

IDC: 生成型 AI への支出は今後 5 年間で年間 73% 増加し、2027 年には 1,430 億ドルに達する

IDCによると、世界の企業は2023年に160億ドル(ITホーム注:現在は約1169.6億人民元)を...

マインクラフトがAIの街に変身、NPC住民が本物の人間のようにロールプレイ

この立方体の男が、目の前にいる「招かれざる客」の正体について素早く考えている様子を、注意深く見てくだ...

雁塔区:西部の「最強の頭脳」が人工知能コンピューティングセンターの未来を切り開く

9月9日午前、雁塔区未来工業城で未来人工知能コンピューティングセンターの開設式が行われた。同イベント...

...

Googleの新しいAIツールはAppleのバッチ処理ツールに似ている

プライバシーを保護するために、Google は「フェデレーテッド ラーニング」テクノロジーを活用して...

このデータ サイエンスの間違いに注意し、30 時間以上の無駄な作業を回避しましょう...

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

ファーウェイと4つの主要パートナーが共同でAscend AIの大規模モデルトレーニングおよびプッシュ統合ソリューションをリリース

Ascend人工知能産業サミットフォーラムが上海で開催されました。フォーラムでは、ビッグモデルの共同...

リモートワークにおけるAIの活用事例

世界中の組織がリモートワークに移行する必要に迫られ、業務を維持するために技術的な対策が必要になりまし...

MIT、Wikipedia の更新、間違いの修正、偽ニュースの特定を行う AI 編集システムを開始

[[334141]]誰でも編集できるオンライン百科事典である Wikipedia では、各エントリを...

スマートドライビングが誕生してから10年経った今、なぜ理想的なビジネスモデルの実現が難しいのでしょうか?

[[420239]] 2011年7月14日、紅旗HQ3は長沙から武漢までの286キロの高速道路を疾...