拡散+超解像モデルの強力な組み合わせ、Googleの画像ジェネレーターImagenの背後にある技術

拡散+超解像モデルの強力な組み合わせ、Googleの画像ジェネレーターImagenの背後にある技術

近年、マルチモーダル学習は、特にテキストと画像の合成や画像とテキストの対照学習の分野で大きな注目を集めています。 OpenAI のテキスト画像モデル DALL-E および DALL-E 2、NVIDIA の GauGAN および GauGAN2 など、一部の AI モデルは、クリエイティブな画像の生成と編集への応用により、広く注目を集めています。

負けじと、Google は 5 月末に独自のテキストから画像への変換モデルである Imagen をリリースしました。これは、キャプション条件付き画像生成の限界をさらに押し広げたようです。

シーンの説明だけを与えれば、そのシーンが現実世界で意味を成すかどうかに関係なく、Imagen は高品質で高解像度の画像を生成できます。以下は、Imagen のテキスト生成画像のいくつかの例です。対応するキャプションが画像の下に表示されます。

これらの印象的な生成された画像を見ると、「Imagen はどのように機能するのだろう?」と疑問に思うでしょう。

最近、開発者インストラクターの Ryan O'Connor が AssemblyAI ブログに「Imagen の実際の動作方法」という長い記事を執筆しました。この記事では、Imagen の仕組みを詳しく説明し、Imagen の概要を示し、その高レベル コンポーネントとそれらの関係を分析して理解します。

Imagen の動作原理の概要

このセクションでは、著者は Imagen の全体的なアーキテクチャを紹介し、その動作原理を高レベルで説明した後、Imagen の各コンポーネントをより詳細に分析します。次のアニメーションは、Imagen のワークフローを示しています。

まず、字幕がテキスト エンコーダーに送られます。エンコーダーは、テキストキャプションを、テキスト内の意味情報をカプセル化する数値表現に変換します。 Imagen のテキスト エンコーダーは Transformer エンコーダーであり、自己注意アプローチを使用して、テキスト エンコーディングがキャプション内の単語が互いにどのように関連しているかを理解できるようにします。

Imagen が単語の関連性ではなく個々の単語にのみ焦点を当てる場合、キャプションの個々の要素を捉えた高品質の画像を取得できますが、キャプションの意味を反映するように画像を適切に記述することはできません。以下の例に示すように、単語間の関連性を考慮しないと、まったく異なる生成効果が発生します。

テキストエンコーダーはImagenのキャプション入力に対して有用な表現を生成しますが、この表現を使用して画像を生成する方法、つまり画像ジェネレーターを設計する必要があります。この目的のために、 Imagen は、複数のタスクでの SOTA パフォーマンスにより近年人気が高まっている生成モデルである拡散モデルを使用します

拡散モデルは、ノイズを追加してトレーニング データを破損させることによってトレーニングされ、その後、このノイズ プロセスを逆にすることでデータを回復することを学習します。入力画像が与えられると、拡散モデルは一連の時間ステップにわたってガウスノイズで画像を反復的に破損させ、最終的にガウスノイズまたはテレビの雑音を残します。次の図は、拡散モデルの反復ノイズ プロセスを示しています。

次に、拡散モデルは逆方向に動作し、各タイムステップでノイズを分離して除去する方法を学習して、発生した破壊的なプロセスに対抗します。トレーニングが完了したら、モデルを 2 つに分割できます。これは、ランダムにサンプリングされたガウス ノイズから開始し、拡散モデルを使用して徐々にノイズを除去して、次の図に示すように画像を生成することができます。

要約すると、トレーニングされた拡散モデルはガウスノイズから始まり、トレーニング画像に似た画像を繰り返し生成します。画像の実際の出力を制御できないことは明らかです。単にガウスノイズをモデルに入力するだけで、トレーニング データセットに属しているように見えるランダムな画像が出力されます。

しかし、 Imagen に入力されたキャプションの意味情報をカプセル化した画像を作成することが目的であるため、キャプションを拡散プロセスに組み込む方法が必要です。これをどうやって行うのでしょうか?

前述のように、テキスト エンコーダーは、実際にはベクトル シーケンスである代表的な字幕エンコーディングを生成します。このエンコードされた情報を拡散モデルに注入するために、これらのベクトルが集約され、それに基づいて拡散モデルが調整されます。このベクトルを調整することで、拡散モデルはノイズ除去プロセスを調整する方法を学習し、キャプションによく一致する画像を生成します。プロセスの視覚化図を以下に示します。

画像ジェネレーターまたはベースモデルは小さな 64x64 画像を出力するため、このモデルを最終的な 1024x1024 バージョンにアップサンプリングするために、超解像度モデルを使用して画像をインテリジェントにアップサンプリングします

超解像モデルの場合、Imagen は再び拡散モデルを使用します。全体的なパイプラインは、基本的にベース モデルと同じですが、字幕のエンコードのみに基づいてスケーリングするのではなく、アップサンプリングされる小さい画像もスケーリングします。プロセス全体の視覚化を以下に示します。

この超解像度モデルの出力は、実際には最終出力ではなく、中サイズの画像です。この画像を最終的な 1024 x 1024 解像度にアップスケールするには、別の超解像度モデルが使用されます。 2 つの超解像アーキテクチャはほぼ同じなので、詳細には説明しません。 2 番目の超解像モデルの出力が Imagen の最終出力になります。

Imagen が DALL-E 2 より優れているのはなぜですか?

Imagen が DALL-E 2 よりも優れている理由を正確に答えることは困難です。しかし、パフォーマンスの差の大部分は字幕とプロンプトの違いから生じています。 DALL-E 2 は、コントラスト目標を使用して、テキスト エンコーディングが画像 (基本的には CLIP) とどの程度密接に関連しているかを判断します。テキスト エンコーダーと画像エンコーダーは、類似するキャプションと画像のペアのコサイン類似度が最大化され、類似しないキャプションと画像のペアのコサイン類似度が最小化されるようにパラメーターを調整します。

パフォーマンスのギャップの大部分は、Imagen のテキスト エンコーダーが DALL-E 2 のものよりもはるかに大きく、より多くのデータでトレーニングされたという事実に起因しています。この仮説の証拠として、テキスト エンコーダーで拡張した場合の Imagen のパフォーマンスを調べることができます。以下は、Imagen のパフォーマンスのパレート曲線です。

テキスト エンコーダーのスケール アップは驚くほど効果的ですが、U-Net のスケール アップは驚くほど効果がありません。この結果は、強力なエンコーディングが条件である限り、比較的単純な拡散モデルでも高品質の結果を生成できることを示唆しています。

T5 テキスト エンコーダーは CLIP テキスト エンコーダーよりもはるかに大きく、自然言語トレーニング データは必然的に画像とキャプションのペアよりも豊富であるという事実と相まって、パフォーマンスのギャップの多くはこの違いに起因すると考えられます。

さらに、著者は、次のような Imagen の重要なポイントをいくつか挙げています。

  • 拡張テキストエンコーダーは非常に効果的です。
  • テキスト エンコーダーのスケーリングは、U-Net サイズのスケーリングよりも重要です。
  • 動的しきい値は重要です。
  • ノイズ調整された強化は超解像モデルにおいて極めて重要です。
  • テキスト条件付けには交差注意を使用することが重要です。
  • 効率的な U-Net が重要です。

これらの洞察は、拡散モデルを研究している研究者にとって貴重な指針を提供するものであり、テキストから画像へのサブフィールドでのみ役立つものではありません。

<<:  AIを赤ちゃんのように考えさせましょう! DeepMindの「Plato」モデルがNature誌に掲載

>>:  アリババ・ダモ・アカデミーは、電力網の負荷を正確に予測するための新しい時系列予測モデルを提案している。

ブログ    
ブログ    

推薦する

2日間で星の数が1,000を突破:OpenAIのWhisperの蒸留後、音声認識が数倍高速化

少し前に、「テイラー・スウィフトが中国語を披露」する動画がさまざまなソーシャルメディアプラットフォー...

...

AIはプログラマーの仕事を破壊する最初のものとなるでしょうか?プログラマーの90%は就職が難しくなっていると考えており、大学生もキャリアプランの調整が必要

一夜にしてプログラマーは仕事を見つけられなくなるようですね?海外メディアのマザーボードとブラインドが...

...

皇帝の側室選定と推薦アルゴリズムの仕組み

[[393467]]この記事はWeChatの公開アカウント「Shu Shixiong」から転載したも...

2019 年の NLP における最先端のブレークスルーを振り返る

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

AIとMLでドキュメントを自動化する方法

[[312937]] [51CTO.com クイック翻訳] かつて紙は必須の事務用品とみなされ、ほと...

なぜ機械学習モデルの90%が実稼働に至らないのか

会社は厳しい時期を迎えている。私はパンデミックや株式市場の変動について話しているのではない。時代は不...

TRSのTuotianビッグモデルが正式にリリースされ、メディア、金融、政府関係の3つの業界向けのビッグモデルが発表されました。

2023年6月29日、チューリングはNLP分野での30年間の技術革新、10年以上の高品質なデータと...

私たちの重要なインフラは人工知能に対応できるでしょうか?

ChatGPT を楽しみや機能のために使用する個人から、タスクの自動化に人工知能 (AI) を適用...

75歳のヒントン氏が再び警告:AIが人間を支配するかもしれない!

10月9日、ヒントン氏は「60 Minutes」のインタビューを受け、人工知能が人間を支配するかも...

モデルデータに偏りがある場合はどうすればいいですか?機械学習における 7 種類のデータバイアスについて 1 つの記事で学ぶ

機械学習におけるデータバイアスとは、データセットの一部の要素が他の要素よりも重み付けされ、または高く...

...

...