畳み込みニューラル ネットワーク (CNN) は、その強力な畳み込み機能とプーリング機能により、コンピューター ビジョンの分野を支配してきました。 最近の Transformer アーキテクチャの台頭により、画像およびビデオ認識タスクにおいて CNN と競合し始めています。特に Visual Transformer (ViT) です。 Dosovitskiy らは、画像を自然言語の単語に似た一連のトークンとして解釈できることを実証しました。 ImageNet ベンチマークでは、より少ない FLOP で同等の分類精度が達成されます。 ViT とその変種はまだ初期段階ですが、ViT は画像認識において競争力のあるパフォーマンスを示し、視覚特有の誘導バイアスをあまり必要としないことを考えると、ViT は画像生成に拡張できるでしょうか? Google とカリフォルニア大学サンディエゴ校で構成された研究チームがこの問題を研究し、「ViTGAN: Visual Transformers による Generative Adversarial Networks (GANs) のトレーニング」という論文を発表しました。 △ https://arxiv.org/pdf/2107.04589.pdf この論文で研究されている問題は、ViT が畳み込みやプーリングを使用せずに画像生成タスクを完了できるかどうか、つまり、ViT が競争力のある品質の GAN を使用して CNN ベースの GAN をトレーニングできるかどうかです。 研究チームは ViT アーキテクチャを GAN に統合し、既存の GAN 正規化手法が自己注意メカニズムとうまく相互作用せず、トレーニング中に深刻な不安定性を引き起こすことを発見しました。 そこで研究チームは、ViT を使用して GAN をトレーニングするための新しい正規化手法を導入し、次のような研究結果を得ました。 1. ViTGAN モデルは、Transformer ベースの GAN モデルよりもはるかに優れており、畳み込みやプーリングを使用せずに CNN ベースの GAN (Style-GAN2 など) のパフォーマンスに匹敵します。 2. ViTGAN モデルは、GAN でビジュアル Transformer を活用した最初のモデルの 1 つです。 3. ViTGAN モデルは、CIFAR、CelebA、LSUN ベッドルーム データセットなどの標準的な画像生成ベンチマークにおいて、この Transformer が最先端の畳み込みアーキテクチャと同等のパフォーマンスを発揮することを示します。 実験方法上の図は、ViT 識別子と ViT ベースのジェネレーターで構成される ViTGAN のアーキテクチャを示しています。 実験では、ViT を識別器として直接使用するとトレーニングが不安定になる可能性があることが示されています。著者らは、トレーニングのダイナミクスを安定させ、収束を促進するために、ジェネレーターとディスクリミネーターの両方に新しい手法を導入しています。 (1)ViT識別器の正規化、(2)生成器の新しいアーキテクチャ。 既存の GAN 正則化手法は自己注意との相互作用が悪く、トレーニング中に深刻な不安定性を引き起こします。 この問題に対処するため、著者らは ViT データセットを使用して GAN をトレーニングするための新しい「正規化」手法を導入し、最先端の CNN ベースの StyleGAN2 に匹敵するパフォーマンスを達成しました。 リプシッツ連続性は GAN 識別器において重要であり、WGAN でワッサーシュタイン距離を近似するための条件として注目度で最初に導入され、後に他の GAN 設定でワッサーシュタイン損失を超えることが実証されました。特に、リプシッツ判別器は最適な判別関数の存在と一意のナッシュ均衡の存在を保証することが証明されています。 しかし、最近の研究では、標準的なドット積自己注意層(すなわち、式 5)の Lipschitz 定数は無制限になる可能性があり、ViT では Lipschitz 連続性が破られることが示されました。 式 7 に示すように、この実験ではドット積類似度の代わりにユークリッド距離を使用し、クエリとキー投影行列の重みは同じです。 この問題を解決するには、初期化中に各層の正規化された重み行列にスペクトルノルムを乗算するだけで十分であることがわかりました。この実験では、次の更新規則を使用してスペクトルノルムを実装します。ここで、σ は重み行列の標準スペクトルノルムを計算します。 デザインジェネレータViT アーキテクチャに基づくジェネレーターの設計は簡単ではありません。課題の 1 つは、ViT をクラス ラベルのセットを予測することから空間領域内のピクセルを生成することに変換することです。 実験モデルを紹介する前に、著者らはまず、図2(A)と2(B)に示すように、2つの信頼できるベースラインモデルについて説明します。 2 つのモデルは ViT の入力と出力を交換し、埋め込みからピクセルを生成します。具体的には、MLP によってガウス ノイズ ベクトル z から導出される潜在ベクトル w、つまり w = MLP(z) (図 2 ではマッピング ネットワークと呼ばれます) からピクセルを生成します。 2 つのベースライン ジェネレーターは入力シーケンスが異なります。図2(A)は、位置埋め込みシーケンスを入力として受け取り、各位置埋め込みに中間特徴ベクトルwを追加します。 実験結果△ ViTGANとベースラインアーキテクチャによる画像合成の主な結果の比較 TransGAN は、Transformer アーキテクチャ上に完全に構築された唯一の畳み込みのない GAN であり、その最良のバリエーションは TransGAN-XL です。 Vanilla-ViT は、図 2(A) に示すジェネレータとバニラ ViT 識別子を使用する ViT ベースの GAN です。 公平な比較のために、ベースラインでは R1 ペナルティと bCR + DiffAug を使用します。 さらに、比較のために、最も先進的な CNN ベースの GAN モデルとして BigGAN と StyleGAN2 も含まれています。 上記の表からわかるように、ViTGAN モデルは他の Transformer ベースの GAN モデルよりもはるかに優れています。これは、Transformer アーキテクチャでの安定した GAN トレーニングが改善された結果です。最先端の CNN ベースのモデルと同等のパフォーマンスを実現します。 この結果は、Transformer アーキテクチャが生成的敵対的トレーニングにおいて畳み込みネットワークに匹敵するパフォーマンスを発揮できることを実証的に証明しています。 上の図に示すように、ViTGAN モデル (最後の列) は、最良の Transformer ベースライン (中央の列) の画像忠実度を大幅に向上させます。 StyleGAN2 と比較しても、ViTGAN によって生成される画像の品質と多様性は同等です。 要約するこの論文では、GAN で Visual Transformers (ViT) を活用する ViTGAN を紹介し、トレーニングの安定性を確保し、収束を改善するための基本的な手法を提案します。 標準ベンチマーク (CIFAR-10、CelebA、LSUN ベッドルーム) での実験では、提案されたモデルが最先端の CNN ベースの GAN と同等のパフォーマンスを達成することが示されています。 制限事項としては、ViTGAN は一般的な ViT アーキテクチャ上に構築された新しい一般的な GAN モデルです。それでも、最高の CNN ベースの GAN モデルに勝つことはできません。 これは、高度なトレーニング手法を ViTGAN フレームワークに組み込むことで改善できます。 ViTGAN がこの分野での将来の研究を刺激し、他の画像やビデオの合成タスクにも拡張できることを期待しています。 |
<<: 2022年秋の採用戦争:アルゴリズム職は混み合い、Java開発も後退を余儀なくされる
>>: GPT-4 パラメータは 10 兆に達します!この表は、新しい言語モデルのパラメータが GPT-3 の 57 倍になると予測しています。
[[265422]]人工知能はビジネスを変えています。自然言語処理やインテリジェント音声からモノのイ...
[[349350]] 10月29日、北京亦荘イノベーション発表体験研究イベントで記者らが自動運転タク...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人口の高齢化が加速し、教育に対する需要が引き続き強いことから、中国のサービスロボットは大きな市場潜在...
前回の記事では、特徴の正規化とテンソルを紹介しました。次は、主にシンプルな PyTorch の実践を...
[[392157]]ロボットは通常、設計された特定のタスクを非常にうまく実行する特殊なツールですが、...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
人工知能 (AI) は、スピード、効率、安全性、正確性を向上させることで旅行業界に大きな変化をもたら...
[[385301]]核となる考え方は、次のように簡単にまとめることができます。ニューラル ネットワー...
著者: トーマス・クラバーン編纂者:ヤン・ジェン制作:51CTO テクノロジースタック(WeChat...