過去2年間で、LAION-5B、Stable Diffusion、DALL-E 2、ControlNet、Composerなどの大規模な画像およびテキストデータセットが公開され、驚くべき画像生成手法が次々と登場しました。画像生成の分野は急速に進歩しています。 しかし、画像生成と比較すると、ビデオ生成は依然として大きな課題に直面しています。まず、ビデオ生成では、より高次元のデータを処理し、追加の時間次元によってもたらされる時間モデリングの問題を考慮する必要があります。したがって、時間的ダイナミクスの学習を促進するには、より多くのビデオとテキストのペアのデータが必要です。しかし、ビデオの正確な時間的注釈付けは非常に高価です。これにより、ビデオテキストデータセットの規模が制限されます。たとえば、既存の WebVid10M ビデオデータセットには 1,070 万のビデオテキストペアが含まれていますが、これはデータ規模の点で LAION-5B 画像データセットとは大きく異なり、ビデオ生成モデルのスケーラビリティが著しく制限されます。 上記の問題を解決するために、華中科技大学、アリババグループ、浙江大学、アントグループの共同研究チームが最近、TF-T2Vビデオソリューションをリリースしました。 論文アドレス: https://arxiv.org/abs/2312.15770 プロジェクトホームページ: https://tf-t2v.github.io/ コードはまもなくオープンソースになります: https://github.com/ali-vilab/i2vgen-xl (VGen プロジェクト) このソリューションは異なるアプローチを採用し、豊富なモーションダイナミクスを学習できる大規模なテキストフリーのビデオデータに基づくビデオ生成を提案します。 まずはTF-T2Vのビデオ生成効果を見てみましょう。 ヴィンセントビデオタスク ヒント: 雪に覆われた風景に、大きな霜のような生き物のビデオが生成されます。 プロンプト: 漫画の蜂のアニメーションビデオを生成します。 プロンプト: 未来的なファンタジーバイクを含むビデオを生成します。 プロンプト: 幸せそうに笑っている小さな男の子のビデオを生成します。 プロンプト: 頭痛に悩む老人のビデオを生成します。 組み合わせビデオ生成タスク テキストと深度マップ、またはテキストとスケッチが与えられた場合、TF-T2V は制御可能なビデオ生成を実行できます。 高解像度のビデオ合成も可能です: 半教師あり設定 半教師あり設定の TF-T2V メソッドでは、「人が右から左に走る」など、動作のテキスト説明に一致するビデオを生成することもできます。 方法の紹介TF-T2Vの核となるアイデアは、モデルをモーションブランチとアピアランスブランチに分割することです。モーションブランチはモーションダイナミクスをモデル化するために使用され、アピアランスブランチは視覚的な外観情報を学習するために使用されます。これら 2 つのブランチを共同でトレーニングすることで、最終的にテキスト駆動型のビデオ生成を実現できます。 生成されたビデオの時間的一貫性を改善するために、著者チームはビデオフレーム間の連続性を明示的に学習するための時間的一貫性損失も提案しました。 TF-T2V は、ビデオ生成タスクに適しているだけでなく、スケッチからビデオ、ビデオ修復、最初のフレームからビデオなどの組み合わせたビデオ生成タスクにも適用できる汎用フレームワークであることは注目に値します。 具体的な詳細やさらなる実験結果については、原論文またはプロジェクトのホームページを参照してください。 さらに、著者チームはTF-T2Vを教師モデルとして使用し、一貫性蒸留技術を使用してVideoLCMモデルを取得しました。 論文アドレス: https://arxiv.org/abs/2312.09109 プロジェクトホームページ: https://tf-t2v.github.io/ コードはまもなくオープンソースになります: https://github.com/ali-vilab/i2vgen-xl (VGen プロジェクト) 約 50 の DDIM ノイズ除去ステップを必要とする従来のビデオ生成方法とは異なり、TF-T2V ベースの VideoLCM 方式では、推論ノイズ除去ステップ約 4 のみで高忠実度のビデオを生成できるため、ビデオ生成の効率が大幅に向上します。 VideoLCM の 4 段階のノイズ除去推論の結果を見てみましょう。 詳細と実験結果については、VideoLCM の原論文またはプロジェクトのホームページを参照してください。 要約すると、TF-T2V ソリューションは、データセットのサイズと注釈の問題によってもたらされる課題を克服し、ビデオ生成の分野に新しいアイデアをもたらします。 TF-T2V は、テキスト注釈のない大規模なビデオ データを活用することで、高品質のビデオを生成でき、さまざまなビデオ生成タスクに適用できます。この革新は、ビデオ生成技術の発展を促進し、あらゆる分野に幅広い応用シナリオとビジネスチャンスをもたらすでしょう。 |
<<: OpenAIも996に取り組んでいますか?元従業員が告白:コード貢献度4位、6日間勤務することが多かった
>>: 大型モデルの欠点を補うことに特化したRAGでは、どのような新たな進歩があったのでしょうか?このレビューでは明らかに
人工知能データ収集およびラベリングのリーディングカンパニーであるYunce Dataは最近、「202...
[[207922]]データ前処理(この部分は原著者が書いたものではなく、個人的な理解と関連内容に基づ...
この記事の内容には、(双方向) バブル ソート、選択ソート、挿入ソート、クイック ソート (穴埋めと...
12月7日から8日にかけて、中華人民共和国教育部、中国ユネスコ国家委員会、ユネスコの共催による「20...
この記事では主に、機械学習プロジェクトの編成と管理に関する実践的な経験をいくつか紹介します。パイソン...
たった1日で、OpenAIの取締役会は劇的に変化しました。最新のニュースによると、ウルトラマンがCE...
[[393588]]まとめファームウェア/ソフトウェアのセキュリティ脆弱性はグリッド セキュリティに...
[[260979]]人工知能(AI)技術があらゆる分野にますます大きな影響を及ぼすようになるにつれ、...
1. プロジェクトの説明1.DEMOのアイデアはカード辞書です。 2. カードによって表示される内容...
毎年恒例のスーパーボウル決勝戦の前に、Amazon は「Alexa の新しい形」というもう一つの大ヒ...
[[229403]]現在の人工知能の発展は「実用的な」段階に入っています。 2018年の初め、国家...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...