Ali はまた新しいことをやっています。人間の顔と文章を使って「Washing the Window」に合わせて踊ることができ、衣装や背景も自由に変更できます。

Ali はまた新しいことをやっています。人間の顔と文章を使って「Washing the Window」に合わせて踊ることができ、衣装や背景も自由に変更できます。

AnimateAnyoneに続き、Alibabaのもう一つの「ダンス作品」論文が人気を集めている——

今回必要なのは、あなたの顔写真と一言の説明だけで、どこでも踊れるようになります!

たとえば、次の「Wipe the Glass」のダンス ビデオ:

写真

必要なのは、ポートレートとプロンプトを「フィード」することだけです:

明るい青色のドレスを着て、微笑みながら黄金色の紅葉の中で踊る少女。

そしてプロンプトが変わると、キャラクターの背景や服装もそれに応じて変化します。たとえば、次の 2 つの文を変更してみましょう。

セーターとズボンを着て、木造の家で笑顔で踊っている女の子。

ドレスのような白いシャツ、長袖、長ズボンを着て、笑顔でタイムズスクエアで踊っている女の子。

写真

これはアリババの最新の研究であるDreaMovingであり、誰でもいつでもどこでもダンスできるようにすることを目的としています。

写真

実際の人物だけでなく、漫画のキャラクターも抱っこできますよ〜

写真

このプロジェクトは発表されるとすぐに多くのネットユーザーの注目を集め、その効果を見て「信じられない」と言った人もいました。

写真

それで、この研究はどのようにしてそのような効果を達成したのでしょうか?

その背後にある原理

Stable Video Diffusion や Gen2 などのテキストからビデオへの変換 (T2V) モデルの登場により、ビデオ生成は飛躍的に進歩しましたが、まだ多くの課題が残っています。

たとえば、データセットに関して言えば、現在、オープンソースの人間のダンスビデオデータセットが不足しており、対応する正確なテキスト記述を取得することが困難であるため、モデルが多様でフレームの一貫性があり、より長いビデオを生成することが困難になっています。

また、人間中心のコンテンツ生成の分野では、生成された結果のパーソナライゼーションと制御可能性も重要な要素です。

写真

これら 2 つの大きな困難に直面して、Alibaba チームはまずデータ セットの処理に着手しました。

研究者たちはまず、インターネットから約1,000本の高品質な人間のダンスビデオを収集した。次に、これらのビデオを約 6,000 本の短いビデオ (それぞれ 8 ~ 10 秒) に分割し、ビデオ クリップにトランジションや特殊効果がないことを確認しました。これにより、時間モジュールのトレーニングが容易になります。

さらに、ビデオのテキスト説明を生成するために、彼らはビデオキャプション作成ツールとして Minigpt-v2 を使用しました。具体的には、フレームを詳細に説明するように指示する「グラウンディング」バージョンです。

キーフレームの中心フレームに基づいて生成された字幕は、ビデオクリップ全体の説明を表し、主に主題と背景の内容を正確に説明します。

フレームワークの面では、Alibaba チームは Stable Diffusion に基づいた DreaMoving というモデルを提案しました。

これは主に、Denoising U-Net、Video ControlNet、Content Guider の 3 つのニューラル ネットワークで構成されています。

写真

その中で、Video ControlNet は、各 U-Net ブロックの後にモーション ブロックを挿入し、制御シーケンス (ポーズまたは深度) を追加の時間残差として処理する画像制御ネットワークです。

ノイズ除去 U-Net は、ビデオ生成用のモーション ブロックを備えた派生的な Stable-Diffusion U-Net です。

Content Guider は、入力テキスト プロンプトと外観表現 (顔など) をコンテンツの埋め込みに転送します。

そうすることで、DreaMoving は、ガイド シーケンスと簡単なコンテンツの説明 (テキストや参照画像など) を入力として、高品質で忠実度の高いビデオを生成できます。

写真

残念ながら、現在、DreaMoving プロジェクトのオープン ソース コードはありません。

興味のある方はまず注目して、コードがオープンソースになるのを待ってください〜

参考リンク: [1] https://dreamoving.github.io/dreamoving/ [2] https://arxiv.org/abs/2312.05107 [3] https://twitter.com/ProperPrompter/status/1734192772465258499 [4] https://github.com/dreamoving/dreamoving-project

<<:  大型モデルがドローンを制御できるように、北京航空航天チームは具現化された知能の新しいアーキテクチャを提案した

>>: 

ブログ    

推薦する

最高年収は約56万! 2023年の最新のAIGC雇用動向レポートが発表されました

言うまでもなく、ChatGPT が過去 6 か月間でどれほど人気が​​あったかは誰もが知っています。...

人工知能の役割がクローズアップ!ロボットが増えると雇用に影響が出るでしょうか?

短期的には、人工知能が雇用全体に与える影響は比較的軽微であり、構造的影響が量的影響を上回っている。し...

JavaScript: ソートアルゴリズムとコード実装のトップ 10

この記事の内容には、(双方向) バブル ソート、選択ソート、挿入ソート、クイック ソート (穴埋めと...

ぜひ見に来てください!数千の「AIブラックテクノロジー」がここに集結

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

MotionLM: 言語モデルとしてのマルチエージェント動作予測

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

...

...

TensorFlow を通じてディープラーニング アルゴリズムを実装し、企業の実務に適用する方法

この記事は、Caiyun Technology のトップ ビッグ データ サイエンティストである Z...

チューリング賞受賞者のジュディア・パールが語る「データだけに頼るな」

[[412443]]現在の人工知能研究コミュニティでは、データ中心の方法が絶対的に優勢であり、その...

自動機械学習ガイド: 4 つの成熟モデル

[51CTO.com クイック翻訳] 人工知能と機械学習の概念は、データサイエンスコミュニティで人気...

...

GPT-4 はハイブリッド大規模モデルを使用しますか?研究により、MoE+命令チューニングにより大規模モデルのパフォーマンスが向上することが証明された

GPT-4 の登場以来、優れた言語理解、生成、論理的推論など、その強力な創発能力に人々は驚嘆してきま...

2022年のスマート製造のトレンド

製造業は過去 1 世紀にわたって大きく変化しました。 新しい高度なテクノロジーが業界を前進させるにつ...

ボストン・ダイナミクスのロボット犬の初開封ビデオ:53万ドルで何を買ったのか?

53万元の犬を箱から取り出すのはどんな感じでしょうか?ボストン・ダイナミクス初の小売ロボット「スポ...