Ali はまた新しいことをやっています。人間の顔と文章を使って「Washing the Window」に合わせて踊ることができ、衣装や背景も自由に変更できます。

Ali はまた新しいことをやっています。人間の顔と文章を使って「Washing the Window」に合わせて踊ることができ、衣装や背景も自由に変更できます。

AnimateAnyoneに続き、Alibabaのもう一つの「ダンス作品」論文が人気を集めている——

今回必要なのは、あなたの顔写真と一言の説明だけで、どこでも踊れるようになります!

たとえば、次の「Wipe the Glass」のダンス ビデオ:

写真

必要なのは、ポートレートとプロンプトを「フィード」することだけです:

明るい青色のドレスを着て、微笑みながら黄金色の紅葉の中で踊る少女。

そしてプロンプトが変わると、キャラクターの背景や服装もそれに応じて変化します。たとえば、次の 2 つの文を変更してみましょう。

セーターとズボンを着て、木造の家で笑顔で踊っている女の子。

ドレスのような白いシャツ、長袖、長ズボンを着て、笑顔でタイムズスクエアで踊っている女の子。

写真

これはアリババの最新の研究であるDreaMovingであり、誰でもいつでもどこでもダンスできるようにすることを目的としています。

写真

実際の人物だけでなく、漫画のキャラクターも抱っこできますよ〜

写真

このプロジェクトは発表されるとすぐに多くのネットユーザーの注目を集め、その効果を見て「信じられない」と言った人もいました。

写真

それで、この研究はどのようにしてそのような効果を達成したのでしょうか?

その背後にある原理

Stable Video Diffusion や Gen2 などのテキストからビデオへの変換 (T2V) モデルの登場により、ビデオ生成は飛躍的に進歩しましたが、まだ多くの課題が残っています。

たとえば、データセットに関して言えば、現在、オープンソースの人間のダンスビデオデータセットが不足しており、対応する正確なテキスト記述を取得することが困難であるため、モデルが多様でフレームの一貫性があり、より長いビデオを生成することが困難になっています。

また、人間中心のコンテンツ生成の分野では、生成された結果のパーソナライゼーションと制御可能性も重要な要素です。

写真

これら 2 つの大きな困難に直面して、Alibaba チームはまずデータ セットの処理に着手しました。

研究者たちはまず、インターネットから約1,000本の高品質な人間のダンスビデオを収集した。次に、これらのビデオを約 6,000 本の短いビデオ (それぞれ 8 ~ 10 秒) に分割し、ビデオ クリップにトランジションや特殊効果がないことを確認しました。これにより、時間モジュールのトレーニングが容易になります。

さらに、ビデオのテキスト説明を生成するために、彼らはビデオキャプション作成ツールとして Minigpt-v2 を使用しました。具体的には、フレームを詳細に説明するように指示する「グラウンディング」バージョンです。

キーフレームの中心フレームに基づいて生成された字幕は、ビデオクリップ全体の説明を表し、主に主題と背景の内容を正確に説明します。

フレームワークの面では、Alibaba チームは Stable Diffusion に基づいた DreaMoving というモデルを提案しました。

これは主に、Denoising U-Net、Video ControlNet、Content Guider の 3 つのニューラル ネットワークで構成されています。

写真

その中で、Video ControlNet は、各 U-Net ブロックの後にモーション ブロックを挿入し、制御シーケンス (ポーズまたは深度) を追加の時間残差として処理する画像制御ネットワークです。

ノイズ除去 U-Net は、ビデオ生成用のモーション ブロックを備えた派生的な Stable-Diffusion U-Net です。

Content Guider は、入力テキスト プロンプトと外観表現 (顔など) をコンテンツの埋め込みに転送します。

そうすることで、DreaMoving は、ガイド シーケンスと簡単なコンテンツの説明 (テキストや参照画像など) を入力として、高品質で忠実度の高いビデオを生成できます。

写真

残念ながら、現在、DreaMoving プロジェクトのオープン ソース コードはありません。

興味のある方はまず注目して、コードがオープンソースになるのを待ってください〜

参考リンク: [1] https://dreamoving.github.io/dreamoving/ [2] https://arxiv.org/abs/2312.05107 [3] https://twitter.com/ProperPrompter/status/1734192772465258499 [4] https://github.com/dreamoving/dreamoving-project

<<:  大型モデルがドローンを制御できるように、北京航空航天チームは具現化された知能の新しいアーキテクチャを提案した

>>: 

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

顔認識カメラはあなたの顔を盗みますが、なぜ「精密マーケティング」に使われるのでしょうか?

今年3月15日にCCTVで暴露された事件は、オフラインのショッピング施設に入ったことのある人全員に衝...

市場規模は22億を超えるか?教育用ロボットは急速に発展している

教育は知識を伝える社会的活動として、国の人材育成システムや経済発展に影響を与え、国家の繁栄を促進しま...

顔認識は数十億ドル規模のブルーオーシャンだが、まだ解決すべき問題が2つある

今日は顔をスキャンしましたか? [[373513]]人工知能の急速な発展により、知能の時代が静かに到...

...

ディープラーニングに関しては、こちらをお読みください

編集者注: この記事の著者は、USTC のジュニアクラスの卒業生で投資家の Wang Chuan で...

ドローンによるマッピング:建設業界の再考

[[392894]]建設業界は技術変革の瀬戸際に立っています。建設業界では新しい技術の導入が遅れるこ...

ニューラルスタイル転送アルゴリズムで絵を描くことを学習する人間は、芸術分野で人工知能に負けるのでしょうか?

人工知能はますます多用途になり、すでに私たちの仕事のすべてを人工知能が引き継ぐことができるようです。...

基礎ゼロでもわかる人工知能入門

今日の IT 界で最もホットなテクノロジーについて語るとき、人工知能について触れなければなりません。...

Python 向け 5 つの強化学習フレームワーク

独自の強化学習実装をゼロから作成するのは大変な作業になる可能性がありますが、そうする必要はありません...

専門家の洞察: AI を活用して配送をスピードアップする方法

毎分250人の赤ちゃんが生まれ、世界では4回の地震が発生し、シンガポール港では1,000トンを超える...

...

科学者たちは、より信頼性の高い予測を達成するために人工知能が「近道」をすることを避ける方法を研究している。

新しいアプローチにより、機械学習モデルはタスクを学習する際により多くのデータに焦点を当てるようになり...

北京大学の法律モデルChatLawがサーバー爆発:張三の裁判方法を教えます

大型モデルが再び「爆発」した。昨夜、法律モデルChatLawがZhihuのホット検索リストのトップに...

...