モンローとドラゴンマザーがあなたと話すことを学びましょう。静止画とビデオだけです

モンローとドラゴンマザーがあなたと話すことを学びましょう。静止画とビデオだけです

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

有名人にあなたのスピーチを真似してもらいたい場合はどうすればいいでしょうか?

とても簡単です。有名人の写真とあなたが話しているビデオがあれば、数分で完了します。

効果を見てみましょう:

あなたが顔をしかめたり首を振ったりすると、写真の中の有名人があなたとシンクロします

イタリアのトレント大学の研究では次のように述べられています。

一次モーションモデルを使用すると、静止画像をアニメーション化でき、顔の変更も問題なく行えます。

もちろん、このような興味深いプロジェクトがオープンソース化されました!

トランプが演説し、スターク家の一団も何か言いたいことがある

実際、この研究は数か月前に発表されました。

当時使われた入力ビデオはトランプ建国同志のもので、静止画はスターク家や『氷と炎の歌』の登場人物の写真一式だった。

効果は次のようになります。

川建国同志が瞬きをしても首を振っても、劇中の登場人物は完璧に同期していることがわかります。

象徴的なO型の口も鮮やかに「模倣」されました。

数か月後、この技術はRedditで再び人気を博しました。

考えられる理由の 1 つは、今回の入力ビデオが人気の短編ビデオ プラットフォームからのものであるため、自分で録画したビデオも使用できるということです。

リアルで興味深い効果を考えると、短編動画コンテンツ プラットフォームがこの機能を導入するのもそう遠くないかもしれません。

もちろん、このモデルの魅力はそれだけではありません。

モデルがポーズを変える動画を入力し、衣服の静止写真を複数枚追加することで、衣服を動的に表示する動画を一括出力できます。

顔を変えるのも簡単です。

ただし、注意点があります。静止写真は注意して使用してください。そうしないと、結果が「生きている世界から来たもの」のようには見えなくなる可能性があります...

一次運動モデル

トレーニング段階では、研究者は同じカテゴリーのオブジェクトを含むビデオシーケンスの大規模なコレクションを使用しました。モデルは、ビデオの単一フレームと学習した潜在的な動きの表現を組み合わせてビデオを再構築するようにトレーニングされます。

テスト段階では、研究者らはソース画像と運転ビデオの各フレームからなるペアにモデルを適用し、ソースオブジェクトの画像アニメーションを実行しました。

モデルのフレームワークを下の図に示します。

フレームワークは主に、動き推定モジュール画像生成モジュールの 2 つの部分で構成されています。

動き推定モジュールの目的は、密な動きフィールドを予測することです。研究者らは抽象的な参照フレームの存在を仮定し、「参照からソースへ」と「参照からドライバーへ」という 2 つの変換を独立して推定しました。これにより、ソース フレームとドライバー フレームを個別に処理できるようになります。

研究者らは、テスト時にモデルがさまざまなビデオからサンプリングされたソース画像と駆動フレームのペアを受け取るため、視覚的に大きく異なる可能性があるため、このステップが必要であると主張している。

最初のステップでは、自己教師方式で学習されたキーポイントを使用して取得された軌道のスパース セットから、これら 2 つの変換を近似します。各キーポイントの周囲の動きは、ローカルアフィン変換を使用してモデル化されます。

2 番目のステップでは、密なモーション ネットワークをローカル近似と組み合わせて、密なモーション フィールドを取得します。とりわけ、このネットワークはオクルージョン マスクを出力し、ソース イメージをワープすることでイメージのどの駆動部分を再構築できるか、およびどの部分を描画する必要があるか (コンテキストから推測) を示します。

3 番目のステップでは、生成モジュールが、運転ビデオで提供されるソース オブジェクトの動きに応じて画像をレンダリングします。ここで、研究者らはジェネレーター ネットワークを使用して、密な動きに基づいてソース画像をワープし、ソース画像内の遮蔽された画像部分をカラー化しました。

最後に、このモデルは GitHub でオープンソース化されており、「ポータル」にアドレス リンクが用意されています。

今すぐ試してみて〜

ポータル

GitHub プロジェクト アドレス:
https://github.com/AliaksandrSiarohin/ファーストオーダーモデル

論文の宛先:
出典: http://arxiv.org/pdf/2003.00196.pdf

<<:  トランプの「猫と犬バージョン」を生成、偽顔ツールStarGANv2が壊れており、アルゴリズムがオープンソース化されている

>>:  速報です!画像AI企業「Huiyi Huiying」がハッキングされ、COVID-19研究成果が公開された

ブログ    
ブログ    

推薦する

Nature: 地域や文化を超えて、AIはすべての人間に共通する16の表情を認識する

人々の間には大きな違いがしばしばありますが、私たちの存在にはほぼすべての人に共通する要素が数多くあり...

ビッグデータと人工知能のために生まれた新しい職業:アルゴリズム専門家

ビッグデータとは、さまざまな種類のデータから貴重な情報を迅速に取得する能力を指します。これを理解する...

...

...

...

VGG畳み込みニューラルネットワークモデル分析

1: VGGの紹介とモデル構造VGGはVisual Geometry Groupの略で、オックスフォ...

世界一のAIサーバーになるための勇気と戦略

現在、人工知能はますます産業に統合されつつあります。アプリケーション側では、顔認識決済、自動運転車、...

...

可視性プラットフォームがセキュリティ オペレーション センター (SOC) にとって重要な理由は何ですか?

ディスプレイ ソリューションは、今日のセキュリティ オペレーション センター (SOC) で必要な複...

ディープラーニングを理解する

1. 現在の状況:ディープラーニングは現在非常に注目されており、あらゆる種類のカンファレンスがそれと...

...

詳細レポート: ビッグモデルが AI を全面的に加速させます!黄金の10年が始まる

過去70年間に「3つの上昇と2つの下降」を経験した後、基盤となるチップ、コンピューティングパワー、デ...

...

「ブロックチェーン+人工知能」は医療金融やその他の応用シナリオに応用されています

最近、国家インターネット金融セキュリティ技術専門家委員会と上海振聯公司は共同で「ブロックチェーン+A...