自分だけのデジタルヒューマンを開発しよう、FACEGOODが音声駆動表現技術をオープンソース化

自分だけのデジタルヒューマンを開発しよう、FACEGOODが音声駆動表現技術をオープンソース化


現在、メタバースのトレンドの下、AIデジタルヒューマンもエンターテインメント、サービス、教育、マーケティングなど多くの分野に関わり始めています。市場に出回っている AI デジタルヒューマンには、仮想アシスタント、仮想ツアーガイド、仮想カスタマーサービスなどの機能的 AI デジタルヒューマン、仮想パートナー、仮想家族などのコンパニオン AI デジタルヒューマン、仮想アンカー、仮想アイドル、仮想教師、仮想医師、仮想ショッピングガイドなどのソーシャル AI デジタルヒューマンが含まれます。

浦東発展銀行の銀行業界初のデジタル従業員、シャオ・プー

Huya AI デジタルヒューマン ワンユ

Sohu News ClientとSogouが立ち上げた初の有名人「AIデジタルヒューマン」キャスター。

仮想デジタルヒューマンのマルチドメイン浸透を実現し、より多くのAIデジタルヒューマンシナリオを実装するために、 FACEGOODはAI仮想デジタルヒューマンのコアアルゴリズムである音声駆動リップシンクアルゴリズム技術を正式にオープンソース化することを決定しました。この技術がオープンソース化されると、AIデジタルヒューマンの開発ハードルが大幅に下がります

プロジェクトアドレス: https://github.com/FACEGOOD/Audio2Face

プロジェクトの背景

2019年、第10回中国国際ニューメディア短編映画祭の組織委員会とFACEGOODが共同で、陸川監督のAIデジタルヒューマンを発表しました。

陸川監督のAIデジタルヒューマンイメージ

観客はAIデジタルLu Chuanと直接対面して交流することができ、仮想空間と現実空間の間の次元の壁を打ち破るリアルタイムでリアルなコミュニケーションとインタラクティブな体験をもたらします。リアルタイムのインタラクティブ効果を実現するために、FACEGOOD は音声から表情アニメーションへのリアルタイム変換を実現するデジタルヒューマンリアルタイム音声インタラクションシステムを開発しました。

今日、FACEGOOD は音声駆動表現セット全体の技術コードをオープンソース化し、デジタル ヒューマン開発者に無料で提供することを決定しました。

技術通訳

この技術は、音声を表情ブレンドシェイプアニメーションにリアルタイムで変換できます。これを行う理由は、現在の業界では、BSを使用してデジタル画像のアニメーション表現を駆動することが依然として主流であり、アニメーションアーティストが最終的なアニメーション出力に最も芸術的な調整を加えるのに便利であり、送信されるデータ量が少なく、異なるデジタル画像間でアニメーションを転送するのに便利であるなどです。

FACEGOOD は、これらの実際の制作ニーズに基づいて、入力データと出力データに適切な調整を加えました。サウンド データに対応するラベルは、モデル アニメーションのポイント クラウド データではなく、モデル アニメーションのブレンドシェイプ ウェイトになりました。最終的な使用プロセスを以下の図 1 に示します。

上記のプロセスでは、 FACEGOODが主にAudio2Face部分を完成させ、ASRとTTSはAISpiechインテリジェントロボットによって完成されます。自分の音声や第三者の音声を使用する場合は、ASR と TTS を自分で置き換えることができます。

もちろん、 FACEGOOD Audio2face部分は、自分の好みに合わせて再トレーニングすることもできます。例えば、自分の声や他の種類の声、またはFACEGOODが使用しているものと異なるモデルバインディングを運転データとして使用したい場合は、下記のプロセスに従って、自分専用のアニメーション運転アルゴリズムモデルトレーニングを完了することができます

では、Audio2Face のフレームワークとは何でしょうか?独自のトレーニングデータをどのように作成しますか?詳細は以下の図 2 に示されています。

従来のニューラル ネットワーク モデルのトレーニングは、データの収集と生成、データの前処理、データ モデルのトレーニングという 3 つの段階に大まかに分けられます。


  • 最初の段階はデータの収集と生成です。ここには主にサウンドデータとサウンドに対応したアニメーションデータの2種類のデータがあります。音声データは主に中国語のアルファベットの発音といくつかの特殊な破裂音を記録しており、発音付きのテキストを可能な限り多く収録しています。アニメーション データは、録音した音声データを Maya にインポートし、独自のバインディングに従ってモデルの顔の特徴に応じて対応する発音アニメーションを作成します。
  • 第 2 段階では、主に LPC を介してサウンド データを処理し、サウンド データをアニメーションに対応するフレーム データに分割し、Maya アニメーション フレーム データをエクスポートします。
  • 3 番目の段階では、処理されたデータをニューラル ネットワークの入力として使用し、損失関数が収束するまでトレーニングします。




<<:  IDC: 2024年までにIoTシステムの約20%が人工知能をサポートすると予想

>>:  量子コンピューティングの画期的な論文3本がネイチャーの表紙に登場:忠実度は99%を超え、実用レベルに到達

ブログ    

推薦する

...

...

AI イニシアチブを成功させるために必要な 10 のこと

市場で競争上の優位性を獲得する過程で、多くの企業が新興技術の導入に熱心です。しかし、導入を急ぐあまり...

...

研究によると、AIシステムは大量のエネルギーを消費する

同研究機関はAIインフラの需要について徹底的な調査を実施し、AIシステムに必要なエネルギーは本格導入...

近年、「人工知能」が私たちの生活に静かに登場している

科学技術と産業技術の継続的な発展により、私たちの生活は大きく向上し、「人工知能」という言葉も徐々に私...

2021年以降の人工知能トレンドに関する5つの予測

[[377548]]アンドリュー・ン教授(スタンフォード大学コンピュータサイエンスおよび電気工学准教...

これは人工ニューラルネットワークの非常に簡単な説明です

[[419321]]導入私は機械学習についてはよく知りませんが、先月、GitHub で Go のサン...

マルチモーダル生成AIの深掘り

マルチモーダル生成型人工知能 (GenAI) は、汎用人工知能の実現に向けた次の大きな進歩と言えます...

CMU、清華大学、MITが世界初のエージェント無限フローをリリース。ロボット「007」は残業して勉強が止まらない!具現化された知能は革命を起こしている

世界初の生成型ロボットエージェントがリリースされました!長い間、大規模なインターネットデータでトレー...

OpenAI は ChatGPT 機能のアップデートを多数リリースする予定ですが、そのうちいくつご存知ですか?

OpenAI 開発者関係の専門家 Logan Kilpatrick 氏は、ソーシャル メディアに「...

Java ソートアルゴリズムの概要 (パート 3): バブル ソート

バブル ソートは、計算時間が O(n^2) のコンピュータ ソート方法です。ヒープ ソートやクイック...

画像認識のためのトップ 5 プログラミング言語

この間、ゴミの分別に関するミニプログラムやアプリの登場により、画像認識が再び人々の注目を集めています...

...