自分だけのデジタルヒューマンを開発しよう、FACEGOODが音声駆動表現技術をオープンソース化

自分だけのデジタルヒューマンを開発しよう、FACEGOODが音声駆動表現技術をオープンソース化


現在、メタバースのトレンドの下、AIデジタルヒューマンもエンターテインメント、サービス、教育、マーケティングなど多くの分野に関わり始めています。市場に出回っている AI デジタルヒューマンには、仮想アシスタント、仮想ツアーガイド、仮想カスタマーサービスなどの機能的 AI デジタルヒューマン、仮想パートナー、仮想家族などのコンパニオン AI デジタルヒューマン、仮想アンカー、仮想アイドル、仮想教師、仮想医師、仮想ショッピングガイドなどのソーシャル AI デジタルヒューマンが含まれます。

浦東発展銀行の銀行業界初のデジタル従業員、シャオ・プー

Huya AI デジタルヒューマン ワンユ

Sohu News ClientとSogouが立ち上げた初の有名人「AIデジタルヒューマン」キャスター。

仮想デジタルヒューマンのマルチドメイン浸透を実現し、より多くのAIデジタルヒューマンシナリオを実装するために、 FACEGOODはAI仮想デジタルヒューマンのコアアルゴリズムである音声駆動リップシンクアルゴリズム技術を正式にオープンソース化することを決定しました。この技術がオープンソース化されると、AIデジタルヒューマンの開発ハードルが大幅に下がります

プロジェクトアドレス: https://github.com/FACEGOOD/Audio2Face

プロジェクトの背景

2019年、第10回中国国際ニューメディア短編映画祭の組織委員会とFACEGOODが共同で、陸川監督のAIデジタルヒューマンを発表しました。

陸川監督のAIデジタルヒューマンイメージ

観客はAIデジタルLu Chuanと直接対面して交流することができ、仮想空間と現実空間の間の次元の壁を打ち破るリアルタイムでリアルなコミュニケーションとインタラクティブな体験をもたらします。リアルタイムのインタラクティブ効果を実現するために、FACEGOOD は音声から表情アニメーションへのリアルタイム変換を実現するデジタルヒューマンリアルタイム音声インタラクションシステムを開発しました。

今日、FACEGOOD は音声駆動表現セット全体の技術コードをオープンソース化し、デジタル ヒューマン開発者に無料で提供することを決定しました。

技術通訳

この技術は、音声を表情ブレンドシェイプアニメーションにリアルタイムで変換できます。これを行う理由は、現在の業界では、BSを使用してデジタル画像のアニメーション表現を駆動することが依然として主流であり、アニメーションアーティストが最終的なアニメーション出力に最も芸術的な調整を加えるのに便利であり、送信されるデータ量が少なく、異なるデジタル画像間でアニメーションを転送するのに便利であるなどです。

FACEGOOD は、これらの実際の制作ニーズに基づいて、入力データと出力データに適切な調整を加えました。サウンド データに対応するラベルは、モデル アニメーションのポイント クラウド データではなく、モデル アニメーションのブレンドシェイプ ウェイトになりました。最終的な使用プロセスを以下の図 1 に示します。

上記のプロセスでは、 FACEGOODが主にAudio2Face部分を完成させ、ASRとTTSはAISpiechインテリジェントロボットによって完成されます。自分の音声や第三者の音声を使用する場合は、ASR と TTS を自分で置き換えることができます。

もちろん、 FACEGOOD Audio2face部分は、自分の好みに合わせて再トレーニングすることもできます。例えば、自分の声や他の種類の声、またはFACEGOODが使用しているものと異なるモデルバインディングを運転データとして使用したい場合は、下記のプロセスに従って、自分専用のアニメーション運転アルゴリズムモデルトレーニングを完了することができます

では、Audio2Face のフレームワークとは何でしょうか?独自のトレーニングデータをどのように作成しますか?詳細は以下の図 2 に示されています。

従来のニューラル ネットワーク モデルのトレーニングは、データの収集と生成、データの前処理、データ モデルのトレーニングという 3 つの段階に大まかに分けられます。


  • 最初の段階はデータの収集と生成です。ここには主にサウンドデータとサウンドに対応したアニメーションデータの2種類のデータがあります。音声データは主に中国語のアルファベットの発音といくつかの特殊な破裂音を記録しており、発音付きのテキストを可能な限り多く収録しています。アニメーション データは、録音した音声データを Maya にインポートし、独自のバインディングに従ってモデルの顔の特徴に応じて対応する発音アニメーションを作成します。
  • 第 2 段階では、主に LPC を介してサウンド データを処理し、サウンド データをアニメーションに対応するフレーム データに分割し、Maya アニメーション フレーム データをエクスポートします。
  • 3 番目の段階では、処理されたデータをニューラル ネットワークの入力として使用し、損失関数が収束するまでトレーニングします。




<<:  IDC: 2024年までにIoTシステムの約20%が人工知能をサポートすると予想

>>:  量子コンピューティングの画期的な論文3本がネイチャーの表紙に登場:忠実度は99%を超え、実用レベルに到達

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

C++ の巨匠、ジョン・カーマック氏: 心配しないでください、私は汎用 AI に取り組むつもりです!

本日、VRの第一人者でありOculusのCTOであるジョン・カーマック氏はFacebookにメッセー...

まずは機械学習から始めましょう

この記事では、機械学習について簡単に紹介します。この記事の目的は、機械学習の知識がない人が機械学習を...

...

小鵬汽車と徳賽SV自動車有限公司がレベル3自動運転システムの開発で協力

最近、小鵬汽車とDesay SVは戦略的協力協定を締結し、レベル3自動運転システムの開発で協力すると...

...

業界初のNLPシナリオ向けディープラーニングフレームワークがオープンソースに

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

自動運転車はすでに登場していますが、船舶が AI に取って代わられるまでには長い時間がかかるのでしょうか?

次回フェリーに乗るときは、ブリッジをよく見ることを忘れないでください。舵を取っているのは人間ではない...

2024年には、AI PCが目を見張るほど登場するでしょう。企業や消費者はどのように選択すべきでしょうか?

先日開催されたCES 2024カンファレンスでは、AI PC(人工知能コンピュータ)のコンセプトや製...

私の国のドローンは新たな段階に入り、成熟した開発にはまだ3つのレベルを通過する必要があります

[[428031]]先日の建国記念日、ドローンは間違いなく「最もクールな存在」でした。交通の補助、景...

AIがピークを迎える中、CIOはクラウドコンピューティングのコスト戦略を強化

AIがピークを迎える中、CIOはクラウドコンピューティングのコスト戦略を強化クラウド コンピューティ...

AI投資から利益を得るための3つの鍵

人工知能 (AI) の専門家や機械学習 (ML) サービスの利用可能性が高まるにつれて、AI は多く...

...

選択が難しいですか?最適な機械学習アルゴリズムの選び方を1つの記事で解説

機械学習アルゴリズムを適用して、関心のある問題を解決したいと考えている初心者/中級のデータ サイエン...

...