北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

AIは面白い動画の何が面白いのかを理解できるようになりました。

AI の回答: このビデオが面白いのは、小さな赤ちゃんがベッドに座って本を読もうとしているのですが、明らかにまだ読めないということです。彼はページのさまざまな場所を指さし続け、カメラマンは背景で彼に向かって笑っていました。赤ちゃんが自分には大きすぎて言葉も理解できない本を読もうとする様子は、とても面白いです。

北京大学などの研究チームが、画像と動画の表現を統一された視覚特徴空間に整列させ、13 種類の画像と動画のベンチマークで高度なパフォーマンスを実現する大規模視覚言語モデルVideo-LLaVA をオープンソース化しました。

注目すべきは、Video-LLaVA はトレーニング中にビデオと画像のペアデータを使用していなかったが、トレーニング後、LLM は驚くべきことに画像とビデオの両方を理解する能力を示したことです。

下の図に示すように、Video-LLaVA は、自由の女神像の画像がクローズアップされ詳細に撮影されていることを認識しています。また、ビデオには自由の女神像の複数の角度が映っており、同じ場所から撮影されたものであることがわかります。

投影前に画像とビデオ表現を合わせる

この研究の具体的な貢献は次のとおりです。

  • Video-LLaVA は、視覚言語理解における画像とビデオの両方の処理という課題に対処します。視覚的表現を言語特徴空間に統合し、大規模な言語モデルが画像とビデオの両方で視覚的推論を実行できるようにします。
  • Video-LLaVA は、最初に画像とビデオの表現を統合された視覚的特徴空間に揃えることで、視覚的表現を言語的特徴空間に統合します。これは、さまざまなモダリティをテキスト特徴空間にマッピングし、統一された視覚表現を提供する LanguageBind エンコーダーを使用することで実現されます。次に、統合された視覚表現は、共有投影レイヤーと単語埋め込みレイヤーを通じてエンコードされ、統合された視覚表現が大規模な言語モデルにマッピングされます。
  • Video-LLaVA はビデオで優れたパフォーマンスを発揮し、MSVD、MSRVTT、TGIF、ActivityNet ビデオ質問応答データセットでそれぞれ Video-ChatGPT を 5.8%、9.9%、18.6%、10.1% 上回りました。

研究チームはモデルの能力について広範囲にわたる実験を行った。

ビデオ理解実験。

表 3 に示すように、Video-LLaVA は 4 つのビデオ質問応答データセットすべてで Video-ChatGPT を上回っており、その増加はかなりのものです。

絵の理解力の実験。

この研究では、画像言語理解タスクを、InstructBLIP、Otter、mPLUG-owl などの大規模画像言語モデルと比較しました。結果は表 2 に示されています。

視覚入力を事前に整列させることの効果を評価するために、研究チームは多数の比較実験を実施しました。

彼らは、画像エンコーダーを同じサイズの MAE エンコーダーに置き換えました。MAE エンコーダーは個別の視覚表現を生成するのに対し、LanguageBind エンコーダーは統一された視覚表現を生成します (視覚表現が事前に整列されているため)。

次に、9 つの画像理解ベンチマークと 4 つのビデオ理解ベンチマークを含む 13 のベンチマークで MAE エンコーダーと LanguageBind エンコーダーのパフォーマンスを比較しました。

LLM は、画像エンコーダーを MAE エンコーダーに置き換えることで、視覚表現を最初に学習するときに、ビデオ機能と画像機能を統合するのではなく、個別に処理します。

図 6 の実験結果は、共同視覚表現により、個別の視覚表現と比較して、4 つのビデオ質問応答データセットのパフォーマンスが大幅に向上することを示しています。

この発見は、事前に調整された視覚表現が LLM がビデオ コンテンツをさらに学習して理解するのに役立つことを示唆しています。より優れた機能が提供され、モデルがビデオ質問応答タスクをより効率的に処理し、より優れたパフォーマンスを発揮できるようになります。

同時に、写真でもビデオでも、共同トレーニングでお互いにメリットが得られることもこの論文では検証しています。

ビデオデータと共同でトレーニングすることで、画像理解タスクにおける幻覚の問題を軽減できます。 LLaVA-Bench ベンチマークでも同様の傾向が見られます。

映像理解の面でも、共同訓練は大幅に改善されました。

<<:  AI「コスプレ」の鍵はキャラクター設定にあり!復旦大学、人民大学などがビッグファイブ性格特性+MBTIテストを発表:特性回復率は82.8%に達し、OOCを否定

>>: 

ブログ    
ブログ    

推薦する

開発者の能力を最大限に引き出すAISpeech DUIオープンプラットフォームがリリースされました

[51CTO.comからのオリジナル記事] Tmall Genie X1、Xiaomi AIスピーカ...

知っておくべきディープラーニングの10の一般的な手法

[[244014]]過去 10 年間で、機械学習への関心は爆発的に高まりました。ほぼ毎日、さまざまな...

人工知能は広告に関して私たちを誤解させている。今こそ誤りを正すべき時だ

社会が急速に変化する時代において、ブランドセーフティ戦略は分裂を招き、保護対象であるブランド評判その...

Jiuzhang DataCanvasがシリーズCの資金調達を完了

最近、DataCanvasはシリーズCの資金調達を完了したことを発表しました。これはAdvantec...

2019年最後の月に、知っておくべき6つの最新の剪定テクニックをご紹介します

剪定技術についてどれくらいご存知ですか? 2019年に6つの論文で紹介された最新の剪定方法をまとめた...

...

何が足りないのでしょうか?現在の機械学習教育の欠点

[[347910]]ビッグデータダイジェスト制作出典: thegradient編集者: フィッシャー...

MITのコンピューターの先駆者ジョエル・モーゼス氏が死去! 50年前にコンピューターに微積分を教えた

コンピューターの専門家がまた一人亡くなりました! 著名なコンピューター科学者で、MITのコンピュータ...

AIアルゴリズム企業パシフィック・フューチャー・テクノロジーの文化観光ソリューションがOCTカラープラネットに上陸

ディープな旅行がますます高品質の観光オプションに浸透するにつれて、観光型の観光はもはや現代人の旅行ニ...

...

ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

1. 背景1.1 ブースティングブースティング[1]は、アンサンブルモデルを訓練するための古典的な手...

...

戦場のアルファ碁:人工知能がもたらす軍事革命が静かに始まった

人工知能と機械学習が人間の世界を完全に変える運命にあることは疑いようがありません。これは軍事分野にも...

人工知能は2018年にこれら5つの業界に革命を起こすだろう

科学技術分野における人工知能技術に関する議論は最高潮に達したようだ。昨年半ば、国務院は「新世代人工知...

インターネット ミュージアムは大ヒットとなり、ネットユーザーの間では思い出が溢れています。あなたはいくつ思い出せるでしょうか?

インターネットの博物館を作るとしたら、どんな「コレクション」を収蔵しますか?今では、あるプログラマー...