特定のイベントが発生した正確な時刻を特定します。 Byte&復旦大学のマルチモーダル大型モデル解釈ビデオはとても良い

特定のイベントが発生した正確な時刻を特定します。 Byte&復旦大学のマルチモーダル大型モデル解釈ビデオはとても良い

Byte & 復旦大学のマルチモーダル理解モデルはこちらです:

ビデオ内の特定のイベントが発生した時間を正確に特定できます。

たとえば、次のビデオでは:

犬が振り返ってカメラを見たときのタイムスタンプは何ですか?

スケートボードを蹴るときに爪を使うのはいつですか?

ここで、動画の赤ちゃんがメガネを押し上げたり、体を伸ばしたりしたのはいつでしょうか?この本を読み始めたのはいつですか?

このような質問に対して、このレゴと呼ばれるモデルは、すべてを理解し、ためらうことなく正しい答えを出すことができます。

これらの研究結果により、今後は動画の視聴や情報の検索がさらに便利になりそうですね。

地域情報を正確に把握できるマルチモーダルLLMが登場

LEGO は、言語強化型マルチモーダルグラウンディング モデルの略です。

これは主に、複数のモダリティにわたってきめ細かな理解を実行するマルチモーダル LLM の能力に焦点を当てています。これまでの業界の成果は、主にグローバル情報に重点を置いていました。

この目標を達成するために、著者はデータセットから始めて、モデルトレーニング用のマルチモーダル、マルチ粒度の質問応答データセットを作成しました(これはまもなくオープンソースになります)

このデータセットの構築には、2 つの主要なプロセスが含まれます。

1 つ目はデータセット変換です。

この段階では、著者らは、モダリティの調整と細分化された調整のための基本的なマルチモーダル データセットを構築することを目指しています。

データセットの品質は比較的低いため、主に公開データセットを変換して取得されます。

下の図の上部に示すように、GPT-3.5にタスクの説明を与えてタスク固有の質問ライブラリを生成し、最終的に1ラウンドの対話形式で質問と回答のペアを生成します。

結果として得られるデータセットは、品質を確保するためにフィルタリングされます。

画像モダリティについては、モダリティの調整に LLaVA-pretrain595K データセットを使用し、きめ細かい調整には RefCOCO などの特定のデータセットを使用しました。

ビデオ モダリティは Valley-Pretrain-703K を使用して調整され、きめ細かい調整には Charades-STA データセットが使用されます。

2 つ目は、命令チューニング データセットの生成です。

このデータセットの目的は、モデルが人間の指示をよりよく理解し、それに従うようにすることです。

上の図の下部に示すように、著者らはコンテキストの例を作成するために、公開されているデータセットのサブセット(Flickr30K Entities、VCR、DiDeMo など)も選択して手動で注釈を付けました。これは、命令チューニング データセットを生成するときに、GPT-3.5 が同様のパターンに従うようにガイドするために使用されます。

その後、タスク固有のシステムプロンプトとランダムに選択された例が GPT-3.5 に入力され、単一ターンまたは複数ターンのダイアログが生成されます。最後に、データセットの品質を確保するためにデータのフィルタリングが実行されます。

以下は、3 段階のトレーニング後に生成された最終データ サンプルの例です。

LEGO モデルのアーキテクチャは次のとおりです。

各モダリティの入力は個別のエンコーダーを介して処理され、特徴が抽出され、その後、アダプターを使用して LLM の埋め込み空間にマッピングされます。

この図は、ビデオ モードと画像モードの 2 つの例を示しています。青いボックスは入力としてビデオを表し、黄色のボックスは入力として画像を表します。

モジュール設計とアダプターに基づくアーキテクチャにより、LEGO は新しいエンコーダーをシームレスに統合し、ポイント クラウドや音声などの追加モダリティを処理できるため、優れた拡張機能となります。

最後に、LEGO は Vicuna1.5-7B を基本言語モデルとして使用し、マルチモーダル事前トレーニング、きめ細かいアライメント調整、クロスモーダル指示調整の 3 段階でトレーニングを完了します。

実験評価は次のとおりです。

画像タスクにおいて、RECタスクにおけるLEGOモデルと他のモデルのパフォーマンスは次の表の通りです。すべてのデータセットにおいて比較的競争力のあるパフォーマンスを示していることがわかります。

ビデオタスクでは、LEGO はビデオ全体の理解に重点を置いており、VideoLLaMA、VideoChat、Valley の 3 つのモデルと比較してそのパフォーマンスは非常に優れています。

さらなる能力の実証

前述のように、LEGO の機能はビデオの配置に限定されず、画像やオーディオなどのマルチモーダル タスクにも優れています。

それは次のことを指します。

  • 画像コンテンツの解釈

この風景写真では、遊ぶことのリスクについて正確な警告を与えています。

このミームでは、これがフライドチキンで作られたシンプルな地図であることも正確に発見されました。

  • ビデオコンテンツの概要

非常に詳細な都市の座標と観光スポットを識別できることがわかります。

  • オーディオ分析

もちろん、ここでテストされているのは、純粋な雨の音の比較的単純な短いオーディオだけです。

  • サウンドポジショニング

犬が吠える音声クリップと走っている犬の画像を与えると、犬の口の周りの音源を正確に特定できます。

著者について

この記事の著者は合計 12 人です。

復旦大学の第一著者である Zhaowei Li 氏に加え、同じくここ出身の Dong Zhang 氏という著者もいます。

残りはByteDanceの従業員であり、責任著者はTao Wangです。

論文アドレス: https://arxiv.org/abs/2401.06071

<<: 

>>:  ChatGPTはAmazonに「オンラインストアを開設」し、一夜にしてインターネットの有名人になった

ブログ    
ブログ    

推薦する

...

人工知能は何ができるのでしょうか?今日はそれを総合的に見ていきましょう。

電子廃棄物[[277263]]環境の持続可能性のために AI と IoT を活用すると、現在の環境保...

「ディープラーニング」市場の動向を多面的に分析

[[192373]]業界分析2016 年、世界のディープラーニング市場規模は 2 億 2,700 万...

2020年、全国の産業用ロボット出荷台数は前年比19.1%増加した。

工業情報化部が発表したデータによると、2020年1月から12月まで、全国の産業用ロボットの生産台数は...

こんなに高い給料がもらえる機械学習の職種の面接を受けるにはどうしたらいいのでしょうか?

[[199809]]まず第一に、この質問は非常に広範囲にわたります。機械学習にはさまざまな方向性が...

プラスチックチップを1個1セント未満で製造

あなたの周りの物体が知性に満ちていると想像してください。包帯、バナナの皮、ボトルなどはすべて知性を持...

イェール大学教授を征服したアルゴリズムプログラマーを見て、「人間本位」を実践してスマートコミュニティの脳を開発するにはどうすればよいのでしょうか?

自宅の高齢者が階段を降りる途中で誤って転倒したり、地域でいたずらっ子が走り回ってトラブルを起こしたり...

...

ロボットも「感情カード」を切るが、人間の本性もアルゴリズムに変えられるのか?

[[228280]]画像出典: Visual Chinaもし人工知能がゆっくりと「感情を理解し」、...

人工知能にはどのような専攻が含まれますか?どのような関連専攻を選択できますか?

[[400740]]人工知能専攻は、中国の大学の人材計画に基づいて設立された専攻であり、中国の人工...

データ管理はAI革命の最大の課題となるでしょうか?

最新のデータへの投資は人工知能の拡張を成功させる上で重要ですが、調査によると、企業の半数がコストの障...

MIT、物体を拾うための「最強のアシスタント」を発表、少量のトレーニングサンプルで自然言語制御を実現

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ディープラーニングと従来の機械学習のメリットとデメリット!

過去数年間、ディープラーニングは、従来の機械学習を凌駕し、ほとんどの AI 型の問題に対する頼りにな...

ドローンによる配達は近づいているが、商業利用にはまだ問題点を解決する必要がある

都市から農村まで、わが国の宅配便や電子商取引企業がドローン物流と配達に注力したことで、国産ドローンの...