マルチモーダル大型モデルファミリーに新しいメンバーが加わりました! 複数の画像とテキストを組み合わせて分析できるだけでなく、ビデオ内の空間的および時間的な関係を処理することもできます。 この無料のオープンソース モデルは、MMbench と MME の両方のリストでトップになり、現在の浮動ランキングでもトップ 3 に留まっています。 △MMBenchリスト、MMBenchは上海AIラボと南洋理工大学が共同で立ち上げたChatGPTに基づく総合的なマルチモーダル能力評価システムです。 △MMEリスト、MMEはテンセントYoutuラボと厦門大学が実施したマルチモーダル大規模言語モデル評価である。 このマルチモーダル大規模モデルはMMICLと呼ばれ、北京交通大学、北京大学、UCLA、祖智マルチモーダル社などの機関が共同で立ち上げたものです。 MMICL には、Vicuna と FlanT5XL コア モデルという異なる LLM に基づく 2 つのバージョンがあります。 どちらのバージョンもオープンソースです。FlanT5XL バージョンは商用利用が可能ですが、Vicuna バージョンは科学研究目的でのみ使用できます。 MME のマルチタスク テストでは、 MMICLの FlanT5XL バージョンが数週間連続でトップの座を維持しています。 その中で、認知面は総合スコア428.93(800点満点)を獲得し、他のモデルを大きく上回る第1位を獲得しました。 知覚における総合スコアは1381.78(2000点満点)で、最新のリストではアリババの千問7Bと崑崙万為の天宮モデルに次ぐ2位となっている。 必要な構成に関しては、公式発表では、トレーニング フェーズでは 6 台の A40 が必要であり、推論フェーズは 1 台の A40 で実行できるとされています。 トレーニングの第 2 段階を完了するには、オープンソース データセットから構築された0.5M のデータのみが必要で、これには数十時間しかかかりません。 では、この大規模なマルチモーダルモデルの特徴は何でしょうか? ビデオを視聴して、学んだことを応用することができます。MMICL はテキストと画像を織り交ぜたプロンプトをサポートしており、WeChat でのチャットと同じくらい自然に使用できます。 通常の会話形式で 2 つの画像をMMICLに入力すると、それらの類似点と相違点を分析できます。 MMICL は、強力な画像分析機能に加えて、「学習して適用する」方法も知っています。 たとえば、 MMICLに「Minecraft」のピクセル風の馬を与えます。 トレーニング データはすべて現実世界のシーンであるため、 MMICL はこの過度に抽象的なピクセル スタイルのシーンを認識しません。 しかし、 MMICLにいくつかの例を学習させれば、すぐに類推推論を実行できるようになります。 下の図では、 MMICL は馬、ロバ、何もない 3 つのシーンを学習し、背景が変更された後にピクセルの馬を正しく識別しました。 写真だけでなく、ダイナミックなビデオもMMICLでは問題ありません。各フレームの内容を理解できるだけでなく、時間と空間の関係を正確に分析することもできます。 ブラジルとアルゼンチンのサッカーの試合を見てみましょう。MMICLは両チームの行動を正確に分析しました。 また、ブラジルの選手がアルゼンチンの選手をブロックした方法など、ビデオの詳細についてMMICL に質問することもできます。 MMICL は、ビデオ内の時間的および空間的な関係を正確に把握するだけでなく、リアルタイムのビデオ ストリーム入力もサポートします。 監視カメラの映像では、人が転倒しているのがわかります。MMICLはこの異常現象を検知し、助けが必要かどうかを尋ねるプロンプトを出します。 MME リストの知覚と認知の上位 5 つを 1 つのグラフで比較すると、MMICL があらゆる面で優れたパフォーマンスを発揮していることがわかります。 それで、 MMICL はそれをどのように実現し、その背後にある技術的な詳細は何なのでしょうか? トレーニングは2段階で完了しますMMICL は、複数の画像を含む複雑なマルチモーダル入力を理解する際に視覚言語モデルが遭遇する問題に対処することを目的としています。 MMICL は、Flan-T5 XXL モデルをバックボーンとして使用します。モデル全体の構造とフローは、次の図に示されています。 MMICL は BLIP2 に似た構造を使用しますが、インターリーブされたグラフィック入力を受け入れることができます。 MMICL は画像とテキストを同等に扱います。処理された画像とテキストの特徴を入力形式に従って画像とテキストのインターレース形式に結合し、トレーニングと推論のために言語モデルに入力します。 InstructBLIP と同様に、 MMICLの開発プロセスは、LLM をフリーズし、Q-former をトレーニングし、特定のデータセットで微調整することです。 MMICL のトレーニング プロセスとデータ構造を次の図に示します。 具体的には、 MMICLのトレーニングは次の 2 つの段階に分かれています。
MIC データセットは公開データセットから構築されています。上の図は MIC データセットの内容を示しています。MIC データセットには、次の機能もあります。 1 つ目は、画像とテキストの間に確立された明示的な参照です。MIC は、画像とテキストが絡み合っているデータに画像宣言を挿入し、画像プロキシ トークンを使用してさまざまな画像を表し、自然言語を使用して画像とテキスト間の参照関係を確立します。 2 つ目は、空間的、時間的、または論理的に相互に関連する複数の画像データセットであり、これにより、MMICL モデルは画像間の関係をより正確に理解できるようになります。 3 番目の機能はサンプル データセットです。これは、マルチモーダル コンテキスト学習を使用して、テキストと画像が散在する複雑なテキストと画像の入力に対する MMICL の理解を強化する、MMICL に「その場で学習」させるプロセスに似ています。 MMICL は、複数のテスト データセットで、同じく FlanT5XXL を使用する BLIP2 および InstructionBLIP よりも優れたパフォーマンスを発揮します。 特に複数の画像が関係するタスクの場合、MMICL は複雑な画像やテキストの入力に大きな改善を示します。 研究チームは、MMICL が視覚言語モデルによく存在する言語バイアスの問題を解決し、それが優れたパフォーマンスの理由の 1 つであると考えています。 ほとんどの視覚言語モデルは、大量のテキストコンテキストに直面したときに視覚コンテンツを無視します。これは、視覚情報を必要とする質問に答えるときには致命的な欠陥となります。 研究チームのアプローチのおかげで、MMICL は視覚言語モデルにおけるこの言語バイアスをうまく軽減しました。 この大規模なマルチモーダル モデルに興味のある読者は、GitHub ページまたは論文を参照して詳細を確認してください。 GitHub ページ: https://github.com/HaozheZhao/MIC |
>>: ゼロサンプルに主眼が置かれています! ReSimAD: 自動運転で 3D ドメイン適応を実現するには?
諺にもあるように、千人の読者には千のハムレットがあり、私たちにとって人工知能 (AI) も同じことが...
最近、マッキンゼーは「人工知能:次のデジタルフロンティア?」と題した80ページのレポートを発表し、人...
移動ロボットは、環境認識、動的意思決定と計画、行動制御と実行などの複数の機能を統合した総合システムで...
ソレダッド・ガリ翻訳者:趙青棠企画丨孫淑娇、梁策インターネットで「特徴選択」を検索してみると、特徴選...
生物学(または生命科学)に対する理解は時間の経過とともに大きく深まり、多くのエンジニアにとって、困難...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
最近、Paxos アルゴリズムについてみんなが議論しています。私はオンラインで多くの記事を読みました...
[[324253]] 01 自動運転車社会科学者は、郊外化、汚染、自由、家族旅行、命の喪失、救われ...
ニューラル ネットワークの最適化は本質的に非凸ですが、単純な勾配ベースの方法は常にこのような問題を解...
[[262791]]それを受け入れるかどうかは別として、突然の火災でノートルダム大聖堂は焼け落ちた...
外れ値とは何でしょうか? Hawkins (1980) は外れ値の基本的な定義を与えました: 外れ値...
[[183562]]人々は常に人工知能について多くの懸念を抱いています。人工知能は私たちの仕事にとっ...