新しいマルチモーダル大型モデルがリストを独占!画像とテキストの混合入力をサポートしているので、知識がわからなくても学習できます

新しいマルチモーダル大型モデルがリストを独占!画像とテキストの混合入力をサポートしているので、知識がわからなくても学習できます

マルチモーダル大型モデルファミリーに新しいメンバーが加わりました!

複数の画像とテキストを組み合わせて分析できるだけでなく、ビデオ内の空間的および時間的な関係を処理することもできます。

この無料のオープンソース モデルは、MMbench と MME の両方のリストでトップになり、現在の浮動ランキングでもトップ 3 に留まっています。

△MMBenchリスト、MMBenchは上海AIラボと南洋理工大学が共同で立ち上げたChatGPTに基づく総合的なマルチモーダル能力評価システムです。

△MMEリスト、MMEはテンセントYoutuラボと厦門大学が実施したマルチモーダル大規模言語モデル評価である。

このマルチモーダル大規模モデルはMMICLと呼ばれ、北京交通大学、北京大学、UCLA、祖智マルチモーダル社などの機関が共同で立ち上げたものです。

MMICL には、Vicuna と FlanT5XL コア モデルという異なる LLM に基づく 2 つのバージョンがあります。

どちらのバージョンもオープンソースです。FlanT5XL バージョンは商用利用が可能ですが、Vicuna バージョンは科学研究目的でのみ使用できます。

MME のマルチタスク テストでは、 MMICLの FlanT5XL バージョンが数週間連続でトップの座を維持しています。

その中で、認知面は総合スコア428.93(800点満点)を獲得し、他のモデルを大きく上回る第1位を獲得しました。

知覚における総合スコアは1381.78(2000点満点)で、最新のリストではアリババの千問7Bと崑崙万為の天宮モデルに次ぐ2位となっている。

必要な構成に関しては、公式発表では、トレーニング フェーズでは 6 台の A40 が必要であり、推論フェーズは 1 台の A40 で実行できるとされています。

トレーニングの第 2 段階を完了するには、オープンソース データセットから構築された0.5M のデータのみが必要で、これには数十時間しかかかりません。

では、この大規模なマルチモーダルモデルの特徴は何でしょうか?

ビデオを視聴して、学んだことを応用することができます。

MMICL はテキストと画像を織り交ぜたプロンプトをサポートしており、WeChat でのチャットと同じくらい自然に使用できます。

通常の会話形式で 2 つの画像をMMICLに入力すると、それらの類似点と相違点を分析できます。

MMICL は、強力な画像分析機能に加えて、「学習して適用する」方法も知っています。

たとえば、 MMICLに「Minecraft」のピクセル風の馬を与えます。

トレーニング データはすべて現実世界のシーンであるため、 MMICL はこの過度に抽象的なピクセル スタイルのシーンを認識しません。

しかし、 MMICLにいくつかの例を学習させれば、すぐに類推推論を実行できるようになります。

下の図では、 MMICL は馬、ロバ、何もない 3 つのシーンを学習し、背景が変更された後にピクセルの馬を正しく識別しました。

写真だけでなく、ダイナミックなビデオもMMICLでは問題ありません。各フレームの内容を理解できるだけでなく、時間と空間の関係を正確に分析することもできます。

ブラジルとアルゼンチンのサッカーの試合を見てみましょう。MMICL両チームの行動を正確に分析しました。

また、ブラジルの選手がアルゼンチンの選手をブロックした方法など、ビデオの詳細についてMMICL に質問することもできます。

MMICL は、ビデオ内の時間的および空間的な関係を正確に把握するだけでなく、リアルタイムのビデオ ストリーム入力もサポートします。

監視カメラの映像では、人が転倒しているのがわかります。MMICLこの異常現象を検知し、助けが必要かどうかを尋ねるプロンプトを出します。

MME リストの知覚と認知の上位 5 つを 1 つのグラフで比較すると、MMICL があらゆる面で優れたパフォーマンスを発揮していることがわかります。

それで、 MMICL はそれをどのように実現し、その背後にある技術的な詳細は何なのでしょうか?

トレーニングは2段階で完了します

MMICL は、複数の画像を含む複雑なマルチモーダル入力を理解する際に視覚言語モデルが遭遇する問題に対処することを目的としています。

MMICL は、Flan-T5 XXL モデルをバックボーンとして使用します。モデル全体の構造とフローは、次の図に示されています。

MMICL は BLIP2 に似た構造を使用しますが、インターリーブされたグラフィック入力を受け入れることができます。

MMICL は画像とテキストを同等に扱います。処理された画像とテキストの特徴を入力形式に従って画像とテキストのインターレース形式に結合し、トレーニングと推論のために言語モデルに入力します。

InstructBLIP と同様に、 MMICLの開発プロセスは、LLM をフリーズし、Q-former をトレーニングし、特定のデータセットで微調整することです。

MMICL のトレーニング プロセスとデータ構造を次の図に示します。

具体的には、 MMICLのトレーニングは次の 2 つの段階に分かれています。

  • 事前トレーニング段階では、LAION-400M(参照LLaVA)データセットが使用された。
  • 独自のMIC(マルチモデルインコンテキスト学習)データセットを使用したマルチモーダルインコンテキストチューニング

MIC データセットは公開データセットから構築されています。上の図は MIC データセットの内容を示しています。MIC データセットには、次の機能もあります。

1 つ目は、画像とテキストの間に確立された明示的な参照です。MIC は、画像とテキストが絡み合っているデータに画像宣言を挿入し、画像プロキシ トークンを使用してさまざまな画像を表し、自然言語を使用して画像とテキスト間の参照関係を確立します。

2 つ目は、空間的、時間的、または論理的に相互に関連する複数の画像データセットであり、これにより、MMICL モデルは画像間の関係をより正確に理解できるようになります。

3 番目の機能はサンプル データセットです。これは、マルチモーダル コンテキスト学習を使用して、テキストと画像が散在する複雑なテキストと画像の入力に対する MMICL の理解を強化する、MMICL に「その場で学習」させるプロセスに似ています。

MMICL は、複数のテスト データセットで、同じく FlanT5XXL を使用する BLIP2 および InstructionBLIP よりも優れたパフォーマンスを発揮します。

特に複数の画像が関係するタスクの場合、MMICL は複雑な画像やテキストの入力に大きな改善を示します。

研究チームは、MMICL が視覚言語モデルによく存在する言語バイアスの問題を解決し、それが優れたパフォーマンスの理由の 1 つであると考えています。

ほとんどの視覚言語モデルは、大量のテキストコンテキストに直面したときに視覚コンテンツを無視します。これは、視覚情報を必要とする質問に答えるときには致命的な欠陥となります。

研究チームのアプローチのおかげで、MMICL は視覚言語モデルにおけるこの言語バイアスをうまく軽減しました。

この大規模なマルチモーダル モデルに興味のある読者は、GitHub ページまたは論文を参照して詳細を確認してください。

GitHub ページ: https://github.com/HaozheZhao/MIC
論文アドレス: https://arxiv.org/abs/2309.07915 オンラインデモ:
http://www.testmmicl.work/

<<: 

>>:  ゼロサンプルに主眼が置かれています! ReSimAD: 自動運転で 3D ドメイン適応を実現するには?

ブログ    
ブログ    

推薦する

畳み込みニューラルネットワークは「グラフ」構造化データを処理できないのですか?この記事でその答えが分かります

この記事で紹介する論文は、ICML2016でのグラフへのCNNの応用に関する論文です。 ICML は...

...

機械学習の応用シナリオは数多くありますが、金融分野での違いは何でしょうか?

[[241804]]ビッグデータダイジェスト制作編纂者:大迪、彭耀慧、茶曦、唐元、夏亜偉金融の世界...

ぜひ見に来てください!数千の「AIブラックテクノロジー」がここに集結

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

一枚の写真で「踊り続ける」ことができ、SHERFは人間の神経放射場を駆動できる新しい方法を一般化することができます

人体神経放射線分野の目標は、2D 人体画像から高品質の 3D デジタル人間を復元して駆動し、それによ...

...

人工知能は間違いに気づくのでしょうか?

[[378419]]画像出典: Analytics India Magazine 1956年8月、...

...

エージェントは迅速なエンジニアリングに使用されます

エージェントが現実世界での人間の行動を模倣する場合、それをプロンプトエンジニアリングに適用できますか...

Alibaba Cloud が Tongyi Qianwen 2.0 をリリース、パフォーマンスが加速して GPT-4 に追いつく

2023年杭州雲奇大会において、アリババクラウド最高技術責任者の周景仁氏は、数千億のパラメータを持つ...

...

AIを慎重に導入するためのベストプラクティス

人工知能を正しく使用するために、いくつかの提案があります。人工知能を実際に使用する際にこれらの提案を...

...

...

海外メディア:ロボットは人間の生活を変え、雇用や結婚のパターンに影響を与える

[[442070]]レファレンス・ニュース・ネットワークは12月26日、ドイツのフランクフルター・ア...