私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

「清明節の河沿い」には何頭のラクダがいるか知りたいですか? UHD 入力をサポートするこのマルチモーダル モデルをご覧ください。

最近、南洋理工大学の中国チームが、Fuyu-8Bをベースにした80億のパラメータを持つ大規模なマルチモーダルモデル「OtterHD」を作成した。

論文アドレス: https://arxiv.org/abs/2311.04219

固定サイズのビジュアル エンコーダーに限定される従来のモデルとは異なり、OtterHD-8B は柔軟な入力サイズを処理できるため、さまざまな推論ニーズに合わせて汎用性を確保できます。

同時に、研究チームは、大きな画像内の物体の細部や空間関係を区別する LLM の能力を慎重に評価できる新しいベンチマーク テスト「MagnifierBench」も提案しました。

結果は、OtterHD-8B が、特に高解像度の入力を直接処理する場合に、同様のモデルよりも大幅に優れたパフォーマンスを発揮することを示しています。

効果のデモンストレーション

下の図に示すように、清明上河図(部分)にはラクダが何頭いるかを尋ねたところ、画像入力は2446x1766ピクセルに達し、モデルは正常に回答することができました。

かつて GPT4-V が悩まされたリンゴを数える問題に直面したモデルは、11 個のリンゴをうまく数えることに成功しました。


論文で紹介されている高精細入力の例に加えて、いくつかのテストも実施しました。下の図では、モデルにユーザーがケンブリッジ大学の博士号取得者であると想定させています。この図が何を意味するのか説明してください。

モデルの回答は、画像内のブラックホールとホワイトホールを正確に特定し、それがトンネルのような構造であることを認識し、詳細な説明をしました。

下の図では、モデルは図内のエネルギーの割合を説明するように求められています。モデルは、図内のいくつかの種類のエネルギーと、それらの割合が時間の経過とともにどのように変化するかを正確に識別します。

次の図は電球の交換に関するフローチャートです。モデルはフローチャートの意味を正確に理解し、詳細な手順を段階的に説明します。

OtterHD-8Bを微調整するための80億のパラメータ命令

特に、Fuyu-8B ベースの OtterHD-8B は、最大 1024×1024 の入力でトレーニングされた最初のオープンソースの命令ベースの微調整大規模言語モデルです。

さらに、推論中にさらに大きな解像度(1440×1440 など)に拡張することもできます。

トレーニングの詳細

予備実験では、チームは、Fuyu がいくつかのベンチマークで特定の命令に対する応答のパフォーマンスが低く、その結果、MME および MMBench でのモデルのパフォーマンスが非常に低くなることを発見しました。

これらの問題に対処するため、研究チームは 37 万件の混合データに基づいて Fuyu モデルを微調整し、同様の指示テンプレートを使用して、LLaVA-1.5 を参照してモデルの回答の形式を標準化しました。

トレーニング フェーズでは、すべてのデータセットがコマンド/レスポンスのペアに編成され、統合されたデータローダーに集約され、代表的な完全性を確保するために均一にサンプリングされます。

モデリング コードを強化するために、チームは FlashAttention-2 および FlashAttention ライブラリの演算子融合技術を使用しました。

図 2 に示すように、Fuyu の簡素化されたアーキテクチャのおかげで、これらの変更により GPU の使用率とスループットが大幅に向上します。

具体的には、チームが提案した方法では、8×A100 GPU で 3 時間/エポックの速度で完全なパラメータ トレーニングを完了できますが、LoRA では微調整後、エポックあたり 1 時間しかかかりません。

AdamW オプティマイザーを使用してモデルをトレーニングする場合、バッチ サイズは 64、学習率は 1×10^-5、重み減衰は 0.1 に設定されます。

拡大鏡ベンチ

人間の視覚システムは、視野内の物体の詳細を自然に認識できますが、LMM をテストするために使用される現在のベンチマークは、この能力の評価に特に焦点を当てていません。

Fuyu および OtterHD モデルの登場により、入力画像の解像度を初めてはるかに広い範囲に拡張できるようになりました。

この目的のために、チームは Panoptic Sc​​ene Graph Generation (PVSG) データセットに基づいて、166 枚の画像と合計 283 セットの質問をカバーする新しいテスト ベンチマーク MagnifierBench を作成しました。

PVSG データセットは、特に一人称の家事ビデオなど、雑然とした複雑なシーンが多数含まれるビデオ データで構成されています。

注釈付けの段階で、チームはデータセット内のすべての質問と回答のペアを注意深く調べ、大きなオブジェクトが関係するものや常識的な知識で簡単に答えられるものを排除しました。たとえば、リモコンのほとんどは黒色なので、簡単に推測できますが、赤や黄色などの色は含まれていません。

図 3 に示すように、MagnifierBench によって設計された質問の種類には、認識、数字、色に関する質問が含まれます。データセットの重要な基準は、質問が十分に複雑で、注釈者が質問に正確に回答するにはフルスクリーン モードで作業し、画像を拡大する必要があることです。

短い回答と比較して、LMM は会話の設定で拡張された回答を生成するのに優れています。

- 複数選択問題

ここで、モデルは質問と複数の回答オプションに直面します。モデルが単一の文字(A、B、Cなど)で回答するように誘導するために、チームは質問の前にヒントとして「回答」の指示の前に、与えられた選択肢の文字を直接追加しました。この場合、正しい選択肢に完全に一致する回答のみが正確な回答とみなされます。

- 未解決の質問

ランダムに推測すると正解になる確率が 25% になるため、複数のオプションがあるとタスクが簡単になります。さらに、ユーザーは通常、モデルに事前定義されたオプションを提供しないため、これはチャット アシスタントが直面する実際のシナリオを反映していません。この潜在的なバイアスを排除するために、チームは、プロンプトオプションを使用せずに、モデルに対して率直で自由形式の質問も行いました。

実験分析

結果によると、多くのモデルが MME や POPE などの確立されたベンチマークで高いスコアを達成している一方で、MagnifierBench でのパフォーマンスは満足のいくものではないことが多いことがわかりました。一方、OtterHD-8B は MagnifierBench で非常に優れたパフォーマンスを発揮しました。

解像度の向上による効果と、OtterHD がさまざまな、潜在的により大きな解像度に一般化する能力をさらに調査するために、チームは固定解像度または動的解像度を使用して Otter8B をトレーニングしました。

x 軸は、解像度が高くなるにつれて、より多くの画像トークンが言語デコーダーに送信され、より多くの画像の詳細が提供されることを示しています。

結果は、解像度が高くなるほど、MagnifierBench のパフォーマンスが向上することを示しています。

テキスト トークンの平均数は一定であるため、解像度が高くなるにつれて、画像とテキスト トークンの数の比率が増加します。

この変更は、特に複雑な視覚的関連付けを必要とするタスクの場合、LMM 解像度の重要性を浮き彫りにします。

さらに、固定トレーニング方法と動的トレーニング方法のパフォーマンスの違いにより、動的サイズ変更の利点が強調され、特に特定の解像度での過剰適合を防止できます。

さらに、動的ポリシーにより、モデルはトレーニング中には見ら​​れなかったより大きな解像度 (1440) に一般化できます。

いくつかの比較

結論は

研究チームが提案したOtterHD-8Bモデルは、Fuyu-8Bの革新的なアーキテクチャに基づいて、さまざまな解像度の画像を効果的に処理でき、ほとんどのLMMにおける固定解像度入力の制限を打ち破ります。

同時に、OtterHD-8B は高解像度画像の処理においても非常に優れたパフォーマンスを発揮します。

これは、複雑なシーンの詳細を識別する LMM の能力を評価することを目的とした新しい MagnifierBench ベンチマークで特に顕著であり、さまざまな解像度に対するより柔軟なサポートの重要性を強調しています。

<<:  ティアン・ユアンドンがOpenAIの謎のQ*プロジェクトに冷水を浴びせる: 合成データはAGIの救世主ではなく、その能力は単純な数学の問題に限られている

>>: 

ブログ    
ブログ    

推薦する

運試しに自撮りしてみませんか?これはすべて顔認識技術のおかげです

新年の初めに、酉年の運勢を計算することは、多くの若者が夕食後に好んで行うことです。 「占い」はどちら...

研究結果:人工知能はパンデミック後にさらに普及するだろう

人工知能と機械学習は当初は懐疑的な見方に直面していたかもしれないが、新たな報告書によると、パンデミッ...

...

AIコンピューティングパワーギャップを越えて、人工知能コンピューティングセンターの産業的価値が強調される

「第14次5カ年計画」の骨子には「デジタル化の加速とデジタル中国の構築」という独立した章が設けられ、...

2024年の製造業の現状:完全デジタル化

世界全体、特に製造業は、パンデミック中に発生した問題や数年前の大規模なサプライチェーンの混乱から脱し...

AIを活用して大気汚染と戦う方法

大気汚染はほぼあらゆる場所で依然として問題となっており、地球温暖化、生物多様性の喪失、土壌劣化、淡水...

人工知能で最も人気のあるアルゴリズムトップ10をわかりやすく解説

機械学習は業界にとって革新的で重要な分野です。機械学習プログラムに選択するアルゴリズムの種類は、達成...

...

人工知能が道路の穴を素早く修復するのを助ける

再び道路の穴の季節がやってきました。アメリカ全土の道路が乗用車やトラックに復讐する、冬から春にかけて...

内部テスト中です! Word、Excel、Outlookに機械学習が搭載される

マイクロソフトは、機械学習を使用して人々がより効率的に仕事を遂行できるよう支援する、多数の新機能を ...

ファーウェイと百度はAI技術で提携している。人工知能の分野で優位に立つことを目指しているのだろうか?

テクノロジー界ではもう一つ大きな出来事が起きている。中国で最も人気のある携帯電話ブランドであるHua...

第3回北京知源大会が開幕、世界最大のインテリジェントモデル「五道2.0」が発表

6月1日、北京知源人工知能研究所(以下、知源研究所)が主催する2021年北京知源会議が北京市中関村国...

機械学習とディープラーニングの5つの主な違い

前回のシリーズの記事「機械学習とディープラーニングの違いは何でしょうか?」に続き、簡単に説明した後、...

自動運転バスが路上でテスト可能:北京が政策発表で主導権を握り、最初の8台の車両がまもなく運行開始

自動運転バスが歴史的な一歩を踏み出す! 3月31日、北京市高レベル自動運転実証区事務室は「北京市イン...

【ビッグガイがやってくるエピソード7】スマートショッピングガイド対話ロボットの実践

[51CTO.com からのオリジナル記事] 現在の電子商取引業界は比較的成熟しており、さまざまな形...