私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

「清明節の河沿い」には何頭のラクダがいるか知りたいですか? UHD 入力をサポートするこのマルチモーダル モデルをご覧ください。

最近、南洋理工大学の中国チームが、Fuyu-8Bをベースにした80億のパラメータを持つ大規模なマルチモーダルモデル「OtterHD」を作成した。

論文アドレス: https://arxiv.org/abs/2311.04219

固定サイズのビジュアル エンコーダーに限定される従来のモデルとは異なり、OtterHD-8B は柔軟な入力サイズを処理できるため、さまざまな推論ニーズに合わせて汎用性を確保できます。

同時に、研究チームは、大きな画像内の物体の細部や空間関係を区別する LLM の能力を慎重に評価できる新しいベンチマーク テスト「MagnifierBench」も提案しました。

結果は、OtterHD-8B が、特に高解像度の入力を直接処理する場合に、同様のモデルよりも大幅に優れたパフォーマンスを発揮することを示しています。

効果のデモンストレーション

下の図に示すように、清明上河図(部分)にはラクダが何頭いるかを尋ねたところ、画像入力は2446x1766ピクセルに達し、モデルは正常に回答することができました。

かつて GPT4-V が悩まされたリンゴを数える問題に直面したモデルは、11 個のリンゴをうまく数えることに成功しました。


論文で紹介されている高精細入力の例に加えて、いくつかのテストも実施しました。下の図では、モデルにユーザーがケンブリッジ大学の博士号取得者であると想定させています。この図が何を意味するのか説明してください。

モデルの回答は、画像内のブラックホールとホワイトホールを正確に特定し、それがトンネルのような構造であることを認識し、詳細な説明をしました。

下の図では、モデルは図内のエネルギーの割合を説明するように求められています。モデルは、図内のいくつかの種類のエネルギーと、それらの割合が時間の経過とともにどのように変化するかを正確に識別します。

次の図は電球の交換に関するフローチャートです。モデルはフローチャートの意味を正確に理解し、詳細な手順を段階的に説明します。

OtterHD-8Bを微調整するための80億のパラメータ命令

特に、Fuyu-8B ベースの OtterHD-8B は、最大 1024×1024 の入力でトレーニングされた最初のオープンソースの命令ベースの微調整大規模言語モデルです。

さらに、推論中にさらに大きな解像度(1440×1440 など)に拡張することもできます。

トレーニングの詳細

予備実験では、チームは、Fuyu がいくつかのベンチマークで特定の命令に対する応答のパフォーマンスが低く、その結果、MME および MMBench でのモデルのパフォーマンスが非常に低くなることを発見しました。

これらの問題に対処するため、研究チームは 37 万件の混合データに基づいて Fuyu モデルを微調整し、同様の指示テンプレートを使用して、LLaVA-1.5 を参照してモデルの回答の形式を標準化しました。

トレーニング フェーズでは、すべてのデータセットがコマンド/レスポンスのペアに編成され、統合されたデータローダーに集約され、代表的な完全性を確保するために均一にサンプリングされます。

モデリング コードを強化するために、チームは FlashAttention-2 および FlashAttention ライブラリの演算子融合技術を使用しました。

図 2 に示すように、Fuyu の簡素化されたアーキテクチャのおかげで、これらの変更により GPU の使用率とスループットが大幅に向上します。

具体的には、チームが提案した方法では、8×A100 GPU で 3 時間/エポックの速度で完全なパラメータ トレーニングを完了できますが、LoRA では微調整後、エポックあたり 1 時間しかかかりません。

AdamW オプティマイザーを使用してモデルをトレーニングする場合、バッチ サイズは 64、学習率は 1×10^-5、重み減衰は 0.1 に設定されます。

拡大鏡ベンチ

人間の視覚システムは、視野内の物体の詳細を自然に認識できますが、LMM をテストするために使用される現在のベンチマークは、この能力の評価に特に焦点を当てていません。

Fuyu および OtterHD モデルの登場により、入力画像の解像度を初めてはるかに広い範囲に拡張できるようになりました。

この目的のために、チームは Panoptic Sc​​ene Graph Generation (PVSG) データセットに基づいて、166 枚の画像と合計 283 セットの質問をカバーする新しいテスト ベンチマーク MagnifierBench を作成しました。

PVSG データセットは、特に一人称の家事ビデオなど、雑然とした複雑なシーンが多数含まれるビデオ データで構成されています。

注釈付けの段階で、チームはデータセット内のすべての質問と回答のペアを注意深く調べ、大きなオブジェクトが関係するものや常識的な知識で簡単に答えられるものを排除しました。たとえば、リモコンのほとんどは黒色なので、簡単に推測できますが、赤や黄色などの色は含まれていません。

図 3 に示すように、MagnifierBench によって設計された質問の種類には、認識、数字、色に関する質問が含まれます。データセットの重要な基準は、質問が十分に複雑で、注釈者が質問に正確に回答するにはフルスクリーン モードで作業し、画像を拡大する必要があることです。

短い回答と比較して、LMM は会話の設定で拡張された回答を生成するのに優れています。

- 複数選択問題

ここで、モデルは質問と複数の回答オプションに直面します。モデルが単一の文字(A、B、Cなど)で回答するように誘導するために、チームは質問の前にヒントとして「回答」の指示の前に、与えられた選択肢の文字を直接追加しました。この場合、正しい選択肢に完全に一致する回答のみが正確な回答とみなされます。

- 未解決の質問

ランダムに推測すると正解になる確率が 25% になるため、複数のオプションがあるとタスクが簡単になります。さらに、ユーザーは通常、モデルに事前定義されたオプションを提供しないため、これはチャット アシスタントが直面する実際のシナリオを反映していません。この潜在的なバイアスを排除するために、チームは、プロンプトオプションを使用せずに、モデルに対して率直で自由形式の質問も行いました。

実験分析

結果によると、多くのモデルが MME や POPE などの確立されたベンチマークで高いスコアを達成している一方で、MagnifierBench でのパフォーマンスは満足のいくものではないことが多いことがわかりました。一方、OtterHD-8B は MagnifierBench で非常に優れたパフォーマンスを発揮しました。

解像度の向上による効果と、OtterHD がさまざまな、潜在的により大きな解像度に一般化する能力をさらに調査するために、チームは固定解像度または動的解像度を使用して Otter8B をトレーニングしました。

x 軸は、解像度が高くなるにつれて、より多くの画像トークンが言語デコーダーに送信され、より多くの画像の詳細が提供されることを示しています。

結果は、解像度が高くなるほど、MagnifierBench のパフォーマンスが向上することを示しています。

テキスト トークンの平均数は一定であるため、解像度が高くなるにつれて、画像とテキスト トークンの数の比率が増加します。

この変更は、特に複雑な視覚的関連付けを必要とするタスクの場合、LMM 解像度の重要性を浮き彫りにします。

さらに、固定トレーニング方法と動的トレーニング方法のパフォーマンスの違いにより、動的サイズ変更の利点が強調され、特に特定の解像度での過剰適合を防止できます。

さらに、動的ポリシーにより、モデルはトレーニング中には見ら​​れなかったより大きな解像度 (1440) に一般化できます。

いくつかの比較

結論は

研究チームが提案したOtterHD-8Bモデルは、Fuyu-8Bの革新的なアーキテクチャに基づいて、さまざまな解像度の画像を効果的に処理でき、ほとんどのLMMにおける固定解像度入力の制限を打ち破ります。

同時に、OtterHD-8B は高解像度画像の処理においても非常に優れたパフォーマンスを発揮します。

これは、複雑なシーンの詳細を識別する LMM の能力を評価することを目的とした新しい MagnifierBench ベンチマークで特に顕著であり、さまざまな解像度に対するより柔軟なサポートの重要性を強調しています。

<<:  ティアン・ユアンドンがOpenAIの謎のQ*プロジェクトに冷水を浴びせる: 合成データはAGIの救世主ではなく、その能力は単純な数学の問題に限られている

>>: 

ブログ    
ブログ    

推薦する

顔認識は優れているが、業界の自制心と法的監督が依然として必要である。

近年、顔認識をめぐる論争が絶えません。少し前に、「初の顔認識事件」の第一審判決が発表され、杭州野生動...

これでブリッジで腹筋運動ができるようになりました!中国初の3Dプリント橋が上海で公開

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

Google、異常ケース検出のターンアラウンド時間を28%短縮できるAIシステムを開発

最近、Google チームのもう一つの主要な研究成果が Nature 誌に掲載されました。研究成果は...

...

機械学習をサポートする 8 つのデータ ウェアハウス

[[399333]] [51CTO.com クイック翻訳]非常に大きなデータセットの場合、理想的な状...

AIは単なる機械学習ですか?機械学習とは何かを3000語でわかりやすく説明します

コンピューター科学者は、人工知能の中核技術である機械学習とディープラーニングにおいて大きな進歩を遂げ...

レノボAmu:シーンインテリジェンスの時代に新たな「三大デバイス」を再定義

3月19日、杭州でCSHIA 2019スマートホーム業界開幕式が開催されました。ブランドメーカー、イ...

雲智盛 梁 嘉恩: インテリジェントインタラクション技術とモノのインターネットアプリケーション

[51CTO.comより引用] 2017年7月21日から22日まで、51CTO主催の人工知能をテーマ...

GPT-4+物理エンジンは拡散モデルをサポートし、現実的で一貫性のある合理的なビデオを生成します。

拡散モデルの出現により、テキスト生成ビデオ技術の開発が促進されましたが、このような方法は通常、計算コ...

教師なし学習アルゴリズム: 異常検出

外れ値とは何でしょうか? Hawkins (1980) は外れ値の基本的な定義を与えました: 外れ値...

オタクのためのオープンソースドローンプロジェクト4つ

[[178638]] [51CTO.com クイック翻訳]過去数年間で、民間および商用ドローンへの関...

仕事でアルゴリズムが使われることはほとんどないので、なぜアルゴリズムを学ぶ必要があるのでしょうか?

共通のデータ構造とアルゴリズム最も基本的なデータ構造とアルゴリズムは次のとおりです。ソートアルゴリズ...

...

...

2019年の人工知能レビュー:産業の発展は急速な進展を遂げている

2019年、中国の人工知能市場は「熱狂的」だった。IDCの統計によると、世界の人工知能市場規模は20...