同レベルの7Bモデルを上回る! 中国のチームが大規模で高品質な画像とテキストのデータセットShareGPT4Vをオープンソース化し、マルチモーダルのパフォーマンスを大幅に向上させた。

同レベルの7Bモデルを上回る! 中国のチームが大規模で高品質な画像とテキストのデータセットShareGPT4Vをオープンソース化し、マルチモーダルのパフォーマンスを大幅に向上させた。

OpenAI は 9 月に ChatGPT に画像入力機能を追加し、ユーザーが会話に添える 1 つ以上の画像をアップロードできるようにしました。この新しい機能の背後には、OpenAI の GPT4-Vision と呼ばれる大規模なマルチモーダル (視覚言語) モデルがあります。

OpenAI が「クローズドソース」にこだわっていることから、マルチモーダル オープンソース コミュニティでは、多くの優れたマルチモーダル大規模モデルの研究成果が生まれています。たとえば、MiniGPT4 と LLaVA という 2 つの代表的な作品は、マルチモーダル対話と推論の無限の可能性をユーザーに示しています。

大規模マルチモーダル モデルの分野では、効率的なモダリティ調整が重要ですが、既存の作業におけるモダリティ調整の有効性は、大規模で高品質の「画像テキスト」データが不足していることにより制限されることがよくあります。

このボトルネックを解決するために、USTC と上海 AI ラボの研究者は最近、画期的な大規模画像およびテキスト データセットである ShareGPT4V を立ち上げました。

論文アドレス: https://arxiv.org/abs/2311.12793

デモ: https://huggingface.co/spaces/Lin-Chen/ShareGPT4V-7B

プロジェクトアドレス: https://github.com/InternLM/InternLM-XComposer/tree/main/projects/ShareGPT4V

ShareGPT4V データセットには、世界知識、オブジェクトの属性、空間関係、芸術的評価など、多​​くの側面をカバーした 120 万件の「画像と非常に詳細なテキストの説明」データが含まれており、多様性と情報範囲の点で既存のデータを上回っています。

表1 ShareGPT4Vと主流のアノテーションデータセットの比較。 「LCS」は LAION、CC、SBU データセットを指し、「Visible」は注釈を付けたときに画像が表示されるかどうかを示し、「Avg.」はテキスト説明の英語文字の平均数を示します。

現在、このデータセットは、Hugging Face Datasets トレンドランキングで 1 位にランクされています。

データ

ShareGPT4V は、高度な GPT4-Vision モデルから取得された 100,000 個の「画像 - 非常に詳細なテキスト記述」データから派生しています。

研究者らは、さまざまな画像データソース(COCO、LAION、CC、SAMなど)から画像データを集め、各データソースに固有のプロンプトを使用してGPT4-Visionを制御し、高品質の初期データを生成しました。

下の図に示すように、GPT4-Vision モデルに「スーパーマン」の静止画を与えると、静止画内のスーパーマンのキャラクターとその俳優ヘンリー・カヴィルを正確に識別できるだけでなく、画像内のオブジェクト間の位置関係とオブジェクトの色属性を完全に分析することもできます。

図1 GPT4-Visionを使用してShareGPT4V生データを収集するフローチャート

GPT4-Vision モデルにゴッホの「種をまく人」という絵画を与えると、絵画の名前と作者を正確に識別できるだけでなく、絵画が属する芸術ジャンル、絵画の内容、絵画自体が表現した感情や考えを分析できます。

既存の画像記述データセットとより完全に比較するため。下の図では、ShareGPT4V データセット内の高品質なテキスト記述と、現在のマルチモーダル大規模モデルで使用されているデータセット内のテキスト記述を一覧表示しています。

図2. 画像とテキストの説明データの品質の比較

図からわかるように、手動で注釈が付けられた COCO データセットは正確ですが、通常は非常に短く、提供される情報は極めて限られています。

言語モデル GPT4 を使用して LLaVA データセットによって想像されるシーンの記述は、通常、境界ボックスに過度に依存し、必然的に幻覚の問題を引き起こします。たとえば、境界ボックスには 8 人の注釈が表示されますが、そのうち 2 人は電車を待っているのではなく、電車に乗っています。

第二に、LLaVA データセットは COCO の注釈情報に限定されており、通常、手動注釈に記載されていないコンテンツ (ツリーなど) が欠落しています。

それに比べて、私たちが収集した画像の説明は、包括的な説明を提供できるだけでなく、画像内の重要な情報(駅の情報や看板の文字など)を見逃す可能性も低いです。

研究者たちは、この初期データで徹底的なトレーニングを行った後、強力な画像記述モデル Share-Captioner を開発しました。このモデルを使用して、事前トレーニング用に 120 万件の高品質な「画像テキスト記述」データ ShareGPT4V-PT をさらに生成しました。

図3 データセットサイズを拡大するための画像記述モデルのフローチャート

Share-Captioner は、GPT4-Vision と同等レベルの画像説明機能を備えています。以下は、異なるソースからの同じ画像のテキスト説明です。

図4 異なる情報源からの画像の説明の比較

上の図から、Share-Captioner は画像説明タスクにおいて GPT4-Vision モデルとの差を縮めたことがわかります。大規模かつ高品質な画像とテキストデータのペアを収集するための「代替」として使用できます。

実験

研究者らは、等置換実験を通じて、教師あり微調整 (SFT) 段階における ShareGPT4V データセットの有効性を初めて完全に実証しました。

図からわかるように、ShareGPT4V データセットは、複数のアーキテクチャとパラメータ サイズを持つマルチモーダル モデルのパフォーマンスをシームレスに大幅に向上させることができます。

図5 ShareGPT4Vデータセットを使用してSFTの画像説明データを置き換えた後のモデル効果の比較

次に、研究者らは、ShareGPT4Vデータセットを事前トレーニング段階と教師あり微調整段階の両方で使用して、ShareGPT4V-7Bモデルを取得しました。

ShareGPT4V-7B は、ほとんどのマルチモーダル ベンチマークで優れた結果を達成し、すべての 7B モデル サイズで最高のパフォーマンスを達成しました。

図6 さまざまなマルチモーダルベンチマークにおけるShareGPT4V-7Bのパフォーマンス

全体として、ShareGPT4V データセットのリリースは、将来のマルチモーダル研究とアプリケーションのための新たな基盤を築きます。マルチモーダル オープンソース コミュニティでは、高品質の画像記述のための、より強力でインテリジェントなマルチモーダル モデルの開発が期待されています。

<<: 

>>:  Keras 3.0 が市場を席巻しています!この大きなアップデートではPyTorchとJAXが統合され、世界中の250万人の開発者が使用しています。

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

...

グラフ畳み込みネットワークの作り方は?これは最小限のNumpy実装です

グラフは非常に複雑な構造を持ち、大量の情報を含んでいるため、グラフ上での機械学習は困難な作業です。こ...

72歳の男性がコーラを飲みながら脳で麻雀をする:これはすべて脳コンピューターインターフェース技術のおかげです

浙江省メディアの報道によると、現在浙江大学医学部第二付属病院で治療を受けている72歳の張さんは、意識...

人工知能はノーベル賞レベルにまで発展した

人工知能(AI)はノーベル賞の領域に入った。最近の研究により、人々にこのような感覚を与えるものが生み...

...

3DES 暗号化アルゴリズムは S/MIME プロトコルに最適な選択肢でしょうか?

Q: S/MIME プロトコルでは 3DES 対称暗号化はどのように実装されていますか? A:実際...

...

...

URLベースのクライアント監視と分析における機械学習の最適化と実践

従来のクライアント監視および分析シナリオでは、特定の URL に基づく統計分析方法が使用されます。た...

Pythonは画像内のすべての顔を認識し、それを表示する機能を実装しています

Python3 を使用して、写真内のすべての顔を認識して表示します。コードは次のとおりです。 # -...

TensorFlowはディープラーニングに基づく画像補完を実装する

[[191845]]目次■ はじめに■ ステップ1: 画像を確率分布のサンプルとして理解する不足して...

...

Baidu が AI ホームシアターのソフトウェアとハ​​ードウェアを統合したエコシステムを発表

2月28日、BaiduはXiaodu新製品戦略発表会で、Xiaodu TV CompanionとXi...