OpenAI は 9 月に ChatGPT に画像入力機能を追加し、ユーザーが会話に添える 1 つ以上の画像をアップロードできるようにしました。この新しい機能の背後には、OpenAI の GPT4-Vision と呼ばれる大規模なマルチモーダル (視覚言語) モデルがあります。 OpenAI が「クローズドソース」にこだわっていることから、マルチモーダル オープンソース コミュニティでは、多くの優れたマルチモーダル大規模モデルの研究成果が生まれています。たとえば、MiniGPT4 と LLaVA という 2 つの代表的な作品は、マルチモーダル対話と推論の無限の可能性をユーザーに示しています。 大規模マルチモーダル モデルの分野では、効率的なモダリティ調整が重要ですが、既存の作業におけるモダリティ調整の有効性は、大規模で高品質の「画像テキスト」データが不足していることにより制限されることがよくあります。 このボトルネックを解決するために、USTC と上海 AI ラボの研究者は最近、画期的な大規模画像およびテキスト データセットである ShareGPT4V を立ち上げました。 論文アドレス: https://arxiv.org/abs/2311.12793 デモ: https://huggingface.co/spaces/Lin-Chen/ShareGPT4V-7B プロジェクトアドレス: https://github.com/InternLM/InternLM-XComposer/tree/main/projects/ShareGPT4V ShareGPT4V データセットには、世界知識、オブジェクトの属性、空間関係、芸術的評価など、多くの側面をカバーした 120 万件の「画像と非常に詳細なテキストの説明」データが含まれており、多様性と情報範囲の点で既存のデータを上回っています。 表1 ShareGPT4Vと主流のアノテーションデータセットの比較。 「LCS」は LAION、CC、SBU データセットを指し、「Visible」は注釈を付けたときに画像が表示されるかどうかを示し、「Avg.」はテキスト説明の英語文字の平均数を示します。 現在、このデータセットは、Hugging Face Datasets トレンドランキングで 1 位にランクされています。 データShareGPT4V は、高度な GPT4-Vision モデルから取得された 100,000 個の「画像 - 非常に詳細なテキスト記述」データから派生しています。 研究者らは、さまざまな画像データソース(COCO、LAION、CC、SAMなど)から画像データを集め、各データソースに固有のプロンプトを使用してGPT4-Visionを制御し、高品質の初期データを生成しました。 下の図に示すように、GPT4-Vision モデルに「スーパーマン」の静止画を与えると、静止画内のスーパーマンのキャラクターとその俳優ヘンリー・カヴィルを正確に識別できるだけでなく、画像内のオブジェクト間の位置関係とオブジェクトの色属性を完全に分析することもできます。 図1 GPT4-Visionを使用してShareGPT4V生データを収集するフローチャート GPT4-Vision モデルにゴッホの「種をまく人」という絵画を与えると、絵画の名前と作者を正確に識別できるだけでなく、絵画が属する芸術ジャンル、絵画の内容、絵画自体が表現した感情や考えを分析できます。 既存の画像記述データセットとより完全に比較するため。下の図では、ShareGPT4V データセット内の高品質なテキスト記述と、現在のマルチモーダル大規模モデルで使用されているデータセット内のテキスト記述を一覧表示しています。 図2. 画像とテキストの説明データの品質の比較 図からわかるように、手動で注釈が付けられた COCO データセットは正確ですが、通常は非常に短く、提供される情報は極めて限られています。 言語モデル GPT4 を使用して LLaVA データセットによって想像されるシーンの記述は、通常、境界ボックスに過度に依存し、必然的に幻覚の問題を引き起こします。たとえば、境界ボックスには 8 人の注釈が表示されますが、そのうち 2 人は電車を待っているのではなく、電車に乗っています。 第二に、LLaVA データセットは COCO の注釈情報に限定されており、通常、手動注釈に記載されていないコンテンツ (ツリーなど) が欠落しています。 それに比べて、私たちが収集した画像の説明は、包括的な説明を提供できるだけでなく、画像内の重要な情報(駅の情報や看板の文字など)を見逃す可能性も低いです。 研究者たちは、この初期データで徹底的なトレーニングを行った後、強力な画像記述モデル Share-Captioner を開発しました。このモデルを使用して、事前トレーニング用に 120 万件の高品質な「画像テキスト記述」データ ShareGPT4V-PT をさらに生成しました。 図3 データセットサイズを拡大するための画像記述モデルのフローチャート Share-Captioner は、GPT4-Vision と同等レベルの画像説明機能を備えています。以下は、異なるソースからの同じ画像のテキスト説明です。 図4 異なる情報源からの画像の説明の比較 上の図から、Share-Captioner は画像説明タスクにおいて GPT4-Vision モデルとの差を縮めたことがわかります。大規模かつ高品質な画像とテキストデータのペアを収集するための「代替」として使用できます。 実験研究者らは、等置換実験を通じて、教師あり微調整 (SFT) 段階における ShareGPT4V データセットの有効性を初めて完全に実証しました。 図からわかるように、ShareGPT4V データセットは、複数のアーキテクチャとパラメータ サイズを持つマルチモーダル モデルのパフォーマンスをシームレスに大幅に向上させることができます。 図5 ShareGPT4Vデータセットを使用してSFTの画像説明データを置き換えた後のモデル効果の比較 次に、研究者らは、ShareGPT4Vデータセットを事前トレーニング段階と教師あり微調整段階の両方で使用して、ShareGPT4V-7Bモデルを取得しました。 ShareGPT4V-7B は、ほとんどのマルチモーダル ベンチマークで優れた結果を達成し、すべての 7B モデル サイズで最高のパフォーマンスを達成しました。 図6 さまざまなマルチモーダルベンチマークにおけるShareGPT4V-7Bのパフォーマンス 全体として、ShareGPT4V データセットのリリースは、将来のマルチモーダル研究とアプリケーションのための新たな基盤を築きます。マルチモーダル オープンソース コミュニティでは、高品質の画像記述のための、より強力でインテリジェントなマルチモーダル モデルの開発が期待されています。 |
>>: Keras 3.0 が市場を席巻しています!この大きなアップデートではPyTorchとJAXが統合され、世界中の250万人の開発者が使用しています。
ここでは、ネットワーク セキュリティにおける人工知能の応用について、主にネットワーク セキュリティ防...
[[418732]]機械学習は、人々がデータを利用し、データとやり取りする方法に革命をもたらし、ビジ...
高速でメモリ効率に優れたアテンション アルゴリズム、FlashAttention がここにあります。...
ビッグデータ、分析、AI に関しては、価値はデータの収集から(あるいはそこから何らかの洞察を引き出す...
ChatGPT が一般公開されて以来、LLM (大規模言語モデル)、RAG (検索拡張生成)、ベクタ...
人工知能の登場により、多くの企業がこの分野の研究開発に多額の資金を投資し、一部の企業は成果を上げ始め...
モノのインターネット(IoT)はどこにでもあります。実際、ここ数年、スマート製造、サプライ チェーン...
[[408920]]編集部注:人工知能(AI)の発達により、人々は徐々に未来についてより多様な想像...
1. 5G上のAI 2022年には産業用AIとAI-on-5G IoTアプリケーションが主流になるで...
米国のメリーランド大学の研究者4人が、GoogleのキャプチャシステムReCaptchaを解読できる...
7月19日、「新バージョンの文心易言の性能はChatGPT 3.5を上回り、これは我が国の関連技術作...
この記事では主に、フレームワークの概要、システム アーキテクチャ、プログラミング モデル、分散アーキ...
ああ、あの時のビデオテープが本当にあればよかったのに!ジェームズ・コミー氏は6月8日、上院情報委員会...