視覚幻覚は、マルチモーダル大規模言語モデル (MLLM) でよく見られる典型的な問題です。 簡単に言えば、モデルによって出力された説明が画像の内容と一致しません。 下の画像には 2 つの錯視が示されています。赤い部分は犬の色を誤って表現しており (属性錯視)、青い部分は画像内に実際には存在しないものを表現しています (対象錯視)。 幻覚はモデルの信頼性に重大な悪影響を及ぼすため、多くの研究者の注目を集めています。 これまでの方法では、トレーニング データとアーキテクチャを改善し、微調整して新しい MLLM をトレーニングすることで、主に MLLM 自体に重点が置かれていました。 ただし、このアプローチでは、データ構築とトレーニングのオーバーヘッドが大きくなり、さまざまな既存の MLLM に拡張することが困難になります。 最近、USTC やその他の機関の研究者は、MLLM 出力幻覚の問題を修正によって解決するために、 「Woodpecker」と呼ばれるトレーニング不要のプラグアンドプレイの汎用アーキテクチャを提案しました。 論文アドレス: https://arxiv.org/pdf/2310.16045.pdf プロジェクトアドレス: https://github.com/BradyFU/Woodpecker エフェクト表示具体的には、Woodpecker はさまざまなシナリオでモデルが出力した幻覚を修正し、対応するターゲットが存在することを示す証拠として検出ボックスを出力します。 たとえば、説明タスクに直面したとき、Woodpecker は幻覚を修正できます。 MLLM では検出が難しい小さな物体についても、Woodpecker は正確に補正することができます。 Woodpecker は、MLLM では解決が難しい複雑なカウント シナリオも解決できます。 Woopecker は、ターゲット属性クラスの幻覚問題も非常にうまく処理します。 さらに、Woodpecker は読者がテストできるデモも提供しています。 下図のように、画像をアップロードしてリクエストを入力すると、修正前と修正後のモデルレスポンスと、参考検証用の新しい画像を取得できます。 方法Woodpecker のアーキテクチャは次の通りで、キーコンセプトの抽出、質問の構築、視覚的な知識の検証、視覚的なアサーションの生成、幻覚の修正という 5 つの主要なステップで構成されています。 - キーコンセプトの抽出 重要な概念は、上記の説明にある「自転車、ゴミ箱、人」など、MLLM の出力に最も幻覚の可能性が高いターゲットが存在することを指します。 Prompt 言語モデルを使用すると、後続のステップの基礎となるこれらの重要な概念を抽出できます。 - 疑問文の構成 前のステップで抽出された主要な概念に基づいて、Prompt 大規模言語モデルは、「写真には何台の自転車がありますか?」、「ゴミ箱の隣には何がありますか?」など、画像の説明の信憑性を検証するのに役立ついくつかの質問をします。 - 視覚的知識テスト 質問は、画像と説明文に関連する情報を取得するために、視覚的根拠モデルを使用してテストされます。 たとえば、GroundingDINO を使用してオブジェクト検出を実行し、キー オブジェクトが存在するかどうか、およびキー オブジェクトの数を判断できます。 GroundingDINO などの Visual Basic モデルは、MLLM 自体よりも強力な画像認識機能を備えているためです。 ターゲットカラーなどの属性に関する質問には、BLIP-2 を使用して回答できます。 BLIP-2 などの従来の VQA モデルでは、出力される回答の長さが制限されており、幻覚に関する質問も少なくなっています。 - 視覚的なアサーションの生成 最初の 2 つのステップで得られた質問と対応する視覚情報に基づいて、構造化された「視覚的アサーション」を統合します。これらの視覚的なアサーションは、元の MLLM の回答と入力画像に関連する視覚的な知識ベースとして見ることができます。 - 幻覚の修正 これまでの結果を踏まえ、大規模言語モデルを用いてMLLMのテキスト出力を一つずつ修正し、対象に対応する検出ボックス情報を目視検査の参考として提供します。 実験結果この実験では、LLaVA、mPLUG-Owl、Otter、MiniGPT-4 など、いくつかの典型的な MLLM をベースラインとして選択しました。 この論文では、まず Woodpecker のターゲット幻覚を修正する能力をテストしました。POPE 検証セットでの実験結果を次の表に示します。 結果は、異なる MLLM に Woodpecker 補正を適用すると、異なる程度の改善が達成できることを示しています。 ランダム設定では、Woodpecker は精度指標において MiniGPT-4 と mPLUG-Owl にそれぞれ 30.66% と 24.33% の改善をもたらします。 さらに、研究者らは、より包括的な検証セットである MME を適用して、Woodpecker の属性幻覚を修正する能力をさらにテストしました。結果は次の表に示されています。 表から、Woodpecker はターゲット錯覚に対処するのに効果的であるだけでなく、色などの属性錯覚の修正にも優れていることがわかります。 LLaVAのカラースコアは78.33ポイントから155ポイントに大幅に向上しました! Woodpecker 補正後、4 つのテスト サブセット上の 4 つのベースライン モデルの合計スコアはすべて 500 ポイントを超え、全体的な認識能力が大幅に向上しました。 修正のパフォーマンスをより直接的に測定するには、オープン評価を使用するのがより直接的なアプローチです。 画像を翻訳してプレーンテキストの GPT-4 に取り込むというこれまでの方法とは異なり、この記事では、OpenAI が最近公開したビジュアル インターフェイスを使用し、GPT-4 (Vision) を使用して、修正前と修正後の画像の説明の次の 2 つの次元を直接スコアリングすることを提案しています。 - 精度: 画像の内容に対するモデルの応答はどの程度正確ですか? - 詳細レベル: モデルの応答の詳細の豊富さ 実験条件下での実験結果は次の表に示されています。 結果は、Woodpecker 補正後に画像の説明の精度が向上したことを示しており、フレームワークが説明の幻覚部分を効果的に修正できることを示しています。 一方、Woodpecker 補正によって導入された位置情報は、テキストの説明を充実させ、さらなる位置情報を提供するため、詳細の豊富さが向上します。 GPT-4V を活用した評価サンプルを下図に示します。 興味のある読者は、論文を読んで詳細を知ることができます。 |
<<: ワークスペースデザインの未来: AI、3Dウォークスルー、リアルタイムコラボレーション
>>: 海外のJavaエンジニアがGPT-4が論理パズルを解くことはできないが推論能力はあることを証明
統計によると、交通事故のほぼ主な原因は運転者の過失です。そのため、自動化は長い間、セキュリティにおけ...
[51CTO.comからのオリジナル記事] 現在、私たちの周りではデジタル変革が起こっています。デジ...
Prompt プロジェクトをどのように説明すればよいでしょうか? ChatGPT を初めて使用する初...
[[432049]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
導入ハードウェアの性能向上と顔データ量の増加に伴い、顔認識はますます成熟し、商業的な用途もますます増...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[432059]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
[[269803]]最近、研究者たちはニューラルネットワークに基づく新しいアルゴリズムを使用して量子...
JD Discovery Research InstituteのTao Dacheng所長はかつて、...
本発明は、Bzip2 アルゴリズムのハードウェア アクセラレーション実装方法を開示する。この方法は、...