視覚的な手がかりに「マーカー」を追加することで、Microsoft と他の企業は GPT-4V をより正確かつ詳細にしました。

視覚的な手がかりに「マーカー」を追加することで、Microsoft と他の企業は GPT-4V をより正確かつ詳細にしました。

最近、大規模言語モデル (LLM) において大きな進歩が見られました。特に、Generative Pre-Trained Transformer (GPT) のリリースは、産業界と学術界でいくつかのブレークスルーをもたらしました。 GPT-4 のリリース以来、大規模マルチモーダルモデル (LMM) は研究コミュニティでますます注目を集めており、マルチモーダル GPT-4 の構築に多くの研究が行われています。

最近、GPT-4V (ision) は、その優れたマルチモーダル知覚および推論機能により、特別な注目を集めています。しかし、GPT-4V は前例のない視覚言語理解機能を備えているものの、きめ細かい視覚グラウンディング (入力は画像とそれに対応するオブジェクトの説明、出力はオブジェクトを説明するボックス) 機能は比較的弱いか、まだ十分に活用されていません。

たとえば、ユーザーが「下の写真の右側にあるラップトップの左側にある物体は何ですか?」と質問すると、GPT-4V はマグカップという誤った答えを返します。ユーザーが「窓側の席を探したいのですが、どこに座れますか?」と質問したところ、GPT-4V も間違った答えを返しました。

上記の問題を認識した後、マイクロソフト、香港科技大学などの研究者は、細粒度の視覚タスクにおける GPT-4V の問題を解決するために、新しい視覚プロンプト方式 Set-of-Mark (SoM) を提案しました。


  • 論文アドレス: https://arxiv.org/pdf/2310.11441.pdf
  • 論文ホームページ: https://som-gpt4v.github.io/

図 1 (右) に示すように、SoM はインタラクティブなセグメンテーション モデル (SAM など) を使用して、画像をさまざまな粒度レベルの領域に分割し、これらの領域に文字、数字、マスク、ボックスなどのマークのセットを追加します。上記の問題を解決するには、ラベル付き画像を入力として使用します。

まずは結果を見てみましょう。左がGPT-4V、右がGPT-4V+SoMです。後者の分類の方が詳細かつ正確であることがわかります。

以下の例も同じですが、GPT-4V + SoM の効果はより明白です。

さらに、この研究では、「SoM は手動 (人間の入力) ですか、それとも自動ですか?」という質問がありました。

論文の筆頭著者であるJianwei Yang氏は、SoMは自動的または半自動的であると述べた。彼らは、SEEM、Semantic-SAM、SAM など、独自に構築した多数のセグメンテーション ツールをコンパイルし、ユーザーが画像を自動的にセグメント化できるようにしました。同時に、ユーザー自身が地域を選択することもできます。

視覚に関するSoMプロンプト

SoM プロンプト GPT-4V を使用する独自の利点は、テキスト以外の出力を生成できることです。各トークンはマスクによって表される画像領域に具体的に関連付けられているため、テキスト出力内のトークンの言及のマスクを遡ることができます。

テキストとマスクのペアを生成する機能により、SoM は GPT-4V に視覚的に関連のあるテキストを生成するよう促すことができ、さらに重要なことに、通常の GPT-4V モデルでは課題となるさまざまなきめ細かい視覚タスクをサポートできます。

SoM は、シンプルなプロンプト エンジニアリングを通じて、GPT-4V を次のようなさまざまな視覚タスクで広く使用できるようにします。

  • オープン語彙画像セグメンテーション: この研究では、GPT-4V に、ラベル付けされたすべての領域のカテゴリを網羅的に提供し、事前に決定されたプールからカテゴリを選択するように要求します。
  • 参照セグメンテーション: 参照式が与えられた場合、GPT-4V のタスクは、Image Partition Toolbox によって生成された候補領域から最も一致する領域を選択することです。
  • フレーズ グラウンディング: 参照セグメンテーションとは少し異なり、フレーズ グラウンディングでは複数の名詞句で構成される完全な文を使用します。この研究では、GPT-4V に、ラベル付けされたすべてのフレーズに対応する領域を割り当てるように依頼しました。
  • ビデオ オブジェクトのセグメンテーション: 2 つの画像を入力として受け取ります。最初の画像はクエリ画像であり、2 番目の画像で認識される必要があるオブジェクトの一部が含まれています。 GPT-4V は入力として複数の画像をサポートしているため、SoM を適用して、ビデオ内のフレーム間で視覚オブジェクトを相関させることもできます。

実験と結果

研究者たちは分割統治戦略を用いて実験と評価を実行した。評価中にコンテキストの漏洩が発生しないように、インスタンスごとに新しいチャット ウィンドウを使用しました。

具体的には、研究者は各データセットから検証データの小さなサブセットを選択しました。データセット内の各画像について、画像セグメンテーション ツールボックスを使用して抽出された領域に一連のマーカーを重ね合わせました。同時に、研究者は特定のタスクに基づいてさまざまなセグメンテーション ツールを使用して領域を提案します。

以下の表 1 に、各タスクのセットアップの詳細を示します。

研究者たちは自らのアプローチを以下のモデルと比較した。

  • 座標を予測するためのGPT-4Vベースラインモデル
  • SOTA専用モデル
  • オープンソース LMM

定量的な結果

詳細な実験結果を以下の表2に示します。

1 つ目は画像セグメンテーションタスクです。研究者らは、COCO Panoptic セグメンテーション データセット上の強力なセグメンテーション モデル MaskDINO と、ADE20K Panoptic セグメンテーション データセット上のモデル OpenSeeD と、GPT-4V + SoM を比較しました。

結果は、GPT-4V + SoM のゼロショット パフォーマンスが微調整された MaskDINO のそれに近く、OpenSeeD を大幅に上回っていることを示しています。 GPT-4V の COCO と ADE20K での同様のパフォーマンスは、広範囲の視覚およびセマンティック領域のタスクに対する強力な一般化能力を示しています。

次に参照タスクが行われ、研究者はRefCOCOgデータセットでRESモデルとRECモデルを評価しました。彼らはMaskDINOを使用してマスクを提案し、画像にマスクと数字を重ね合わせます。また、評価指標として mIoU を使用し、SOTA 固有のモデルである PolyFormer および SEEM と比較します。

結果は、GPT-4V + SoM が Grounding DINO、Polyformer などの専用モデルや、Shikra、LLaVA-1.5、MiniGPT-v2、Ferret などの最近のオープンソース LMM よりも優れていることを示しています。

次は、Flickr30K でのフレーズ連想タスクです。研究者は Grounding DINO を使用して、各画像のボックス提案を生成します。 GPT-4V + SoM は、GLIPv2 や Grounding DINO よりも強力なゼロショット性能を実現します。

最後に、研究者らはDAVIS2017データセットでビデオセグメンテーションタスクを評価しました。 GPT-4V+SoM は、他の専用ビジョン モデルを上回る最高の追跡パフォーマンス (78.8 J&F) を実現します。

アブレーション研究

タグの種類が Flickr30k データセットのフレーズ連想タスクの最終的なパフォーマンスにどのように影響するかを調査し、2 種類のタグを比較しました。 1 つ目は数字とマスク、2 つ目は数字、マスク、ボックスです。

結果は下の表 3 に示されています。ボックスを追加すると、パフォーマンスが大幅に向上します。

さらに、研究者らは、グラウンドトゥルース注釈付きのトークンを生成する際に GPT-4V がどのように機能するかを調査しました。彼らは、予測されたセグメンテーション マスクを RefCOCOg 検証セット内のグラウンド トゥルース マスクに置き換えることを選択しました。つまり、GPT-4V は注釈フレーズ領域から 1 つを選択するだけで済みます。予想どおり、特にセグメンテーション モデルに欠落領域がある場合、参照セグメンテーションのパフォーマンスをさらに向上できます。

結果を下の表 4 に示します。SoM でグラウンド トゥルース マスクを使用すると、RefCOCOg のパフォーマンスが 14.5% (mIoU) 向上します。

より詳しい技術的な詳細と実験結果については、原著論文を参照してください。

<<:  新しい5文字描画言語が人気で、ChatGPTはそれを学習しました

>>:  あなたの GPU は Llama 2 のような大規模なモデルを実行できますか?このオープンソースプロジェクトを試してみてください

ブログ    
ブログ    

推薦する

機密コンピューティングが生成型AIの導入を確実にする方法

生成 AI は、新しい製品、ビジネス、業界、さらには新しい経済に情報を提供することができます。しかし...

Googleの上級研究員が解雇される:論文論争の裏側

[51CTO.com クイック翻訳] 12月初旬、Googleは著名なAI倫理研究者のティムニット・...

2019 年に人工知能がハイパフォーマンス コンピューティングに及ぼす 10 の影響

[[262566]]今日では、人工知能を使用するワークロードが普及しつつあり、その一部は世界最速のコ...

...

Pythonを学ぶときは、学習の方向性と開発ツールの選択を明確に知っておく必要があります。

Python はスクリプト言語であり、さまざまな他のプログラミング言語で記述されたモジュールを結合...

NVIDIA は、わずか 5 行のコードで画像を 3D モデルに変換する 3D ディープラーニング ツール Kaolin をリリースしました。

近年、3D コンピューター ビジョンと人工知能はともに急速に進歩していますが、両者の効果的な組み合わ...

人工知能が旅行業界にもたらす変化

観光業界では徐々に人工知能を導入し、観光客にパーソナライズされた体験を提供しています。人工知能の助け...

...

...

マイクロソフトはIBMとアマゾンに続き、警察への顔認識技術の販売を拒否

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

JDロジスティクスは知能を高めつつ、宅配業者から仕事を奪っている

JD.comは早くも2017年8月に、陝西省の地域をカバーする中国初のドローン空域の承認を取得しまし...

PytorchのNNモジュールと最初のニューラルネットワークモデルを実装する

PyTorch でモデルを構築します (主に NN モジュール)。 nn.リニアnn.Linear ...

機械学習プロジェクト用の Python インターフェースを設計する方法

序文機械学習プロジェクトを実行するには、まずモデルを(ほとんどの場合は予測 API として)デプロイ...

...

AIが自動化に適した日常的なITタスク3つ

AIで自動化できる3つのITタスク幸いなことに、人工知能が役に立ちます。ここでは、AI が手動で実行...