バイトビッグモデルの新たな進歩:きめ細かなマルチモーダル共同理解を実現するために視覚的ポジショニングが初めて導入され、オープンソース化され、デモが利用可能になりました。

バイトビッグモデルの新たな進歩:きめ細かなマルチモーダル共同理解を実現するために視覚的ポジショニングが初めて導入され、オープンソース化され、デモが利用可能になりました。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

バイトビッグモデル、BuboGPTが登場。

テキスト、画像、音声の 3 つのモダリティをサポートし、きめ細かいマルチモーダル共同理解を実現します。

答えは、何が言われて何が言われていないかを指し示しており、それは一目瞭然です。

私たちは「賢い目」を持っているだけでなく、「賢い耳」も持っています。 BuboGPT は人間が気づかない細部まで聞き取ることができます。

オーディオ-1-チャイム-鳥のそよ風、量子ビット、20 秒

これから高エネルギーが待っています!

三峰性の共同理解、テキスト説明+画像配置+音配置、ワンクリックソリューション、音源の正確な判断:

オーディオ-7-dork-bark 、Quantum Bit、6秒

心配しないでください、まだ終わっていません!

音声と画像の間に直接的な関係がない場合でも、画像を見て音を識別することで、両者の関係を合理的に説明し、ストーリーを伝えることができます。

オーディオ-11-6時、Quantum Bit、1分

この観点から見ると、BuboGPT の作業は非常に「詳細」です。

研究者らは次のように述べた。

MiniGPT-4、LLaVA、X-LLM などの最近人気の大規模マルチモーダル モデルは、入力の特定の部分への基本的な接続を行わず、粗粒度のマッピングのみを構築します。

BuboGPT は、豊富な情報とテキストと他のモダリティ間の明確な対応を利用して、視覚オブジェクトと特定のモダリティを詳細に理解できるようにします。

したがって、BuboGPT は画像を記述する際に、画像内のオブジェクトの特定の位置を指摘することができます。

BuboGPT: LLM に初めて視覚的なつながりを導入

上記の著者が YouTube で共有した例に加えて、研究チームは論文の中で BuboGPT が実行できるさまざまなトリックも実演しました。

カエルがピアノを弾いているのを見たのは初めてです! BuboGPT はこのような画像も正確に描写できるのでしょうか?

カン・カンがどう答えたか見てみましょう:

彼はカエルの姿勢を正確に説明できるだけでなく、自分の手がバンジョーに触れていることも知っています。

写真の何が面白いのか尋ねると、写真の背景に何があるのか​​を要約することができます。

BuboGPT「視力+聴力+表情テスト」は、研究者がこのようにプレイします。まずはこの音声を聞いてみましょう。

オーディオ-9-ヘアドライヤー、量子ビット、5秒

BuboGPT の説明を見てみましょう。

BuboGPT は、写真に写っている人物の性別、音源、写真の中で何が起こっているかを正確に理解できます。

効果が非常に良いのは、ByteDance が LLM に視覚的な配置を導入する方法を使用したためです。

具体的な方法を以下で見ていきましょう。

BuboGPT のアーキテクチャは、共有された意味空間を学習し、さまざまな視覚オブジェクトとさまざまなモダリティ間のきめ細かい関係をさらに探索することで、マルチモーダル理解を実現します。

さまざまな視覚オブジェクトと複数のモダリティ間のきめ細かい関係を調査するために、研究者はまず SAM に基づく既製の視覚ローカリゼーション パイプラインを構築しました。

このパイプラインは、タグ付けモジュールグラウンディングモジュールエンティティマッチングモジュールの 3 つのモジュールで構成されています。

プロセスはおそらく次のようになります:

まず、ラベリング モジュールは、入力画像に関連付けられた複数のテキスト ラベルを生成できる事前トレーニング済みモデルです。

SAM ベースのローカリゼーション モジュールは、画像上の各テキスト ラベルに関連付けられたセマンティック マスクまたは境界ボックスをさらにローカライズします。

次に、エンティティ マッチング モジュールは LLM の推論機能を活用して、タグと画像の説明から一致するエンティティを取得します。

これは、研究者が視覚的なオブジェクトを他のモダリティと結び付けるための橋渡しとして言語を使用する方法です。

3 つのモーダル入力のあらゆる組み合わせで良好な結果を達成するために、研究者は Mini-GTP4 に似た 2 段階のトレーニング スキームを採用しました。

ユニモーダル事前トレーニングとマルチモーダル指示適応

具体的には、BuboGPT はオーディオ エンコーダーとして ImageBind を使用し、ビジュアル エンコーダーとして BLIP-2 を使用し、事前トレーニング済み LLM として Vicuna を使用します。

ユニモーダル事前トレーニング段階では、対応するモダリティ Q-Former および線形投影層が、大量のモダリティとテキストのペアリング データでトレーニングされます。

視覚認識に関しては、研究者は画像キャプション生成部分の投影層のみをトレーニングし、BLIP2 の Q-Former を固定したままにします。

音声理解については、Q-Former と音声キャプション生成部分を同時にトレーニングしました。

どちらの設定でもプロンプトは使用されず、モデルは対応する画像または音声のみを入力として受け取り、対応するキャプションを予測します。

△ 異なる入力に対する指示の例

マルチモーダル指示調整フェーズでは、線形投影レイヤーを微調整するために、次の項目を含む高品質のマルチモーダル指示データセットが構築されます。

  • 画像テキスト: MiniGPT-4 と LLaVa の 2 つのデータセットを使用した視覚指示の微調整。
  • オーディオテキスト: Clotho データセットに基づいて、一連の表現力豊かな説明データが構築されます。
  • 音声・画像・テキスト: VGGSS データセットに基づいて、<音声、画像、テキスト> の 3 モーダル ガイド付きチューニング データ ペアを構築し、さらにネガティブ サンプルを導入してモデルを強化しました。

注目すべきは、意味マッチングのためにネガティブサンプルの「画像と音声のペア」を導入することで、BuboGPT はより優れたアライメントとより強力なマルチモーダル共同理解機能を実現できることです。

現在、BuboGPTのコードとデータセットがオープンソース化され、デモも公開されています。早速試してみました。

デモプレイ体験

BuboGPT デモ ページには明確な機能領域があり、操作が非常に簡単です。右側では写真や音声をアップロードでき、左側には BuboGPT の回答ウィンドウとユーザーの質問ウィンドウがあります。

写真をアップロードしたら、下の最初のボタンをクリックして分割された写真をアップロードします。

たとえば、万里の長城の写真を見てみましょう。BuboGPT は、山、観光名所、そして壁を識別しながら、次のように分類します。

絵を説明するように頼んだところ、その答えは比較的具体的で、ほぼ正確でした。

回答のテキスト コンテンツに応じて、分割ボックスの内容も変更されていることがわかります。

ここにオーディオ クリップ付きの別の画像があります。BuboGPT は音源も正しく一致させました。

Audio-8-bicycle_bell 、量子ビット、22秒

もちろん、認識できなかったり、間違った発言をしたりすることもあります。例えば、下の写真には人は写っておらず、音声はベルの音だけですが、その説明は写真と一致していないようです。

興味のあるご家族は急いで試してみてください〜〜

ポータル:
[1] https://bubo-gpt.github.io/

[2] https://huggingface.co/spaces/magicr/BuboGPT(デモ)

<<:  AIはキーボードの音を聞いてパスワードを盗むことができ、その精度は最大95%

>>: 

ブログ    

推薦する

人工知能時代のデザイン業界の未来

人工知能 (AI) は設計の仕事を引き継ぐのでしょうか? 将来的にはデザイナーに取って代わるのでしょ...

Meta、Xiaoice、NVIDIA が協力して何かを行っています!アジア初のメタバースエコロジー連盟が誕生

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

Google の最新画像処理ソフトウェア Imagen 2 がリリースされ、実機テストでは DALL·E 3 や Midjourney に勝利しました。

質問: 下の画像は AI によって生成された画像ですか、それとも写真ですか?この質問をしなければ、ほ...

...

食習慣の変化に伴い、スマートロボットキッチン技術が熱を帯びる

COVID-19パンデミックが続く中、非接触型の食事がますます人気になっています。宅配やテイクアウト...

Python データマイニングと機械学習入門

データマイニングとは何ですか?機械学習とは何ですか?Python データの前処理を実行するにはどうす...

研究者はAIを活用して新型コロナウイルスの理解を深める

[[319373]]新型コロナウイルスが昨年12月に中国・武漢で発生して以来、過去数か月間に2,00...

アンドリュー・ン:ディープラーニングの知識を完全に説明する 22 枚の写真

Andrew Ng 氏は、Tess Ferrandez 氏が修了したディープラーニング特別コースのイ...

コードを知らなくても機械学習を実現できますか?

ローコード プラットフォームは、アプリケーション、統合、およびデータの視覚化の開発の速度と品質を向上...

人工知能(AI)の開発と応用の観点から見たアルゴリズムテストのテスト戦略

人工知能の発展と応用に伴い、AI テストは徐々に私たちの視野に入ってきました。従来の機能テスト戦略は...

...

2023年に人工知能とデータサイエンスについて知っておくべきこと

人工知能とデータサイエンスは、2023 年に最もエキサイティングで影響力のある 2 つのテクノロジー...

リアルタイムのテキストおよび画像処理の速度が 5 ~ 10 倍向上しました。Tsinghua LCM/LCM-LoRA は人気を博し、視聴回数は 100 万回を超えました。

テキストから作成された画像や写真から作成された画像は、新しいものではありません。しかし、これらのツー...

パイプラインロボットは都市の安全を守り、夏の雷雨も恐れない

夏がまたやって来て、雷雨がまた虫を追い払います。最近では、夏の気温が上昇し続けているため、雨天が多く...

GPT-4 はチューリングテストに合格しませんでした。 60年前、古いAIはChatGPTに勝利しましたが、人間の勝率はわずか63%でした。

長い間、「チューリングテスト」は、コンピュータが「知性」を持っているかどうかを判断するための中心的な...