Alibaba のビッグモデルが再びオープンソース化されました!画像を読み取り、物体を認識することができ、市販されているTongyi Qianwen 7Bをベースに構築されています。

Alibaba のビッグモデルが再びオープンソース化されました!画像を読み取り、物体を認識することができ、市販されているTongyi Qianwen 7Bをベースに構築されています。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

アリババのオープンソースビッグモデルがまた更新されました〜

同義千文7号B (Qwen-7B)に続いて、アリババクラウドは大規模視覚言語モデルQwen-VLをリリースしました。これはオンラインになるとすぐにオープンソース化されました。

具体的には、Qwen-VLはTongyi Qianwen-7Bをベースに構築された大規模なマルチモーダルモデルです。画像、テキスト、検出ボックスなどの複数の入力をサポートし、テキストに加えて検出ボックスの出力もサポートしています。

たとえば、アーニャの写真を入力します。質問と回答の形式を通じて、Qwen-VL-Chat は写真の内容を要約するだけでなく、写真内のアーニャを見つけることもできます。

テストタスクでは、Qwen-VL は「六角形の戦士」の強さを発揮し、4 つの主要なタイプのマルチモーダルタスク (ゼロショット キャプション/VQA/DocVQA/グラウンディング) の標準英語評価で SOTA を達成しました。

オープンソースのニュースが出るとすぐに、大きな注目を集めました。

具体的なパフォーマンスを見てみましょう〜

中国のオープンドメインポジショニングをサポートする最初の汎用モデル

まず、Qwen-VLシリーズモデルの特徴を見てみましょう。

  • 多言語ダイアログ: 多言語ダイアログをサポートし、画像内の中国語と英語の長いテキスト認識をエンドツーエンドでサポートします。
  • マルチ画像インターレースダイアログ:マルチ画像の入力と比較、特定の画像に関するQ&A、マルチ画像の文学作品作成などをサポートします。
  • 中国語オープンドメインポジショニングをサポートする最初の汎用モデル:検出ボックスに中国語オープンドメイン言語表現を使用して注釈が付けられているため、画像内でターゲットオブジェクトを正確に見つけることができます。
  • きめ細かい認識と理解: 現在使用されている他のオープンソース LVLM (大規模ビジュアル言語モデル)で使用されている 224 解像度と比較して、Qwen-VL は最初のオープンソース 448 解像度 LVLM モデルです。解像度を高くすると、きめ細かいテキスト認識、ドキュメントの質問への回答、検出ボックスの注釈付けが向上します。

シナリオの面では、Qwen-VL は、知識質疑応答、画像質疑応答、ドキュメント質疑応答、きめ細かい視覚的ポジショニングなどのシナリオで使用できます。

例えば、中国語が読めない外国人の友人が病院で治療を受ける際、ナビゲーションマップを見て混乱し、対応する科にどうやって行けばよいか分からなくなった場合、地図と質問を直接Qwen-VLに投げて、画像情報に基づいて翻訳させることができます。

複数の画像の入力と比較をテストしてみましょう。

アーニャだとは分かりませんでしたが、私の感情的な判断はかなり正確でした(犬の頭)。

視覚的な位置決め機能に関しては、画像が非常に複雑で多くのキャラクターが含まれている場合でも、Qwen-VL は要求に応じてハルクとスパイダーマンを正確に見つけることができます。

技術的な詳細について言えば、Qwen-VL は Qwen-7B に基づく言語モデルです。モデル アーキテクチャにビジュアル エンコーダ ViT を導入し、位置認識ビジュアル言語アダプターを介して 2 つを接続することで、モデルがビジュアル信号入力をサポートするようになります。

具体的なトレーニングプロセスは、次の 3 つのステップに分かれています。

  • 事前トレーニング: ビジュアル エンコーダーとビジュアル言語アダプターのみを最適化し、言語モデルを固定します。大規模な画像とテキストのペアリングデータを使用する場合、入力画像の解像度は 224 x 224 です。
  • マルチタスク事前トレーニング: マルチタスク共同事前トレーニング用に、VQA、テキスト VQA、参照理解などの高解像度 (448x448) のマルチタスク視覚言語データを導入します。
  • 教師あり微調整: ビジュアル エンコーダーをフリーズし、言語モデルとアダプターを最適化します。プロンプトは会話インタラクション データを使用して調整され、インタラクティブ機能を備えた最終的な Qwen-VL-Chat モデルが得られます。

研究者らは、マルチモーダルタスクの 4 つの主要カテゴリ (ゼロショット キャプション/VQA/DocVQA/グラウンディング) の標準的な英語評価で Qwen-VL をテストしました。

結果は、Qwen-VL が同じサイズのオープンソース LVLM の中で最良の結果を達成することを示しています。

さらに、研究者らは、GPT-4 スコアリング メカニズムに基づいたテスト セットTouchStone を構築しました。

この比較テストでは、Qwen-VL-Chat が SOTA を達成しました。

Qwen-VL に興味がある方は、Moda コミュニティと huggingface でデモを入手できます。リンクは記事の最後にあります。

Qwen-VLは研究者や開発者による二次開発をサポートしており、商用利用も可能となっています。ただし、商用利用の場合は事前にアンケート申請書に記入する必要があるので注意が必要です。

プロジェクトリンク: https://modelscope.cn/models/qwen/Qwen-VL/summary
https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary
https://huggingface.co/Qwen/Qwen-VL
https://huggingface.co/Qwen/Qwen-VL-Chat
https://github.com/QwenLM/Qwen-VL

論文アドレス: https://arxiv.org/abs/2308.12966

<<: 

>>:  致命的な幻覚問題、GPU 代替品の開発、大規模モデルが直面するその他の 10 の課題

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

数学をしっかり学べないMLエンジニアは優れたデータサイエンティストではない

数学はすべての科目の基礎であり、数学の学習には終わりがありません。ビジネスに携わっている場合、または...

...

...

...

AI 開発者: AI 分野を選択するには?

機械学習アルゴリズムは、より広範で信頼性の高いデータをリアルタイムで提供することができ、インテリジェ...

この論文では、688件の大規模モデル論文を分析し、LLMの現在の課題と応用について検討する。

まったく知られていなかった状態から誰もが話題にする状態へと、大規模言語モデル (LLM) の状況はこ...

...

CPUのみを使用して自律航行船を開発、実際に実現

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

悲劇!ウーバー、自動運転車が人をはねて死亡させたため全テストを中止

ウーバー、自動運転車が人をはねて死亡させたため全テストを中止 アメリカ現地時間19日朝、アリゾナ州...

...

人工知能が新薬開発を支援

[[251349]]古代、神農は何百種類もの生薬を試飲しましたが、これは実際には薬を人工的に選別する...

AI は銀行がますます激化する詐欺の競争に勝つためにどう役立つか

今日のイノベーションのペースが競争だとしたら、世界は猛烈なスピードで変化しています。今日の世界で起こ...

アルゴリズム | 再帰の深い理解、あなたは再帰を誤解しています

再帰は、プログラミングの本で説明するのが最も難しい部分である魔法のアルゴリズムです。これらの本では通...

ChatGPT 技術製品の実装: 技術アーキテクチャから実際のアプリケーションまで

導入この共有では、ChatGPTテクノロジー製品の実装についてお話ししたいと思います。技術アーキテク...