Googleが最新のゼロショット学習画像発話モデルをリリース、ユーザーは複数の種類のタスクを直接使用できるようになる

Googleが最新のゼロショット学習画像発話モデルをリリース、ユーザーは複数の種類のタスクを直接使用できるようになる

[[430758]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

Google は、ゼロショット学習タスク転送を簡単に実現できる、新しい弱教師付き画像発話モデルSimVLMをリリースしました。

画像を言葉で説明することから画像に関する質問に答えることまで、モデルは微調整なしですべてを実行できます。

一般的な視覚言語事前トレーニング (VLP) モデルの場合、トレーニング データセットには多数の正確なラベルが含まれている必要があります。モデルのタスク移行では、特定のタスクのデータセットの再ラベル付けが必要です。

要約すると、データセットのラベル付けは時間がかかり、労力がかかるだけでなく、複数のタスクには適用できません。

シンプルで汎用性の高い VLP モデルを開発できるでしょうか?

Google が新たに開発したこのモデルは、モデルのトレーニングに弱教師あり学習を使用しています。モデル化に弱く整合された多数の画像とテキストのペアを利用することで、VLP のトレーニング プロセスが簡素化され、トレーニングの複雑さが大幅に軽減されます。

SimVLM は、接頭辞言語モデリングという単一の目的のためにエンドツーエンドでトレーニングされ、生の画像を直接入力として受け取ります。これらの設定により、モデルは大規模な弱ラベル付きデータセットを活用できるようになり、ゼロショット学習でより優れた一般化効果が得られます。

SimVLM モデルはどのように実装されていますか?

SimVLM モデルの事前トレーニング プロセスでは、プレフィックス言語モデリング (PrefixLM) という単一の目的を採用し、シーケンスのプレフィックスを入力として受け入れ、モデル デコーダーを通じてその継続を予測します。

データセット内の画像とテキストのペアの場合、画像シーケンスはテキスト記述のプレフィックスと見なすことができます。

このアプローチにより、トレーニング プロセスが簡素化され、さまざまなタスク設定に適応する際のモデルの柔軟性と汎用性が最大化されます。

モデルのバックボーン ネットワークは、言語タスクとビジョン タスクの両方で優れたパフォーマンスを発揮する Transformer アーキテクチャを使用します。

入力された生画像データからコンテキスト パッチを抽出するために、ResNet 畳み込みネットワークが使用されます。

上の図に示すように、視覚モダリティでは、画像は複数のパッチに分割され、1 次元のシーケンスに圧縮されます。テキストモーダル文は表現ベクトルにマッピングされます。

このモデルは、約 18 億のノイズを含む画像とテキストのペアの ALIGN トレーニング セットを使用して、ゼロ ショット学習の一般化能力を向上させます。

トレーニング セット内のノイズを補正するために、トレーニング モデルでは合計 800G の Colossal Clean Crawled Corpus (C4) データセットも使用しました。

SimVLM モデルの基本的なパフォーマンスは何ですか?

モデルを事前トレーニングした後、そのパフォーマンスをテストするために、マルチモーダル タスクでモデルを微調整する必要があります。

ここで使用されるマルチモーダル タスクは、VQA、NLVR2、SNLI-VE、COCO Caption、NoCaps、Multi30K En-De です。

SimVLM モデルは、既存の完全機能モデルと比較されます。テスト結果は上記の表に示されています。評価に使用された SimVLM モデルには、8,600 万パラメータ、3 億 700 万パラメータ、6 億 3,200 万パラメータの 3 つの異なるサイズも含まれています。

クロスモーダルタスクのテスト結果では、SimVLM モデルが最も優れたパフォーマンスを発揮しました (データが大きいほど、パフォーマンスが向上します)。CoCo Caption の B@4 指標を除き、他のタスクでも新しい SOTA 結果を達成し、モデルの高度な性質を十分に実証しました。

SimVLMモデルのゼロショット一般化

SimVLM モデルはクロスモーダルタスクテストで優れたパフォーマンスを達成できるため、ゼロサンプルのクロスモーダル転送を正常に実行できるでしょうか?

事前トレーニング済みの SimVLM モデルは、テキスト データのみで微調整されるか、まったく調整されず、画像キャプション、多言語キャプション、オープンエンド VQA、ビジュアル テキスト生成などのタスクでテストされます。

テスト結果は次の図に示されています。

画像とテキストプロンプトが与えられると、事前トレーニング済みのモデルは微調整なしで画像の内容を予測できます。

さらに、微調整されていないモデルは、ドイツ語の字幕生成、データセット外の回答生成、画像コンテンツに基づくテキストの説明、自由形式の視覚的な質問への回答などのアプリケーションで優れたパフォーマンスを発揮します。

SimVLM のゼロショット学習パフォーマンスを定量化するために、事前トレーニング済みの固定モデルを使用して COCO Caption と NoCaps をデコードし、その後、教師あり標準ベースライン (Sup.) と比較します。

結果の比較から、教師ありの微調整がなくても、SimVLM は教師ありトレーニングの品質レベルを達成できることがわかります。

著者について

この研究の第一著者は、現在カーネギーメロン大学に在学中の Google 学生研究者 Wang Zirui 氏です。彼は、ICLR、EMNLP、CVPR などのトップカンファレンスで第一著者として多くの論文を発表しています。

[[430759]]

2020年12月20日時点ではSuperGLUEデータセットで人間のスコアを上回る初のSOTAパフォーマンス(スコア90以上)を達成し、現在はBaiduチームに追い抜かれ2位となっている。

今回開発したSimVLMは、6つの視覚言語ベンチマークにおいてシングルモデルSOTA性能も達成し、テキスト誘導ゼロショット学習の一般化能力も実現しました。

<<:  人工知能を背景とした公共読書空間の探究と創造

>>:  放送・ホスティング業界における人工知能の限界についての簡単な分析

ブログ    
ブログ    

推薦する

...

10億件の速達配送のピークを迎える中、Baidu OCRが物流企業のスピードアップにどのように貢献しているかをご覧ください。

ダブル11の大割引が戻ってきました。新規のお客様が最初に購入できる厳選商品...速達便のビジネスプロ...

2024 年のビッグデータ業界予測 (パート 2)

ビッグデータデジタル変革への投資は、特にインフレが継続する中で、リスク管理の強化、コストの削減、顧客...

...

脳も分散強化学習を使用しているのでしょうか?ディープマインド社の新しい研究がネイチャー誌に掲載

分散強化学習は、囲碁やスタークラフトなどのゲームでインテリジェントエージェントが使用する手法ですが、...

私はAIロボットの何希2号です。私の話を聞きたいですか?

「インテリジェント ブレイン」センターの場所 - AIXO ビル、地下 21 階、タイムトラベル研...

流行中にどのようなホットなテクノロジーが使用されていますか? AI、5G、RTC、ビッグデータが登場

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

言語モデルの氷山の一角: 微調整は不要、AI21 Labs は凍結モデルの未開発の可能性を探る

現在、特定の NLP タスクのパフォーマンスを最適化するための最善のアプローチは、事前トレーニング済...

...

3,000以上のデータから200を選択する方が実際にはより効果的であり、MiniGPT-4は同じ構成のモデルよりも優れている。

GPT-4 は、詳細かつ正確な画像の説明を生成する強力で並外れた能力を実証しており、言語と視覚処理...

企業は AIGC の生産性向上のメリットをどのように活用できるでしょうか?

全米経済研究所が実施した最近の調査によると、ChatGPT のような AIGC を導入すると、従業員...

世界のトップ25の人工知能企業

過去数年間で人工知能の利用は爆発的に増加しており、すでに多くのスタートアップ企業や大手企業が独自の ...

7Bモデルがまた手に入ると最高ですね! 700億のLLaMA2を突破、Appleのコンピュータは

「調整」に 500 ドルかかる 70 億パラメータのモデルは、700 億パラメータの Llama 2...

注意メカニズムにバグがあり、ソフトマックスが犯人であり、すべてのトランスフォーマーに影響を与えている

「私は、8年間誰も発見できなかった注目度の式のバグを発見しました。GPTやLLaMAを含むすべてのT...