GPT-4Vに挑戦する浙江大学の卒業生が、マルチモーダル大規模モデルのオープンソース版をリリースし、GitHubで6,000以上のスターを獲得しました。

GPT-4Vに挑戦する浙江大学の卒業生が、マルチモーダル大規模モデルのオープンソース版をリリースし、GitHubで6,000以上のスターを獲得しました。

GPT-4 の視覚機能がテスト用に完全にリリースされる前に、オープンソースのライバルが華々しくデビューしました。

浙江大学コンピュータサイエンス学部の卒業生が、マイクロソフトリサーチや他の機関と共同で、マルチモーダルモデル LLaVA の新バージョンを発表しました。

LLaVA は 11 個のテスト データセットで SOTA を達成し、GitHub で 6,000 を超えるスターを獲得しました。

開発者が提供したデータによると、LLaVA の総合的な能力は GPT-4V のレベルの 85% に達し、複雑な推論タスクでは 96% を超えています。

認証コードの読み取り、犬の品種の判別、さらには画像に基づいて Web ページ コードを生成することなど、LLaVA にとってこれらはどれも難しいことではありません。

△𝕏/マット・シューマー

リソースの面では、LLaVA のサンプル サイズはわずか 120 万で、8*A100 マシン 1 台で 1 日でトレーニングを完了できます。

しかし、それを体験したネットユーザーたちは、LLaVA は GPT-4V とはまだいくつかのギャップがあると述べています。

では、LLaVA のパフォーマンスはどうでしょうか? 私たちもテストしました。

GPT-4Vとのギャップはあるが、これも使用可能

LLaVA と GPT-4V のパフォーマンスをより直感的に比較するために、Microsoft が公開している GPT-4V マニュアルの事例をそのまま使用しました。

まず、最も基本的な文字認識を見てみましょう。

ここでの GPT-4V マニュアルで使用されているプロンプトはこの画像について説明しており、私たちも同様のことを行います。

その結果、LLaVAは名前を一つも挙げなかっただけでなく、人数も間違って数え、その中にはサッカー選手、俳優、歌手も含まれていると判定した。

そこで私たちはLLaVAにこれらの人々の名前を尋ね続けましたが、判断を下すには情報が不十分だと言われました。

このラウンドでは GPT-4V がわずかに優れていましたが、おそらく一度に参加者が多すぎたため、LLaVA に別の簡単な質問を与えました。

一連の質問の後、LLaVA は写真に写っているマー氏とザッカーバーグ氏をうまく認識したので、今回は合格とします。

プロの画像はどうですか?たとえば、医療画像診断。

GPT-4V の答えは肺の感染症または炎症であり、LLaVA は喫煙または COPD によって引き起こされるアポトーシス細胞および瘢痕組織を指します。

しかし、どちらのモデルも結論を裏付けず、さらなる検査が必要であると示唆した。しかし、LLaVA が示した「組織の黒い部分は異常である」という点は正しかった。

これらの実際の画像に加えて、テキスト認識もマルチモーダル モデルのテストで一般的なタスクです。

この写真では、LLaVA は英語のテキストを正常に認識しましたが、その下の日本語のカタカナを認識できませんでした。

上記の真面目な内容に加えて、LLaVA は絵文字も解釈できるのでしょうか?

今回、LLaVA はカエルのおもちゃと写真内のテキストを正しく識別し、絵文字の解釈も半分は正しかった。

このミームの皮肉なところは、予定に遅れてしまった人たちが、さらに予定を延期してしまうという点です。LLaVA は前半部分しか言いませんでした。

まとめると、LLaVA は基本的に GPT-4V の認識能力を備えていますが、少し欠けている部分があります。

つまり、それほど強力ではないものの、それでも使用可能です。

それで、LLaVA はどのようにして作られたのでしょうか?

ビクーニャとCLIPの組み合わせ

LLaVA のトレーニングは 2 つの段階に分かれています。

最初のステップは、テキストと画像を揃える事前トレーニング プロセスです。この段階では、合計 600,000 個の画像とテキストのペアが使用されました。

2 番目の段階では、視覚的な指示を使用して、アライメントに基づいてチューニングを実行し、ユーザーが尋ねる可能性のあるさまざまな質問に LLaVA が慣れることができるようにします。

モデル構造としては、LLaVA の言語モデルはアルパカ科の Vicuna で、視覚モデルは OpenAI の CLIP を使用し、モーダルコネクタとして MLP を採用しています。

LLaVA がより専門的な分野のコンテンツを認識できるようにするために、研究チームは開発プロセス中に ScienceQA データセットも使用しました。

開発プロセスが完了した後、研究チームは GPT-4 を使用して LLaVA の出力を評価しました。

開発者は、COCO データセットのコンテンツを使用して 3 種類の質問を設計し、LLaVA に回答を出力させて GPT-4 に渡してスコアリングを行うように依頼しました。

  • 質問応答ダイアログ: COCOデータセットの質問を質問用の文章に書き直す
  • 詳細な説明: LLaVAに画像の内容についてより詳細で具体的な説明を提供するよう依頼します
  • 複雑な推論:LLaVA は、画像に直接含まれていない情報(キャラクター間の関係など)を理解した上で推論する必要があります。

現在、LLaVA のコード、モデル、トレーニング データはオープンソースになっています。7B と 13B のパラメータを持つ 2 つのモデルがあり、どちらも完全に微調整されています。LoRA バージョンも間もなくリリースされる予定です。

著者について

LLaVA 関連論文の第一著者は、ウィスコンシン大学マディソン校の中国人博士課程学生、Haotian Liu 氏です。

彼はまた、ZJU コンピュータサイエンス学院の卒業生でもあり、そこでコンピュータサイエンス学院の Jin Xiaogang 教授と Wu Fei 教授の下で学びました。

彼の現在の指導教員である Yong Jae Lee 氏が、関連論文の責任著者です。

さらに、Microsoft Research とコロンビア大学の学者も LLaVA 関連の研究に携わっています。

プロジェクトのホームページ(DEMO と GitHub、HuggingFace リンクを含む): https://llava-vl.github.io/

論文の宛先:
[1] https://arxiv.org/abs/2304.08485
[2] https://arxiv.org/abs/2310.03744

<<:  GPT-4 ワイルドスポークスマン Terence Tao: 新しい文学ツールは、それがなければ崩壊してしまいます! 11ページの「超短編」新作がオンラインになりました

>>:  Docker が Generative AI スタックと Docker AI をリリース

ブログ    

推薦する

アルゴリズムの改善とハードウェアの反復、どちらがより収益性が高いでしょうか? MITの最新の研究結果がこの答えを提供している

コンピューターが登場する前には、アルゴリズムがありました。コンピュータの誕生により、コンピュータの強...

起業の触媒としての AI: AI が提供できるものと提供できないもの

AI は、その潜在的パワーにもかかわらず、ビジネスを前進させるイノベーションの創出や推進において補助...

人工知能技術には明るい未来がある

1990年代初頭、中国の著名な学者である周海中氏は、人工知能技術がさまざまな分野で広く使用され、予想...

ロボットが自閉症児の社会スキルの発達を助ける

社会的支援ロボットは、自閉症スペクトラム障害(ASD)の子供たちが適切な行動とコミュニケーションを促...

...

モザイクから高精細画像まで、AIの画像作成能力は強化されてきましたが、美しさと歪みのバランスをどう実現するのでしょうか。

サスペンスやSF作品では、ぼやけた写真がコンピューターの画面に表示され、捜査官が画像を強調するように...

53ページのPDFがOpenAIの「AGIタイムライン」を公開、内部告発者:マスクの訴訟が状況を混乱させた

OpenAI の謎の Q* プロジェクトに関する新たな情報があります。今朝早く、54ページに及ぶGo...

2021年第1四半期のロボット産業の新製品在庫

2021 年の最初の 3 か月間にロボット業界ではどのような新製品が登場しましたか? [[38857...

2023年版CV初心者ガイドの概要

コンピューター ビジョンは、驚くほど急速に発展している分野です。本質的には、コンピューターに人間と同...

寒波警報(黄色)発令中、ドローンの使用にはご注意ください!

11月3日、中央気象台は今年初の黄色寒波警報を発令し、最強の寒波が来ています!警報によると、11月...

TensorFlow とオートエンコーダー モデルを使用して手書き数字を生成する方法

[[209419]]オートエンコーダーは、入力データを効率的にエンコードする方法を学習するために使用...

...

...