GPT-3.5 を選択すべきでしょうか、それとも Llama 2 などのオープンソース モデルを微調整すべきでしょうか?総合的に比較した結果、答えは

GPT-3.5 を選択すべきでしょうか、それとも Llama 2 などのオープンソース モデルを微調整すべきでしょうか?総合的に比較した結果、答えは

GPT-3.5 の微調整には非常にコストがかかることはよく知られています。この論文では、手動で微調整されたモデルが、わずかなコストで GPT-3.5 のパフォーマンスに近づくことができるかどうかを実験的に検証します。興味深いことに、この記事はまさにそれを行っています。

この論文では、SQL タスクと機能表現タスクの結果を比較して、次のことがわかりました。

  • GPT-3.5 は、両方のデータセット (Spider データセットと Viggo 機能表現データセットのサブセット) で、Lora で微調整された Code Llama 34B よりもわずかに優れたパフォーマンスを発揮します。
  • GPT-3.5 はトレーニングに 4 ~ 6 倍のコストがかかり、展開にもコストがかかります。

この実験の結論の 1 つは、GPT-3.5 の微調整は初期検証作業には適しているが、その後は Llama 2 のようなモデルが最適な選択肢になる可能性があるということです。簡単にまとめると、

  • 特定のタスク/データセットに対して微調整が適切なアプローチであることを検証する場合、または完全に管理された環境が必要な場合は、GPT-3.5 を微調整します。
  • コストを節約したい場合、データセットから最大限のパフォーマンスを引き出したい場合、トレーニングおよびデプロイメント インフラストラクチャの柔軟性を高めたい場合、または一部のデータを非公開にしたい場合は、Llama 2 などのオープン ソース モデルを微調整してください。

次に、この記事がどのように実装されているかを見てみましょう。

下の図は、SQL タスクと機能表現タスクで収束するようにトレーニングされた Code Llama 34B と GPT-3.5 のパフォーマンスを示しています。結果は、GPT-3.5 が両方のタスクで優れた精度を達成することを示しています。

ハードウェアの使用に関しては、実験では A40 GPU が使用され、1 時間あたり約 0.475 ドルのコストがかかりました。

さらに、この実験では、Spider データセットのサブセットと Viggo 機能表現データセットという、微調整に非常に適した 2 つのデータセットが選択されました。

GPT-3.5 モデルと公平に比較​​するために、Llama は最小限のハイパーパラメータの微調整を受けました。

私たちの実験における 2 つの重要な選択は、完全なパラメータの微調整ではなく、Code Llama 34B と Lora の微調整を使用することです。

実験は、Lora ハイパーパラメータの微調整に関するルールにほぼ従いました。Lora アダプターは次のように構成されました。

次に、SQL ヒントの例を示します。

SQLプロンプトは部分的に表示されています。完全なプロンプトについては元のブログを参照してください。

この実験では完全なSpiderデータセットは使用しなかった。

 department : Department_ID [ INT ] primary_key Name [ TEXT ] Creation [ TEXT ] Ranking [ INT ] Budget_in_Billions [ INT ] Num_Employees [ INT ] head : head_ID [ INT ] primary_key name [ TEXT ] born_state [ TEXT ] age [ INT ] management : department_ID [ INT ] primary_key management.department_ID = department.Department_ID head_ID [ INT ] management.head_ID = head.head_ID temporary_acting [ TEXT ]

この実験では、sql-create-context データセットと Spider データセットの交差部分を使用することを選択します。モデルに提供されるコンテキストは、次のような SQL 作成コマンドです。

 CREATE TABLE table_name_12 (class VARCHAR, frequency_mhz VARCHAR, city_of_license VARCHAR)

SQL タスク コードとデータ アドレス: https://github.com/samlhuillier/spider-sql-finetune

機能表現のヒントの例を以下に示します。

機能表現のヒントは部分的に表示されています。完全なヒントについては元のブログをご覧ください。

出力は次のようになります。

 verify_attribute(name[Little Big Adventure], rating[average], has_multiplayer[no], platforms[PlayStation])

評価フェーズでは、2 つの実験はすぐに収束しました。

機能表現タスクコードとデータアドレス: https://github.com/samlhuillier/viggo-finetune

詳細については、元のブログをご覧ください。

<<:  OpenAIは静かにその中核となる価値観を改訂し、汎用人工知能の構築に注力する

>>: 

ブログ    
ブログ    

推薦する

10年後に人工知能のリーダーとなる国はどこでしょうか?アメリカ国民:中国であるべきだ

ロシアメディアは、中国の人工知能(AI)産業の急速な発展を背景に、米シンクタンクのブルッキングス研究...

AI プロジェクトを開始する前に尋ねるべき 4 つの重要な質問

今日、ますます多くの企業が人工知能プロジェクトを立ち上げていますが、成功しないプロジェクトもあります...

Keras よりも優れた機械学習「モデル パッケージ」: コード 0 個でモデルの作成を開始

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

産業用IoTにおける機械学習の応用

産業用IoTにおける機械学習の応用産業用 IoT (IIoT) に機械学習を適用すると、企業の予測分...

YOLOプロジェクト復活!マスターが後を継ぎ、YOLOの父が2か月間引退し、v4バージョンが正式にリリースされました

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

企業に利益をもたらす 5 つの AI トレンド

[[358096]]市場の状況がますます複雑化する今日の不安定なビジネス環境では、組織が分析に基づく...

LLM の成功に欠かせない基礎: RLHF とその代替技術

LLM について議論するときは、必ず「人間のフィードバックによる強化学習 (RLHF)」と呼ばれるプ...

科学者たちは、より信頼性の高い予測を達成するために人工知能が「近道」をすることを避ける方法を研究している。

新しいアプローチにより、機械学習モデルはタスクを学習する際により多くのデータに焦点を当てるようになり...

企業、不動産会社、自動車会社が顔情報を収集する方法を弁護士が解説:消費者は法律に従って権利を断固として守るべき

[[388553]] 3月18日夜、企業やメーカーが個人情報を不法に収集し、商業目的で利用する事件が...

...

アルゴリズム モデルをエンドツーエンドのインテリジェント モデルに変換するにはどうすればよいでしょうか?

エッジ インテリジェント テクノロジーのエンジニアリング プラクティスを紹介する前に、避けることので...

ディープラーニングを使用してNBAの試合結果を予測する

この記事では、ディープラーニングを使用して NBA の試合結果を予測します。この記事を通じて、次のこ...

130年の歴史を持つアメリカのブランド、カーハートがAIを活用して売上を伸ばす方法

戦略的利益のために AI を活用している企業の中に、アメリカの衣料品会社 Carhartt がありま...