GPT-3.5 の微調整には非常にコストがかかることはよく知られています。この論文では、手動で微調整されたモデルが、わずかなコストで GPT-3.5 のパフォーマンスに近づくことができるかどうかを実験的に検証します。興味深いことに、この記事はまさにそれを行っています。 この論文では、SQL タスクと機能表現タスクの結果を比較して、次のことがわかりました。
この実験の結論の 1 つは、GPT-3.5 の微調整は初期検証作業には適しているが、その後は Llama 2 のようなモデルが最適な選択肢になる可能性があるということです。簡単にまとめると、
次に、この記事がどのように実装されているかを見てみましょう。 下の図は、SQL タスクと機能表現タスクで収束するようにトレーニングされた Code Llama 34B と GPT-3.5 のパフォーマンスを示しています。結果は、GPT-3.5 が両方のタスクで優れた精度を達成することを示しています。 ハードウェアの使用に関しては、実験では A40 GPU が使用され、1 時間あたり約 0.475 ドルのコストがかかりました。 さらに、この実験では、Spider データセットのサブセットと Viggo 機能表現データセットという、微調整に非常に適した 2 つのデータセットが選択されました。 GPT-3.5 モデルと公平に比較するために、Llama は最小限のハイパーパラメータの微調整を受けました。 私たちの実験における 2 つの重要な選択は、完全なパラメータの微調整ではなく、Code Llama 34B と Lora の微調整を使用することです。 実験は、Lora ハイパーパラメータの微調整に関するルールにほぼ従いました。Lora アダプターは次のように構成されました。 次に、SQL ヒントの例を示します。 SQLプロンプトは部分的に表示されています。完全なプロンプトについては元のブログを参照してください。 この実験では完全なSpiderデータセットは使用しなかった。 この実験では、sql-create-context データセットと Spider データセットの交差部分を使用することを選択します。モデルに提供されるコンテキストは、次のような SQL 作成コマンドです。 SQL タスク コードとデータ アドレス: https://github.com/samlhuillier/spider-sql-finetune 機能表現のヒントの例を以下に示します。 機能表現のヒントは部分的に表示されています。完全なヒントについては元のブログをご覧ください。 出力は次のようになります。 評価フェーズでは、2 つの実験はすぐに収束しました。 機能表現タスクコードとデータアドレス: https://github.com/samlhuillier/viggo-finetune 詳細については、元のブログをご覧ください。 |
<<: OpenAIは静かにその中核となる価値観を改訂し、汎用人工知能の構築に注力する
アレックス・オメイヤー翻訳者 | 陳俊レビュー | Chonglou人工知能(AI)の急速な進化と発...
トランスフォーマー モデルは現在、言語、視覚、強化学習などの分野での有効性から注目を集めています。た...
25秒で何ができるでしょうか?人間の記者たちがまだショックを受けている間に、ロボットはデータマイニン...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
AI と IoT が広く使用されるようになるにつれて、これら 2 つのテクノロジーがどのように連携し...
2020年11月、Appleは速度と強力な機能の点で驚異的なM1チップを発売しました。 2022年に...
OpenAI は、ますます深刻化する GPT-4 の遅延問題に正式に対応しました。私は今でもChat...
[[205595]]この記事では、エントリーレベルのスタッキング アプリケーションを学習する私の精神...
近年の傾向に倣い、ディープラーニングは 2020 年も最も急速に成長している分野の 1 つであり続け...
[[373854]]最近、北京にショッピングモールがオープンした。オープン当日、客を出迎えたのは「人...
FraudGPT の「成功」は、生成 AI の武器化とハッキング技術の民主化という危険な時代の到来...
[51CTO.com からのオリジナル記事] 自然言語処理は、人工知能の開発において常に克服しなけ...
12月17日、浙江省徳清国際会議センターで2019年中国スマート企業発展フォーラムが開催され、工業情...