1つの命令を使用してGPT-3.5またはLlama 2を微調整する方法

1つの命令を使用してGPT-3.5またはLlama 2を微調整する方法

ChatGPT や Llama 2 などの大規模言語モデル (LLM) は、さまざまなタスクでの汎用性から人気があります。ただし、一部のアプリケーションでは、パフォーマンスを向上させるために、カスタム データを使用してこれらのモデルを微調整する必要があります。

残念ながら、特定のアプリケーション向けに大規模言語モデル (LLM) を微調整することは、多くの場合複雑で面倒であり、アプリケーションの種類と必要なデータに大きく依存します。幸いなことに、HyperWrite の CEO である Matt Schumer 氏は、Llama 2 または GPT-3.5 Turbo の微調整プロセスを簡素化する非常に便利なツール、gpt-llm-trainer を開発しました。

gpt-llm-trainer は、LLM を微調整するという複雑なタスクを単一の簡単な指示に簡素化し、ユーザーがこれらのモデルをニーズに合わせて簡単に適応できるようにします。

gpt-llm-trainerはどのように機能しますか

gpt-llm-trainer は、「モデル蒸留」と呼ばれる手法を使用します。このプロセスは基本的に、より大きな機械学習モデル (教師) からより小さな機械学習モデル (生徒) に知識を転送します。 LLM のコンテキストでは、モデル蒸留には通常、タスク固有のトレーニング例を生成する教師モデルが含まれ、その後、そのサンプルが小さなモデルのトレーニングに使用されます。

gpt-llm-trainer は開発者のタスクを記述し、GPT-4 を使用して、トレーニング対象の小さなモデルのトレーニング例を自動的に生成します。これらの例は、開発者が選択したモデル(現在は Llama 2 と GPT-3.5 Turbo が含まれます)を微調整するために使用されます。

モデル蒸留は、LLM を微調整するための万能のソリューションではないことに注意することが重要です。多くの場合、開発者は依然として独自のデータを手動で管理するという困難なプロセスを経る必要があります。ただし、モデルの蒸留は、教師モデルが生徒モデルよりも優れている場合に特に効果的であることが示されています。

蒸留がタスクに適したアプローチであるかどうかを判断するために、開発者はベンチマーク パフォーマンス レポートを参照したり、教師と生徒のモデルに関する独自の実証研究を実施したりすることができます。これにより、開発者は情報に基づいた意思決定を行い、微調整プロセスを最適化できるようになります。

図1: LLMモデルの蒸留

gpt-llm-trainerの使い方

開発者は、関連 Web サイトの gpt-llm-trainer の GitHub ページにアクセスできます。 Matt は、GPT-3.5 Turbo 用と Llama 2 用の 2 つの Google Colab ノートブックも用意しており、独自の Python 環境をセットアップしなくても簡単に実行できます。

gpt-llm-trainer ツールを使用するには、まず OpenAI アカウントと有効な API キーが必要です。このキーは、「YOUR KEY HERE」と書かれたノートに書き留めておく必要があります。

ノートブックの最初のセルに、タスクの説明、必要な例の数、モデルの創造性レベルを調整する温度を入力します。次の手順は簡単です。セルを順番に実行して例を生成し、モデルをトレーニングします。

Llama 2 ノートブックを使用している場合、生成されたモデルは Google ドライブに保存されます。 GPT-3.5 ノートブックを使用している場合、モデルは OpenAI アカウントに保存されます。

特に、OpenAI の利用規約では、競合製品のモデルをトレーニングするために LLM を使用することを禁止しています。つまり、開発者は gpt-llm-trainer によって微調整されたモデルを商用目的で使用することはできません。しかし、これを使用して、個人的な日常使用のための独自のライティング アシスタントやコーディング アシスタント、その他のツールを簡単に作成できます。

また、開発者がモデルを生成して微調整したい例の数によっては、データ生成とトレーニングのプロセスに時間がかかる場合があることにも注意してください。例は GPT-4 を使用して生成されるため、トレーニングのコストを監視することが重要であり、約 50 個の短いトレーニング サンプルを 1 ドル未満で生成できます。ただし、大規模なデータセットを生成する予定の場合は、コストを慎重に検討する必要があります。まず少量の例を生成し、その品質を評価して必要に応じて指示を調整してから、データセット全体の作成に進むことができます。

Llama 2 ノートブックを使用するユーザーの場合、gpt-llm-trainer はデフォルトで「nousresearch/llama-2-7b-chat-hf」モデルを微調整します。このモデルには、申請フォームに記入しなくてもアクセスできます。オリジナルの Meta Llama 2 を微調整したい場合は、コードを変更し、Hugging Face パスワードを入力する必要があります。また、微調整はColabのGPUを使用して行われるため、実行環境は必ずGPUを使用するように設定してください。

gpt-llm-trainer の改善

gpt-llm-trainer は強力なツールですが、Google Colab ベースのインターフェースは、Colab が一般に本番環境向けに設計されていないため、あまりユーザーフレンドリーではありません。

さらに、このツールの使いやすさを向上させる機能がいくつかあります。たとえば、生成されたトレーニング例は保存されず、Colab セッションの終了後に破棄されます。ただし、例はセッション中に Pandas DataFrame に保存され、少しコーディングするだけで、将来使用するために CSV ファイルにエクスポートできます。

興味深いアイデアとしては、gpt-llm-trainer を Streamlit に移植することです。これにより、LLM を微調整するためのよりユーザーフレンドリーなインターフェースが提供され、独自のトレーニング例を使用してブートストラップできるようになり、生成された例を後で使用するために保存できるようになります。 gpt-llm-trainer は LLM 蒸留の良い出発点ですが、それを改善する方法はたくさんあります。

原題: 1 つの命令で GPT-3.5 または Llama 2 を微調整する方法、著者: Ben Dickson

リンク: https://bdtechtalks.com/2023/11/03/gpt-llm-trainer/

<<: 

>>: 

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

2020年のAI開発の現状と展望の分析

中国政府は人工知能を国家戦略のレベルにまで高めた。 2017年7月、国務院は「次世代人工知能発展計画...

Chen Danqi 氏のグループによるマスク言語モデルに関する研究: 15% のマスク率は最適ではないが、40% は維持可能か?

少し前に、スローン財団は2022年度スローン研究賞の受賞者を発表しました。Chen Danqi、Fa...

...

DGX-2 および SXM3 カードが GTC 2018 で発表されました

最近、GTC 2018 で、Vicor チームは NVIDIA DGX-2 の発表を目撃しました。 ...

大規模言語モデルに基づくインテリジェントエージェントのモデリングとシミュレーション:レビューと展望

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

今日の生活における人工知能(AI)の実際的な意義

人工知能について言えば、ほとんどの人がまだ混乱していると思います。それは何なのか?何に使われるのか?...

Redditのネットユーザーが議論中!コンピューティング能力とデータは本当にすべてを解決できるのでしょうか?

誰もが知っているように、コンピューティング能力とデータは非常に重要ですが、それだけで十分でしょうか?...

ソファがリモコンに変身、PCBが落書きに隠れる、MITの技術オタクのスマートホームはこんな感じ

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

公式スタンプ! 35の大学がAI専門建設資格の第1期生を取得

最近、教育部は「2018年度一般高等教育機関の学部専攻登録および認可結果の発表に関する教育部の通知」...

...

C# データ構造とアルゴリズムのシーケンス テーブルの簡単な分析

C# データ構造とアルゴリズムのシーケンス テーブルとは何ですか?まず、C# のデータ構造とアルゴリ...

空軍の最高データ・AI責任者がAIを通じて戦略的優位性を獲得する方法について語る

AI は、軍事への応用、脅威の監視、国家防衛の確保など、私たちの行動様式を変えています。 AIは軍事...

...

...

教育ロボットとベテラン教師の戦い:学習の効率を高めるのはどちらでしょうか?

[51CTO.com]地理的制約と教師の制約により、中国では質の高い教育資源が常に極めて不足してい...