この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 手動ラベル付けデータは不足していますか? Mata の新しい方法は、少量のシード データのみを使用して、高品質の命令に従う言語モデルを構築します。 言い換えれば、大規模な言語モデルでは、微調整のために手動で注釈を付けられた大量の指示データが必要になりますが、現在ではモデルはオンライン コーパス内のラベルのないテキストから指示を自動的に推測できます。 そして、自分で生成した指導データを使ってトレーニングを行うので、自社生産・自社販売に匹敵します。 そして、この方法を使用してトレーニングされたモデルは、Alpaca ベンチマークにおいてオープンソースの Alpaca とその派生モデルシリーズを上回ります。 LeCun 氏は、この研究はモデルの自己整合という点でセンセーショナルだとツイートした。 ネットユーザーの一言でまとめると、次のようになります。 アルパカは自ら訓練を始めました。 2 つの文で要約すると次のようになります。 元々は、コマンド>応答データセットが必要でしたが(手動でラベル付けする必要がありました)、現在は、応答>コマンドを実行するための「リバースモデル」をトレーニングするだけで済みます。任意のテキストを自由に指示データセットに変換できます。 ネットユーザーの中には、次のような自問自答する質問を投げかける者もいた。 これが超知能への道のように見えると思うのは私だけでしょうか?追加の高品質な外部データを必要とせずに、どんどん賢くなる LLM を取得できる場合、それは自己改善型のクローズド システムです。 おそらく必要なのは、信号を提供する強化学習システムだけであり、残りの作業は LLM 自体の反復によって実行できます。 アルパカ:自分のデータを使ってクジラを訓練してみたこの新しいスケーラブルな方法は命令バックトランスレーションと呼ばれ、Mata はこの方法を使用してトレーニングされたモデルをHumpbackと名付けました。 (研究者らは、ラクダの背との関連性と、ラクダの背の方が大きいため、モデルのスケールも大きいことからこの名前が付けられたと述べた。) ザトウクジラをトレーニングする手順は、少量のラベル付きデータから始めて、言語モデルを使用してラベルなしテキストに対応する指示を生成し、候補トレーニング データを形成するだけです。次に、モデルを使用してデータの品質を評価し、再トレーニング用の高品質のデータを選択します。このプロセスを繰り返して、モデルをさらに改善します。 上図に示すように、準備する必要がある「材料」は次のとおりです。
注釈付きの例とコーパス ソースができたので、次のステップは自己拡張段階です。 研究者らはシードデータを使用してベースモデル LLaMa を微調整し、命令予測モデルを取得しました。この命令予測モデルは、ラベルのないテキストの候補命令を推測するために使用されます。次に、候補命令はテキスト(命令と出力のペア)と結合され、候補拡張トレーニング データとなります。これが上図の拡張データ A です。 しかし、ラベルなしテキスト自体の品質が大きく異なり、生成された候補指示にもノイズが含まれるため、A のデータは直接トレーニングには使用できません。 したがって、モデルを使用してデータの品質を予測し、トレーニング用の高品質のサンプルを選択するには、重要な自己キュレーション手順が必要です。 具体的には、研究者らはシードデータのみで微調整された指示モデルを使用して候補データを採点しました。満点は5点で、より高い得点を取った人だけが次のラウンドの候補データとして選ばれます。 モデル指示予測の品質を向上させるために、研究者は候補データを使用してモデルを反復的にトレーニングし、反復トレーニング中にデータの品質はどんどん向上しました。 さらに、シード データと拡張データを組み合わせてモデルを微調整する際には、2 つのデータ ソースを区別するために異なるシステム ヒント タグも使用しました。
2 回の反復を経て、最終モデルが完成します。 2種類のトレーニングデータをマージする: 1+1>2研究者の分析結果は次のとおりです。 △シードデータと拡張データの命令多様性。内側の円は一般的な語源の動詞、外側の円はそれに対応する普通名詞です。 上の図は、8% のシード データと 13% の拡張データ統計を使用した命令の多様性を示しています。 ロングテール部分の強化データはより多様化しており、強化データは既存の手動で注釈付けされたシードデータを補完し、シードデータに表示されないタイプを補っていることが直感的にわかります。 次に、研究者らは3つの拡張データセットを比較した。拡張データ、すべて(自己管理なし) 、 実験では、データセットは小さくなったものの、トレーニング データの品質が向上したため、モデルのパフォーマンスが大幅に向上したことが観察されました。 △ 自己スクリーニングを使用して、さまざまなデータサイズと品質の自己拡張データを評価します。 Y 軸は、指定されたデータ サイズと品質で LLaMa 7B を微調整した場合の text-davinci-003 に対する勝率を示しています。 (text-davinci-003、強化学習を使用して人間が書いた指示データ、出力、モデル応答、および人間の好みに基づいて微調整された GPT-3 ベースの指示追従モデル) 最後にアルパカランキングの結果を見てみましょう。 Humpback は、抽出されたデータに依存せずに他の方法を大幅に上回り、独自のモデルとのギャップを埋めます。 非蒸留とは、いかなる形式の監督としても外部モデルに依存しないトレーニング モデルを指します。蒸留とは、外部モデルから蒸留されたデータを使用するなど、トレーニング プロセス中により強力な外部モデルを導入することを指します。独自とは、独自のデータとテクノロジを使用してトレーニングされたモデルを指します。 △text-davinci-003に対する勝率 オープンソースモデルの LIMA 65B、Guanaco 65B、Falcon-Instruct 40B、および独自モデルの davinci-003 と Claude と比較すると、Humpback のパフォーマンスは人間の好みにより合致しています。 さらに、研究者らはこの方法の限界についても指摘した。 トレーニングに使用されるテキスト データは Web コーパスから取得されるため、微調整されたモデルによって Web データのバイアスが増幅される可能性があります。ベースモデルと比較すると、微調整されたモデルでは逸脱を検出する精度が向上します。しかし、これで問題が完全に解決されるわけではありません。 ポータル: https://arxiv.org/abs/2308.06259 (論文リンク) |
<<: MIT、物体を拾うための「最強のアシスタント」を発表、少量のトレーニングサンプルで自然言語制御を実現
>>: Google DeepMindは少なくとも21の新しい生成AI機能を開発中
海外メディアの報道によると、ヨーロッパ人は5年前よりもロボットに対して保守的になっていることが調査で...
[[206874]]昨日、中国共産党第19回全国代表大会が開幕した。 AIの重要なポイントを強調して...
ヘルスケア、小売、テクノロジー業界の IT リーダーが 2020 年の戦略的優先事項を共有します。ヒ...
セキュリティ分野では、アカウント取引の異常や異なるイベント間の相関関係など、さまざまなシナリオで「グ...
OpenAIは7月21日、カスタム指示機能のリリースを発表しました。この機能はまずPLUSプランのベ...
[[206375]]まず、Python とは何でしょうか? Python の作成者である Guido...
[[272599]]人工知能は、英語の正式名称を「Artificial general intel...
今日、企業のデジタル変革は避けられない選択肢となっており、従来の製造業では、変革の探求は実はずっと以...
DataOps プラットフォームの真の価値は、ビジネス ユーザーとアプリケーションがさまざまなデータ...
[51CTO.comより] NetEase Cloud Musicは音楽愛好家が集まる場所です。C...
自動化された AI システムは、建物の暖房と冷房を最適化して効率性と持続可能性を向上させるのに役立ち...