この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 手動ラベル付けデータは不足していますか? Mata の新しい方法は、少量のシード データのみを使用して、高品質の命令に従う言語モデルを構築します。 言い換えれば、大規模な言語モデルでは、微調整のために手動で注釈を付けられた大量の指示データが必要になりますが、現在ではモデルはオンライン コーパス内のラベルのないテキストから指示を自動的に推測できます。 そして、自分で生成した指導データを使ってトレーニングを行うので、自社生産・自社販売に匹敵します。 そして、この方法を使用してトレーニングされたモデルは、Alpaca ベンチマークにおいてオープンソースの Alpaca とその派生モデルシリーズを上回ります。 LeCun 氏は、この研究はモデルの自己整合という点でセンセーショナルだとツイートした。 ネットユーザーの一言でまとめると、次のようになります。 アルパカは自ら訓練を始めました。 2 つの文で要約すると次のようになります。 元々は、コマンド>応答データセットが必要でしたが(手動でラベル付けする必要がありました)、現在は、応答>コマンドを実行するための「リバースモデル」をトレーニングするだけで済みます。任意のテキストを自由に指示データセットに変換できます。 ネットユーザーの中には、次のような自問自答する質問を投げかける者もいた。 これが超知能への道のように見えると思うのは私だけでしょうか?追加の高品質な外部データを必要とせずに、どんどん賢くなる LLM を取得できる場合、それは自己改善型のクローズド システムです。 おそらく必要なのは、信号を提供する強化学習システムだけであり、残りの作業は LLM 自体の反復によって実行できます。 アルパカ:自分のデータを使ってクジラを訓練してみたこの新しいスケーラブルな方法は命令バックトランスレーションと呼ばれ、Mata はこの方法を使用してトレーニングされたモデルをHumpbackと名付けました。 (研究者らは、ラクダの背との関連性と、ラクダの背の方が大きいため、モデルのスケールも大きいことからこの名前が付けられたと述べた。) ザトウクジラをトレーニングする手順は、少量のラベル付きデータから始めて、言語モデルを使用してラベルなしテキストに対応する指示を生成し、候補トレーニング データを形成するだけです。次に、モデルを使用してデータの品質を評価し、再トレーニング用の高品質のデータを選択します。このプロセスを繰り返して、モデルをさらに改善します。 上図に示すように、準備する必要がある「材料」は次のとおりです。
注釈付きの例とコーパス ソースができたので、次のステップは自己拡張段階です。 研究者らはシードデータを使用してベースモデル LLaMa を微調整し、命令予測モデルを取得しました。この命令予測モデルは、ラベルのないテキストの候補命令を推測するために使用されます。次に、候補命令はテキスト(命令と出力のペア)と結合され、候補拡張トレーニング データとなります。これが上図の拡張データ A です。 しかし、ラベルなしテキスト自体の品質が大きく異なり、生成された候補指示にもノイズが含まれるため、A のデータは直接トレーニングには使用できません。 したがって、モデルを使用してデータの品質を予測し、トレーニング用の高品質のサンプルを選択するには、重要な自己キュレーション手順が必要です。 具体的には、研究者らはシードデータのみで微調整された指示モデルを使用して候補データを採点しました。満点は5点で、より高い得点を取った人だけが次のラウンドの候補データとして選ばれます。 モデル指示予測の品質を向上させるために、研究者は候補データを使用してモデルを反復的にトレーニングし、反復トレーニング中にデータの品質はどんどん向上しました。 さらに、シード データと拡張データを組み合わせてモデルを微調整する際には、2 つのデータ ソースを区別するために異なるシステム ヒント タグも使用しました。
2 回の反復を経て、最終モデルが完成します。 2種類のトレーニングデータをマージする: 1+1>2研究者の分析結果は次のとおりです。 △シードデータと拡張データの命令多様性。内側の円は一般的な語源の動詞、外側の円はそれに対応する普通名詞です。 上の図は、8% のシード データと 13% の拡張データ統計を使用した命令の多様性を示しています。 ロングテール部分の強化データはより多様化しており、強化データは既存の手動で注釈付けされたシードデータを補完し、シードデータに表示されないタイプを補っていることが直感的にわかります。 次に、研究者らは3つの拡張データセットを比較した。拡張データ、すべて(自己管理なし) 、 実験では、データセットは小さくなったものの、トレーニング データの品質が向上したため、モデルのパフォーマンスが大幅に向上したことが観察されました。 △ 自己スクリーニングを使用して、さまざまなデータサイズと品質の自己拡張データを評価します。 Y 軸は、指定されたデータ サイズと品質で LLaMa 7B を微調整した場合の text-davinci-003 に対する勝率を示しています。 (text-davinci-003、強化学習を使用して人間が書いた指示データ、出力、モデル応答、および人間の好みに基づいて微調整された GPT-3 ベースの指示追従モデル) 最後にアルパカランキングの結果を見てみましょう。 Humpback は、抽出されたデータに依存せずに他の方法を大幅に上回り、独自のモデルとのギャップを埋めます。 非蒸留とは、いかなる形式の監督としても外部モデルに依存しないトレーニング モデルを指します。蒸留とは、外部モデルから蒸留されたデータを使用するなど、トレーニング プロセス中により強力な外部モデルを導入することを指します。独自とは、独自のデータとテクノロジを使用してトレーニングされたモデルを指します。 △text-davinci-003に対する勝率 オープンソースモデルの LIMA 65B、Guanaco 65B、Falcon-Instruct 40B、および独自モデルの davinci-003 と Claude と比較すると、Humpback のパフォーマンスは人間の好みにより合致しています。 さらに、研究者らはこの方法の限界についても指摘した。 トレーニングに使用されるテキスト データは Web コーパスから取得されるため、微調整されたモデルによって Web データのバイアスが増幅される可能性があります。ベースモデルと比較すると、微調整されたモデルでは逸脱を検出する精度が向上します。しかし、これで問題が完全に解決されるわけではありません。 ポータル: https://arxiv.org/abs/2308.06259 (論文リンク) |
<<: MIT、物体を拾うための「最強のアシスタント」を発表、少量のトレーニングサンプルで自然言語制御を実現
>>: Google DeepMindは少なくとも21の新しい生成AI機能を開発中
エンドツーエンドの自動運転は、システムの複雑性が高まるなどのモジュール式システムに伴う欠点を回避でき...
機械学習アルゴリズムは重要なサイバーセキュリティ技術となり、現在は主にマルウェアの特定、セキュリティ...
Leifeng.com によると、「部屋の中の象」という外国の慣用句は、「ワニの涙」と同じくらい有...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[311763]]人工知能はもはや、いつか世界を変える準備をしているのではなく、すでに世界を変えて...
Reddit に、私たちの現代生活におけるアルゴリズムの重要性と、どのアルゴリズムが現代文明に最も...
この記事は、Google Brain エンジニアの Zhou Yuefeng 氏が QCon Sha...
[[409589]]ディープラーニングはここ 10 年ほどで急速に発展し、業界では多くのディープラー...
[[353273]]なぜ私たちはモデルをほとんど作らないのでしょうか?アルゴリズムエンジニアの仕事...
人工知能はあらゆる業界に混乱をもたらしています。医療分野では、AI 技術が病気の診断において人間を上...
大規模モデルの開発動向はオープンソースへと移行し始めています。周知のとおり、ChatGPT、GPT-...
韓国でセンセーショナルな「常温超伝導」事件が最近終息したようだ。韓国超伝導低温学会の検証委員会は最近...