アルパカファミリーモデルが集合的に進化! Tian Yuandong のチームが作成した、GPT-4 と同等の 32k コンテキスト

アルパカファミリーモデルが集合的に進化! Tian Yuandong のチームが作成した、GPT-4 と同等の 32k コンテキスト

オープンソースのアルパカ モデル LLaMA コンテキストは、1 つの簡単な変更だけで GPT-4 と同等になります。

Meta AI が提出したばかりの論文によると、LLaMA コンテキスト ウィンドウは、2k から 32k に拡張した後、1000 ステップ未満の微調整しか必要としないことが示されています。

事前トレーニングと比較するとコストはごくわずかです。

コンテキスト ウィンドウを拡張すると、AI の「作業メモリ」容量が増加します。具体的には、次のことが可能になります。

  • より安定したロールプレイングなど、より多くの対話ラウンドをサポートし、忘れっぽさを軽減します。
  • より長い文書や複数の文書を一度に処理するなど、より複雑なタスクを完了するには、より多くのデータを入力します。

さらに重要な意義は、LLaMA に基づくすべての大規模アルパカ モデル ファミリが低コストでこの方法を採用し、集合的に進化できることです。

Alpaca は現在、最も強力な総合機能を備えたオープンソースの基本モデルであり、完全にオープンソースの商用大規模モデルや垂直産業モデルを数多く生み出してきました。

論文の責任著者である田元東氏も、この新たな進歩を自身のWeChatモーメントで興奮気味に共有した。

RoPEに基づく大規模モデルを使用できる

この新しい方法は位置補間と呼ばれ、RoPE (回転位置エンコーディング) を使用する大規模モデルに適用できます。

RoPE は、2021 年に Zhuiyi Technology チームによって提案され、現在では大規模モデルで最も一般的な位置エンコード方法の 1 つになっています。

ただし、このアーキテクチャで外挿を直接使用してコンテキスト ウィンドウを拡張すると、自己注意メカニズムが完全に破壊されます。

具体的には、事前トレーニングのコンテキストの長さを超える部分では、モデルの困惑度がトレーニングされていないモデルと同じレベルに急上昇します。

新しい方式では、位置インデックスを線形に減らし、前後の位置インデックスと相対距離を揃える範囲を拡大するように変更されています。

両者の違いを示すには、画像を使用する方が直感的です。

実験結果によると、新しい方法は 7B から 65B の範囲の大規模な LLaMA モデルに効果的です。

長いシーケンスの言語モデリング、パスキーの取得、長いドキュメントの要約では、パフォーマンスの大幅な低下は見られません。

実験に加えて、新しい方法の詳細な証明も論文の付録に記載されています。

あと3つ

コンテキスト ウィンドウは、オープン ソースのビッグ モデルと商用のビッグ モデル間の重大なギャップでした。

たとえば、OpenAI の GPT-3.5 は最大 16k、GPT-4 は 32k、AnthropicAI の Claude は最大 100k をサポートします。

同時に、LLaMA や Falcon などの多くのオープンソースの大規模モデルはまだ 2k のままです。

現在、Meta AI の新たな成果により、このギャップは直接埋められています。

コンテキスト ウィンドウの拡張も、大規模モデル研究の最近の焦点の 1 つです。位置補間法に加えて、業界の注目を集めている他の多くの試みがあります。

1. 開発者の kaiokendev は、技術ブログで LLaMa コンテキスト ウィンドウを 8k に拡張する方法を検討しました。

2. データセキュリティ企業 Soveren の機械学習責任者 Galina Alperovich 氏は、コンテキスト ウィンドウを拡張するための 6 つのヒントを記事にまとめました。

3. Mila、IBM、その他の機関のチームも論文の中で、Transformer の位置エンコーディングを完全に削除しようと試みました。

必要な方は下のリンクをクリックしてご覧ください〜

メタ論文: https://arxiv.org/abs/2306.15595

コンテキストの拡張は難しい…しかし不可能ではないhttps://kaiokendev.github.io/context

LLM の 100K コンテキスト ウィンドウの背後にある秘密のソース https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c

位置エンコーディングなし論文 https://arxiv.org/abs/2305.19466

<<:  Moka、業界初となるAIネイティブHR SaaS製品「Moka Eva」をリリース、AGI時代を見据えた準備万端

>>: 

ブログ    

推薦する

英国は「国家AI研究リソース」としてGPUを購入するために1億3000万ドルを費やす計画だと報じられている。

8月21日、英国のリシ・スナック首相は、世界的なコンピューティング能力の競争に追いつくために、1億...

...

持続可能な都市計画とスマートシティに人工知能を活用する方法

21 世紀の急速な都市化は、交通渋滞や汚染から住宅不足や公共サービスの逼迫まで、数多くの課題をもたら...

Kaggle機械学習モデル融合(スタッキング)体験

[[205595]]この記事では、エントリーレベルのスタッキング アプリケーションを学習する私の精神...

RPA がコロナウイルス危機を乗り越えるために組織をどのように支援しているか

世界中でコロナウイルスが流行しているため、多くの組織が優先順位を変更しました。その結果、組織がコスト...

人工知能はブロックチェーン業界にどのような影響を与えるのでしょうか?

人工知能は人間が認識するのが難しい決定を下すでしょう。意思決定を行うには、アルゴリズムが大量のデータ...

自然の中でショウジョウバエがVRをプレイし、注意メカニズムとワーキングメモリを発見

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能とIoTがガソリン小売業界を変革

ネットワークは常に企業の神経系であり、ビジネス プロセスとトランザクションはネットワークを通じてのみ...

...

機械学習の問題に適した事前トレーニング済みモデルを選択する方法

[[264482]]この記事では転移学習とは何か、どのように使用するのかを簡単に紹介します。転移学習...

...

科学研究だけでなく、水中ロボットの消費者への応用も有望である。

近年、政策、技術、資金の推進により、我が国のロボット開発は目覚ましい成果を上げています。「空の月まで...

Google Brain の新しいアルゴリズムは TPU を使用せずに AI トレーニングを高速化できる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

Python のデータ構造とアルゴリズム - 順序付きリストの維持と二分

[[402075]]序文Bisect は、リストをソートしたままリストに要素を挿入するアルゴリズムを...

...