コンテキストの長さを 256k に拡張すると、LongLLaMA の無限コンテキスト バージョンが登場しますか?

コンテキストの長さを 256k に拡張すると、LongLLaMA の無限コンテキスト バージョンが登場しますか?

今年2月、MetaはLLaMA大規模言語モデルシリーズをリリースし、オープンソースチャットボットの開発を成功裏に推進しました。 LLaMA は、これまでリリースされた多くの大規模モデル(パラメータ数は 70 億から 650 億の範囲)よりもパラメータ数が少ないにもかかわらず、パフォーマンスが優れているためです。たとえば、650 億のパラメータを持つ最大の LLaMA モデルは、Google の Chinchilla-70B や PaLM-540B に匹敵します。そのため、リリースされたときは多くの研究者が興奮しました。

しかし、LLaMA は学術界の研究者にのみライセンス供与されており、モデルの商業的応用は制限されています。

そのため、研究者たちは商業目的で使用できる LLaMA を探し始めました。カリフォルニア大学バークレー校の博士課程の学生 Hao Liu 氏が始めたプロジェクトである OpenLLaMA は、LLaMA のオープンソース レプリカの中でも人気の高いものの 1 つです。OpenLLaMA は、オリジナルの LLaMA とまったく同じ前処理とトレーニング ハイパーパラメータを使用します。OpenLLaMA は LLaMA のトレーニング手順を完全に踏襲していると言えます。最も重要なのは、このモデルが市販されていることです。

OpenLLaMA は、Together がリリースした RedPajama データセットでトレーニングされました。モデル バージョンには 3B、7B、13B の 3 つがあります。これらのモデルは 1T トークンでトレーニングされています。結果は、OpenLLaMA が多くのタスクでオリジナルの LLaMA と同等かそれ以上のパフォーマンスを発揮することを示しています。

研究者は、新しいモデルを継続的にリリースするだけでなく、モデルのトークン処理能力についても調査を続けています。

数日前、Tian Yuandong 氏のチームの最新の研究により、1,000 ステップ未満の微調整で LLaMA コンテキストが 32K に拡張されました。さらに遡ると、GPT-4 は 32k トークン (50 ページのテキストに相当) をサポートし、Claude は 100k トークン (ワンクリックでハリー・ポッターの最初の本を要約するのにほぼ相当) を処理できます。

現在、OpenLLaMA に基づく新しい大規模言語モデルが利用可能であり、コンテキストの長さが 256k トークン以上に拡張されています。この研究は、IDEAS NCBR、ポーランド科学アカデミー、ワルシャワ大学、Google DeepMind が共同で実施した。

写真

LongLLaMAはOpenLLaMAをベースにしており、微調整手法にはFOT(Focused Transformer)を採用しています。この論文では、FOT を使用して既存の大規模モデルを微調整し、コンテキストの長さを拡張できることを示しています。

この研究では、OpenLLaMA-3B モデルと OpenLLaMA-7B モデルを出発点として使用し、FOT を使用して微調整しました。結果として得られるモデルは LONGLLAMA と呼ばれ、トレーニング コンテキストの長さ (最大 256K) を超えて外挿し、短いコンテキストのタスクでパフォーマンスを維持することができます。

  • プロジェクトアドレス: https://github.com/CStanKonrad/long_llama
  • 論文アドレス: https://arxiv.org/pdf/2307.03170.pdf

この研究を OpenLLaMA の無限コンテキスト バージョンと表現する人もいます。FOT の助けを借りて、モデルはより長いシーケンスに簡単に外挿できます。たとえば、8K トークンでトレーニングされたモデルは、256K ウィンドウ サイズに簡単に外挿できます。

写真

この記事では、Transformer モデルのプラグアンドプレイ拡張機能である FOT メソッドを使用します。これを使用して、新しいモデルをトレーニングしたり、より長いコンテキストで既存の大規模モデルを微調整したりできます。

これを実現するために、FOT はメモリ アテンション レイヤーとクロスバッチ トレーニング プロセスを使用します。

  • メモリアテンションレイヤーにより、モデルは推論時に外部メモリから情報を取得できるようになり、コンテキストを効果的に拡張できます。
  • クロスバッチトレーニングプロセスにより、モデルはメモリアテンションレイヤーでの使用に便利な (キー、値) 表現を学習する傾向があります。

FOT アーキテクチャの概要については、図 2 を参照してください。

写真

次の表は LongLLaMA のモデル情報の一部を示しています。

写真

最後に、このプロジェクトでは、LongLLaMA とオリジナルの OpenLLaMA モデルの比較結果も提供しています。

下の図は LongLLaMA のいくつかの実験結果を示しています。パスワード検索タスクでは、LongLLaMA は優れたパフォーマンスを達成しました。具体的には、LongLLaMA 3B モデルはトレーニング コンテキストの長さ 8K をはるかに超え、100k トークンで 94.5% の精度、256k トークンで 73% の精度を達成しました。

写真

次の表は、2 つのダウンストリーム タスク (TREC 質問分類と WebQS 質問回答) における LongLLaMA 3B モデルの結果を示しています。結果は、長いコンテキストを使用すると LongLLaMA のパフォーマンスが大幅に向上することを示しています。

写真

以下の表は、長いコンテキストを必要としないタスクでも LongLLaMA が優れたパフォーマンスを発揮することを示しています。実験では、LongLLaMA と OpenLLaMA をゼロショット設定で比較します。

写真

詳細については、元の論文とプロジェクトを参照してください。


<<:  フェイフェイ・リーの「具現化された知能」に関する新たな成果!ロボットは、大きなモデルに接続することで人間の言語を直接理解し、事前のトレーニングなしで複雑な指示を完了することができます。

>>:  Appleとオレゴン州立大学がAutoFocusFormerを提案: 従来のグリッドを廃止し、適応型ダウンサンプリング画像セグメンテーションを使用

ブログ    
ブログ    
ブログ    

推薦する

適切な AI データ ストレージを選択するための 6 つのガイドライン

間違った AI ストレージ プラットフォームを選択すると、ビジネスに深刻な結果をもたらす可能性があり...

AI を活用して経費管理におけるバイアス問題を解決する方法

新型コロナウイルス感染症のパンデミックによってもたらされた変化の中で、組織の業務が在宅勤務からリモー...

中国科学院の専門家が人工知能の混乱を批判:AIチップなど存在しない

Titanium Media Note:先週日曜日、IEEE SMC 協会 (IEEE システム、人...

人工知能デジタル技術の強化は現実予測において徐々にその力を発揮しつつある

現在、人工知能は人々の生活の中でますます普及しており、生活のあらゆるところで人工知能を見つけることが...

マイクロソフト中国CTO: AIを祭壇から外してください

[[257901]]まとめ明らかに、中国における人工知能に関する誇大宣伝は、当初の意図から逸脱してい...

...

上位 10 の古典的なソート アルゴリズムの詳細な説明: シェル ソート、マージ ソート、クイック ソート

[[378304]]上位 10 の古典的なソート アルゴリズム - シェル ソート、マージ ソート、...

...

自然言語処理(NLP)はソーシャルエンジニアリング攻撃の解決に役立ちます

新しいツールは、件名や URL に基づいてソーシャル エンジニアリング攻撃を検出するのではなく、テキ...

...

NvidiaとAMDがAI PCへの投資を増加:デスクトップコンピュータにAIチップを搭載

GPU の二大巨頭である Nvidia と AMD は最近、デスクトップ コンピューター向けの新しい...

「世界AI人材追跡調査」:米国の上級AI研究者の29%は中国出身。人材を追放することは自らの道を断つことに等しい

中国は世界最大の人工知能研究者の供給国となった。米国の人工知能分野のトップ研究者のほぼ3分の1は中国...

AI の可能性を最大限に引き出す: 企業での導入を成功させる 5 つの鍵

ビジネスとテクノロジーに関心のある人なら誰でも、AI がすでに業界や日常生活に大きな変化をもたらして...

次世代オーディオアシスタント: AI がオーディオ体験をどう形作るか

人工知能(AI)はここ数か月、ビジネス環境における流行語となっています。効率性の向上、コストの削減、...