Microsoft Research Asia の最新の調査は少々衝撃的だ。 彼らは、実際にトークンを10 億にまで拡大した Transformer のバリアントを開発しました。 写真 どんなコンセプトですか? 現在、最も強力な GPT-4 は一度に最大32,000トークンしか処理できません。これは 50 ページのテキストに相当します。 わずか1分で数万語の小説を読み終えることができるクロードは、トークンを100k (100,000)しか持っていません。 一度に 10 億に拡大し、この数は理論上は無限であるということは、次のことを意味しているのではないでしょうか。 近い将来、コーパス全体、あるいはインターネットさえもシーケンスとして考えられるようになるのでしょうか? 写真 もしこれが本当なら、想像もつきません。 どうやってやるんですか?大規模予測モデルの時代では、シーケンスの長さを拡張することが重要な要件になっています。 しかし、既存の方法では、計算の複雑さを解決するのが困難であったり、モデルの表現力を処理できなかったりして、長さが非常に制限されてしまいます。 ここで著者は、距離が増加するにつれて注意フィールド(モデルの認識範囲)を指数関数的に拡大できる「拡張注意」と呼ばれるメカニズムを適用する Transformer のバリアントである LongNet を提案しています。 具体的には、 Dilated Attention は通常の Transformer の注意メカニズムを置き換え、その一般的な設計原則は次のとおりです。 トークン間の距離が増加するにつれて、注意の分布が指数関数的に減少するものとします。 以下の構成要素に示されているように、拡張注意は、短期的および長期的な依存関係をモデル化するための一連の注意パターンで構成されています。シーケンスの長さに応じてパターンの数を拡張できます。 写真 実験により、拡張注意によってトークン間の線形計算複雑性と対数依存性を生成できることが示され、注意リソースは限られているがすべてのトークンにアクセスできるという矛盾が解決されました。 さらに、著者らは多頭拡張注意も導入しました。下の図に示すように、位置が継続的に変化するため、異なる頭部間の注意パターンは異なります。 写真 最終的な実装では、LongNet を高密度 Transformer に変換できるため、既存の Transformer 最適化手法(カーネル融合、量子化、分散トレーニングなど) をシームレスに統合できます。 LongNet は線形複雑性を利用することで、分散アルゴリズムを使用してノード間で並列トレーニングを実行し、コンピューティングとメモリの制限を打破することもできます。 下の図に示すように、LongNet はシーケンス次元を分割して 2 つの GPU 上で並列にトレーニングされます。デバイスの数が増大しても、計算コストと通信コストはほぼ一定のままです。 写真 これにより、LongNet は、ほぼ一定の実行時間で、シーケンスの長さを最大 10 億トークンまで効率的に拡張できます(短いシーケンスのパフォーマンスを犠牲にすることなく) 。 写真 対照的に、通常の Transformer は依然として二次複雑性の影響に悩まされています。 実験的評価著者らは、LongNet を通常の Transformer およびスパース Transformer と比較しました。 3 つのアーキテクチャの違いは、アテンション レイヤーのみです。モデルのシーケンス長は 2K から32Kに拡張され、バッチ サイズは縮小されて各バッチのトークン数は変更されません。 LongNetの場合、著者らはセグメント長w = {2048、4096、8192、16384、32768}、拡張率r = {1、2、4、6、12}を使用し、スパースアテンションの固定パターンを実装し、実験を公平にするために、LongNetの計算フロップに合わせてスパース比を調整しました。 (計算上の制限により、LongNet は 32K のシーケンス長までしか拡張できません)。 次の表は、Stack データセットにおける上記 3 つのモデルの結果を示しています。測定指標は困惑度であり、各モデルの異なるシーケンス長がテストされています。 入力の長さがモデルでサポートされている最大長を超える場合、著者らは最先端の言語モデル推論外挿法であるBlocked Causal Attention (BCA)を使用します。 さらに、絶対位置のエンコーディングは削除されます。 写真 結果は次のことを示しています: まず、トレーニング中にシーケンスの長さを増やすと、一般的に言語モデルが向上します。 2 番目に、シーケンスの長さ(推論時)の外挿は、長さがモデルがサポートする長さよりもはるかに大きい場合にはうまく機能しません。 最後に、LongNet はあらゆる指標で他の 2 つのベースラインを上回っており、言語モデリングにおける有効性を実証していることがわかります。 さらに、著者らは、言語モデルのコンテキスト長を拡張する場合にも LongNet がより効果的な方法であることを実証しました。 写真 ネットユーザー:Memery があれば十分この功績を読んで、多くの人が結局「必要なのは記憶力だけ」と結論づけた(犬の頭) 写真 写真
写真 しかし、論争もある。 たとえば、この実験では LongNet の長さが 32k にしか拡張されず、10 億にはまだまだ遠いと不満を言う人もいました。 写真 また、この方法はあまり革新的ではなく、実際にはスパース・アテンション・モデルに似ていると多くの人が言っています。 写真 著者についてこの論文には 7 人の著者がおり、全員が Microsoft Research Asia に所属しています。 共著者2名: Microsoft Research Asia のインターンであるJiayu Dingは、北京郵電大学でコンピューターサイエンスの学士号と修士号を取得しています。 Ma Shuming は、 Microsoft Research Asia の自然言語コンピューティング グループの研究者です。2019 年に入社し、北京大学で学士号と修士号を取得しています。 責任著者は、Microsoft Research Asia の自然言語コンピューティング グループのグローバル リサーチ パートナーであるFuru Weiです。彼は武漢大学で博士号を取得しており、以前は IBM 中国研究所の研究員および香港理工大学電子計算学部の研究助手を務めていました。 論文アドレス: https://arxiv.org/abs/2307.02486 参考リンク: |
<<: 5400億パラメータの大規模モデル進化ツリーが大幅に更新されました!最も詳細なプロンプトスキルを備えた85ページのLLM開発履歴
>>: ファーウェイクラウド、AIで産業を変革するPangu Big Model 3.0とN-Teng AIクラウドサービスをリリース
近年、セキュア アクセス サービス エッジ (SASE) テクノロジーは急速に発展し、産業界で広く使...
世界銀行の支援を受けて、国際非営利団体「Action Against Hunger」は人工知能を活用...
最近、メタバースに新たな水が流れ込んできました。 Metaが開催した研究室でのディスカッションにおい...
[[344692]]最近、私のお気に入りの新進思想家の一人と高性能 AI と低性能 AI について議...
[[399343]]ニューラル ネットワークは実際には表現を学習しています。CV の分野では、優れ...
世界で最も強力な AI - ChatGPT は、さまざまなテストに合格し、真偽を区別するのが難しい回...
機械学習では、製品やソリューションを構築する方法が多数あり、それぞれが異なることを前提としています。...
我が国初の自主開発人工知能美容ロボットも誕生しました。その皮膚は先進的なシリコンで作られており、まる...
1. k-meansアルゴリズムの紹介: k-means アルゴリズムは入力量 k を受け取り、n ...
今日のデジタル時代では、広大なインターネット上での絶え間ない情報交換により、前例のないサイバーセキュ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
[[408715]] 1. はじめに1.1 研究の背景インターネットと個人用スマート端末の普及と幅広...