アルパカチームの新たな研究は大ヒットとなっている。 彼らは、モデルが 100 個のトークンを 1.5 ~ 2.3 倍速く予測できるようにする新しいデコード アルゴリズムを開発し、それによって LLM 推論を加速しました。 たとえば、同じモデル(LLaMa-2-Chat 7B) が同じユーザーの質問(ソクラテスは当時の主流の考え方に挑戦するためにどのような方法を使用しましたか?)に対する回答を出力する速度は次のとおりです。 左側は元のアルゴリズムを示しており、所要時間は18.12 秒、トークン数は 1 秒あたり約 35 です。 右側のアルゴリズムは10.4 秒かかり、1 秒あたり約 60 トークンなので、明らかにはるかに高速です。 簡単に言えば、これは「先読みデコード」と呼ばれる並列デコードアルゴリズムです。 これは主にヤコビ反復法を使用して、自己回帰デコードにおける順次依存性を初めて打破します(周知のとおり、現在の大規模モデルは基本的に自己回帰トランスフォーマーに基づいています) 。 これにより、ドラフト モデルやデータ ストレージの必要性がなくなり、デコード手順が削減され、LLM 推論が高速化されます。 現在、作者は huggingface/transformers と互換性のある実装を提供しています。わずか数行のコードで、ユーザーは簡単に HF ネイティブ生成のパフォーマンスを向上させることができます。 一部のネットユーザーはこう言った。
これにより「インスタント ビッグ モデル」に一歩近づくことになると言う人もいます。 具体的にどうやって達成するのでしょうか? 自己回帰デコードの高速化の重要性GPT-4 にしろ LLaMA にしろ、現在の大規模モデルは自己回帰デコードに基づいており、この方法での推論速度は実は非常に遅いです。 これは、各自己回帰デコード手順で一度に 1 つのトークンのみが生成されるためです。 したがって、モデルの出力がどれだけ遅れるかは、回答の長さによって異なります。 さらに悪いことに、このアプローチでは最新の GPU の並列処理機能が無駄になり、GPU の使用率は非常に低くなります。 もちろん、チャットボットの場合、待ち時間が少なく、応答が速いほど良いです(特に長い回答のシーケンスに直面した場合) 。 以前、誰かが投機的復号化と呼ばれる高速自己回帰復号化アルゴリズムを提案しました。一般的な考え方は、推測と検証の戦略を採用することです。つまり、最初にドラフトモデルでいくつかの潜在的な将来のトークンを予測し、次に元の LLM を使用して並列検証を行います。 この方法は「まったくの幸運によって」デコード手順の数を減らし、遅延を減らすことができます。 しかし、問題も多くあります。例えば、効果はトークンの受け入れ率によって制限され、正確なドラフトモデルを作成することも難しく、通常は追加のトレーニングと慎重な調整が必要になります。 ここで、Alpaca チームは、これらの課題を克服するために、新しい精密並列デコード アルゴリズム、つまりフォワード デコードを提案しました。 フォワードデコードはシーケンシャルな依存関係を破壊します著者らが次のことを観察したため、順方向デコードは可能です。 1 つのステップで複数の新しいトークンをデコードすることは現実的ではありませんが、LLM は複数の分離した n-gram を並列に生成できます。これは、シーケンスの将来の部分を生成するのに適している可能性があります。 これは、自己回帰復号を非線形方程式を解くこととして扱い、並列復号に古典的なヤコビ反復法を使用することによって実現できます。 このプロセスでは、生成された n グラムをキャプチャして検証し、必要に応じてシーケンスに統合することで、n ステップ未満で n 個のトークンを生成する操作を実現します。 著者は、フォワード デコードが「際立つ」理由は主に次のとおりだと述べています。 スクラッチ モデルなしで実行できるため、展開が簡素化されます。 2 番目に、デコード ステップの数はステップあたりの log (FLOP)に対して直線的に削減され、最終的には単一の GPU とさまざまなデータセットで 1.5 倍から 2.3 倍高速なトークン数予測を実現します。 さらに重要なのは、レイテンシに極めて敏感なアプリケーションでレイテンシを大幅に削減するために、より多くの(1 GPU を超える) FLOP を割り当てることができることですが、これには収穫逓減の法則が伴います。 詳しい紹介は以下の通りです。 1. 順方向デコードの動機 Jacobi は、非線形システムを解くときに、固定小数点反復法を使用して将来のすべてのトークンを一度にデコードします。 このプロセス中にクロックの速度が目立った増加はほとんどありません。 2. フォワードデコードは、ヤコビ反復軌跡によって生成された n-gram を収集してキャッシュすることにより、ヤコビデコードのパワーを活用します。 次の図は、Jacobi デコードによって 2 グラムを収集し、デコードを検証して高速化するプロセスを示しています。 3. 各デコード手順には 2 つの分岐があります。 フォワードブランチは、固定サイズの 2D ウィンドウを維持し、Jacobi 軌跡に従って n-gram を生成します。検証ブランチは、有望な n-gram を検証します。 著者らは、GPU の並列計算機能をさらに活用するために、2 イン 1 Atten マスクを実装しました。 4. フォワードデコードでは、外部ソースを必要とせずに、大量の n-gram を瞬時に生成して検証できます。これにより、ステップのコストが増加しますが、より長い n-gram が受け入れられる可能性も高まります。 言い換えれば、フォワードデコードにより、より多くのフリップフロップを使用してレイテンシを削減できます。 5. 著者らは、フロップスとレイテンシ削減の間のスケーリング動作を調査し、次のスケーリング法則を発見しました。 著者についてこのメソッドの作成者は 4 名おり、全員が Alpaca チームのメンバーです。 その中には中国人2名も含まれている。 Fu Yichao 氏と Zhang Hao 氏です。Zhang Hao 氏は CMU で博士号を、上海交通大学で修士号を取得し、現在はカリフォルニア大学サンディエゴ校の助教授を務めています。 |
<<: OpenAI の謎の Q* は人類を滅ぼすのか?人気の「Q*仮説」は実際には世界モデルにつながり、インターネット上のAI専門家は長い記事で熱く議論してきました。
>>: GPT の成熟への道に関する公式メモ | OpenAI Developer Day
中国における人工知能熱の高まりは、テクノロジーとビジネスによって推進されているだけでなく、政府の推進...
インターネットの博物館を作るとしたら、どんな「コレクション」を収蔵しますか?今では、あるプログラマー...
量子コンピューティングと人工知能は、現代の最も破壊的なテクノロジーの 2 つです。 2 つのテクノロ...
OpenAI の謎の Q* プロジェクトが AI コミュニティ全体を騒がせています。膨大な計算リソ...
[51CTO.com からのオリジナル記事] インターネットの継続的な更新と反復により、ネットワーク...
[[414991]]この記事はWeChatの公開アカウント「Linux Kernel Things」...
ちょうど今、マスク氏は、ニューラリンクインプラントを装着した最初の人間患者が、思考によってコンピュー...
[[354407]]科技日報は11月27日、顔認識システムが都市に多くの利便性をもたらしたと報じた。...
人工知能 (AI) は、情報の集合からビジネス価値のある洞察を抽出することを目的とするデータ サイエ...
[51CTO.com クイック翻訳] 今年の ECR カンファレンスには 25 社を超えるソフトウェ...
ますます激化する労働市場で人材獲得競争に勝つための新たな可能性を模索するビジネスリーダーや人事マネー...
機械にはハードウェアだけでなくソフトウェアもあります。ハードウェアには材料や電力の問題が必要ですが、...
[51CTO.com より引用] RSA カンファレンスは、世界の IT セキュリティ動向のバロメー...
GPT-4 が怠惰になる問題の解決に新たな進歩があります。今朝、ウルトラマンが、新年には GPT-4...
[[339138]]新しい医療用人工知能システムは、医師と同じように患者を診察することができます。画...