Apple チップは、計算精度を低下させることなく大規模なモデルを実行できます。投機的サンプリングは急速に普及しており、GPT-4 もこれを使用しています。

Apple チップは、計算精度を低下させることなく大規模なモデルを実行できます。投機的サンプリングは急速に普及しており、GPT-4 もこれを使用しています。

コードに特化した Code Llama が登場したとき、誰もが、誰かがコードを定量化してスリム化し、ローカルでも実行できるようにする方法を考案することを期待していました。

案の定、行動を起こしたのは llama.cpp の作者である Georgi Gerganov 氏でしたが、今回は手順には従いませんでした。

量子化なしで FP16 精度を使用すると、34B Code LLama は Apple コンピューター上で 1 秒あたり 20 トークンを超える推論速度で実行できます。

写真

もともと 4 つのハイエンド GPU を必要としていた作業が、今では 800GB/秒の帯域幅しかない M2 Ultra で実行でき、コードを非常に速く記述できます。

すると兄弟は秘密を明かしました。答えは非常に簡単で、それは投機的サンプリング(投機的サンプリング/デコード)です。

写真

この動きは多くの有力者の注目を集めた。

OpenAI の創設メンバーである Andrej Karpathy 氏は、これは優れた推論時間の最適化であるとコメントし、より技術的な解釈を提供しました。

Nvidia の科学者 Linxi Fan 氏も、これはすべての大規模モデル実践者が習得すべきスキルであると考えています。

写真

GPT-4でも使用されている方法

実際、投機的サンプリングは、大規模なモデルをローカルで実行したい人だけでなく、Google OpenAI のような大手企業でも使用されています。

以前リークされた情報によると、GPT-4 は推論コストを削減するためにこの方法を使用しており、そうでなければこれほど多額の資金を投入することはできなかっただろう。

写真

最新のニュースによれば、Google DeepMindが共同開発する次世代大型モデルGeminiにも採用される可能性があるとのこと。

OpenAIの具体的な手法は秘密にされているが、Googleチームはすでに論文を発表しており、ICML 2023 Oralに選出されている。

写真

方法は非常に簡単です。まず、大きなモデルに似ていて安価な小さなモデルをトレーニングします。小さなモデルに K 個のトークンを生成させ、その後、大きなモデルに判断をさせます。

ビッグモデルで受け入れられた部分はそのまま使用でき、ビッグモデルで受け入れられなかった部分はビッグモデルによって変更されます。

元の論文で実証された T5-XXL モデルは、同じ生成結果を維持しながら、2 ~ 3 倍の推論高速化を達成しました。

写真

Andjrey Karpathy 氏は、このアプローチを「最初に小さなモデルを大まかに作成すること」に例えています。

彼は、この方法の有効性の鍵は、大規模なモデルにトークンを 1 つずつ入力する場合も、トークンのバッチを一度に入力する場合も、次のトークンを予測するために必要な時間が同様であることだ、と説明しました。

ただし、各トークンは前のトークンに依存しているため、通常、一度に複数のトークンをサンプリングすることはできません。

小さいモデルは能力が弱いですが、実際に文章を生成する部分では小さいモデルでも対応できる簡単な部分が多く、難しい部分だけを大きいモデルで対応できます。

元の論文では、これにより、大規模モデルの構造を変更したり再トレーニングしたりすることなく、既存の既製モデルを直接高速化できると考えています。

論文の付録には、精度が損なわれないことを数学的に証明する証拠も示されています。

写真

原理がわかったところで、今度はGeorgi Gerganovの具体的な設定を見てみましょう。

彼は、1 秒あたり約 80 個のトークンを生成できる 4 ビット量子化の 7B モデルを「ドラフト」モデルとして使用しました。

FP16 精度の 34B モデルは、単独で使用した場合、1 秒あたり 10 トークンしか生成できません。

推測的サンプリング法の使用により 2 倍の加速が達成され、これは元の論文のデータと一致しています。

写真

同氏は、生成されるものによって速度は異なる可能性があるが、コード生成には非常に効果的であり、ドラフトモデルはほとんどのトークンを正しく推測できると付け加えた。

写真

最後に、彼はまた、将来モデルをリリースする際には、Meta が小さなドラフト モデルを直接含めるべきであると提案し、これは全員から好評を博しました。

写真

著者はビジネスを始めた

作者は Georgi Gerganov です。LlaMA は今年 3 月に初めてリリースされ、C++ に移植されました。オープン ソース プロジェクト llama.cpp は、約 40,000 個のスターを獲得しています。

写真

当初は趣味で始めたが、反響が大きく、6月に起業することを発表した。

新会社 ggml.ai は、llama.cpp の背後にある C 言語の機械学習フレームワークに重点を置き、エッジ デバイス上で AI を実行することに取り組んでいます。

写真

彼はビジネスを始める際に、GitHub の元 CEO である Nat Friedman 氏と Y Combinator のパートナーである Daniel Gross 氏からプレシード投資を受けました。

彼はLlaMA2がリリースされた後も非常に活発に活動していました。最も非情だったのは、大きなモデルをブラウザに直接詰め込んだときです。

写真

Google 投機的サンプリング論文: https://arxiv.org/abs/2211.17192

参考リンク: [1] https://x.com/ggerganov/status/1697262700165013689 [2] https://x.com/karpathy/status/1697318534555336961


<<:  マスク氏はWeChatの複製に本気だ! 𝕏は音声通話とビデオ通話を推進します、シャオ・ザッカーバーグ:私は4年前にそれをやりました

>>:  BigDL-LLMを使用して、数百億のパラメータを持つLLM推論を即座に加速します。

推薦する

ベアリングポイント調査 - 2022 年の 5 つのテクノロジー トレンド

[[429514]]ベアリングポイントは、IT リーダーが今後 1 年間にどのテクノロジー分野に重点...

AIと建物の運用: 人、データ、信頼の基盤の構築

最近では、人工知能とそのサブセットである機械学習が注目のキーワードになっています。ディープフェイク、...

Ruan Yifeng: Github のオブジェクトカウントアルゴリズム

Github を使用しているときに、次のプロンプトを見たことがありますか? $ gitクローン ht...

戦争の太鼓はすでに鳴り響いています。人工知能に関して、あなたはどちらの陣営に属しますか?

[[240281]]人工知能が将来の技術の方向性であることは誰もが知っていますが、AIの学習に対す...

...

中国の大学の人工知能専攻ランキング:清華大学、浙江大学、上海交通大学がトップ3にランクイン

AIの開発が国家戦略にまで上り詰めるにつれ、人工知能は大学入試の選択肢の中でも最も注目され、最も人気...

プログラマーが知っておくべき10の基本的な実用的なアルゴリズムとその説明

[[128752]]アルゴリズム1: クイックソートアルゴリズムクイックソートは、Tony Hall...

AIが「迷惑メール」をフィルタリングし、ユーザーが価値あるメールを素早く見つけられるようにする

現在、世界中で毎日送信される 3,000 億通の電子メールのうち、少なくとも半分はスパムです。電子メ...

SAP、データスフィアプラットフォームを強化する新たな生成AI機能を発表

SAP は、生成 AI 向けの多数の新機能を発表しており、まもなく SAP Datasphere プ...

1日1,000個以上の星を生成したテスラのAIディレクターがGPT Pytorchトレーニングライブラリを作成した

GPT モデルが無敵の戦艦だとすると、minGPT はおそらく風や波に乗れる小型ヨットでしょう。最近...

ガートナー、中国企業向け人工知能トレンド ウェーブ 3.0 を発表

2023 年 6 月 13 日 – 先日開催された 2023 年 Greater China Exe...

...

...

ドライバーの状態行動を識別できる監視システムは、実際には十分に正確で信頼できるものではない

ドライバーモニタリングシステム(DMS)は、近年、自動車市場で注目を集めています。 DMS の出現に...