Apple チップは、計算精度を低下させることなく大規模なモデルを実行できます。投機的サンプリングは急速に普及しており、GPT-4 もこれを使用しています。

Apple チップは、計算精度を低下させることなく大規模なモデルを実行できます。投機的サンプリングは急速に普及しており、GPT-4 もこれを使用しています。

コードに特化した Code Llama が登場したとき、誰もが、誰かがコードを定量化してスリム化し、ローカルでも実行できるようにする方法を考案することを期待していました。

案の定、行動を起こしたのは llama.cpp の作者である Georgi Gerganov 氏でしたが、今回は手順には従いませんでした。

量子化なしで FP16 精度を使用すると、34B Code LLama は Apple コンピューター上で 1 秒あたり 20 トークンを超える推論速度で実行できます。

写真

もともと 4 つのハイエンド GPU を必要としていた作業が、今では 800GB/秒の帯域幅しかない M2 Ultra で実行でき、コードを非常に速く記述できます。

すると兄弟は秘密を明かしました。答えは非常に簡単で、それは投機的サンプリング(投機的サンプリング/デコード)です。

写真

この動きは多くの有力者の注目を集めた。

OpenAI の創設メンバーである Andrej Karpathy 氏は、これは優れた推論時間の最適化であるとコメントし、より技術的な解釈を提供しました。

Nvidia の科学者 Linxi Fan 氏も、これはすべての大規模モデル実践者が習得すべきスキルであると考えています。

写真

GPT-4でも使用されている方法

実際、投機的サンプリングは、大規模なモデルをローカルで実行したい人だけでなく、Google OpenAI のような大手企業でも使用されています。

以前リークされた情報によると、GPT-4 は推論コストを削減するためにこの方法を使用しており、そうでなければこれほど多額の資金を投入することはできなかっただろう。

写真

最新のニュースによれば、Google DeepMindが共同開発する次世代大型モデルGeminiにも採用される可能性があるとのこと。

OpenAIの具体的な手法は秘密にされているが、Googleチームはすでに論文を発表しており、ICML 2023 Oralに選出されている。

写真

方法は非常に簡単です。まず、大きなモデルに似ていて安価な小さなモデルをトレーニングします。小さなモデルに K 個のトークンを生成させ、その後、大きなモデルに判断をさせます。

ビッグモデルで受け入れられた部分はそのまま使用でき、ビッグモデルで受け入れられなかった部分はビッグモデルによって変更されます。

元の論文で実証された T5-XXL モデルは、同じ生成結果を維持しながら、2 ~ 3 倍の推論高速化を達成しました。

写真

Andjrey Karpathy 氏は、このアプローチを「最初に小さなモデルを大まかに作成すること」に例えています。

彼は、この方法の有効性の鍵は、大規模なモデルにトークンを 1 つずつ入力する場合も、トークンのバッチを一度に入力する場合も、次のトークンを予測するために必要な時間が同様であることだ、と説明しました。

ただし、各トークンは前のトークンに依存しているため、通常、一度に複数のトークンをサンプリングすることはできません。

小さいモデルは能力が弱いですが、実際に文章を生成する部分では小さいモデルでも対応できる簡単な部分が多く、難しい部分だけを大きいモデルで対応できます。

元の論文では、これにより、大規模モデルの構造を変更したり再トレーニングしたりすることなく、既存の既製モデルを直接高速化できると考えています。

論文の付録には、精度が損なわれないことを数学的に証明する証拠も示されています。

写真

原理がわかったところで、今度はGeorgi Gerganovの具体的な設定を見てみましょう。

彼は、1 秒あたり約 80 個のトークンを生成できる 4 ビット量子化の 7B モデルを「ドラフト」モデルとして使用しました。

FP16 精度の 34B モデルは、単独で使用した場合、1 秒あたり 10 トークンしか生成できません。

推測的サンプリング法の使用により 2 倍の加速が達成され、これは元の論文のデータと一致しています。

写真

同氏は、生成されるものによって速度は異なる可能性があるが、コード生成には非常に効果的であり、ドラフトモデルはほとんどのトークンを正しく推測できると付け加えた。

写真

最後に、彼はまた、将来モデルをリリースする際には、Meta が小さなドラフト モデルを直接含めるべきであると提案し、これは全員から好評を博しました。

写真

著者はビジネスを始めた

作者は Georgi Gerganov です。LlaMA は今年 3 月に初めてリリースされ、C++ に移植されました。オープン ソース プロジェクト llama.cpp は、約 40,000 個のスターを獲得しています。

写真

当初は趣味で始めたが、反響が大きく、6月に起業することを発表した。

新会社 ggml.ai は、llama.cpp の背後にある C 言語の機械学習フレームワークに重点を置き、エッジ デバイス上で AI を実行することに取り組んでいます。

写真

彼はビジネスを始める際に、GitHub の元 CEO である Nat Friedman 氏と Y Combinator のパートナーである Daniel Gross 氏からプレシード投資を受けました。

彼はLlaMA2がリリースされた後も非常に活発に活動していました。最も非情だったのは、大きなモデルをブラウザに直接詰め込んだときです。

写真

Google 投機的サンプリング論文: https://arxiv.org/abs/2211.17192

参考リンク: [1] https://x.com/ggerganov/status/1697262700165013689 [2] https://x.com/karpathy/status/1697318534555336961


<<:  マスク氏はWeChatの複製に本気だ! 𝕏は音声通話とビデオ通話を推進します、シャオ・ザッカーバーグ:私は4年前にそれをやりました

>>:  BigDL-LLMを使用して、数百億のパラメータを持つLLM推論を即座に加速します。

ブログ    
ブログ    

推薦する

AES暗号化アルゴリズムのハードウェア設計方法の簡単な分析

[[356976]]情報セキュリティの分野では、米国は集積回路IPコアの分野で常に独占的地位を占めて...

...

3分レビュー! 2021年11月のロボット資金調達の概要

自動化の需要が継続的に高まっているため、ロボット産業の発展は加速段階に入り、わが国のロボット市場は最...

Nature: 機械視覚による行動理解と脳神経の間には本質的なつながりがあるのでしょうか?上海交通大学のLu Cewu氏のチームはマッピングモデルを構築した

被験者が特定の行動をとったとき、その脳はそれに対応する安定した脳神経パターンのマッピングを生成するで...

ビジネスに人工知能を導入する際に考慮すべき3つの要素

最近、ますます多くの企業が人工知能に投資しています。しかし、成功するには、推論の解釈可能性、データ密...

Nature: 光コンピューティングと AI 推論を統合して高速かつ高帯域幅の AI コンピューティングを実現

電子コンピューティングと比較すると、光コンピューティングは高速、高帯域幅、低消費電力という利点があり...

教育省:中国はAI教育政策の提供を増やす

12月7日から8日にかけて、中華人民共和国教育部、中国ユネスコ国家委員会、ユネスコの共催による「20...

...

2022 年に注目すべき音声技術の 10 大予測

2022年の音声技術に関する主な予測は次のとおりです。 [[434566]] AlexaやSiriの...

サム・アルトマン:人間レベルのAIは到来するが、世界への影響は想像よりはるかに小さい

米国の人工知能スタートアップOpenAIのサム・アルトマンCEOは現地時間1月17日火曜日、人間のレ...

...

自動運転はトラック運転手の失業を加速させている

上海深水港物流園区を出発し、東シナ海大橋を通り、陽山港ターミナルまで、往復72キロの有名な地元物流環...

...

OpenAI: ニューヨークタイムズは私を攻撃するためにハッカーを雇った

新聞社が雇ったハッカーが AI の巨人を攻撃するのはなぜでしょうか?ニューヨーク・タイムズがOpen...

セキュリティ業界の大手企業はどのようにドローンを配備するのでしょうか?

ドローンは警報装置、検出器、カメラなどを搭載し、多くの機能を実現でき、セキュリティ監視、スマートビル...