Transformer モデルは、Google チームが 2017 年に発表した論文「Attention is all you need」に由来しています。この論文では、Attention を使用して Seq2Seq モデルのループ構造を置き換えるという概念が初めて提案され、NLP 分野に大きな影響を与えました。そして近年の研究の継続的な進歩により、Transformer関連の技術は自然言語処理から他の分野へと徐々に流れてきています。現在までに、Transformer シリーズのモデルは、NLP、CV、ASR などの分野で主流のモデルとなっています。 そのため、Transformer モデルをより速くトレーニングして推論する方法が、業界の重要な研究方向となっています。低精度量子化技術は、データの幅を狭めることによって計算と通信のプロセスを高速化することができ、現段階でモデルのトレーニングと推論を高速化する重要な手段となります。ただし、唯一の欠点は、量子化によって精度と効果が失われることであり、これは量子化の認識やトレーニングなどの手段を通じて軽減する必要があります。上記の問題点を解決するために、ByteDance は LightSeq トレーニングおよび推論加速エンジン バージョン 3.0 を開発およびアップグレードし、Transformer モデルのロスレス高精度定量トレーニングと定量推論を同時に初めて実現しました。 LightSeq は、業界で広く使用されている疑似量子化方式ではなく、int8 GEMM による真の量子化トレーニング プロセスを実装し、モデルのトレーニング速度を 4 倍以上向上させることができます。 PACT などの量子化戦略により、量子化トレーニングの損失を最小限に抑えることができます。量子化モデルを LightSeq でサポートされている形式にエクスポートした後、LightSeq 量子化推論エンジンを使用して高速推論を実現し、T4 グラフィック カードで最大 70% 高速化できます。 7月21日に開催された[T·TALK]技術共有イベントでは、ByteDanceのアルゴリズムエンジニアであり、LightSeqのコア開発者であるXiong Ying氏をライブ放送ルームのゲストとして特別に招待し、ByteDanceの高性能トレーニングおよび推論エンジンLightSeqの技術原理と実用的な詳細を視聴者に明らかにしました。アルゴリズム業界の専門家であっても、AI テクノロジーを探求することに熱心な開発者であっても、この共有から独自の技術的経験と革新的なインスピレーションを得ることができると信じています。 7月21日20:00より開催されます【T·TALK】第12回技術共有イベントへのご参加をお待ちしております。 ポスターの下のQRコードをスキャンして、視聴の予約をしてください。 |
<<: エッジ vs. クラウド: どちらの AI インフラストラクチャを選択すべきか?
>>: 盲目的に大規模モデルを追求して計算能力を積み上げないでください。シュム、カオ・イン、マー・イーは、AIを理解するための2つの基本原則、シンプルさと自己一貫性を提案した。
2020 年、Stack Overflow によると、プロの開発者の 62% 以上がコンピューター...
リカレント ニューラル ネットワーク (RNN) は、ネットワークに追加の重みを追加してネットワーク...
【51CTO.comオリジナル記事】著者: 張傑本日2021年12月30日、SenseTimeの2...
1. 背景1. 古いリコールアーキテクチャ上の図の左上部分は、最初にリコールしてからソートする一般的...
自動運転車は自動車の知能化の究極の目標であると広く考えられていますが、自動車技術のさまざまな段階の発...
ビッグデータダイジェスト制作ディープラーニングの三大巨頭の一人として知られるヤン・ルカン氏は、常に楽...
市場調査会社MarketsandMarketsによると、世界のエッジ人工知能(エッジAI)ソフトウェ...
[原文は51CTO.comより] 最近、AI分野のブラックテクノロジーは、人々の人工知能に対する認識...
ディープラーニングが初めて登場したとき、ほとんどの AI 研究者はそれを嘲笑しましたが、わずか数年で...
Emogi は、チャット アプリでテキストを送信したり、投稿にコメントしたり、友人にビデオを送信した...
AI によって人々の働き方が変化する中、企業は従業員が自動化された職場環境に能力を適応できるように支...
国内外の新車メーカーの急速な台頭により、自動車の知能レベルは向上し続けています。車両の中央コンピュー...