Transformer は、現代のディープラーニングの分野では驚異的な力を発揮しています。言語理解や画像処理など、多くの分野で広く使用され、大きな影響を与えています。過去数年間、Transformer モデルに基づいて根本的な改善を行う研究が数多く行われてきました。これに対する大きな関心により、より効率的な Transformer の変種に関する研究も促進されました。 最近、Transformer モデルのバリエーションが多数登場しており、研究者や実務家がイノベーションのペースに追いつくのは難しいかもしれません。この論文を執筆している時点(2020 年 8 月)では、過去 6 か月間に 12 を超える新しい効率的な Transformer モデルが登場しました。したがって、既存の文献のレビューはコミュニティにとって有益かつタイムリーなものです。 自己注意メカニズムは、Transformer モデルの中心的な典型的な機能です。このメカニズムは、相関ベースのプーリング操作を使用してシーケンス内のすべてのトークンを接続するグラフのような誘導バイアスとして考えることができます。自己注意に関する懸念の 1 つは、その空間的および時間的複雑さが 2 次関数的であるため、さまざまな設定でモデルのスケーラビリティが妨げられることです。最近、この問題を解決しようとする Transformer モデルのバリエーションが多数登場しています。この記事では、このタイプのモデルを「効率的な Transformer」と呼びます。 これに基づいて、モデルの効率性にはさまざまな解釈があります。効率とは、モデルのメモリ フットプリントのことであり、メモリが限られたアクセラレータ上でモデルを実行する場合に特に重要です。また、効率とは、FLOP 数など、トレーニングおよび推論中の計算コストのことを指す場合もあります。特にデバイス上のアプリケーションの場合、モデルは限られた計算予算内で実行する必要があります。このレビュー論文では、メモリと計算という 2 つの観点から Transformer の効率性を検討します。 効率的な自己注意モデルは、通常多数のピクセルまたはトークンで構成されるドキュメント、画像、ビデオなどの長いシーケンスをモデル化するアプリケーションにとって重要です。したがって、Transformer が広く採用されることにより、長いシーケンスを処理する際の効率が優先されます。 この論文は、このタイプのモデルの最近の開発状況をレビューすることを目的としています。主に、自己注意メカニズムの二次複雑性に対処することで Transformer の効率性を向上させるモデリング開発とアーキテクチャ革新に焦点を当てています。また、一般的な改善点やその他の効率性の改善点についても簡単に説明します。 この論文では、効率的な Transformer モデルの分類法を提案し、技術革新と主な用途に応じて分類します。具体的には、この論文では、言語と視覚の両方で使用されてきた Transformer モデルをレビューし、これらのモデルのいくつかについて詳細な解釈を提供します。 論文リンク: https://arxiv.org/pdf/2009.06732.pdf トランスフォーマーについて Transformer は、Transformer ブロックを 1 つずつ積み重ねる多層アーキテクチャです。標準的な Transformer のアーキテクチャを下図に示します。 Transformer ブロックは、マルチヘッド自己注意メカニズム、位置ごとのフィードフォワード ネットワーク、レイヤー正規化モジュール、および残差接続を特徴としています。 Transformer モデルへの入力は通常、R^B × R^N の形状のテンソルです。ここで、B はバッチ サイズを表し、N はシーケンスの長さを表します。 入力はまず埋め込み層を通過し、そこで各ワンホットトークン表現が d 次元の埋め込み、つまり R^B × R^N × R^D に変換されます。この新しいテンソルは位置エンコーディングに追加され、マルチヘッド自己注意モジュールに送られます。位置エンコーディングは、正弦波入力またはトレーニング可能な埋め込みの形式を取ることができます。 マルチヘッド自己注意モジュールの入力と出力は、残差接続とレイヤー正規化レイヤーによって接続されます。マルチヘッド自己注意モジュールの出力は、残差と層の正規化を介して入力/出力が連結される 2 層のフィードフォワード ネットワークに送られます。サブレイヤーの残差接続とレイヤーの正規化は次のように表現できます。 ここで、F_S はサブレイヤー モジュールであり、マルチヘッド セルフアテンションまたは位置ごとのフィードフォワード レイヤーのいずれかです。 効率的なTransformerモデルのレビュー このセクションでは、効率的な Transformer モデルについて説明します。まず、さまざまなモデルの特徴を見てみましょう。表 1 に、現在リリースされている効率的な Transformer モデルを示します。図 2 に、いくつかの重要な効率的な Transformer モデルの図を示します。 図 2: 効率的な Transformer モデルの分類。分類基準は、モデルのコア技術と主な適用シナリオです。 表 1: リリース時間順に並べられた効率的な Transformer モデル。 さらに、このセクションでは、いくつかの重要かつ効率的な Transformer モデルを詳しく紹介し、その利点、欠点、独自の機能を分析します。これらのモデルには、メモリ圧縮トランスフォーマー、イメージトランスフォーマー、セットトランスフォーマー、スパーストランスフォーマー、アキシャルトランスフォーマー、ロングフォーマー、ETC、ビッグバード、ルーティングトランスフォーマー、リフォーマー、シンクホーントランスフォーマー、リンフォーマー、シンセサイザー、パフォーマー、リニアトランスフォーマー、トランスフォーマー XL、圧縮トランスフォーマーが含まれます。 具体的な内容についてはここでは繰り返さないので、原著論文の第 3 章を参照してください。 この論文は、これらのモデルの評価と設計の傾向について議論し、重み共有、量子化/混合精度、知識蒸留、ニューラル アーキテクチャ検索 (NAS)、タスク アダプタなど、Transformer の効率を向上できる他のアプローチの概要を簡単に説明します。 |
>>: イラストレーターが10年後の情景を描く、ロボットが人間に取って代わり、38%の人が解雇に直面
人口ベースのマルチエージェント深層強化学習 (PB-MARL) 手法は、StarCraft や Ho...
編集者注:過去2年間、ロボタクシーの公共運行は中国の多くの場所で開花しました。これらのロボタクシーに...
[[347812]]現在の人工知能技術の発展は、主にコンピュータを媒体として活用し、自動化技術の発...
BlackBerry が発表した新しい調査によると、世界中の組織の 75% が現在、職場での Ch...
[オリジナル記事は51CTO.comより] 2018年ロシアワールドカップはエキサイティングな決勝...
2021 年には技術変化のペースが加速し、歴史が示すように、2022 年もそのペースは加速し続けるで...
近年、人工知能技術は飛躍的な進歩を遂げており、各国は人工知能技術の戦略的意義を認識し、国家戦略レベル...
私たちはなぜ眠るのでしょうか? 明らかな理由の一つは、体と手足の力を回復することです。しかし、睡眠の...
チャットボットが大きなトレンドであることは間違いありません。ますます多くの大手ブランドが、アプリのタ...
[[416556]] Github Copilot はリリース以来、物議を醸してきました。最近、フリ...
欠損データの処理は簡単な作業ではありません。 方法は、単純な平均補完や観察結果の完全な削除から、MI...
ノアが編集海外メディアのザ・ヴァージは北京時間今朝未明、生成AIをめぐる熾烈な競争の中で、バイトダン...