Transformer は、現代のディープラーニングの分野では驚異的な力を発揮しています。言語理解や画像処理など、多くの分野で広く使用され、大きな影響を与えています。過去数年間、Transformer モデルに基づいて根本的な改善を行う研究が数多く行われてきました。これに対する大きな関心により、より効率的な Transformer の変種に関する研究も促進されました。 最近、Transformer モデルのバリエーションが多数登場しており、研究者や実務家がイノベーションのペースに追いつくのは難しいかもしれません。この論文を執筆している時点(2020 年 8 月)では、過去 6 か月間に 12 を超える新しい効率的な Transformer モデルが登場しました。したがって、既存の文献のレビューはコミュニティにとって有益かつタイムリーなものです。 自己注意メカニズムは、Transformer モデルの中心的な典型的な機能です。このメカニズムは、相関ベースのプーリング操作を使用してシーケンス内のすべてのトークンを接続するグラフのような誘導バイアスとして考えることができます。自己注意に関する懸念の 1 つは、その空間的および時間的複雑さが 2 次関数的であるため、さまざまな設定でモデルのスケーラビリティが妨げられることです。最近、この問題を解決しようとする Transformer モデルのバリエーションが多数登場しています。この記事では、このタイプのモデルを「効率的な Transformer」と呼びます。 これに基づいて、モデルの効率性にはさまざまな解釈があります。効率とは、モデルのメモリ フットプリントのことであり、メモリが限られたアクセラレータ上でモデルを実行する場合に特に重要です。また、効率とは、FLOP 数など、トレーニングおよび推論中の計算コストのことを指す場合もあります。特にデバイス上のアプリケーションの場合、モデルは限られた計算予算内で実行する必要があります。このレビュー論文では、メモリと計算という 2 つの観点から Transformer の効率性を検討します。 効率的な自己注意モデルは、通常多数のピクセルまたはトークンで構成されるドキュメント、画像、ビデオなどの長いシーケンスをモデル化するアプリケーションにとって重要です。したがって、Transformer が広く採用されることにより、長いシーケンスを処理する際の効率が優先されます。 この論文は、このタイプのモデルの最近の開発状況をレビューすることを目的としています。主に、自己注意メカニズムの二次複雑性に対処することで Transformer の効率性を向上させるモデリング開発とアーキテクチャ革新に焦点を当てています。また、一般的な改善点やその他の効率性の改善点についても簡単に説明します。 この論文では、効率的な Transformer モデルの分類法を提案し、技術革新と主な用途に応じて分類します。具体的には、この論文では、言語と視覚の両方で使用されてきた Transformer モデルをレビューし、これらのモデルのいくつかについて詳細な解釈を提供します。 論文リンク: https://arxiv.org/pdf/2009.06732.pdf トランスフォーマーについて Transformer は、Transformer ブロックを 1 つずつ積み重ねる多層アーキテクチャです。標準的な Transformer のアーキテクチャを下図に示します。 Transformer ブロックは、マルチヘッド自己注意メカニズム、位置ごとのフィードフォワード ネットワーク、レイヤー正規化モジュール、および残差接続を特徴としています。 Transformer モデルへの入力は通常、R^B × R^N の形状のテンソルです。ここで、B はバッチ サイズを表し、N はシーケンスの長さを表します。 入力はまず埋め込み層を通過し、そこで各ワンホットトークン表現が d 次元の埋め込み、つまり R^B × R^N × R^D に変換されます。この新しいテンソルは位置エンコーディングに追加され、マルチヘッド自己注意モジュールに送られます。位置エンコーディングは、正弦波入力またはトレーニング可能な埋め込みの形式を取ることができます。 マルチヘッド自己注意モジュールの入力と出力は、残差接続とレイヤー正規化レイヤーによって接続されます。マルチヘッド自己注意モジュールの出力は、残差と層の正規化を介して入力/出力が連結される 2 層のフィードフォワード ネットワークに送られます。サブレイヤーの残差接続とレイヤーの正規化は次のように表現できます。 ここで、F_S はサブレイヤー モジュールであり、マルチヘッド セルフアテンションまたは位置ごとのフィードフォワード レイヤーのいずれかです。 効率的なTransformerモデルのレビュー このセクションでは、効率的な Transformer モデルについて説明します。まず、さまざまなモデルの特徴を見てみましょう。表 1 に、現在リリースされている効率的な Transformer モデルを示します。図 2 に、いくつかの重要な効率的な Transformer モデルの図を示します。 図 2: 効率的な Transformer モデルの分類。分類基準は、モデルのコア技術と主な適用シナリオです。 表 1: リリース時間順に並べられた効率的な Transformer モデル。 さらに、このセクションでは、いくつかの重要かつ効率的な Transformer モデルを詳しく紹介し、その利点、欠点、独自の機能を分析します。これらのモデルには、メモリ圧縮トランスフォーマー、イメージトランスフォーマー、セットトランスフォーマー、スパーストランスフォーマー、アキシャルトランスフォーマー、ロングフォーマー、ETC、ビッグバード、ルーティングトランスフォーマー、リフォーマー、シンクホーントランスフォーマー、リンフォーマー、シンセサイザー、パフォーマー、リニアトランスフォーマー、トランスフォーマー XL、圧縮トランスフォーマーが含まれます。 具体的な内容についてはここでは繰り返さないので、原著論文の第 3 章を参照してください。 この論文は、これらのモデルの評価と設計の傾向について議論し、重み共有、量子化/混合精度、知識蒸留、ニューラル アーキテクチャ検索 (NAS)、タスク アダプタなど、Transformer の効率を向上できる他のアプローチの概要を簡単に説明します。 |
>>: イラストレーターが10年後の情景を描く、ロボットが人間に取って代わり、38%の人が解雇に直面
月収8万元の美しいネットセレブは、わずか数か月でインスタグラムのフォロワーが15万人を超えた。有名人...
7月12日、XiaoIce社は新たな超自然音声技術をリリースした。この技術により、AI 音声の自然さ...
最近、BOSS直接採用キャリア科学実験室とBOSS直接採用研究所は、毎年恒例の大ヒット作「変異の時代...
デジタル変革の後半期に入る中、デジタルとリアルの融合をいかに加速し、グリーン・低炭素の発展へと向かう...
OpenAIは10月27日、汎用人工知能(AGI)によって引き起こされる可能性のある壊滅的なリスクを...
テスラのロボットが服を畳むという現象が、今、大流行している。数日後、マスク氏はオプティマスプライムが...
Microsoft は最近、「MathVista」と呼ばれる新しいマルチモーダル数学的推論ベンチマー...
このホワイトペーパーでは、6 つの具体的なリスク領域について概説しています。I. 差別、排除、毒性、...
[[260147]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
先ほど、Google Brainのシニア研究科学者であるBarret Zoph氏が、言語モデルのパラ...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...