最近、Googleは、昨年発表した「PRADO」をさらに改良した小型モデルでSOTA結果を達成した新モデル「pQRNN」を発表しました。 pQRNN の斬新な点は、単純なマッピングと準 RNN エンコーダーを組み合わせて高速並列処理を実現できることです。同時に、Google は、このモデルがより少ないパラメータでテキスト分類タスクを実行し、BERT レベルのパフォーマンスを達成できることを実証しました。 ディープニューラルネットワークの急速な発展は、過去 10 年間で自然言語処理 (NLP) の分野に革命をもたらしました。同時に、ユーザーのプライバシーの保護、ネットワーク遅延の排除、オフライン機能の有効化、運用コストの削減などの問題により、データセンターではなくモバイル デバイスで実行できる NLP モデルの開発が急速に促進されました。 ただし、モバイル デバイスのメモリと処理能力は限られているため、モバイル デバイスで実行されるモデルは、サイズが小さく、効率的で、結果の品質に影響を与えないことが求められます。 昨年、Google は「PRADO」と呼ばれるニューラル構造を公開しました。これは、20 万未満のパラメータを持つモデルを使用して、多くのテキスト分類問題で SOTA 結果を達成しました。ほとんどのモデルではトークンごとに固定数のパラメータを使用しますが、PRADO モデルでは、タスクに最も関連性の高いトークンや有用なトークンを学習するために必要なパラメータが非常に少ないネットワーク構造を使用します。 PRADOの仕組み1 年前に開発された PRADO は、NLP 分野特有のテキスト セグメンテーションを活用してモデル サイズを縮小し、パフォーマンスを向上させました。 図: PRADO モデルの構造 図: YelpデータセットにおけるPRADOとLSTMの比較 通常、NLP モデルへのテキスト入力は、まずニューラル ネットワークへの入力に適した形式に処理され、事前定義されたユニバーサル ディクショナリ (すべての可能なトークンのリストを含む) の値に対応するセグメントにテキストが分割されます。 次に、ニューラル ネットワークは、埋め込みテーブルを含むトレーニング可能なパラメータを使用して各セグメントを一意に識別します。ただし、テキストセグメンテーションを活用するこの方法は、モデルのパフォーマンス、サイズ、およびレイテンシに大きな影響を与えます。 次の図は、さまざまなアプローチとその長所と短所を示しています。 テキスト スニペットの数はモデルのパフォーマンスと圧縮にとって重要なパラメータであるため、NLP モデルが考えられるすべてのテキスト スニペットを明確に識別できる必要があるかどうかという疑問が生じます。この質問に答えるために、Google は NLP タスクに固有の複雑さについても研究しました。 言語モデリングや機械翻訳など、ごく一部の NLP タスクでは、テキスト フラグメント間の微妙な違いを認識する必要があり、そのため、考えられるすべてのテキスト フラグメントを一意に識別できる必要があります。対照的に、他のほとんどのタスクは、これらのフラグメントの小さなサブセットを知ることで解決できます。 さらに、タスクに関連するセグメントのサブセットは、多くのタスクでは役に立たないセグメントである a、an、the などの最も一般的なセグメントではない可能性があります。したがって、ネットワークが特定のタスクに最も関連性の高い部分を決定できるようにすることで、パフォーマンスが向上する可能性があります。 さらに、モデルはこれらのセグメントを一意に識別する必要はなく、テキスト セグメントのクラスターのみを識別できればよいのです。たとえば、感情分類器では、テキスト内の感情に密接に関連するクラスターのみを知る必要があります。 これらの研究結果を活用して、PRADO は単語の断片や文字ではなく単語からテキスト断片のクラスターを学習するように設計されており、これにより複雑度の低い NLP タスクで優れたパフォーマンスを実現できます。単語の粒度はより意味があり、ほとんどのタスクで最も関連性の高い単語の数は少ないため、そのような関連性の高い単語のサブセットを学習するには、はるかに少ないモデル パラメータが必要です。 pQRNND: 改良されたPRADOPRADO の成功に基づいて、改良された NLP モデル pQRNN を提案しました。このモデルは、テキスト内のトークンをトリプルベクトルのシーケンスに変換する投影演算子、高密度ボトルネック層、および QRNN エンコーダーのスタックという 3 つの構成要素で構成されています。 pQRNN の投影層の実装は PRADO で使用されるものと同じであり、固定されたパラメータ セットを使用してトークンを定義することなく、モデルが最も関連性の高いトークンを学習するのに役立ちます。まずテキスト内のトークンをマークし、単純なマッピング関数を使用してそれらを 3 値特徴ベクトルに変換します。 これにより、この 3 つのベクトルのシーケンスはバランスのとれた対称的な分布を持ち、テキストを一意に表現できるようになります。この表現は、対象のタスクを解決するために必要な情報が含まれておらず、ネットワークがこの表現を制御できないため、直接的には役に立ちません。 これを高密度ボトルネック層に渡すと、ネットワークは現在のタスクに関連する単語表現を学習できるようになりますが、ボトルネック層によって生成される表現では、単語のコンテキストが考慮されません。 次に、双方向 QRNN エンコーダーのスタックを使用してコンテキスト表現を学習します。これにより、ネットワークは前処理なしで入力テキストからコンテキスト表現を学習できるようになります。 pQRNNのパフォーマンス著者らは、civil-comments データセットで pQRNN を評価し、同じタスクで BERT モデルと比較します。 簡単に言えば、モデルのサイズはパラメータの数に比例するため、pQRNN パラメータは BERT よりもはるかに小さくなります。さらに、pQRNN は量子化されており、モデル サイズがさらに 4 倍縮小されます。 公開トレーニングされた BERT バージョンはこのタスクで十分なパフォーマンスを発揮しないため、可能な限り最高のパフォーマンスを得るために、いくつかの異なる関連する多言語データ ソースで事前トレーニングされた BERT バージョンと比較します。 結論: 軽量テキスト分類アーティファクト前世代のモデル PRADO を使用することで、それが次世代の最先端の軽量テキスト分類モデルの基礎として機能できることを実証します。改良された pQRNN モデルは、この新しいアーキテクチャが、パラメータと教師ありデータの 1/300 のみを使用しているにもかかわらず、BERT レベルのパフォーマンスをほぼ達成できることを示しています。 この分野でのさらなる研究を促進するために、Google は PRADO モデルをオープンソース化し、コミュニティが新しいモデル アーキテクチャの出発点として使用することを奨励しています。 プロジェクトアドレス: https://github.com/tensorflow/models/tree/master/research/sequence_projection |
<<: 機械学習におけるラベル漏洩とそれがモデルのパフォーマンスに与える影響について紹介します
>>: PyTorchBigGraph を使用して超大規模グラフ モデルをトレーニングする方法は?
すべての AI プロジェクトにはある程度のリスクが伴い、生成 AI の急速な成長と展開により、セキュ...
トランプ大統領は米国の製造業がかつての栄光を取り戻すことを望んでいる。彼はロボットに狙いを定め、米国...
これは ChatGPT が直接引き起こした大規模なレイオフである可能性があります。世界最大のプログラ...
[[331789]]序文従来のデータの公開と共有の方法の多くは、生のデータをプレーンテキストで直接出...
人生におけるすべてのことは時間と関連しており、連続性を形成しています。シーケンシャルデータ(テキスト...
工業情報化部のウェブサイトは13日、「産業ビッグデータ発展に関する指導意見」(以下、「意見」)を発表...
技術革新の時代において、人工知能 (AI) は変革の力として際立っています。パーソナライズされた推奨...
序文短い記事を書こうと決めたので、これがそれです。私がこの記事を書こうと思った理由は、Weibo 上...
ニューラル ネットワークについて学んだことのある人なら誰でも、ニューラル ネットワークには非常に一般...
18歳の時に撮った写真が様々な賞賛を浴びる中、また新たな年を迎えました。 [[215597]]本来な...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
著者 | 崔昊レビュー | Chonglouまとめこの記事では、パーソナライズされた仮想キャラクター...
2020年は、厳しい防疫活動のさなか、静かに過ぎていきました。今年も人工知能の進歩は止まりませんでし...
[[406029]] [51CTO.com クイック翻訳]人工知能 (AI) 研究の分野では、Ten...