Google、少ないパラメータでテキスト分類を行う新モデル「pQRNN」を発表、BERTに匹敵する性能

Google、少ないパラメータでテキスト分類を行う新モデル「pQRNN」を発表、BERTに匹敵する性能

最近、Googleは、昨年発表した「PRADO」をさらに改良した小型モデルでSOTA結果を達成した新モデル「pQRNN」を発表しました。 pQRNN の斬新な点は、単純なマッピングと準 RNN エンコーダーを組み合わせて高速並列処理を実現できることです。同時に、Google は、このモデルがより少ないパラメータでテキスト分類タスクを実行し、BERT レベルのパフォーマンスを達成できることを実証しました。

ディープニューラルネットワークの急速な発展は、過去 10 年間で自然言語処理 (NLP) の分野に革命をもたらしました。同時に、ユーザーのプライバシーの保護、ネットワーク遅延の排除、オフライン機能の有効化、運用コストの削減などの問題により、データセンターではなくモバイル デバイスで実行できる NLP モデルの開発が急速に促進されました。

ただし、モバイル デバイスのメモリと処理能力は限られているため、モバイル デバイスで実行されるモデルは、サイズが小さく、効率的で、結果の品質に影響を与えないことが求められます。

昨年、Google は「PRADO」と呼ばれるニューラル構造を公開しました。これは、20 万未満のパラメータを持つモデルを使用して、多くのテキスト分類問題で SOTA 結果を達成しました。ほとんどのモデルではトークンごとに固定数のパラメータを使用しますが、PRADO モデルでは、タスクに最も関連性の高いトークンや有用なトークンを学習するために必要なパラメータが非常に少ないネットワーク構造を使用します。

PRADOの仕組み

1 年前に開発された PRADO は、NLP 分野特有のテキスト セグメンテーションを活用してモデル サイズを縮小し、パフォーマンスを向上させました。

図: PRADO モデルの構造

図: YelpデータセットにおけるPRADOとLSTMの比較

通常、NLP モデルへのテキスト入力は、まずニューラル ネットワークへの入力に適した形式に処理され、事前定義されたユニバーサル ディクショナリ (すべての可能なトークンのリストを含む) の値に対応するセグメントにテキストが分割されます。

次に、ニューラル ネットワークは、埋め込みテーブルを含むトレーニング可能なパラメータを使用して各セグメントを一意に識別します。ただし、テキストセグメンテーションを活用するこの方法は、モデルのパフォーマンス、サイズ、およびレイテンシに大きな影響を与えます。

次の図は、さまざまなアプローチとその長所と短所を示しています。

テキスト スニペットの数はモデルのパフォーマンスと圧縮にとって重要なパラメータであるため、NLP モデルが考えられるすべてのテキスト スニペットを明確に識別できる必要があるかどうかという疑問が生じます。この質問に答えるために、Google は NLP タスクに固有の複雑さについても研究しました。

言語モデリングや機械翻訳など、ごく一部の NLP タスクでは、テキスト フラグメント間の微妙な違いを認識する必要があり、そのため、考えられるすべてのテキスト フラグメントを一意に識別できる必要があります。対照的に、他のほとんどのタスクは、これらのフラグメントの小さなサブセットを知ることで解決できます。

さらに、タスクに関連するセグメントのサブセットは、多くのタスクでは役に立たないセグメントである a、an、the などの最も一般的なセグメントではない可能性があります。したがって、ネットワークが特定のタスクに最も関連性の高い部分を決定できるようにすることで、パフォーマンスが向上する可能性があります。

さらに、モデルはこれらのセグメントを一意に識別する必要はなく、テキスト セグメントのクラスターのみを識別できればよいのです。たとえば、感情分類器では、テキスト内の感情に密接に関連するクラスターのみを知る必要があります。

これらの研究結果を活用して、PRADO は単語の断片や文字ではなく単語からテキスト断片のクラスターを学習するように設計されており、これにより複雑度の低い NLP タスクで優れたパフォーマンスを実現できます。単語の粒度はより意味があり、ほとんどのタスクで最も関連性の高い単語の数は少ないため、そのような関連性の高い単語のサブセットを学習するには、はるかに少ないモデル パラメータが必要です。

pQRNND: 改良されたPRADO

PRADO の成功に基づいて、改良された NLP モデル pQRNN を提案しました。このモデルは、テキスト内のトークンをトリプルベクトルのシーケンスに変換する投影演算子、高密度ボトルネック層、および QRNN エンコーダーのスタックという 3 つの構成要素で構成されています。

pQRNN の投影層の実装は PRADO で使用されるものと同じであり、固定されたパラメータ セットを使用してトークンを定義することなく、モデルが最も関連性の高いトークンを学習するのに役立ちます。まずテキスト内のトークンをマークし、単純なマッピング関数を使用してそれらを 3 値特徴ベクトルに変換します。

これにより、この 3 つのベクトルのシーケンスはバランスのとれた対称的な分布を持ち、テキストを一意に表現できるようになります。この表現は、対象のタスクを解決するために必要な情報が含まれておらず、ネットワークがこの表現を制御できないため、直接的には役に立ちません。

これを高密度ボトルネック層に渡すと、ネットワークは現在のタスクに関連する単語表現を学習できるようになりますが、ボトルネック層によって生成される表現では、単語のコンテキストが考慮されません。

次に、双方向 QRNN エンコーダーのスタックを使用してコンテキスト表現を学習します。これにより、ネットワークは前処理なしで入力テキストからコンテキスト表現を学習できるようになります。

pQRNNのパフォーマンス

著者らは、civil-comments データセットで pQRNN を評価し、同じタスクで BERT モデルと比較します。

簡単に言えば、モデルのサイズはパラメータの数に比例するため、pQRNN パラメータは BERT よりもはるかに小さくなります。さらに、pQRNN は量子化されており、モデル サイズがさらに 4 倍縮小されます。

公開トレーニングされた BERT バージョンはこのタスクで十分なパフォーマンスを発揮しないため、可能な限り最高のパフォーマンスを得るために、いくつかの異なる関連する多言語データ ソースで事前トレーニングされた BERT バージョンと比較します。

結論: 軽量テキスト分類アーティファクト

前世代のモデル PRADO を使用することで、それが次世代の最先端の軽量テキスト分類モデルの基礎として機能できることを実証します。改良された pQRNN モデルは、この新しいアーキテクチャが、パラメータと教師ありデータの 1/300 のみを使用しているにもかかわらず、BERT レベルのパフォーマンスをほぼ達成できることを示しています。

この分野でのさらなる研究を促進するために、Google は PRADO モデルをオープンソース化し、コミュニティが新しいモデル アーキテクチャの出発点として使用することを奨励しています。

プロジェクトアドレス: https://github.com/tensorflow/models/tree/master/research/sequence_projection

<<:  機械学習におけるラベル漏洩とそれがモデルのパフォーマンスに与える影響について紹介します

>>:  PyTorchBigGraph を使用して超大規模グラフ モデルをトレーニングする方法は?

ブログ    
ブログ    
ブログ    

推薦する

老黄が勝利! Nvidia H100の注文は24年待ち、マスク氏も黙っていられない

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

CUDA と TensorRT モデルの展開の最適化: 重要な考慮事項と実践的な戦略

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

「AIGC+」|新たなマーケティングパラダイム:AIGCは海外進出企業にとって「新たな武器」となり得るか?

わずか 1 年で、AIGC がもたらした業界を変革するアプリケーションは、徐々に人々の生活の隅々に浸...

AIを使って内部脅威を特定することの倫理

マイノリティ・リポートのトム・クルーズを覚えていますか? AI は将来のリスクを示唆する従業員の行動...

...

独自の大規模言語モデルを展開する 5 つの方法

これは歴史上最も急速に成長している新技術です。生成 AI は世界を変え、画像、ビデオ、オーディオ、テ...

私の国における人工知能の発展に対する最大の圧力は、基礎理論と独自のアルゴリズムです。

業界では、人工知能はこれまで2世代を経てきたと一般的に考えられています。第一世代の人工知能は知識主導...

金属の巨人からディープラーニングまで、人工知能の(ごく)短い歴史

[[202011]]クレタ島を海賊や侵略者から守るために、人々は巨大な青銅の戦士タロスを創造しました...

人工知能とクラウドコンピューティングの組み合わせは、企業ビジネスの飛躍的成長をどのように促進するのでしょうか?

Statistaの最近のレポートによると、「AI市場の世界的価値は2025年までに年間890億ドル...

蔡子星院士:オープンソースは人工知能開発の新たなトレンド

[[397103]] 「AIコア技術の躍進は産業の高度化の原動力であり、オープンソースはAI発展の新...

「説明可能な」AIが金融セクターへの信頼を高める

[[423755]]人工知能は、詐欺の特定や金融犯罪の撲滅から、顧客への革新的なデジタル体験の提供に...

機械学習の4つの異なるカテゴリの概要

[[420892]]学習の実行方法に基づいて、アルゴリズムをさまざまなカテゴリに分類できます。教師あ...

...

...

快手八卦についての噂: TensorFlow と PyTorch の並列ボトルネックを打破する分散トレーニング フレームワーク

最近、KuaishouとETH Zurichはオープンソースの分散トレーニングフレームワークBagu...