清華大学唐傑チーム: NLP事前トレーニングモデルの歴史の簡単な紹介

清華大学唐傑チーム: NLP事前トレーニングモデルの歴史の簡単な紹介

[[422829]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

世界最大の事前トレーニング モデルを開発した WuDao チームが、事前トレーニングの概念を理解する方法を段階的に教えてくれます。

ちょうど今、清華大学のTang Jie教授とWuDaoチームが事前トレーニングモデルのレビューを発表しました。

論文全体は40ページ以上あり、大規模事前学習モデル(PTM)の過去と現在を、開発の歴史、最新のブレークスルー、将来の研究という3つの方向から包括的にレビューしています。

それでは、この論文の主な内容を見てみましょう。

事前トレーニングの歴史

この論文は事前トレーニングの開発プロセスから始まります。

初期の事前トレーニング作業は主に転移学習に焦点を当てており、その中でも特徴転移とパラメータ転移は最も広く使用されていた 2 つの事前トレーニング方法でした。

初期の教師あり事前トレーニングから現在の自己教師あり事前トレーニングまで、Transformer ベースの PTM を NLP タスクに適用することが標準的なプロセスになっています。

近年、さまざまなタスクで PTM が成功しているのは、自己教師あり事前トレーニングと Transformer の組み合わせによるものだと言えます。

以下は論文の第 3 セクションの主な内容です。

ニューラル アーキテクチャ Transformer と、Transformer に基づく 2 つのマイルストーン事前トレーニング済みモデル (BERT と GPT)。

2 つのモデルは、それぞれ自己回帰言語モデリングとオートエンコーダ言語モデリングを事前トレーニングの目的として使用します。

以降のすべての事前トレーニング モデルは、これら 2 つのモデルのバリエーションであると言えます。

たとえば、論文に掲載されているこの図には、近年モデル アーキテクチャを変更し、新しい事前トレーニング タスクを検討した多くの PTM がリストされています。

大規模事前学習モデルの最新のブレークスルー

論文のセクション 4 ~ 7 では、PTM における最新のブレークスルーを包括的にレビューします。

これらのブレークスルーは、主にコンピューティング能力の急上昇とデータ量の増加によって推進されており、次の 4 つの方向に進んでいます。

効果的なアーキテクチャの設計

セクション 4では、BERT ファミリーとそのバリアントである PTM について詳しく説明し、言語事前トレーニング用の Transformer ベースの BERT アーキテクチャはすべて、次の 2 つの目的に分類できると述べています。

  • 統一シーケンスモデリング
  • 認知的インスピレーション建築

さらに、現在のほとんどの研究は、自然言語理解における言語モデルのパフォーマンスを向上させるために BERT アーキテクチャを最適化することに重点を置いています。

[[422830]]

複数のソースからのデータの活用

多くの典型的な PTM は、データ ホルダー、タイプ、特性が異なる複数ソースの異種データを利用します。

たとえば、多言語 PTM、マルチモーダル PTM、知識強化 PTM などです。

計算効率の向上

第 6 章では、3 つの側面から計算効率を向上させる方法を紹介します。

最初の方法はシステムレベルの最適化であり、これには単一デバイスの最適化とマルチデバイスの最適化が含まれます。

たとえば、ZeRO-Offload は、メモリスワップとデバイスの計算が可能な限り重複するように、CPU メモリと GPU メモリ間のスワップを調整するための高度な戦略を設計します。

2 番目のアプローチは、ソリューションのコストを削減するために、より効率的な事前トレーニング方法とモデル アーキテクチャを検討することです。

3 つ目は、パラメータの共有、モデルの剪定、知識の蒸留、モデルの量子化を含むモデル圧縮戦略です。

説明と理論的分析

この論文の第 7 章では、PTM の動作原理と特性について詳しく説明します。

まず、PTM によって捕捉される暗黙の知識には2 つの種類があります。

1つは言語知識であり、これは一般的に表現検出、表現分析、注意分析、生成分析の4つの方法を通じて研究されます。

もう一つは常識や事実を含む世界知識です。

この論文では、最近の関連研究の敵対的例では、PTM が深刻な堅牢性の問題を示し、同義語によって簡単に誤解され、誤った予測を行ったと指摘しました。

最後に、本論文では、PTM の構造的スパース性/モジュール性と、PTM の理論的分析における先駆的な研究についてまとめています。

今後の研究の方向性

これまで、本論文では PTM の過去と現在について概説してきました。最後のセクションでは、上記のさまざまな研究に基づいて、PTM のさらなる発展に向けた7 つの方向性を指摘しています。

  • アーキテクチャと事前トレーニング方法

新しいアーキテクチャ、新しい事前トレーニングタスク、迅速なチューニング、信頼性など

  • 多言語・マルチモーダルトレーニング

より多くのモダリティ、説明、下流タスク、転移学習を含む

  • 計算効率

データ移行、並列戦略、大規模トレーニング、パッケージング、プラグインを含む

  • 理論的根拠

不確実性、一般化、堅牢性を含む

  • モデルエッジ学習

知識ベースのタスク、モデルの保存と管理を含む

  • 認知と知識の学習

知識の強化、知識のサポート、知識の監督、認知アーキテクチャ、知識の相互作用を含む

  • 応用

自然言語生成、対話システム、ドメイン固有のPTM、ドメイン適応、タスク適応を含む

論文の最後には、自然言語、つまり離散的な記号で表現される人間の知識とは異なり、PTM に格納されている知識は機械に優しい連続した実数値のベクトルであるとも述べられています。

チームはこれを知識モデル認識と名付け、将来的にはより効率的な方法でモデル認識を実現し、特定のタスクに対するより良い解決策を見つけたいと考えています。

詳細については、クリックして元の論文に直接アクセスしてください。

http://keg.cs.tsinghua.edu.cn/jietang/publications/AIOPEN21-Han-et-al-Pre-Trained%20Models-%20Past,%20Present%20and%20Future.pdf

<<:  我が国のドローン産業の発展の現状と課題の分析

>>:  機械学習がゲームにおける物理シミュレーションに革命をもたらす

ブログ    

推薦する

ビデオ管理システム (VMS) を使用して複数ブランドのデバイス管理を強化するにはどうすればよいですか?

今日の環境では、インテグレーターとインストーラーは、古いセキュリティ プログラムをアップグレードし...

ASP.NET データ暗号化を実現する対称暗号化アルゴリズム

対称暗号化アルゴリズムはどのようにして ASP.NET データ暗号化を実装するのでしょうか?それでは...

Truffleを使用してスマートコントラクトをデプロイする方法

[[397532]]この記事はWeChatの公開アカウント「ブロックチェーン研究室」から転載したもの...

ついに、人工知能の3つの重要な機能を説明する人がいた。

これらすべての認知機能を 1 つのマシンに統合し、あらゆる一般的なシナリオを処理できる人工知能を汎用...

PyTorch モデルのトレーニングを高速化するための 9 つのヒント!

[[353240]]ニューラルネットワークをこのようにしないでください正直に言えば、あなたのモデル...

...

東大大学の中国人博士が「心の理論」を使ってテキサスホールデムをプレイすることを GPT-4 に教えました。従来のアルゴリズムを上回り、人間の初心者を圧倒する

完全情報ゲームでは、すべてのプレイヤーがすべての情報要素を知っています。しかし、不完全情報ゲームは異...

...

...

YOLOがBEVセンシングに参入! YOLO+BEVのリアルタイム検出の試み

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

ソフトウェアとハ​​ードウェアを組み合わせたCDS Shouyun AIクラウドサービスの技術実践

人工知能は新たな変化を先導しています。近年、人工知能はテクノロジー業界から始まり、急速に生活の各分野...

...

脚本を書いて、AIが動画を自動編集:編集者の7時間かけて作成した動画を13分で完成

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ロシアとウクライナのドローン戦争:ドローン艦隊の製造に8年間で90億ドルを費やしたロシアはなぜ制空権を失ったのか?

ビッグデータ概要2014年にクリミアで戦っていたウクライナ軍兵士たちは、ロシアの無人機を目撃すると、...