この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 世界最大の事前トレーニング モデルを開発した WuDao チームが、事前トレーニングの概念を理解する方法を段階的に教えてくれます。 ちょうど今、清華大学のTang Jie教授とWuDaoチームが事前トレーニングモデルのレビューを発表しました。 論文全体は40ページ以上あり、大規模事前学習モデル(PTM)の過去と現在を、開発の歴史、最新のブレークスルー、将来の研究という3つの方向から包括的にレビューしています。 それでは、この論文の主な内容を見てみましょう。 事前トレーニングの歴史この論文は事前トレーニングの開発プロセスから始まります。 初期の事前トレーニング作業は主に転移学習に焦点を当てており、その中でも特徴転移とパラメータ転移は最も広く使用されていた 2 つの事前トレーニング方法でした。 初期の教師あり事前トレーニングから現在の自己教師あり事前トレーニングまで、Transformer ベースの PTM を NLP タスクに適用することが標準的なプロセスになっています。 近年、さまざまなタスクで PTM が成功しているのは、自己教師あり事前トレーニングと Transformer の組み合わせによるものだと言えます。 以下は論文の第 3 セクションの主な内容です。 ニューラル アーキテクチャ Transformer と、Transformer に基づく 2 つのマイルストーン事前トレーニング済みモデル (BERT と GPT)。 2 つのモデルは、それぞれ自己回帰言語モデリングとオートエンコーダ言語モデリングを事前トレーニングの目的として使用します。 以降のすべての事前トレーニング モデルは、これら 2 つのモデルのバリエーションであると言えます。 たとえば、論文に掲載されているこの図には、近年モデル アーキテクチャを変更し、新しい事前トレーニング タスクを検討した多くの PTM がリストされています。 大規模事前学習モデルの最新のブレークスルー論文のセクション 4 ~ 7 では、PTM における最新のブレークスルーを包括的にレビューします。 これらのブレークスルーは、主にコンピューティング能力の急上昇とデータ量の増加によって推進されており、次の 4 つの方向に進んでいます。 効果的なアーキテクチャの設計 セクション 4では、BERT ファミリーとそのバリアントである PTM について詳しく説明し、言語事前トレーニング用の Transformer ベースの BERT アーキテクチャはすべて、次の 2 つの目的に分類できると述べています。
さらに、現在のほとんどの研究は、自然言語理解における言語モデルのパフォーマンスを向上させるために BERT アーキテクチャを最適化することに重点を置いています。 複数のソースからのデータの活用 多くの典型的な PTM は、データ ホルダー、タイプ、特性が異なる複数ソースの異種データを利用します。 たとえば、多言語 PTM、マルチモーダル PTM、知識強化 PTM などです。 計算効率の向上 第 6 章では、3 つの側面から計算効率を向上させる方法を紹介します。 最初の方法はシステムレベルの最適化であり、これには単一デバイスの最適化とマルチデバイスの最適化が含まれます。 たとえば、ZeRO-Offload は、メモリスワップとデバイスの計算が可能な限り重複するように、CPU メモリと GPU メモリ間のスワップを調整するための高度な戦略を設計します。 2 番目のアプローチは、ソリューションのコストを削減するために、より効率的な事前トレーニング方法とモデル アーキテクチャを検討することです。 3 つ目は、パラメータの共有、モデルの剪定、知識の蒸留、モデルの量子化を含むモデル圧縮戦略です。 説明と理論的分析 この論文の第 7 章では、PTM の動作原理と特性について詳しく説明します。 まず、PTM によって捕捉される暗黙の知識には2 つの種類があります。 1つは言語知識であり、これは一般的に表現検出、表現分析、注意分析、生成分析の4つの方法を通じて研究されます。 もう一つは常識や事実を含む世界知識です。 この論文では、最近の関連研究の敵対的例では、PTM が深刻な堅牢性の問題を示し、同義語によって簡単に誤解され、誤った予測を行ったと指摘しました。 最後に、本論文では、PTM の構造的スパース性/モジュール性と、PTM の理論的分析における先駆的な研究についてまとめています。 今後の研究の方向性これまで、本論文では PTM の過去と現在について概説してきました。最後のセクションでは、上記のさまざまな研究に基づいて、PTM のさらなる発展に向けた7 つの方向性を指摘しています。
新しいアーキテクチャ、新しい事前トレーニングタスク、迅速なチューニング、信頼性など
より多くのモダリティ、説明、下流タスク、転移学習を含む
データ移行、並列戦略、大規模トレーニング、パッケージング、プラグインを含む
不確実性、一般化、堅牢性を含む
知識ベースのタスク、モデルの保存と管理を含む
知識の強化、知識のサポート、知識の監督、認知アーキテクチャ、知識の相互作用を含む
自然言語生成、対話システム、ドメイン固有のPTM、ドメイン適応、タスク適応を含む 論文の最後には、自然言語、つまり離散的な記号で表現される人間の知識とは異なり、PTM に格納されている知識は機械に優しい連続した実数値のベクトルであるとも述べられています。 チームはこれを知識モデル認識と名付け、将来的にはより効率的な方法でモデル認識を実現し、特定のタスクに対するより良い解決策を見つけたいと考えています。 詳細については、クリックして元の論文に直接アクセスしてください。 http://keg.cs.tsinghua.edu.cn/jietang/publications/AIOPEN21-Han-et-al-Pre-Trained%20Models-%20Past,%20Present%20and%20Future.pdf |
>>: 機械学習がゲームにおける物理シミュレーションに革命をもたらす
共同通信社のウェブサイトの最近の報道によると、日立製作所の研究チームが人工知能学会で論文を発表した。...
[[198103]] 1. オンライン機能システム主流のインターネット製品では、古典的な計算広告、検...
世界のデジタル経済が急速に発展するにつれ、クラウド コンピューティングによってデータ転送速度に対する...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能は、大手テクノロジー企業、新興企業、大学の研究チームによって推進されている成長産業です。 A...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ブログのタイトルに使うには奇妙な言葉だとは思いますが、先日、私が今考えている疑問のいくつかにまさに当...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
前回は、空間と時間の複雑さがともにN 2であるグラフの隣接行列保存方法を紹介しました。今回は、グラフ...
脳コンピューターインターフェースは、言語の読み取りに加えて、人間の脳内の画像をリアルタイムで読み取る...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
規制は消費者と市場を保護するために導入されていますが、多くの場合、規制は複雑で、コストがかかり、遵守...