初心者向けガイド: 自然言語処理のためのニューラル ネットワーク

初心者向けガイド: 自然言語処理のためのニューラル ネットワーク

この記事を読むと、次のことがわかります。

  • 自然言語処理の分野に最も大きな影響を与えたニューラル ネットワーク構造。
  • ディープラーニングは、自然言語処理のあらゆるレベルの学習タスクを策定できます。
  • 高密度語彙表現と表現を学習する方法の重要性。

始めましょう。

概要

この記事は 12 のセクションに分かれており、次の構造に従って構成されています。

  1. 導入;
  2. ニューラルネットワークアーキテクチャ。
  3. 特徴表現;
  4. フィードフォワードニューラルネットワーク。
  5. 単語の埋め込み;
  6. ニューラルネットワークのトレーニング。
  7. タンデム学習とマルチタスク学習。
  8. 構造化された出力予測。
  9. 畳み込み層;
  10. リカレントニューラルネットワーク;
  11. 特定の RNN 構造。
  12. モデルツリー。

1. この論文について

この論文のタイトルは「自然言語処理のためのニューラル ネットワーク モデルの入門」です。

対応する論文は2015年にArXivに掲載されました。これは論文というよりはむしろ技術レポートやチュートリアルであり、研究者や学生を対象として、ディープラーニング手法に基づく自然言語処理 (NLP) の包括的な入門を提供します。

このチュートリアルでは、自然言語処理研究のためのいくつかのディープラーニング モデルをレビューし、自然言語研究がニューラル ネットワーク テクノロジの開発を加速することを期待しています。

この入門チュートリアルは、元 Google リサーチ サイエンティストで NLP 研究者の Yoav Goldberg 氏によるものです。

(https://www.cs.bgu.ac.il/~yoavg/uni/) を準備しました。これは約 62 ページと 13 ページの参考文献を含む技術レポートです。

この教科書が初心者にとって理想的なのは、以下の理由からです。

  • 読者に高度な基礎知識は必要なく、機械学習や言語処理に関する事前の知識も必要ありません。
  • 対象範囲は広く、多くのディープラーニング手法や自然言語処理の問題が含まれます。

このチュートリアルでは、NLP 開発者や初心者がニューラル ネットワーク モデルの背後にある理論を理解し、それを自分の仕事に適用できるように、基本的な背景知識、用語、実用的なツール、方法論を紹介したいと考えています。このチュートリアルは、既存の価値あるテクノロジーを使用し、最も関心のある NLP の問題を解決する新しい方法を作成することに関心のある人を対象としています。

多くの場合、言語学や自然言語処理では、有用なコミュニケーションブリッジを構築するために、主要なディープラーニング手法を改造(名前変更)する必要があります。

***、この 2015 年の入門チュートリアルは、2017 年に「自然言語処理のためのニューラル ネットワーク メソッド (http://amzn.to/2tXn2dZ)」というタイトルの書籍として出版されました。

2. ニューラルネットワークアーキテクチャ

このセクションでは、後の章の参考として、さまざまな種類のニューラル ネットワーク構造を紹介します。

完全に接続されたフィードフォワード ニューラル ネットワークは非線形学習者であるため、線形学習者を自由に置き換えることができます。

ここでは、ニューラル ネットワーク構造の 4 つのタイプと、それぞれの適用事例と参考資料について説明します。

  • 多層パーセプトロンなどの完全接続型フィードフォワードニューラルネットワーク。
  • 畳み込みニューラル ネットワークなどの畳み込み層とプーリング層を持つネットワーク。
  • 長期短期記憶ネットワークなどの再帰型ニューラル ネットワーク。
  • リカレントニューラルネットワーク。

アプリだけに興味がある場合は、上記の情報から、より多くのリソースを見つけるための直接的な手がかりが得られます。

3. 特徴表現

このセクションでは、スパース表現または密表現を使用してディープラーニング モデルをトレーニングするためのさまざまな方法に焦点を当てます。

おそらく、スパース入力線形モデルからニューラル ネットワーク モデルへの最も大きな飛躍は、各特徴を次元として表現すること (いわゆるワンホット表現) を放棄し、密なベクトル表現を使用することです。

NLP 分類システムの一般的な構造は、次のように要約できます。

  • コア言語機能のセットを抽出します。
  • 各ベクトルについて、関連付けられているベクトルを取得します。
  • 結合された固有ベクトル。
  • 結合されたベクトルは非線形分類器にフィードバックされます。

この構造の鍵となるのは、スパース特徴ベクトルの代わりに密な特徴ベクトルを使用し、特徴の組み合わせの代わりにコア特徴を使用することです。

特徴抽出段階では、ニューラル ネットワークはコア特徴のみを抽出することに注意してください。これは、コア機能とそれらの間の相互作用を明示的に指定するために機能設計を手動で設定する必要がある従来の線形モデルベースの NLP とは異なります。

4. フィードフォワードニューラルネットワーク

このセクションでは、フィードフォワード人工ニューラル ネットワークの短期集中講座を提供します。

「自然言語処理のためのニューラル ネットワーク モデル入門」の 2 つの隠し層を持つフィードフォワード ニューラル ネットワークを例に挙げます。これらのニューラル ネットワークは、数学的な概念と脳にヒントを得た形式を使用して表現されます。ニューラル ネットワークの一般的な研究テーマは次のとおりです。

表現能力(例:一般的な近似)

  • 一般的な非線形機能(例:変換関数)
  • 出力の変換(例:softmax)
  • 単語埋め込み(例:埋め込み学習のための密な表現)
  • 損失関数 (例: ReLU および log 損失)。

5. 単語の埋め込み

単語埋め込み表現は、自然言語処理におけるニューラル ネットワーク手法にとって重要なトピックです。このセクションでは、このトピックを詳しく説明し、いくつかの重要なアプローチの例を示します。 NLP におけるニューラル ネットワークの人気が高い重要な理由の 1 つは、各特徴を低次元空間内のベクトルとして表現する埋め込み手法の使用です。埋め込みに関する以下のトピックを確認します。

  • ランダム初期化(例えば、均一なランダムベクトルから開始する)
  • 教師ありタスク固有の事前トレーニング(例:転移学習)
  • 教師なし事前トレーニング(例:word2vecやGloVeなどの統計的手法)
  • トレーニングの目的(例:目的が出力ベクトルに与える影響)
  • 文脈的選択(例:各単語が周囲の単語からどのような影響を受けるか)。

ニューラル単語埋め込み法は言語モデリング法、つまり、前の単語のシーケンスから次の単語を予測するようにネットワークをトレーニングする手法から派生したものです。

6. ニューラルネットワークのトレーニング

これは、ニューラル ネットワークのトレーニング方法に焦点を当てた長いセクションであり、ニューラル ネットワークのパラダイムに精通していない読者を対象としています。ニューラル ネットワークのトレーニングは、勾配法を使用してトレーニング データセットの損失関数を最小化しようとするプロセスです。

このセクションでは、確率的勾配降下法 (および同様のミニバッチ アプローチ) とトレーニング中の正規化手法に焦点を当てます。

興味深いことに、ニューラル ネットワークの計算グラフ ビューは、Theano や TensorFlow などのディープラーニング モデルを実装するいくつかのシンボリック数値ライブラリにとって優れたエントリ ポイントを提供します。

グラフが構築されると、順方向計算(出力の計算)や方向計算(勾配の計算)が簡単に理解できるようになります。

7. カスケード学習とマルチタスク学習

このセクションでは、前のセクションを基に、多言語タスク用のカスケード型 NLP モデルと学習モデルをまとめます。

カスケード モデル: ニューラル ネットワーク モデルの計算グラフ定義を使用して中間表現 (エンコーディング) を追加し、より複雑なモデルを構築します。たとえば、隣接する単語やその構成要素を使用して単語を予測するフィードフォワード ネットワークを構築できます。

マルチタスク学習: 関連するさまざまな言語予測タスクは互いにフィードバックしませんが、タスク間で情報を共有します。

名前付きエンティティの境界や文中の次の単語を予測するには、基礎となる構文的・意味的表現に依存します。これらの高レベルの概念は、ニューラル ネットワークのコンテキストで説明されており、モデルが互いにどのように関係するか、またはトレーニング (エラー バックプロパゲーション) 中および予測中にどのように情報を共有するかを理解できるようにします。

8. 構造化された出力の予測

このセクションでは、シーケンス、決定木、計算グラフなどの構造化予測にディープラーニング手法が使用される自然言語処理タスクのいくつかの例に焦点を当てます。

代表的な例としては、シーケンスタグ付け(品詞タグ付けなど)、シーケンスセグメンテーション(グループ化、NER(固有表現認識))、構文解析などが挙げられます。このセクションでは、貪欲アルゴリズム ベースと検索ベースの構造化予測の両方について説明しますが、後者に重点を置きます。

検索は、自然言語における構造化予測への一般的なアプローチの中核です。

9. 畳み込み層

このセクションでは、畳み込みニューラル ネットワークの短期集中講座を提供し、畳み込みニューラル ネットワークが自然言語処理の研究にどのような革命をもたらしたかについて説明します。 CNN は、感情分析(予測のためにテキスト内の特定のサブシーケンスや構造を見つけるなど)などの自然言語処理における分類タスクで優れたパフォーマンスを発揮することが示されています。

畳み込みニューラル ネットワークは、一般的に、大規模な構造内の指標となるローカル予測子を識別し、それらを組み合わせて構造の固定サイズのベクトル表現を生成し、予測タスクに役立つこれらのローカルな側面を捉えるように設計されています。

10. リカレントニューラルネットワーク

前のセクションと同様に、このセクションでは、特定のネットワークと NLP でのそのアプリケーションについて紹介します。たとえば、RNN シーケンス モデリングを適用します。

リカレント ニューラル ネットワークでは、入力の構造化された性質のみを考慮しながら、固定サイズのベクトルで任意のサイズの構造化された入力を表現できます。

RNN は NLP、特に LSTM で非常に人気があるため、このセクションでは再帰に関連する次のトピックとモデルについて説明します。

  • RNN の抽象概念 (例: ネットワーク図の再帰接続)
  • RNN トレーニング プロセス (例: 時間の経過によるバックプロパゲーション)。
  • 多層(スタック)RNN(例:ディープラーニングの「ディープ」な説明)
  • BI-RNN(例:入力として順方向シーケンスと逆方向シーケンス)
  • 表現のための RNN スタッキング。

特に、RNN モデルの構造または構造要素に焦点を当てます。

  • 受信機: 入力シーケンスが完了した後の出力の損失計算。
  • エンコーダー: *** のベクトルは入力シーケンスのエンコーダーとして使用されます。
  • トランスデューサー: 入力シーケンス内の各観測に対して出力を生成します。
  • エンコーダー/デコーダー: 入力シーケンスは、出力シーケンスにデコードされる前に固定長ベクトルにエンコードされます。

11. 特定のRNN構造

このセクションでは、前のセクションに基づいて特定の RNN アルゴリズムについて説明します。例えば:

  • シンプル RNN (SRNN);
  • 長短期記憶(LSTM)
  • ゲートリカレントユニット (GRU)。

12. モデル構築

最初のセクションでは、より複雑なネットワーク、つまりツリーモデリングを学習する再帰ニューラル ネットワークに焦点を当てます。いわゆるツリーには、統語ツリー、談話ツリー、さらには感情を表すツリー(文の部分で表現される)も含まれます。ルート ノードに基づいて特定のツリー ノードの値を予測するか、ツリー全体またはツリーの一部の予測値を指定します。

RNN が入力シーケンスの状態を維持するのと同様に、RNN はツリー ノードの状態を維持します。

以下は、「自然言語処理のためのニューラル ネットワーク モデル入門」から抜粋したリカレント ニューラル ネットワークの例です。

要約する

この投稿では、自然言語処理のためのディープラーニング手法について紹介します。

具体的には、次のことを学びました。

  • 自然言語処理の分野で最も重要なニューラル ネットワーク構造。
  • ディープラーニングがうまく適用されているいくつかの種類の自然言語処理タスク。
  • 高密度の単語表現とそれに対応する学習方法の重要性。

オリジナル:

https://machinelearningmastery.com/primer-neural-network-models-natural-language-processing/

[この記事は51CTOコラム「Machine Heart」、WeChatパブリックアカウント「Machine Heart(id:almosthuman2014)」によるオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  Google の AI 覇権を解決する別の方法は?開発プラットフォームのエコシステム包囲

>>:  IBM LinkedIn が教えてくれる: 職場と AI はどれくらい離れているのか?

ブログ    
ブログ    
ブログ    

推薦する

ChatGPTに対抗できるAIモデル6つと中国企業の製品2つが選定

ChatGPT は、大規模言語モデル (LLM) に基づく業界をリードするチャットボットとして、テク...

ダンスをしたり、音楽を作曲したり、演出したりできる AI を見たことがありますか?

最近、NVIDIA Blog は「ライト、カメラ、AI: Cambridge Consultants...

MITの科学者が数時間でロボットヒトデを作る新システムを設計

水中の海洋生物を研究する場合、動物たちにとって不自然に見えて怖がらせないような装置を使うと役に立つで...

...

人工知能が企業のバックオフィスへの参入を加速

人工知能は、あらゆる種類の企業のバックオフィスに大きく浸透しつつあります。バックオフィスは、ビジネス...

...

なぜSoraはOpenAIから生まれたのでしょうか?最前線で働く従業員の勤務と休息のタイムラインの秘密:私たちは

OpenAI が最初に Sora を作成した理由は何ですか?現在、世界中の研究者、エンジニア、投資家...

小売業界のトレンド: 人工知能からクーポンコードまで

[[436501]]機械学習と人工知能 (AI) の登場により、企業のビジネスのやり方は大きく変化し...

最も強力な AI 搭載スマートフォンに関する神の視点: iPhone X

世界中で人気のiPhone Xがついに登場。バージョン番号を埋めるためだけに名付けられたiPhone...

自動運転の知識 ポピュラーサイエンス 自動運転車の7つのコア技術

自動運転技術の本質は、機械の観点から人間のドライバーの行動をシミュレートすることです。その技術的フレ...

スマートシティ技術の未来: AI、ビッグデータ、クラウド

世界の人口の半分以上が都市に惹かれています。成長、繁栄、雇用、機会、教育、娯楽の誘惑は、抵抗できない...

2019 年の AI 統計と重要な事実

[[280183]] [51CTO.com クイック翻訳] 人工知能(AI)は日々驚異的なスピードで...

AIセキュリティリスクの予防と管理を強化するには、技術統合と法的規制に重点を置く必要がある

人工知能は、新たな科学技術革命と産業変革をリードする戦略的技術として、世界の主要国が科学技術の飛躍的...

「ロボット」は詐欺の標的になり得るのか?

機械は識別や配送などの一連の機能を統合した後、自然に俳優と「対話」します。相互作用のプロセスにおける...

オープンソース | AREX: Ctrip の次世代自動回帰テスト ツールの設計と実装

著者についてCtrip の R&D エネルギー効率マネージャー兼 SRE である Haibi...