この記事を読むと、次のことがわかります。
始めましょう。 概要 この記事は 12 のセクションに分かれており、次の構造に従って構成されています。
1. この論文について この論文のタイトルは「自然言語処理のためのニューラル ネットワーク モデルの入門」です。 対応する論文は2015年にArXivに掲載されました。これは論文というよりはむしろ技術レポートやチュートリアルであり、研究者や学生を対象として、ディープラーニング手法に基づく自然言語処理 (NLP) の包括的な入門を提供します。 このチュートリアルでは、自然言語処理研究のためのいくつかのディープラーニング モデルをレビューし、自然言語研究がニューラル ネットワーク テクノロジの開発を加速することを期待しています。 この入門チュートリアルは、元 Google リサーチ サイエンティストで NLP 研究者の Yoav Goldberg 氏によるものです。 (https://www.cs.bgu.ac.il/~yoavg/uni/) を準備しました。これは約 62 ページと 13 ページの参考文献を含む技術レポートです。 この教科書が初心者にとって理想的なのは、以下の理由からです。
このチュートリアルでは、NLP 開発者や初心者がニューラル ネットワーク モデルの背後にある理論を理解し、それを自分の仕事に適用できるように、基本的な背景知識、用語、実用的なツール、方法論を紹介したいと考えています。このチュートリアルは、既存の価値あるテクノロジーを使用し、最も関心のある NLP の問題を解決する新しい方法を作成することに関心のある人を対象としています。 多くの場合、言語学や自然言語処理では、有用なコミュニケーションブリッジを構築するために、主要なディープラーニング手法を改造(名前変更)する必要があります。 ***、この 2015 年の入門チュートリアルは、2017 年に「自然言語処理のためのニューラル ネットワーク メソッド (http://amzn.to/2tXn2dZ)」というタイトルの書籍として出版されました。 2. ニューラルネットワークアーキテクチャ このセクションでは、後の章の参考として、さまざまな種類のニューラル ネットワーク構造を紹介します。 完全に接続されたフィードフォワード ニューラル ネットワークは非線形学習者であるため、線形学習者を自由に置き換えることができます。 ここでは、ニューラル ネットワーク構造の 4 つのタイプと、それぞれの適用事例と参考資料について説明します。
アプリだけに興味がある場合は、上記の情報から、より多くのリソースを見つけるための直接的な手がかりが得られます。 3. 特徴表現 このセクションでは、スパース表現または密表現を使用してディープラーニング モデルをトレーニングするためのさまざまな方法に焦点を当てます。 おそらく、スパース入力線形モデルからニューラル ネットワーク モデルへの最も大きな飛躍は、各特徴を次元として表現すること (いわゆるワンホット表現) を放棄し、密なベクトル表現を使用することです。 NLP 分類システムの一般的な構造は、次のように要約できます。
この構造の鍵となるのは、スパース特徴ベクトルの代わりに密な特徴ベクトルを使用し、特徴の組み合わせの代わりにコア特徴を使用することです。 特徴抽出段階では、ニューラル ネットワークはコア特徴のみを抽出することに注意してください。これは、コア機能とそれらの間の相互作用を明示的に指定するために機能設計を手動で設定する必要がある従来の線形モデルベースの NLP とは異なります。 4. フィードフォワードニューラルネットワーク このセクションでは、フィードフォワード人工ニューラル ネットワークの短期集中講座を提供します。 「自然言語処理のためのニューラル ネットワーク モデル入門」の 2 つの隠し層を持つフィードフォワード ニューラル ネットワークを例に挙げます。これらのニューラル ネットワークは、数学的な概念と脳にヒントを得た形式を使用して表現されます。ニューラル ネットワークの一般的な研究テーマは次のとおりです。 表現能力(例:一般的な近似)
5. 単語の埋め込み 単語埋め込み表現は、自然言語処理におけるニューラル ネットワーク手法にとって重要なトピックです。このセクションでは、このトピックを詳しく説明し、いくつかの重要なアプローチの例を示します。 NLP におけるニューラル ネットワークの人気が高い重要な理由の 1 つは、各特徴を低次元空間内のベクトルとして表現する埋め込み手法の使用です。埋め込みに関する以下のトピックを確認します。
ニューラル単語埋め込み法は言語モデリング法、つまり、前の単語のシーケンスから次の単語を予測するようにネットワークをトレーニングする手法から派生したものです。 6. ニューラルネットワークのトレーニング これは、ニューラル ネットワークのトレーニング方法に焦点を当てた長いセクションであり、ニューラル ネットワークのパラダイムに精通していない読者を対象としています。ニューラル ネットワークのトレーニングは、勾配法を使用してトレーニング データセットの損失関数を最小化しようとするプロセスです。 このセクションでは、確率的勾配降下法 (および同様のミニバッチ アプローチ) とトレーニング中の正規化手法に焦点を当てます。 興味深いことに、ニューラル ネットワークの計算グラフ ビューは、Theano や TensorFlow などのディープラーニング モデルを実装するいくつかのシンボリック数値ライブラリにとって優れたエントリ ポイントを提供します。 グラフが構築されると、順方向計算(出力の計算)や方向計算(勾配の計算)が簡単に理解できるようになります。 7. カスケード学習とマルチタスク学習 このセクションでは、前のセクションを基に、多言語タスク用のカスケード型 NLP モデルと学習モデルをまとめます。 カスケード モデル: ニューラル ネットワーク モデルの計算グラフ定義を使用して中間表現 (エンコーディング) を追加し、より複雑なモデルを構築します。たとえば、隣接する単語やその構成要素を使用して単語を予測するフィードフォワード ネットワークを構築できます。 マルチタスク学習: 関連するさまざまな言語予測タスクは互いにフィードバックしませんが、タスク間で情報を共有します。 名前付きエンティティの境界や文中の次の単語を予測するには、基礎となる構文的・意味的表現に依存します。これらの高レベルの概念は、ニューラル ネットワークのコンテキストで説明されており、モデルが互いにどのように関係するか、またはトレーニング (エラー バックプロパゲーション) 中および予測中にどのように情報を共有するかを理解できるようにします。 8. 構造化された出力の予測 このセクションでは、シーケンス、決定木、計算グラフなどの構造化予測にディープラーニング手法が使用される自然言語処理タスクのいくつかの例に焦点を当てます。 代表的な例としては、シーケンスタグ付け(品詞タグ付けなど)、シーケンスセグメンテーション(グループ化、NER(固有表現認識))、構文解析などが挙げられます。このセクションでは、貪欲アルゴリズム ベースと検索ベースの構造化予測の両方について説明しますが、後者に重点を置きます。 検索は、自然言語における構造化予測への一般的なアプローチの中核です。 9. 畳み込み層 このセクションでは、畳み込みニューラル ネットワークの短期集中講座を提供し、畳み込みニューラル ネットワークが自然言語処理の研究にどのような革命をもたらしたかについて説明します。 CNN は、感情分析(予測のためにテキスト内の特定のサブシーケンスや構造を見つけるなど)などの自然言語処理における分類タスクで優れたパフォーマンスを発揮することが示されています。 畳み込みニューラル ネットワークは、一般的に、大規模な構造内の指標となるローカル予測子を識別し、それらを組み合わせて構造の固定サイズのベクトル表現を生成し、予測タスクに役立つこれらのローカルな側面を捉えるように設計されています。 10. リカレントニューラルネットワーク 前のセクションと同様に、このセクションでは、特定のネットワークと NLP でのそのアプリケーションについて紹介します。たとえば、RNN シーケンス モデリングを適用します。 リカレント ニューラル ネットワークでは、入力の構造化された性質のみを考慮しながら、固定サイズのベクトルで任意のサイズの構造化された入力を表現できます。 RNN は NLP、特に LSTM で非常に人気があるため、このセクションでは再帰に関連する次のトピックとモデルについて説明します。
特に、RNN モデルの構造または構造要素に焦点を当てます。
11. 特定のRNN構造 このセクションでは、前のセクションに基づいて特定の RNN アルゴリズムについて説明します。例えば:
12. モデル構築 最初のセクションでは、より複雑なネットワーク、つまりツリーモデリングを学習する再帰ニューラル ネットワークに焦点を当てます。いわゆるツリーには、統語ツリー、談話ツリー、さらには感情を表すツリー(文の部分で表現される)も含まれます。ルート ノードに基づいて特定のツリー ノードの値を予測するか、ツリー全体またはツリーの一部の予測値を指定します。 RNN が入力シーケンスの状態を維持するのと同様に、RNN はツリー ノードの状態を維持します。 以下は、「自然言語処理のためのニューラル ネットワーク モデル入門」から抜粋したリカレント ニューラル ネットワークの例です。 要約する この投稿では、自然言語処理のためのディープラーニング手法について紹介します。 具体的には、次のことを学びました。
オリジナル: https://machinelearningmastery.com/primer-neural-network-models-natural-language-processing/ [この記事は51CTOコラム「Machine Heart」、WeChatパブリックアカウント「Machine Heart(id:almosthuman2014)」によるオリジナル翻訳です] この著者の他の記事を読むにはここをクリックしてください |
<<: Google の AI 覇権を解決する別の方法は?開発プラットフォームのエコシステム包囲
>>: IBM LinkedIn が教えてくれる: 職場と AI はどれくらい離れているのか?
ChatGPT は、大規模言語モデル (LLM) に基づく業界をリードするチャットボットとして、テク...
最近、NVIDIA Blog は「ライト、カメラ、AI: Cambridge Consultants...
水中の海洋生物を研究する場合、動物たちにとって不自然に見えて怖がらせないような装置を使うと役に立つで...
人工知能は、あらゆる種類の企業のバックオフィスに大きく浸透しつつあります。バックオフィスは、ビジネス...
OpenAI が最初に Sora を作成した理由は何ですか?現在、世界中の研究者、エンジニア、投資家...
[[436501]]機械学習と人工知能 (AI) の登場により、企業のビジネスのやり方は大きく変化し...
世界中で人気のiPhone Xがついに登場。バージョン番号を埋めるためだけに名付けられたiPhone...
自動運転技術の本質は、機械の観点から人間のドライバーの行動をシミュレートすることです。その技術的フレ...
世界の人口の半分以上が都市に惹かれています。成長、繁栄、雇用、機会、教育、娯楽の誘惑は、抵抗できない...
[[280183]] [51CTO.com クイック翻訳] 人工知能(AI)は日々驚異的なスピードで...
人工知能は、新たな科学技術革命と産業変革をリードする戦略的技術として、世界の主要国が科学技術の飛躍的...
機械は識別や配送などの一連の機能を統合した後、自然に俳優と「対話」します。相互作用のプロセスにおける...
著者についてCtrip の R&D エネルギー効率マネージャー兼 SRE である Haibi...