TENSORFLOW を使用してリカレント ニューラル ネットワーク言語モデルをトレーニングする

TENSORFLOW を使用してリカレント ニューラル ネットワーク言語モデルをトレーニングする
[[201448]]

私は、TensorFlow リカレント ニューラル ネットワークのチュートリアルを読み、PTB での実装を調べるのにほぼ午後を費やしましたが、わかりにくくて理解しにくいと感じました。そこで、コードの一部を参考にし、Keras の LSTM テキスト生成のアイデアを使用して、言語モデルの簡略版を自分で作成しました。

コードアドレス: Github

転載の際は出典を明記してください: Gaussic

言語モデル

言語モデルの主な考え方は、単語の前の部分に基づいて次に最も可能性の高い単語を推測することです。たとえば、「太った猫は毛布の上に座った」ということがわかっているので、猫は帽子よりも毛布の上に座る可能性が高いため、次の単語は帽子よりもマットである可能性が高いと考えます。

これは常識のように思えるかもしれませんが、自然言語処理では、このタスクは確率統計モデルを使用して記述できます。たとえば、太った猫がマットの上に座っていたとします。最初の単語 The が出現する確率は p(The)p(The) と計算でき、The の後に fat が続く条件付き確率は p(fat|The)p(fat|The) と計算でき、The と fat が同時に出現する結合確率は次のように計算できます。

  1. p(The,fat)=p(The)⋅p(fat|The)p(The,fat)=p(The)·p(fat|The)
この結合確率が、The fat の合理性、つまり、この文の出現が自然言語の判断基準を満たしているかどうかです。平たく言えば、これは人間の言語であるかどうかを意味します。同様に、連鎖律によれば、The fat cat の結合確率は次のように計算できます。
  1. p(The,fat,cat)=p(The)⋅p(fat|The)⋅p(cat|The,fat)p(The,fat,cat)=p(The)·p(fat|The)·p(cat|The,fat)
前の単語が The cat であることがわかっているので、次の単語が cat である確率を導き出すことができます。
  1. p(猫|太った)=p(太った猫)p(太った)p(猫|太った)=p(太った猫)p(太った)
分子はコーパス内での「The fat cat」の出現回数であり、分母はコーパス内での「The fat」の出現回数です。 したがって、「太った猫はマットの上に座った」という文全体の合理性も推測できます。この文の合理性はその確率です。式は次のように記述されます。
  1. p(S)=p(w1,w2,⋅⋅⋅,wn)=p(w1)⋅p(w2|w1)⋅p(w3|w1,w2)⋅⋅⋅p(wn|w1,w2,w3,⋅⋅⋅,wn−1)p(S)=p(w1,w2,···,wn)=p(w1)·p(w2|w1)·p(w3|w1,w2)···p(wn|w1,w2,w3,···,wn−1)
(式の後の n-1 は添え字、つまりプラグイン問題で、以下同じ) 問題が見つかりました。次の単語の条件付き確率を計算するときはいつでも、前の単語すべての結合確率を計算する必要があります。この計算量はかなり膨大です。さらに、文中にほとんどの単語が同時に出現する確率は非常に小さいことが多く、データは非常にまばらであるため、トレーニングには非常に大きなコーパスが必要になります。 単純な最適化は、次の単語の出現が前の 1 つまたは n 個の単語にのみ関連しているというマルコフ仮定に基づいています。 最も単純なケースでは、次の単語の出現は前の単語にのみ関連しており、これはバイグラムと呼ばれます。
  1. p(S)=p(w1,w2,⋅⋅⋅,wn)=p(w1)⋅p(w2|w1)⋅p(w3|w2)⋅p(w4|w3)⋅⋅⋅p(wn|wn−1)p(S)=p(w1,w2,···,wn)=p(w1)·p(w2|w1)·p(w3|w2)·p(w4|w3)···p(wn|wn−1)
さらに複雑なことに、次の単語の出現は前の 2 つの単語にのみ関連しており、これをトリグラムと呼びます。
  1. p(S)=p(w1,w2,⋅⋅⋅,wn)=p(w1)⋅p(w2|w1)⋅p(w3|w1,w2)⋅p(w4|w2,w3)⋅⋅⋅p(wn|wn−2,wn−1)p(S)=p(w1,w2,···,wn)=p(w1)·p(w2|w1)·p(w3|w1,w2)·p(w4|w2,w3)···p(wn|wn−2,wn−1)

このような条件付き確率は計算が簡単ですが、前の単語に関する多くの情報が失われ、結果に悪影響を与えることがあります。したがって、コンテキスト情報の大部分を保持しながら計算を簡素化できる効果的な n を選択する方法。

上記はすべて従来の言語モデルの説明です。あまり詳しく説明せずに、私たちのタスクは、前の n 個の単語が与えられた場合に次の単語が出現する確率を計算することです。言語モデルを使用して新しいテキストを生成します。

この記事では、RNN を使用して次の単語を推測する方法に重点を置いています。

データの準備TensorFlow の公式ドキュメントでは、Mikolov が準備した PTB データセットが使用されています。ダウンロードして解凍することができます:
  1. $ wget http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz
  2. $ tar xvf 簡単な例.tgz
部分数据如下,不常用的词转换成了<unk>标记,数字转换成了N:
  1. アスベスト 疑わしい特性
  2. がある 現在、当社の製品にはアスベストは使用されておりません
  3. も、労働者を研究した研究者も知っていませんでした ケントタバコ喫煙に関する研究
  4. ボストン癌研究所ジェームズ・A氏、ユーザーが危険にさらされているかどうかについて有用な情報ないと述べた。
  5. 悪性肺がんよるn死亡合計は、研究者が言ったと予想よりもはるかに高かった
ファイル内のデータを読み取り、改行を <eos> に変換してから、単語のリストに変換します。
  1. def _read_words(ファイル名):
  2.   open (ファイル名、 'r' 、エンコーディング= 'utf-8' )f:として開きます。
  3. f.read ()を返します ( ' \n' , '<eos>' ).split()を置き換えます
  1. f = _read_words( 'simple-examples/data/ptb.train.txt' )
  2. 印刷(f[:20])
得る:
  1. [ 'aer' 'banknote' 'berlitz' 'calloway' 'centtrust' 'cluett' 'fromstein' 'gitano' 'guterman' 'hydro-quebec' 'ipo' 'kia' 'memotec' 'mlx' 'nahb' 'punts' 'rake' 'regatta' 'rubens' 'sim' ]
語彙を構築し、単語と ID を変換します。
  1. def _build_vocab(ファイル名):
  2. データ = _read_words(ファイル名)
  3.  
  4. カウンター = カウンター(データ)
  5. count_pairs = sorted(counter.items(),キー=lambda x: -x[1])
  6.  
  7. 単語、_ = list(zip(*count_pairs))
  8. word_to_id = dict(zip(単語、範囲(len(単語))))
  9.  
  10. 単語を返す、word_to_id
  1. 単語、words_to_id = _build_vocab( 'simple-examples/data/ptb.train.txt' )
  2. print(単語[:10])
  3. print(list(map(lambda x: words_to_id[x], words[:10])))
出力:
  1. 'the' '' '<eos>' 'n' 'of' 'to' 'a ' in ' ' '' s " ))
  2. [0、1、2、3、4、5、6、7、8、9]
ファイルを ID 表現に変換します。
  1. def _file_to_word_ids(ファイル名, word_to_id):
  2. データ = _read_words(ファイル名)
  3. データ内のxword_to_id内にある場合、 [word_to_id[x] ]を返します
  1. ファイル内の単語 = _file_to_word_ids( 'simple-examples/data/ptb.train.txt' 、 単語のID)
  2. print(ファイル内の単語[:20])
語彙は単語の頻度に従ってソートされています。最初の文は英語ではないため、その ID は最後にあります。
  1. [9980、9988、9981、9989、9970、9998、9971、9979、9992、9997、9982、9972、9993、9991、9978、9983、9974、9986、9999、9990]
ID のリストから文を単語に戻します。
  1. def to_words(文, 単語):
  2. リストを返す(map(lambda x: words[x], sentence))
上記の機能を組み合わせると:
  1. def ptb_raw_data(データパス=なし):
  2. train_path = os.path.join (data_path、 'ptb.train.txt' )
  3. valid_path = os.path.join (data_path, 'ptb.valid.txt' ) です。
  4. test_path = os.path.join (data_path, 'ptb.test.txt' ) です。
  5.  
  6. 単語、word_to_id = _build_vocab(train_path)
  7. トレーニングデータ = _file_to_word_ids(トレーニングパス、単語ID)
  8. 有効なデータ = _file_to_word_ids(有効なパス、単語ID)
  9. test_data = _file_to_word_ids(テストパス、word_to_id)
  10.  
  11. train_data、valid_data、test_data、words、word_to_idを返します
上記の部分は公式の例とある程度類似しています。以下の処理は公式の処理とは大きく異なり、主に Keras ルーチン処理ドキュメントの操作を参照します。
  1. def ptb_producer(raw_data、batch_size=64、num_steps=20、stride=1):
  2. data_len = len(生データ)
  3.  
  4. 文 = []
  5. 次の単語 = []
  6. i範囲(0, data_len - num_steps, stride)内にある場合:
  7. sentences.append(raw_data[i:(i + num_steps)])
  8. next_words.append(raw_data[i + num_steps])
  9.  
  10. 文 = np.array(文)
  11. 次の単語 = np.array(次の単語)
  12.  
  13. batch_len = len(文) // バッチサイズ
  14. x = np.reshape(文[:(バッチ長 * バッチサイズ)], \
  15. [バッチ長、バッチサイズ、-1])
  16.  
  17. y = np.reshape(next_words[:(batch_len * batch_size)], \
  18. [バッチ長、バッチサイズ])
  19.  
  20. x, yを返す
パラメータ分析:
  • raw_data: ptb_raw_data() 関数によって生成されたデータ
  • batch_size: ニューラル ネットワークは確率的勾配降下法を使用し、データは複数のバッチで出力されます。これは各バッチのデータ量です。
  • num_steps: 各文の長さ。これは前述の n のサイズに相当し、再帰型ニューラル ネットワークの時系列の長さとも呼ばれます。
  • ストライド: データのステップ長を取得し、データ量を決定します。

コード分​​析:

この関数は、生データのリストを複数のデータ バッチ (つまり [batch_len、batch_size、num_steps]) に変換します。

まず、プログラムは毎回 num_steps 個の単語を文 (つまり x) として受け取り、これらの num_steps 個の単語の後の単語を次の予測 (つまり y) として受け取ります。このようにして、まず元のデータを batch_len * batch_size の x と y の表現に整理します。これは、x が与えられたときに y を見つける分類問題に似ています。

確率的勾配降下法のニーズを満たすには、データを小さなバッチに整理し、毎回データのバッチを TensorFlow にフィードして重みを更新する必要があります。このようにして、データは [batch_len、batch_size、num_steps] の形式に整理されます。

いくつかのデータを印刷します:

  1. train_data、valid_data、test_data、words、word_to_id = ptb_raw_data( 'simple-examples/data' ) です。
  2. x_train、y_train = ptb_producer(train_data) です。
  3. 印刷(x_train.shape)
  4. 印刷(y_train.shape)
出力:
  1. (14524, 64, 20)
  2. (14524, 64)
14524バッチのデータを取得し、各バッチのトレーニングセットの次元は[64, 20]であることがわかります。
  1. print( ' ' . join (to_words(x_train[100, 3], words)))
100 番目のバッチの 3 番目の文は次のとおりです。
  1. 安定した売上成長にもかかわらず、マグナは最近四半期配当を半分削減し同社のクラスA株
  1. print(words[np.argmax(y_train[100, 3])])
次の単語は次のとおりです。
モデル構成項目の構築
  1. クラス LMConfig(オブジェクト):
  2. 言語モデル構成項目  
  3. batch_size = 64 # 各データバッチのサイズ
  4. num_steps = 20 # 各文の長さ
  5. stride = 3 # データ取得時のステップ長
  6.  
  7. embedding_dim = 64 # 単語ベクトルの次元
  8. hidden_​​dim = 128 # RNN 隠し層の次元
  9. num_layers = 2 # RNN レイヤーの数
  10.  
  11. learning_rate = 0.05 # 学習率
  12. dropout = 0.2 # 各レイヤー後のドロップアウト確率
入力を読み取ることで、モデルはデータをバッチで読み取ることができます。
  1. クラスPTBInput(オブジェクト):
  2. データを一括で読み取る  
  3. def __init__(自己、設定、データ):
  4. 自己.batch_size = config.batch_size
  5. 自己.num_steps = config.num_steps
  6. self.vocab_size = config.vocab_size # 語彙サイズ
  7.  
  8. self.input_data、self.targets = ptb_producer(データ、
  9. self.batch_size、self.num_steps) は、
  10.  
  11. self.batch_len = self.input_data.shape[0] # 合計バッチ
  12. self.cur_batch = 0 # 現在のバッチ
  13.  
  14. 次のバッチを定義します(自分自身):
  15. 次のバッチを読み取ります  
  16. x = 自己.入力データ[自己.現在のバッチ]
  17. y = 自己.ターゲット[自己.現在のバッチ]
  18.  
  19. # ワンホットエンコーディングに変換する
  20. y_ = np.zeros((y.shape[0], self.vocab_size), dtype=np.bool)
  21. iが範囲(y.shape[0])場合:
  22. y_[i][y[i]] = 1
  23.  
  24. # 最後のバッチに到達したら、最初に戻ります
  25. self.cur_batch = (self.cur_batch + 1) % self.batch_len
  26.  
  27. x, y_を返す
モデル
  1. クラスPTBModel(オブジェクト):
  2. def __init__(self, config, is_training= True ):
  3.  
  4. 自己.num_steps = config.num_steps
  5. 自己.vocab_size = config.vocab_size
  6.  
  7. self.embedding_dim = config.embedding_dim
  8. 自己.hidden_​​dim = config.hidden_​​dim
  9. 自己.num_layers = config.num_layers
  10. self.rnn_model = config.rnn_model
  11.  
  12. 自己学習率 = config.学習率
  13. 自己.ドロップアウト = config.ドロップアウト
  14.  
  15. self.placeholders() # 入力プレースホルダー
  16. self.rnn() # rnn モデルの構築
  17. self.cost() # コスト関数
  18. self.optimize() # オプティマイザー
  19. self.error() # エラー率
  20.  
  21.  
  22. defプレースホルダー(自己):
  23. "" "入力データのプレースホルダー" ""  
  24. self._inputs = tf.placeholder(tf.int32, [なし、self.num_steps])
  25. self._targets = tf.placeholder(tf.int32, [なし、self.vocab_size])
  26.  
  27.  
  28. def input_embedding(自己):
  29. "" "入力を単語ベクトル表現に変換します" ""  
  30. tf.device( "/cpu:0" )の場合:
  31. 埋め込み = tf.get_variable(
  32. 「埋め込み」 、[self.vocab_size、
  33. self.embedding_dim]、dtype=tf.float32)
  34. _inputs = tf.nn.embedding_lookup(埋め込み、self._inputs)
  35.  
  36. _inputsを返す
  37.  
  38.  
  39. 定義rnn(自己):
  40. rnn モデルの構築  
  41. def lstm_cell(): # 基本的な lstm セル
  42. tf.contrib.rnn.BasicLSTMCell(self.hidden_​​dim,を返す
  43. state_is_tuple = True )
  44.  
  45. def gru_cell(): # gruセル、より高速
  46. tf.contrib.rnn.GRUCell(self.hidden_​​dim)を返します
  47.  
  48. def dropout_cell(): # 各セルの後にドロップアウトを追加
  49. (self.rnn_model == 'lstm'の場合):
  50. セル = lstm_cell()
  51. それ以外
  52. セル = gru_cell()
  53. tf.contrib.rnn.DropoutWrapper (セル、
  54. output_keep_prob=自己ドロップアウト)
  55.  
  56. セル = [dropout_cell() _範囲(self.num_layers)]
  57. cell = tf.contrib.rnn.MultiRNNCell(cells, state_is_tuple= True ) # 多層 rnn
  58.  
  59. _inputs = 自己入力埋め込み()
  60. _出力、_ = tf.nn.dynamic_rnn(セル=セル、
  61. 入力=_inputs、dtype=tf.float32)
  62.  
  63. # _outputs の形状は [batch_size, num_steps, hidden_​​dim] です
  64. last = _outputs[:, -1, :] # 最後の出力のみ必要
  65.  
  66. # 密とソフトマックスは各単語の確率を見つけるために分類に使用されます
  67. ロジット = tf.layers.dense(入力 = last 、単位 = self.vocab_size)
  68. 予測 = tf.nn.softmax(logits)
  69.  
  70. self._logits = ロジット
  71. self._pred = 予測
  72.  
  73. defコスト(自分):
  74. クロスエントロピーコスト関数を計算する  
  75. クロスエントロピー = tf.nn.softmax_cross_entropy_with_logits(
  76. logits=self._logits、ラベル=self._targets)
  77. コスト = tf.reduce_mean(クロスエントロピー)
  78. 自己コスト = コスト
  79.  
  80. def 最適化(自己):
  81. アダムオプティマイザーを使用する  
  82. オプティマイザー = tf.train.AdamOptimizer(学習率 = self.学習率)
  83. 自己最適化 = オプティマイザ最小化(自己コスト)
  84.  
  85. defエラー(自己):
  86. エラー率を計算する  
  87. 間違い = tf.not_equal(
  88. tf.argmax(self._targets, 1)、tf.argmax(self._pred, 1))
  89. self.errors = tf.reduce_mean( tf.cast (mistakes, tf.float32))
電車
  1. 定義run_epoch(num_epochs=10):
  2. config = LMConfig() # 設定項目を読み込む
  3.  
  4. # ソースデータをロードします。ここではトレーニングセットのみが必要です
  5. train_data、_、_、単語、word_to_id = \
  6. ptb_raw_data( '簡単な例/データ' )
  7. config.vocab_size = len(単語数)
  8.  
  9. # データのバッチ処理
  10. input_train = PTBInput(config、train_data) を入力します。
  11. バッチ長 = input_train.バッチ長
  12.  
  13. # モデルを構築する
  14. モデル = PTBModel(config)
  15.  
  16. # セッションを作成し、変数を初期化する
  17. sess = tf.Session()
  18. sess.run(tf.global_variables_initializer())
  19.  
  20. print( 'トレーニングを開始します...' )
  21. for epoch in range(num_epochs): # 繰り返しラウンド
  22. for i in range(batch_len): # 通過したバッチの数
  23. x_batch、y_batch = input_train.next_batch()
  24.  
  25. # データのバッチを取得して最適化を実行する
  26. feed_dict = {model._inputs: x_batch、model._targets: y_batch}
  27. sess.run(model.optim、feed_dict=feed_dict) を実行します。
  28.  
  29. # 500バッチごとに中間結果を出力します
  30. i % 500 == 0 の場合:
  31. コスト = sess.run(model.cost, feed_dict=feed_dict)
  32.  
  33. メッセージ = "エポック: {0:>3}、バッチ: {1:>6}、損失: {2:>6.3}"  
  34. print(msg.format(エポック + 1, i + 1, コスト))
  35.  
  36. # 予測結果を出力する
  37. pred = sess.run(model._pred、feed_dict = feed_dict)
  38. word_ids = sess.run(tf.argmax(pred, 1))
  39. print( '予測:' , ' ' . join (words[w] for w in word_ids))
  40. true_ids = np.argmax(y_batch, 1)
  41. print( 'True:' , '' . join (words[w]、 wがtrue_ids場合))
  42.  
  43. print( 'トレーニングを終了...' )
  44. セッションを閉じる()

より合理的な結果を得るには、複数回のトレーニングセッションが必要です。

<<:  人工知能が電力網の未来の鍵となる理由

>>:  ニューラル ネットワークのデバッグにイライラしていませんか?ここに16のヒントがあります

ブログ    
ブログ    
ブログ    

推薦する

Google Cloud と Hugging Face が AI インフラストラクチャ パートナーシップを締結

Google LLC のクラウド コンピューティング部門は本日、オープンソースの人工知能モデルを共有...

...

機械学習の発展の歴史と啓蒙

[[188091]]近年、人工知能の目覚ましい発展、特にAlphaGoと韓国のチェスプレイヤー、イ・...

人工知能の台頭は難しく、普通のAI開発者が普及する

[[241542]] Forbes によれば、FORTRAN のパンチカードから Go を使用した分...

...

未来:ビッグデータとAIがあなたをより深く理解する

今の時代の発展は本当に速すぎます、それを今実感していただけると思います。 3G から 4G、そして ...

2021年:AIが普及する年

リン・ジエル科学技術の継続的な進歩と発展に伴い、人工知能の発展は時代の必然的な流れであり、我が国の経...

200以上の機械学習ツールを見て学んだこと

[[332582]]ビッグデータダイジェスト制作出典: huyenchip編集者: フィッシャー、ア...

2019 年に TensorFlow は王座から退いたのでしょうか?

この記事では、著者は GitHub、Medium の記事、arXiv の論文、LinkedIn など...

2019年にAI分野で何が起こったのでしょうか?

2019年は確かに忙しい年でした。人工知能に関する進歩やニュースが頻繁に報道されるにつれ、私たちの...

サービスロボット市場の最前線に立つセキュリティは注目に値する

現在、サービスロボットは中国のロボットが他のロボットを追い抜く重要なチャンスとみなされており、あらゆ...

人工知能の時代、3つの問題が未来を決定づける

学習と進化ご存知のとおり、量子という概念は120年前にドイツの物理学者プランクによって提唱されました...