ディープラーニングフレームワークを使わずにPythonでニューラルネットワークをゼロから構築する方法

ディープラーニングフレームワークを使わずにPythonでニューラルネットワークをゼロから構築する方法

動機: ディープラーニングをより深く理解するために、Tensorflow などのディープラーニング ライブラリを使用せずに、ニューラル ネットワークをゼロから構築することにしました。ニューラル ネットワークの内部の仕組みを理解することは、データ サイエンティストを目指す人にとって非常に重要であると私は信じています。

この記事には私が学んだことすべてが網羅されており、皆さんもそこから恩恵を受けられることを願っています。

1. ニューラルネットワークとは何ですか?

ニューラル ネットワークに関する多くの入門資料では、ニューラル ネットワークを脳と比較しています。しかし、ニューラル ネットワークを、単純に入力を出力にマッピングする数学関数として理解する方が簡単だと思います。

ニューラル ネットワークは次の部分で構成されます。

  • 入力層x
  • 任意の数の隠し層
  • 出力層、ŷ
  • 各2つの層Wとbの間には重みとバイアスのセットがある。
  • 各隠れ層に対して、活性化関数 σ が選択されます。この記事では、シグモイド活性化関数を選択します。

下の図は、2 層ニューラル ネットワークの構造を示しています (ニューラル ネットワークの層の数を計算するときに、入力層は通常カウントされないことに注意してください)。

2層ニューラルネットワークの構造

Python を使用してニューラル ネットワークを構築するのは非常に簡単です。

  1. クラス NeuralNetwork:
  2. __init__(self, x, y)を定義します。
  3. 自己入力= x  
  4. 自己重み1 = np.random.rand (自己入力形状[1],4)
  5. 自己重み2 = np.ランダム.rand (4,1)
  6. 自己.y = y
  7. 自己出力= np.zeros (y.shape)

1. ニューラルネットワークのトレーニング

単純な 2 層ニューラル ネットワークの出力 ŷ は次のように表すことができます。

上記の式では、重み W とバイアス b だけが出力 ŷ に影響を与える変数であることに気付いたかもしれません。

当然のことながら、重みとバイアスの適切な値によって予測の強さが決まります。入力データに基づいて重みとバイアスを微調整するプロセスをニューラル ネットワーク トレーニングと呼びます。

トレーニング プロセスの各反復は、次の手順で構成されます。

  • 予測出力ŷを計算する(順伝播と呼ばれる)
  • 重みとバイアスを更新する(バックプロパゲーションと呼ばれる)

次のフローチャートはこのプロセスを示しています。

2. フォワードプロパゲーション

上の図からわかるように、フォワードパスは単なる単純な計算です。基本的な 2 層ニューラル ネットワークの場合、ニューラル ネットワークの出力は次のように計算されます。

これは、Python コードに順方向伝播関数を追加することで実現できます。簡単にするために、バイアスは 0 であると仮定します。

  1. クラス NeuralNetwork:
  2. __init__(self, x, y)を定義します。
  3. 自己入力= x  
  4. 自己重み1 = np.random.rand (自己入力形状[1],4)
  5. 自己重み2 = np.ランダム.rand (4,1)
  6. 自己.y = y
  7. self.output = np.zeros (self.y.shape)
  8.  
  9. defフィードフォワード(自己):
  10. self.layer1 =シグモイド(np.dot(self.input, self.weights1))
  11. self.output =シグモイド(np.dot(self.layer1, self.weights2))

しかし、予測の「良さ」を評価する方法(つまり、予測が実際の値からどれだけ離れているか)がまだ必要です。ここで損失関数が登場します。

3. 損失​​関数

損失関数には多くの種類があり、問題の性質に応じてどの損失関数を使用するかが決まります。この記事では、単純な二乗誤差の合計を使用します。

二乗誤差の合計は、各予測値と実際の値の間の差の平均です。この差は二乗されるので、差の絶対値を測定します。

トレーニング中の目標は、損失関数を最小化する最適な重みとバイアスのセットを見つけることです。

4. バックプロパゲーション

エラーを予測する方法 (損失関数) が見つかったので、重みとバイアスを更新するためにエラーを「伝播」する方法が必要です。

重みとバイアスの調整に適切な値を決定するには、重みとバイアスに関する損失関数の偏導関数を知る必要があります。

微積分の観点から見ると、関数の偏微分は関数の傾きです。

勾配降下法アルゴリズム

偏導関数がわかっている場合は、偏導関数を加算または減算するだけで重みとバイアスを更新できます (上の図を参照)。これを勾配降下法と呼びます。

ただし、損失関数の式には重みとバイアスが含まれていないため、重みとバイアスに関する損失関数の偏導関数を直接計算することはできません。したがって、計算を支援するためにチェーンルールが必要になります。

上記は、重みに関する損失関数の偏微分を計算するための連鎖律です。簡単にするために、ニューラル ネットワークの 1 つの層の偏微分のみを示します。

ふう!見た目は良くありませんが、必要な情報、つまり重みに対する損失関数の偏微分(傾き)が得られるので、それに応じて重みを調整できます。

連鎖律の式ができたので、バックプロパゲーション関数を Python コードに追加しましょう。

  1. クラス NeuralNetwork:
  2. __init__(self, x, y)を定義します。
  3. 自己入力= x  
  4. 自己重み1 = np.random.rand (自己入力形状[1],4)
  5. 自己重み2 = np.ランダム.rand (4,1)
  6. 自己.y = y
  7. self.output = np.zeros (self.y.shape)
  8.  
  9. defフィードフォワード(自己):
  10. self.layer1 =シグモイド(np.dot(self.input, self.weights1))
  11. self.output =シグモイド(np.dot(self.layer1, self.weights2))
  12.  
  13. defバックプロパゲーション(self):
  14. # 連鎖律を適用して、重み2と重み1に関する損失関数の導関数を求める
  15. d_weights2 = np .dot(self.layer1.T, (2*(self.y - self.output) * sigmoid_derivative(self.output)))
  16. d_weights1 = np .dot(self.input.T, (np.dot(2*(self.y - self.output) * sigmoid_derivative(self.output), self.weights2.T) * sigmoid_derivative(self.layer1)))
  17.  
  18. # 損失関数の導関数(傾き)で重みを更新します
  19. 自己の重み1 += d_重み1
  20. 自己の重み2 += d_重み2

統合

順方向伝播と逆方向伝播の両方を実行するための完全な Python コードができたので、ニューラル ネットワークを例に適用して、そのパフォーマンスを確認できます。

私たちのニューラル ネットワークは、この関数を表す理想的な重みのセットを学習できるはずです。検査だけで重みを計算するのは簡単ではないことに注意してください。

ニューラル ネットワークを 1500 回繰り返し実行すると何が起こるかを見てみましょう。下の図は、各反復における損失関数の値を示しています。損失関数が最小値まで単調に減少していることが明確にわかります。これは、先ほど説明した勾配降下アルゴリズムと一致しています。

1500 回の反復後のニューラル ネットワークの最終予測 (出力) を見てみましょう。

1500回の反復後の予測

成功しました! フォワードプロパゲーションとバックプロパゲーションのアルゴリズムによりニューラル ネットワークのトレーニングに成功し、予測が真の値に収束しました。

予測値と実際の値の間にはまだ若干の差があることに注意してください。これは、過剰適合を防ぎ、ニューラル ネットワークをより一般化できるため望ましいことです。

3. 次のステップ

幸いなことに、私たちの探求はまだ終わっていません。ニューラル ネットワークとディープラーニングについては、まだ学ぶべきことがたくさんあります。例えば:

  • シグモイド関数以外にどのような活性化関数を使用できますか?
  • ニューラルネットワークのトレーニング時に学習率を使用する
  • 画像分類タスクに畳み込みを使用する

4. ***いくつかの考え

この記事を書いている間に私は多くのことを学びました。皆さんにも役立つことを願っています。

ニューラル ネットワークの内部の仕組みを完全に理解していなくても、TensorFlow や Keras などのディープラーニング ライブラリを使用してディープ ネットワークを構築するのは簡単ですが、データ サイエンティストを目指す人にとっては、ニューラル ネットワークについてより深く理解しておくことは有益であると思います。

オリジナルリンク:

https://towardsdatascience.com/how-to-build-your-own-neural-network-from-scratch-in-python-68998a08e4f6

[この記事は51CTOコラム「Machine Heart」、WeChatパブリックアカウント「Machine Heart(id:almosthuman2014)」によるオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  人工知能は進歩しすぎているのでしょうか?この記事を読めば、誰もが人工知能の歴史を理解できる

>>:  人工知能を活用してビジネスを拡大するための 5 つの戦略

ブログ    

推薦する

中国移動研究所のチャン・ヤオビン氏:AI時代の技術マネージャーとして、戦闘能力とは何でしょうか?

[[260907]] [[260908]] AIはさまざまな産業に大きな変化をもたらします。よりイ...

マイクロソフトはWindows 11の組み込みアプリにAI機能を導入すると報じられている。写真、スクリーンショット、描画などに新しい機能が追加される。

8月23日、マイクロソフトは過去1年間で人工知能の分野で大きな進歩を遂げており、同社の新製品のほぼ...

...

...

...

AIコピーライティングの11のメリット

この記事では、AI がコピーライターにもたらす 11 のメリットの一部と、次のプロジェクトで AI ...

AIは生成的敵対ネットワークを使用して、笑顔、悲しみ、怒り、驚きなどの個別の顔の属性を生成します。

人工知能は、生成的敵対的ネットワークを使用して、笑顔、悲しみ、怒り、驚きなどの個別の顔の属性を生成し...

マーケターが人工知能を採用する時が来た

[[275753]] [51CTO.com クイック翻訳] あらゆる業界の先進的な企業は、人工知能を...

清華大学の卒業生は大きな貢献をしました! Google、14のタスクで初の大規模一般医療モデルSOTAをリリース

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

機械学習は 5G ネットワークにどのように役立ちますか?

機械学習機械学習は、コンピューティング システムの能力の向上とデータの可用性の向上により、過去 10...

将来、ロボットは人間よりもはるかに強力になります。ロボットは人間に反抗するでしょうか?

私たちは長い間、ロボットを私たちの世界から締め出すことができるのか、あるいは人間は人工知能(あるいは...

OpenAIはMicrosoftに対抗するためChatGPTパーソナルアシスタントの発売を計画

6 月 27 日のニュース: わずか半年で、ChatGPT は世界で最も有名なインターネット ブラン...

rsyncのコアアルゴリズム

Rsync は、Unix/Linux でファイルを同期するための効率的なアルゴリズムです。2 台のコ...

清華大学とハルビン工業大学は大規模なモデルを 1 ビットに圧縮し、携帯電話で大規模なモデルを実行するという夢が実現しつつあります。

ビッグモデルが普及して以来、ビッグモデルを圧縮したいという人々の欲求は減ることはありません。大規模モ...