ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主にニューラル ネットワークの基本的な理論的概念と計算について簡単に紹介します。同時に、データ分類におけるニューラル ネットワークの応用についても紹介します。
まず、回帰モデルまたは分類モデルを構築するときに、残差誤差を最小限に抑えるために、最小二乗法 (OLS) または平均尤度推定法 (MLE) のいずれかが使用されます。したがって、モデルを構築するときには損失関数が存在します。 ニューラル ネットワークも例外ではなく、同様の損失関数を持ちます。 回帰の場合: 分類について: 次に、同じ方法を使用して W を微分し、導関数がゼロのときに極値を見つけることができます。 式中のWについて。ここでは、3 層のニューラル ネットワークを例に挙げます。まず、ニューラル ネットワークの関連パラメータを紹介しましょう。 最初の層は入力層、2 番目の層は隠れ層、3 番目の層は出力層です。 X1 と X2 は W1 によって重み付けされた後、隠れ層に到達し、次に W2 によって重み付けされて出力層に到達します。 で、 我々は持っています: これまでに、基本的な 3 層ニューラル ネットワークを構築しました。 損失関数を最小化したい場合は、その逆を見つける必要があります。これをバックプロパゲーションと呼びます。 W1 と W2 を別々に微分し、それぞれの極値を見つける必要があります。 右辺から逆算して、まず W2 を導出します。 損失関数の式に代入します。 次に、簡略化します。 ここまで簡略化した後、同様に W1 の導関数も取ることができます。 BP ネットワークを実行すると、損失関数の最終的なサイズを決定する逆誤差項があることがわかります。 実際の計算では、勾配解法を使用して極値点を探します。 要約すると、順方向伝播を使用してニューラル ネットワークを合理化し、回帰モデルと分類モデルを実現します。そして、損失関数を逆方向に計算すると、パラメーター W が最適解を持つようになります。 もちろん、線形回帰などのモデルと同様に、正規化項を追加して W パラメーターを制約し、モデルの偏差が小さすぎてテスト セットのパフォーマンスが低下するのを防ぐこともできます。 Python実装: KERASライブラリの使用 線形回帰を解く:
多重分類問題の解決:
最適なパラメータを選択すると、解決方法は多数あります。ここでは、設定されたすべてのパラメータを走査して最適なパラメータを取得するブルートフォース検索方法である gridsearchcv という方法を紹介します。
|
>>: すべてのデータ サイエンティストが知っておくべき 19 の機械学習アルゴリズム
1年前の今日、ChatGPTが誕生し、人工知能の新しい時代が到来したように思えました。 ChatG...
[[192381]]はい、39 ドルの Raspberry Pi ボードで TensorFlow ...
[[213487]] 2017年、人工知能(AI)は職場でも家庭でも、ほとんどの人々の日常生活の一...
最近、ChatGPT を使用しているときに小さな問題に遭遇しました。特殊な状況のため、syslog ...
機械学習により、人間が設計した固定されたプログラムでは解決が難しい問題を解決できるようになります。科...
[51CTO.com からのオリジナル記事] 今年は Global Mobile Internet ...
人間関係を構築するのに優れているのは人間か人工知能か?実際、この革新的な技術は長い間存在していました...
このほど、Synced Machine Intelligenceが主催する「AI China」Syn...
人工知能の黄金の10年基礎技術は基本的に安定しており、拡大シナリオは流行の10年を迎えています。中国...
自動化されたセキュリティの将来には機械学習が関与するでしょう。人工知能と機械学習の進歩により、ロボッ...
「欧州OpenAI」の「最強の7Bオープンソースモデル」であるMistralは、最近、数え切れないほ...