ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主にニューラル ネットワークの基本的な理論的概念と計算について簡単に紹介します。同時に、データ分類におけるニューラル ネットワークの応用についても紹介します。
まず、回帰モデルまたは分類モデルを構築するときに、残差誤差を最小限に抑えるために、最小二乗法 (OLS) または平均尤度推定法 (MLE) のいずれかが使用されます。したがって、モデルを構築するときには損失関数が存在します。 ニューラル ネットワークも例外ではなく、同様の損失関数を持ちます。 回帰の場合: 分類について: 次に、同じ方法を使用して W を微分し、導関数がゼロのときに極値を見つけることができます。 式中のWについて。ここでは、3 層のニューラル ネットワークを例に挙げます。まず、ニューラル ネットワークの関連パラメータを紹介しましょう。 最初の層は入力層、2 番目の層は隠れ層、3 番目の層は出力層です。 X1 と X2 は W1 によって重み付けされた後、隠れ層に到達し、次に W2 によって重み付けされて出力層に到達します。 で、 我々は持っています: これまでに、基本的な 3 層ニューラル ネットワークを構築しました。 損失関数を最小化したい場合は、その逆を見つける必要があります。これをバックプロパゲーションと呼びます。 W1 と W2 を別々に微分し、それぞれの極値を見つける必要があります。 右辺から逆算して、まず W2 を導出します。 損失関数の式に代入します。 次に、簡略化します。 ここまで簡略化した後、同様に W1 の導関数も取ることができます。 BP ネットワークを実行すると、損失関数の最終的なサイズを決定する逆誤差項があることがわかります。 実際の計算では、勾配解法を使用して極値点を探します。 要約すると、順方向伝播を使用してニューラル ネットワークを合理化し、回帰モデルと分類モデルを実現します。そして、損失関数を逆方向に計算すると、パラメーター W が最適解を持つようになります。 もちろん、線形回帰などのモデルと同様に、正規化項を追加して W パラメーターを制約し、モデルの偏差が小さすぎてテスト セットのパフォーマンスが低下するのを防ぐこともできます。 Python実装: KERASライブラリの使用 線形回帰を解く:
多重分類問題の解決:
最適なパラメータを選択すると、解決方法は多数あります。ここでは、設定されたすべてのパラメータを走査して最適なパラメータを取得するブルートフォース検索方法である gridsearchcv という方法を紹介します。
|
>>: すべてのデータ サイエンティストが知っておくべき 19 の機械学習アルゴリズム
11月1日、Baidu Brainは2018年Baidu世界大会の初イベントとしてデビューしました。...
世界はクリーンで安全、かつ手頃な価格で持続可能な電力を緊急に必要としており、各国は化石エネルギーに代...
スマート セキュリティは、新しい AI 機能のおかげで、静的なセキュリティ ビデオ録画からリアルタイ...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
セルフサービス自動販売機自体は目新しいものではないが、販売品目が普通のボトル入り飲料から絞りたてジュ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
海外メディアの報道によると、欧州委員会は最近、企業がEUの規則に違反し、禁止されている人工知能アプリ...
最近、復旦大学の自然言語処理チーム (FudanNLP) が LLM ベースのエージェントに関するレ...
編集者 | イーフェン制作:51CTO テクノロジースタック(WeChat ID:blog)大きな続...
[[436236]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
進化するテクノロジーの世界では、人工知能 (AI) と第 5 世代無線ネットワーク (5G) という...
テクノロジーへの関心と導入が多様化するにつれ、多くの企業が将来の進路を決める岐路に立たされています。...