ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主にニューラル ネットワークの基本的な理論的概念と計算について簡単に紹介します。同時に、データ分類におけるニューラル ネットワークの応用についても紹介します。
まず、回帰モデルまたは分類モデルを構築するときに、残差誤差を最小限に抑えるために、最小二乗法 (OLS) または平均尤度推定法 (MLE) のいずれかが使用されます。したがって、モデルを構築するときには損失関数が存在します。 ニューラル ネットワークも例外ではなく、同様の損失関数を持ちます。 回帰の場合: 分類について: 次に、同じ方法を使用して W を微分し、導関数がゼロのときに極値を見つけることができます。 式中のWについて。ここでは、3 層のニューラル ネットワークを例に挙げます。まず、ニューラル ネットワークの関連パラメータを紹介しましょう。 最初の層は入力層、2 番目の層は隠れ層、3 番目の層は出力層です。 X1 と X2 は W1 によって重み付けされた後、隠れ層に到達し、次に W2 によって重み付けされて出力層に到達します。 で、 我々は持っています: これまでに、基本的な 3 層ニューラル ネットワークを構築しました。 損失関数を最小化したい場合は、その逆を見つける必要があります。これをバックプロパゲーションと呼びます。 W1 と W2 を別々に微分し、それぞれの極値を見つける必要があります。 右辺から逆算して、まず W2 を導出します。 損失関数の式に代入します。 次に、簡略化します。 ここまで簡略化した後、同様に W1 の導関数も取ることができます。 BP ネットワークを実行すると、損失関数の最終的なサイズを決定する逆誤差項があることがわかります。 実際の計算では、勾配解法を使用して極値点を探します。 要約すると、順方向伝播を使用してニューラル ネットワークを合理化し、回帰モデルと分類モデルを実現します。そして、損失関数を逆方向に計算すると、パラメーター W が最適解を持つようになります。 もちろん、線形回帰などのモデルと同様に、正規化項を追加して W パラメーターを制約し、モデルの偏差が小さすぎてテスト セットのパフォーマンスが低下するのを防ぐこともできます。 Python実装: KERASライブラリの使用 線形回帰を解く:
多重分類問題の解決:
最適なパラメータを選択すると、解決方法は多数あります。ここでは、設定されたすべてのパラメータを走査して最適なパラメータを取得するブルートフォース検索方法である gridsearchcv という方法を紹介します。
|
>>: すべてのデータ サイエンティストが知っておくべき 19 の機械学習アルゴリズム
AESアルゴリズムAES (Advanced Encryption Standard) は、2001...
ChatGPT は WeChat や DingTalk のようなフル機能のアプリになるのでしょうか?...
認知科学の分野では、人間が継続的な学習を通じて認知を変化させるプロセスを認知ダイナミクスと呼びます。...
デジタル メディアはほぼすべての人の日常生活に浸透し、私たちのあらゆる活動に永続的な影響を及ぼしてい...
高い信号対雑音比を備えた蛍光イメージングは、生物学的現象の正確な可視化と分析の基礎となっています...
導入いくつかの一般的なオプティマイザーを紹介し、その長所と短所を分析し、オプティマイザーを選択するた...
近年、インターネットの急速な発展に伴い、通信ニーズが継続的に高まり始めており、通信保証能力がますます...
アルゴリズムの中心的な問題はソートと検索です。これら 2 つの分野は最も広く使用され、最も徹底的に研...
こんにちは、みんな。短い動画を見ているときに、こんな動画を見たことはありませんか?動画の中で、人物の...
NeurIPS は世界で最も権威のある AI 学術会議の 1 つです。正式名称は Neural I...