人工ニューラル ネットワーク (ANN) は、数学的および物理的な方法を使用して人間の脳のニューラル ネットワークを簡素化、抽象化、シミュレートする人工ニューラル ネットワーク モデルです。 これは、ニューロン モデルと BP ニューラル ネットワークを含む、ニューラル ネットワークの簡単な紹介です。 ここでは、機械学習の 3 つの要素であるモデル、戦略、アルゴリズムについて簡単に説明します。 モデルには、非ランダム効果部分 (説明変数と被説明変数の関係、主に機能関係) とランダム効果部分 (外乱項) が含まれます。 戦略とは、最適な目的関数を設定する方法を指します。一般的な目的関数には、線形回帰の残差二乗和、ロジスティック回帰の尤度関数、SVM のヒンジ関数などがあります。 アルゴリズムとは、微分法によって計算したり、数値計算の分野でアルゴリズムを使用して解いたりするなど、目的関数のパラメータを見つける方法です。 ニューラル ネットワークは数値アルゴリズムを使用してパラメータを解決します。つまり、計算されるモデル パラメータは毎回異なります。 1. ニューラルネットワーク 01 ニューロンモデル ニューラル ネットワークの最も基本的なコンポーネントはニューロン モデルです。 各ニューロンは、多入力、単一出力の情報処理ユニットです。入力信号は重み付けされた接続を介して送信され、しきい値と比較して合計入力値を取得し、その後、活性化関数によって処理されて単一の出力が生成されます。 ニューロンの出力は、入力の加重合計に活性化関数を適用した結果です。 ニューロンの活性化関数は、ニューロンにさまざまな情報処理特性を与え、ニューロンの出力と活性化状態の関係を反映します。 今回取り上げる活性化関数は閾値関数(ステップ関数)とシグモイド関数(S型関数)です。 02 単層パーセプトロン パーセプトロンは、単一層の計算ユニットを持つニューラル ネットワークであり、線形に分離可能なバイナリ分類問題を解決するためにのみ使用できます。 多層パーセプトロンには適用できず、隠れ層の予想出力を決定することはできません。 その構造は以前のニューロンモデルに似ています。 活性化関数は、単極性(または双極性)しきい値関数を使用します。 03 BPニューラルネットワーク エラーバックプロパゲーションアルゴリズム(教師あり学習アルゴリズム)を使用してトレーニングされた多層ニューラルネットワークは、BP ニューラルネットワークと呼ばれます。 これは多層フィードフォワード ニューラル ネットワークです。モデルの学習プロセスは、信号の順方向伝播とエラーの逆方向伝播の 2 つのプロセスで構成されます。 順方向伝播中、信号は入力層から各層の加重和として計算され、最終的に各隠れ層を介して出力層に伝達され、出力結果が得られます。出力結果は、期待される結果(監視信号)と比較され、出力誤差が得られます。 エラーバックプロパゲーションは、勾配降下アルゴリズムに従って、隠れ層から入力層まで層ごとにエラーを伝播し、各層のすべてのユニットにエラーを分配して、各ユニットのエラー信号(学習信号)を取得し、それに応じて各ユニットの重みを変更します。 2 つの信号伝播プロセスは継続的に循環され、重みが更新され、最終的に判断条件に基づいてサイクルを終了するかどうかが決定されます。 そのネットワーク構造は、一般的に、入力層、隠し層、出力層を含む単一の隠し層ネットワークです。 活性化関数は通常、シグモイド関数または線形関数を使用します。ここでは、隠れ層と出力層の両方でシグモイド関数を使用します。 2. Python実装 ニューラル ネットワークに明確なトレーニング サンプルが用意された後、ネットワークの入力層のノード数 (説明変数の数) と出力層のノード数 (説明変数の数) が決定されます。 考慮する必要があるのは、隠し層の数と各隠し層内のノードの数です。 この本のデータを使用して、モバイル オフグリッド データのセットを含むいくつかの実践的な実験を実施してみましょう。 モバイル通信ユーザーの消費特性データ、対象分野は解約するかどうかで、分類レベルは 2 つ(はい、いいえ)です。 独立変数には、ユーザーの基本情報、消費された製品情報、ユーザーの消費特性が含まれます。 データを読み取ります。
3000 を超えるユーザー データを含む出力データの概要。 scikit-learn の関数を使用して、データセットをトレーニング セットとテスト セットに分割します。
ニューラル ネットワークでは、データの極端な正規化が必要です。 連続変数は極端な値に標準化する必要があり、カテゴリ変数はダミー変数に変換する必要があります。 このうち、多カテゴリ名義変数はダミー変数に変換する必要がありますが、順序変数とバイナリ変数は変換しないことを選択し、連続変数として扱うことができます。 このデータでは、教育レベルやパッケージの種類は階層変数であり、性別などの変数はバイナリ変数であり、これらはすべて連続変数として扱うことができます。 これは、このデータセットには多重分類名目変数が存在せず、すべてが連続変数として扱えることを意味します。
多層パーセプトロンモデルを構築します。
出力モデル情報は以下の通りです。 次に、トレーニング セットでトレーニングされたモデルを使用して、トレーニング セットとテスト セットで予測を行います。
予測確率、つまりユーザー離脱の確率を出力します。
モデルを評価し、評価データを出力します。
出力は次のようになります。 失われたユーザーのモデルの f1 スコア (精度と再現率の調和平均) は 0.81 であり、これは良好な結果です。 さらに、失われたユーザーに対するリコール感度は 0.83 であり、モデルは失われたユーザーの 83% を識別できるため、モデルの失われたユーザーを識別する能力が許容できることがわかります。 モデルの予測の平均精度を出力します。
平均精度値は0.8282です。 モデルの ROC の下の領域を計算します。
ROC曲線は以下のようになります。 トレーニング セットとテスト セットの曲線は非常に近く、過剰適合現象は発生しません。 AUC 値は 0.9149 であり、モデルが非常にうまく機能していることがわかります。 モデルの *** パラメータ検索を実行し、*** パラメータでモデルをトレーニングします。
最も高いパラメータを持つモデルのケースを出力します。
モデルの roc_auc*** スコアは 0.92 です。つまり、このモデルの ROC 曲線の下の面積は 0.92 です。 前回の0.9149より少し高いです。 モデルの最も重要なパラメータは、relu タイプの活性化関数、アルファが 0.01、隠し層ノードの数が 15 であることです。 モデルの平均予測精度は 0.9169 で、以前の 0.8282 から大幅に改善されています。 |
<<: 人工知能があなたの仕事を奪い、ビッグデータがあなたを「裸」にしてしまう。私たちの未来はどうなるのでしょうか?
>>: ダンスをしたり、音楽を作曲したり、演出したりできる AI を見たことがありますか?
GPT-4のアップデート機能により、AIを使って歴史をシミュレートすることは、単なる「テキストロール...
[[210402]]アメリカのテクノロジーブログ「VentureBeat」によると、11月17日、G...
[[428632]]温室効果ガス削減目標と規制要件を満たすには、企業は施設をエネルギー効率の高いスマ...
[[247418]]人工知能の分野における成果は、誤解されやすく、過大評価されやすい。このことは、人...
夏がまたやって来て、雷雨がまた虫を追い払います。最近では、夏の気温が上昇し続けているため、雨天が多く...
1年前——同システムでは、今後2年間で総注文数が約1億件に達すると予測している。 1 つの MyS...
AIがさまざまな科学分野と融合するにつれ、可能性と課題に満ちた技術革命が起こっています。 AI は...
ボストン・ダイナミクスの創業者マーク・レイバート氏は、スポットロボット犬は将来「家庭で使用できるよう...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
ここ数カ月、国内外のテクノロジー大手は大規模モデルをめぐって動きを見せているが、OpenAIを所有す...