Python ニューラル ネットワークで自動車保険の支出を予測する

Python ニューラル ネットワークで自動車保険の支出を予測する

[[381201]]

新しいデータセット用のニューラル ネットワーク予測モデルの開発は困難な場合があります。

1 つのアプローチは、最初にデータセットを調べて、使用できるモデルのアイデアを開発し、次にデータセット上の単純なモデルの学習ダイナミクスを調査し、最後に堅牢なテスト ハーネスを使用してデータセット用のモデルを開発および調整することです。このプロセスは、分類および回帰予測モデリングの問題に効果的なニューラル ネットワーク モデルを開発するために使用できます。

このチュートリアルでは、スウェーデンの自動車保険回帰データセット用の多層パーセプトロン ニューラル ネットワーク モデルを開発する方法を学びます。このチュートリアルを完了すると、次のことが分かります。

  • スウェーデンの自動車保険データセットを読み込んで要約し、その結果を使用して使用するデータの準備とモデル構成を提案する方法。
  • シンプルな MLP モデルの学習ダイナミクスとデータセット上のデータ変換を探索する方法。
  • モデルのパフォーマンスの信頼性の高い推定値を作成し、モデルのパフォーマンスを調整し、新しいデータに基づいて予測を行う方法。

チュートリアルの概要

このチュートリアルは 4 つのパートに分かれています。彼らです:

  • 自動車保険回帰データセット
  • 最初のMLPと学習ダイナミクス
  • MLPモデルの評価と調整
  • 最終モデルと予測の作成

自動車保険回帰データセット

最初のステップは、データセットを定義して調査することです。 「自動車保険」標準回帰データセットを使用します。このデータセットは、スウェーデンの自動車保険について説明しています。入力変数は請求件数という 1 つのみであり、ターゲット変数は請求総額 (スウェーデン クローナ単位) です。目標は、請求件数に基づいて支払総額を予測することです。

データセットの詳細については、こちらをご覧ください:

  • 自動車保険データセット (auto-insurance.csv)
  • 自動車保険データセットの詳細 (auto-insurance.names)

以下にデータセットの最初の数行を示します。

  1. 108,392.5  
  2. 19,46.2  
  3. 13,15.7  
  4. 124,422.2  
  5. 40,119.4

値は数十から数百までの範囲の数値であることがわかります。これは、ニューラル ネットワークを使用してモデル化する場合、データに対して何らかのタイプのスケーリングが適切であることを示唆しています。

データセットを URL から直接 pandas DataFrame として読み込むことができます。例:

  1. # データセットをロードして形状を要約する 
  2. pandasからread_csvをインポートする 
  3. # データセットの場所を定義する 
  4. url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  5. # データセットをロードする 
  6. df = read_csv (url、ヘッダー=なし)  
  7. # 形状を要約する 
  8. 印刷(df.shape)

例を実行すると、データセットが URL から直接読み込まれ、データセットの形状が報告されます。

この場合、このデータセットには 2 つの変数 (1 つの入力と 1 つの出力) があり、データセットには 63 行のデータがあることを確認できます。

これはニューラル ネットワークにとって大量のデータ行ではないため、小規模なネットワーク (おそらく正規化を含む) が適切であると考えられます。

これはまた、k 分割クロス検証を使用することがよいアイデアであることを示唆しています。これは、トレーニング/テスト分割よりも信頼性の高いモデル パフォーマンスの推定値が提供され、単一のモデルを数時間または数日ではなく数秒で適合できるためです。最大のデータセット。

  1. (63、2)

次に、データの要約統計とプロットを見て、データセットについてさらに詳しく知ることができます。

  1. # データセットの要約統計とプロットを表示する 
  2. pandasからread_csvをインポートする 
  3. matplotlibからpyplotをインポートする 
  4. # データセットの場所を定義する 
  5. url = 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  6. # データセットをロードする 
  7. df = read_csv (url、ヘッダー=なし)  
  8. # 概要統計を表示 
  9. 印刷(df.describe())  
  10. # ヒストグラムをプロットする 
  11. df.hist()  
  12. pyplot.show()

例を実行する前に、データをロードし、各変数の要約統計を出力します。

各変数の平均は 10 以内であり、0 から数百の範囲であることがわかります。これは、データをスケーリングすることが良いアイデアである可能性があることを裏付けています。

  1. 0 1  
  2. カウント 63.000000 63.000000  
  3. 平均 22.904762 98.187302  
  4. 標準 23.351946 87.327553  
  5. 最小 0.000000 0.000000  
  6. 25% 7.500000 38.850000  
  7. 50% 14.000000 73.400000  
  8. 75% 29.000000 140.000000  
  9. 最大 124.000000 422.200000

次に、各変数のヒストグラムを作成します。

各変数は同様の分布をしていることがわかります。歪んだガウス分布または指数分布のように見えます。

各変数にべき乗変換を使用すると、確率分布の歪度が低減され、モデルのパフォーマンスが向上する可能性があります。

データセットについて理解できたので、ニューラル ネットワーク モデルの開発方法を調べてみましょう。

最初のMLPと学習ダイナミクス

TensorFlow を使用して、データセットの多層パーセプトロン (MLP) モデルを開発します。このデータセットに対してハイパーパラメータを学習するためのどのモデル アーキテクチャが適切または最適であるかはわかりません。そのため、実験して何がうまく機能するかを見つける必要があります。データセットが小さいと仮定すると、8 行または 16 行などの小さなバッチが適切なアイデアかもしれません。始めるときは、学習率を自動的に適応させ、ほとんどのデータセットでうまく機能するため、確率的勾配降下法の Adam バージョンを使用することをお勧めします。モデルを真剣に評価する前に、学習ダイナミクスを確認し、安定した学習ダイナミクスが得られるまでモデル アーキテクチャと学習構成を微調整してから、モデルを最大限に活用することをお勧めします。

単純なトレーニング/テスト データ分割でこれを実行し、学習曲線のプロットを確認できます。これにより、学習が過剰か不足かを把握し、それに応じて構成を調整できるようになります。まず、データセットを入力変数と出力変数に分割し、次に 67/33 のトレーニング セットとテスト セットに分割します。

  1. # 入力列と出力列に分割 
  2. X, y = df .values[:, :-1], df .values[:, -1]  
  3. # トレーニングデータセットとテストデータセットに分割 
  4. X_train、X_test、y_train、 y_test = train_test_split (X、y、 test_size = 0.33 )

次に、最小限の MLP モデルを定義します。この場合、10 個のノードを持つ 1 つの隠し層と 1 つの出力層 (任意に選択) を使用します。良い習慣として、ReLU 活性化関数と 'he_normal' 重み初期化を隠し層で使用します。

モデルの出力は線形活性化(活性化なし)であり、平均二乗誤差(MSE)損失を最小化します。

  1. # 入力特徴の数を決定する 
  2. n_features = X .shape[1]  
  3. # モデルを定義する 
  4. モデル=シーケンシャル()  
  5. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  6. モデルを追加します(密(1))  
  7. # モデルをコンパイルする 
  8. model.compile(オプティマイザー= 'adam' 損失= 'mse' )

データセットが小さいため、バッチ サイズ 8 で 100 のトレーニング エポック (任意に選択) にモデルを適合させます。私たちは生データにモデルを当てはめていますが、これはおそらく良い考えではないと思いますが、重要な出発点です。

  1. # モデルに適合する 
  2. history = model .fit(X_train, y_train,エポック= 100 batch_size = 8 verbose = 0 validation_data =(X_test,y_test))

トレーニングの最後に、テスト データセットでモデルのパフォーマンスを評価し、パフォーマンスを平均絶対誤差 (MAE) として報告します。通常は MSE または RMSE を使用します。

  1. # テストセットを予測する 
  2. yhat =モデル.予測(X_test)  
  3. # 予測を評価する 
  4. スコア=平均絶対誤差(y_test,yhat)  
  5. print('MAE: %.3f' % スコア)

最後に、トレーニング中のトレーニング セットとテスト セットの MSE 損失の学習曲線をプロットします。

  1. # 学習曲線をプロットする 
  2. pyplot.title('学習曲線')  
  3. pyplot.xlabel('エポック')  
  4. pyplot.ylabel('平均二乗誤差')  
  5. pyplot.plot(history.history['loss'],ラベル= 'train' )  
  6. pyplot.plot(history.history['val_loss'],ラベル= 'val' )  
  7. pyplot.凡例()  
  8. pyplot.show()

以上を踏まえて、自動車保険データセットで最初の MLP を評価した完全な例を以下に示します。

  1. # シンプルな MLP モデルを適合し、学習曲線を確認します 
  2. pandasからread_csvをインポートする 
  3. sklearn.model_selection から train_test_split をインポートします 
  4. sklearn.metricsからmean_absolute_errorをインポートします 
  5. tensorflow.kerasからSequentialをインポートする 
  6. tensorflow.keras.layers から Dense をインポートします 
  7. matplotlibからpyplotをインポートする 
  8. # データセットをロードする 
  9. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  10. df = read_csv (パス、ヘッダー=なし)  
  11. # 入力列と出力列に分割 
  12. X, y = df .values[:, :-1], df .values[:, -1]  
  13. # トレーニングデータセットとテストデータセットに分割 
  14. X_train、X_test、y_train、 y_test = train_test_split (X、y、 test_size = 0.33 )  
  15. # 入力特徴の数を決定する 
  16. n_features = X .shape[1]  
  17. # モデルを定義する 
  18. モデル=シーケンシャル()  
  19. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  20. モデルを追加します(密(1))  
  21. # モデルをコンパイルする 
  22. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  23. # モデルに適合する 
  24. history = model .fit(X_train, y_train,エポック= 100 batch_size = 8 verbose = 0 validation_data =(X_test,y_test))  
  25. # テストセットを予測する 
  26. yhat =モデル.予測(X_test)  
  27. # 予測を評価する 
  28. スコア=平均絶対誤差(y_test,yhat)  
  29. print('MAE: %.3f' % スコア)  
  30. # 学習曲線をプロットする 
  31. pyplot.title('学習曲線')  
  32. pyplot.xlabel('エポック')  
  33. pyplot.ylabel('平均二乗誤差')  
  34. pyplot.plot(history.history['loss'],ラベル= 'train' )  
  35. pyplot.plot(history.history['val_loss'],ラベル= 'val' )  
  36. pyplot.凡例()  
  37. pyplot.show()

例を実行すると、まずトレーニング データセットにモデルを適合させ、次にテスト データセットの MAE を報告します。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、モデルが約 33.2 の MAE を達成していることがわかります。これはパフォーマンスの適切なベースラインであり、おそらく改善できるものです。

  1. 前兆: 33.233

次に、トレーニング セットとテスト セットの MSE の折れ線グラフを作成します。

モデルの適合度が高く、収束も良好であることがわかります。モデルの構成は良い出発点となります。

これまでのところ、学習の勢いは良好ですが、MAE は大まかな推定値であり、信頼すべきではありません。

おそらく、モデルの容量をわずかに増やすと、同様の学習ダイナミクスが期待できるでしょう。たとえば、8 つのノード (任意に選択) を持つ 2 番目の隠し層を追加し、トレーニング エポックの数を 200 に倍増することができます。

  1. # モデルを定義する 
  2. モデル=シーケンシャル()  
  3. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  4. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  5. モデルを追加します(密(1))  
  6. # モデルをコンパイルする
  7. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  8. # モデルに適合する 
  9. history = model .fit(X_train, y_train,エポック= 200 batch_size = 8 verbose = 0 validation_data =(X_test,y_test))

完全な例は次のとおりです。

  1. # より深いMLPモデルを適合させ、学習曲線を確認する 
  2. pandasからread_csvをインポートする 
  3. sklearn.model_selection から train_test_split をインポートします 
  4. sklearn.metricsからmean_absolute_errorをインポートします 
  5. tensorflow.kerasからSequentialをインポートする 
  6. tensorflow.keras.layers から Dense をインポートします 
  7. matplotlibからpyplotをインポートする
  8. # データセットをロードする 
  9. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  10. df = read_csv (パス、ヘッダー=なし)  
  11. # 入力列と出力列に分割 
  12. X, y = df .values[:, :-1], df .values[:, -1]  
  13. # トレーニングデータセットとテストデータセットに分割 
  14. X_train、X_test、y_train、 y_test = train_test_split (X、y、 test_size = 0.33 )  
  15. # 入力特徴の数を決定する 
  16. n_features = X .shape[1]  
  17. # モデルを定義する 
  18. モデル=シーケンシャル()  
  19. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  20. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  21. モデルを追加します(密(1))  
  22. # モデルをコンパイルする 
  23. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  24. # モデルに適合する 
  25. history = model .fit(X_train, y_train,エポック= 200 batch_size = 8 verbose = 0 validation_data =(X_test,y_test))  
  26. # テストセットを予測する 
  27. yhat =モデル.予測(X_test)  
  28. # 予測を評価する 
  29. スコア=平均絶対誤差(y_test,yhat)  
  30. print('MAE: %.3f' % スコア)  
  31. # 学習曲線をプロットする 
  32. pyplot.title('学習曲線')  
  33. pyplot.xlabel('エポック')  
  34. pyplot.ylabel('平均二乗誤差')  
  35. pyplot.plot(history.history['loss'],ラベル= 'train' )  
  36. pyplot.plot(history.history['val_loss'],ラベル= 'val' )  
  37. pyplot.凡例()  
  38. pyplot.show()

例を実行すると、まずトレーニング データセットにモデルを適合させ、次にテスト データセットの MAE を報告します。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、MAE が 27.9 程度にわずかに改善されていることがわかりますが、トレーニングとテストの分割における大きなばらつきにより、この評価は信頼できません。

  1. 前兆: 27.939

次に、MSE トレーニング セットとテスト セットの学習曲線をプロットします。予想どおり、モデルは良好な適合を達成し、妥当な反復回数内で収束していることがわかります。

最後に、データを変換して、それが学習ダイナミクスにどのように影響するかを確認します。

この場合、べき乗変換を使用してデータ分布の歪度を減らします。これにより、変数は平均が 0、標準偏差が 1 になるように自動的に標準化されます。これは、ニューラル ネットワークを使用してモデル化する場合に適した方法です。

まず、ターゲット変数が 2 次元配列であることを確認する必要があります。

  1. # ターゲット変数が2次元配列であることを確認する 
  2. y_train、 y_test = y_train.reshape ((len(y_train),1)), y_test.reshape((len(y_test),1))

次に、入力変数とターゲット変数に PowerTransformer を適用します。

これは、まず変換をトレーニング データに適合させ、次にトレーニング セットとテスト セットを変換することによって実現できます。

このプロセスは、データ漏洩を防ぐために、入力変数と出力変数に個別に適用されます。

  1. # 入力データの累乗変換 
  2. pt1 =パワートランスフォーマー()  
  3. pt1.fit(X_train)  
  4. X_train = pt1.transform (X_train)  
  5. X_test = pt1.transform (X_test)  
  6. # べき乗変換出力データ 
  7. pt2 =パワートランスフォーマー()  
  8. pt2.fit(y_train)  
  9. y_train = pt2.transform (y_train)  
  10. y_test = pt2.transform (y_test)

その後、データはモデルに適合するために使用されます。

その後、モデルによる予測とテスト セット内の予想されるターゲット値に基づいて変換を反転し、以前と同じように正しいスケールで MAE を計算できます。

  1. # ターゲット変数の逆変換 
  2. y_test = pt2.inverse_transform (y_test)  
  3. yhat = pt2.inverse_transform (yhat)

これらすべてをまとめると、変換されたデータを使用して MLP を適合および評価し、モデルの学習曲線を作成する完全な例が以下になります。

  1. # データ変換を使用して MLP モデルを適合させ、学習曲線を確認します 
  2. pandasからread_csvをインポートする 
  3. sklearn.model_selection から train_test_split をインポートします 
  4. sklearn.metricsからmean_absolute_errorをインポートします
  5. sklearn.preprocessing から PowerTransformer をインポートします 
  6. tensorflow.kerasからSequentialをインポートする 
  7. tensorflow.keras.layers から Dense をインポートします 
  8. matplotlibからpyplotをインポートする 
  9. # データセットをロードする 
  10. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  11. df = read_csv (パス、ヘッダー=なし)  
  12. # 入力列と出力列に分割 
  13. X, y = df .values[:, :-1], df .values[:, -1]  
  14. # トレーニングデータセットとテストデータセットに分割 
  15. X_train、X_test、y_train、 y_test = train_test_split (X、y、 test_size = 0.33 )  
  16. # ターゲット変数が2次元配列であることを確認する 
  17. y_train、 y_test = y_train.reshape ((len(y_train),1)), y_test.reshape((len(y_test),1))  
  18. # 入力データの累乗変換
  19. pt1 =パワートランスフォーマー()  
  20. pt1.fit(X_train)  
  21. X_train = pt1.transform (X_train)  
  22. X_test = pt1.transform (X_test)  
  23. # べき乗変換出力データ 
  24. pt2 =パワートランスフォーマー()  
  25. pt2.fit(y_train)  
  26. y_train = pt2.transform (y_train)  
  27. y_test = pt2.transform (y_test)  
  28. # 入力特徴の数を決定する 
  29. n_features = X .shape[1]  
  30. # モデルを定義する 
  31. モデル=シーケンシャル()  
  32. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  33. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  34. モデルを追加します(密(1))  
  35. # モデルをコンパイルする 
  36. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  37. # モデルに適合する 
  38. history = model .fit(X_train, y_train,エポック= 200 batch_size = 8 verbose = 0 validation_data =(X_test,y_test))  
  39. # テストセットを予測する 
  40. yhat =モデル.予測(X_test)  
  41. # ターゲット変数の逆変換 
  42. y_test = pt2.inverse_transform (y_test)  
  43. yhat = pt2.inverse_transform (yhat)  
  44. # 予測を評価する 
  45. スコア=平均絶対誤差(y_test,yhat)
  46. print('MAE: %.3f' % スコア)  
  47. # 学習曲線をプロットする 
  48. pyplot.title('学習曲線')  
  49. pyplot.xlabel('エポック')  
  50. pyplot.ylabel('平均二乗誤差')  
  51. pyplot.plot(history.history['loss'],ラベル= 'train' )  
  52. pyplot.plot(history.history['val_loss'],ラベル= 'val' )  
  53. pyplot.凡例()  
  54. pyplot.show()

例を実行すると、まずトレーニング データセットにモデルを適合させ、次にテスト データセットの MAE を報告します。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、モデルは、以前に報告されたパフォーマンスよりも劣るものの、妥当な MAE スコアを達成できます。今のところモデルのパフォーマンスは無視します。

  1. 前: 34.320

学習曲線の折れ線グラフが作成され、モデルが適切な適合を達成し、収束するのに十分な時間があったことが示されました。

データ変換ありとなしの単純な MLP モデルの学習ダイナミクスについてある程度理解できたので、次はモデルのパフォーマンスを評価し、モデルの構成を調整する方法を検討します。

MLPモデルの評価と調整

k 分割クロス検証手順は、非常に遅くなる可能性があるものの、MLP パフォーマンスのより信頼性の高い推定値を提供できます。これは、k 個のモデルを適合して評価する必要があるためです。自動車保険データセットなど、データセットのサイズが小さい場合には、これは問題になりません。 KFold クラスを使用して分割を作成し、各分割を手動で列挙し、モデルを適合させて評価し、プロセスの最後に評価スコアの平均を報告できます。

  1. # クロス検証を準備する 
  2. kfold = Kフォールド(10)  
  3. # 分割を列挙する 
  4. スコア=リスト()  
  5. kfold.split(X, y) の train_ix、test_ix の場合:  
  6. # モデルを適合して評価します...  
  7. ...  
  8. ...  
  9. # すべてのスコアを要約する 
  10. print('平均MAE: %.3f (%.3f)' % (平均(スコア), 標準偏差(スコア)))

このフレームワークを使用すると、さまざまなデータ準備、モデル アーキテクチャ、学習構成にわたって MLP モデルのパフォーマンスの信頼性の高い推定値を作成できます。

k 分割交差検証を使用してパフォーマンスを評価する前に、まず前のセクションのデータセットに対するモデルの学習ダイナミクスを理解することが重要です。モデルの調整を直接開始すると、良い結果が得られる可能性がありますが、そうでない場合は、モデルのパフォーマンスが過剰または不足している理由がわからない場合があります。

モデルに再度大きな変更を加える場合は、戻ってモデルが適切に収束していることを確認することをお勧めします。

前のセクションの基本的な MLP モデルを評価するこのフレームワークの完全な例を以下に示します。

  1. # 自動車保険回帰データセットの基本モデルの k 分割交差検証 
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. pandasからread_csvをインポートする 
  5. sklearn.model_selectionからKFoldをインポートします 
  6. sklearn.metricsからmean_absolute_errorをインポートします 
  7. tensorflow.kerasからSequentialをインポートする 
  8. tensorflow.keras.layers から Dense をインポートします 
  9. matplotlibからpyplotをインポートする 
  10. # データセットをロードする 
  11. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  12. df = read_csv (パス、ヘッダー=なし)  
  13. # 入力列と出力列に分割 
  14. X, y = df .values[:, :-1], df .values[:, -1]  
  15. # クロス検証を準備する 
  16. kfold = Kフォールド(10)  
  17. # 分割を列挙する 
  18. スコア=リスト()  
  19. kfold.split(X, y) の train_ix、test_ix の場合:  
  20. # データを分割 
  21. X_train、X_test、y_train、 y_test = X [train_ix]、X[test_ix]、y[train_ix]、y[test_ix]  
  22. # 入力特徴の数を決定する 
  23. n_features = X .shape[1]  
  24. # モデルを定義する 
  25. モデル=シーケンシャル()
  26. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  27. モデルを追加します(密(1))  
  28. # モデルをコンパイルする 
  29. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  30. # モデルに適合する
  31. model.fit(X_train、y_train、エポック= 100 バッチサイズ= 8 詳細= 0 )  
  32. # テストセットを予測する 
  33. yhat =モデル.予測(X_test)  
  34. # 予測を評価する 
  35. スコア=平均絶対誤差(y_test,yhat)  
  36. print(' > %.3f' % スコア)  
  37. スコア.append(スコア)  
  38. # すべてのスコアを要約する 
  39. print('平均MAE: %.3f (%.3f)' % (平均(スコア), 標準偏差(スコア)))

例を実行すると、評価プロセスの各反復におけるモデルのパフォーマンスと、実行終了時の MAE の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、MLP モデルの MAE は約 38.913 であることがわかります。

この結果をベースラインとして使用し、より良いパフォーマンスが達成できるかどうかを確認します。

  1. > 27.314  
  2. > 69.577  
  3. > 20.891  
  4. > 14.810  
  5. > 13.412  
  6. > 69.540  
  7. > 25.612  
  8. > 49.508  
  9. > 35.769  
  10. > 62.696  
  11. 平均MAE: 38.913 (21.056)

まず、元のデータセットでより深いモデルを評価して、ベースライン モデルよりもパフォーマンスが優れているかどうかを確認してみましょう。

  1. # モデルを定義する 
  2. モデル=シーケンシャル()  
  3. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  4. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))
  5. モデルを追加します(密(1))  
  6. # モデルをコンパイルする 
  7. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  8. # モデルに適合する 
  9. model.fit(X_train、y_train、エポック= 200 バッチサイズ= 8 詳細= 0 )

完全な例は次のとおりです。

  1. # 自動車保険回帰データセットのより深いモデルの k 分割交差検証 
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. pandasからread_csvをインポートする 
  5. sklearn.model_selectionからKFoldをインポートします 
  6. sklearn.metricsからmean_absolute_errorをインポートします 
  7. tensorflow.kerasからSequentialをインポートする 
  8. tensorflow.keras.layers から Dense をインポートします 
  9. matplotlibからpyplotをインポートする 
  10. # データセットをロードする 
  11. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  12. df = read_csv (パス、ヘッダー=なし)  
  13. # 入力列と出力列に分割 
  14. X, y = df .values[:, :-1], df .values[:, -1]  
  15. # クロス検証を準備する 
  16. kfold = Kフォールド(10)  
  17. # 分割を列挙する 
  18. スコア=リスト()  
  19. kfold.split(X, y) の train_ix、test_ix の場合:  
  20. # データを分割 
  21. X_train、X_test、y_train、 y_test = X [train_ix]、X[test_ix]、y[train_ix]、y[test_ix]  
  22. # 入力特徴の数を決定する 
  23. n_features = X .shape[1]  
  24. # モデルを定義する 
  25. モデル=シーケンシャル()  
  26. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  27. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  28. モデルを追加します(密(1))
  29. # モデルをコンパイルする 
  30. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  31. # モデルに適合する 
  32. model.fit(X_train、y_train、エポック= 200 バッチサイズ= 8 詳細= 0 )  
  33. # テストセットを予測する 
  34. yhat =モデル.予測(X_test)  
  35. # 予測を評価する
  36. スコア=平均絶対誤差(y_test,yhat)  
  37. print(' > %.3f' % スコア)  
  38. スコア.append(スコア)  
  39. # すべてのスコアを要約する 
  40. print('平均MAE: %.3f (%.3f)' % (平均(スコア), 標準偏差(スコア)))

実行では、実行終了時の MAE の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、MLP モデルは約 35.384 の MAE を取得し、これは約 38.913 の MAE を取得するベースライン モデルよりもわずかに優れていることがわかります。

  1. 平均MAE: 35.384 (14.951)

次に、前のセクションと同じモデルで、入力変数とターゲット変数のべき乗変換を試してみましょう。

完全な例を以下に示します。

  1. # データ変換によるより深いモデルの k 分割交差検証 
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. pandasからread_csvをインポートする 
  5. sklearn.model_selectionからKFoldをインポートします 
  6. sklearn.metricsからmean_absolute_errorをインポートします 
  7. sklearn.preprocessing から PowerTransformer をインポートします 
  8. tensorflow.kerasからSequentialをインポートする 
  9. tensorflow.keras.layers から Dense をインポートします 
  10. matplotlibからpyplotをインポートする 
  11. # データセットをロードする
  12. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  13. df = read_csv (パス、ヘッダー=なし)  
  14. # 入力列と出力列に分割 
  15. X, y = df .values[:, :-1], df .values[:, -1]  
  16. # クロス検証を準備する 
  17. kfold = Kフォールド(10)  
  18. # 分割を列挙する 
  19. スコア=リスト()  
  20. kfold.split(X, y) の train_ix、test_ix の場合:  
  21. # データを分割 
  22. X_train、X_test、y_train、 y_test = X [train_ix]、X[test_ix]、y[train_ix]、y[test_ix]  
  23. # ターゲットが2次元配列であることを確認する 
  24. y_train、 y_test = y_train.reshape ((len(y_train),1)), y_test.reshape((len(y_test),1))  
  25. # 入力データを準備する 
  26. pt1 =パワートランスフォーマー()  
  27. pt1.fit(X_train)  
  28. X_train = pt1.transform (X_train)  
  29. X_test = pt1.transform (X_test)  
  30. # ターゲットを準備する 
  31. pt2 =パワートランスフォーマー()  
  32. pt2.fit(y_train)  
  33. y_train = pt2.transform (y_train)  
  34. y_test = pt2.transform (y_test)  
  35. # 入力特徴の数を決定する 
  36. n_features = X .shape[1]  
  37. # モデルを定義する 
  38. モデル=シーケンシャル()
  39. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  40. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  41. モデルを追加します(密(1))  
  42. # モデルをコンパイルする 
  43. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  44. # モデルに適合する 
  45. model.fit(X_train、y_train、エポック= 200 バッチサイズ= 8 詳細= 0 )  
  46. # テストセットを予測する 
  47. yhat =モデル.予測(X_test)  
  48. # 逆変換 
  49. y_test = pt2.inverse_transform (y_test)  
  50. yhat = pt2.inverse_transform (yhat)  
  51. # 予測を評価する 
  52. スコア=平均絶対誤差(y_test,yhat)  
  53. print(' > %.3f' % スコア)  
  54. スコア.append(スコア)  
  55. # すべてのスコアを要約する 
  56. print('平均MAE: %.3f (%.3f)' % (平均(スコア), 標準偏差(スコア)))

実行では、実行終了時の MAE の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、MLP モデルは約 37.371 の MAE を取得していることがわかります。これはベースライン モデルよりは優れていますが、より深いベースライン モデルよりは優れていません。

おそらく、この変化は当初考えていたほど有益ではないかもしれません。

  1. 平均MAE: 37.371 (29.326)

もう 1 つの変換は、入力変数とターゲット変数を正規化することです。

これは、各変数の値を範囲[0, 1]にスケーリングすることを意味します。これを実現するには MinMaxScaler を使用できます。例えば:

  1. # 入力データを準備する 
  2. pt1 =最小最大スケーラー()  
  3. pt1.fit(X_train)  
  4. X_train = pt1.transform (X_train)  
  5. X_test = pt1.transform (X_test)  
  6. # ターゲットを準備する 
  7. pt2 =最小最大スケーラー()  
  8. pt2.fit(y_train)
  9. y_train = pt2.transform (y_train)  
  10. y_test = pt2.transform (y_test)

これらすべてをまとめると、データ正規化を使用してより深い MLP を評価する完全な例が以下にリストされます。

  1. # 正規化変換によるより深いモデルの k 分割交差検証 
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. pandasからread_csvをインポートする 
  5. sklearn.model_selectionからKFoldをインポートします 
  6. sklearn.metricsからmean_absolute_errorをインポートします 
  7. sklearn.preprocessing から MinMaxScaler をインポートします 
  8. tensorflow.kerasからSequentialをインポートする 
  9. tensorflow.keras.layers から Dense をインポートします 
  10. matplotlibからpyplotをインポートする 
  11. # データセットをロードする 
  12. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  13. df = read_csv (パス、ヘッダー=なし)  
  14. # 入力列と出力列に分割 
  15. X, y = df .values[:, :-1], df .values[:, -1]  
  16. # クロス検証を準備する 
  17. kfold = Kフォールド(10)  
  18. # 分割を列挙する 
  19. スコア=リスト()  
  20. kfold.split(X, y) の train_ix、test_ix の場合:  
  21. # データを分割 
  22. X_train、X_test、y_train、 y_test = X [train_ix]、X[test_ix]、y[train_ix]、y[test_ix]  
  23. # ターゲットが2次元配列であることを確認する 
  24. y_train、 y_test = y_train.reshape ((len(y_train),1)), y_test.reshape((len(y_test),1))  
  25. # 入力データを準備する 
  26. pt1 =最小最大スケーラー()  
  27. pt1.fit(X_train)  
  28. X_train = pt1.transform (X_train)  
  29. X_test = pt1.transform (X_test)  
  30. # ターゲットを準備する 
  31. pt2 =最小最大スケーラー()  
  32. pt2.fit(y_train)  
  33. y_train = pt2.transform (y_train)  
  34. y_test = pt2.transform (y_test)  
  35. # 入力特徴の数を決定する 
  36. n_features = X .shape[1]  
  37. # モデルを定義する 
  38. モデル=シーケンシャル()  
  39. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  40. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  41. モデルを追加します(密(1))  
  42. # モデルをコンパイルする 
  43. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  44. # モデルに適合する 
  45. model.fit(X_train、y_train、エポック= 200 バッチサイズ= 8 詳細= 0 )  
  46. # テストセットを予測する
  47. yhat =モデル.予測(X_test)  
  48. # 逆変換 
  49. y_test = pt2.inverse_transform (y_test)  
  50. yhat = pt2.inverse_transform (yhat)  
  51. # 予測を評価する 
  52. スコア=平均絶対誤差(y_test,yhat)  
  53. print(' > %.3f' % スコア)  
  54. スコア.append(スコア)  
  55. # すべてのスコアを要約する 
  56. print('平均MAE: %.3f (%.3f)' % (平均(スコア), 標準偏差(スコア)))

実行では、実行終了時の MAE の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、MLP モデルは約 30.388 の MAE を達成していることがわかります。これは、これまで試した他のどの構成よりも優れています。

  1. 平均MAE: 30.388 (14.258)

モデル アーキテクチャの代替構成 (ノードまたはレイヤーの増減)、ハイパーパラメータの学習 (バッチの増減)、およびデータ変換を引き続きテストできます。

これを練習として残しておきますので、何が見つかったか教えてください。より良い結果を得ることができますか?

結果を下のコメント欄に投稿してください。どんな結果になるかぜひ見てみたいです。

次に、最終モデルを適合させ、それを使用して予測を行う方法を見てみましょう。

最終モデルと予測の作成

モデル構成を選択したら、利用可能なすべてのデータで最終モデルをトレーニングし、それを使用して新しいデータの予測を行うことができます。この場合、データの正規化を行ったより深いモデルを最終モデルとして使用します。つまり、モデルをファイルに保存する場合は、モデル自体 (予測を行うため)、入力データの変換 (新しい入力データのため)、およびターゲット変数の変換 (新しい予測のため) を保存する必要があります。データセットのトレーニング サブセットではなくデータセット全体に対して、以前と同じようにデータを準備し、モデルを適合させることは可能です。

  1. # 入力列と出力列に分割 
  2. X, y = df .values[:, :-1], df .values[:, -1]  
  3. # ターゲットが2次元配列であることを確認する 
  4. y y = y.reshape((len(y),1))  
  5. # 入力データを準備する 
  6. pt1 =最小最大スケーラー()  
  7. pt1.フィット(X)  
  8. X = pt1.変換(X)  
  9. # ターゲットを準備する 
  10. pt2 =最小最大スケーラー()  
  11. pt2.フィット(y)  
  12. y = pt2.transform (y)  
  13. # 入力特徴の数を決定する 
  14. n_features = X .shape[1]  
  15. # モデルを定義する 
  16. モデル=シーケンシャル()  
  17. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  18. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  19. モデルを追加します(密(1))  
  20. # モデルをコンパイルする 
  21. model.compile(オプティマイザー= 'adam' 損失= 'mse' )

このモデルを使用して、新しいデータに関する予測を行うことができます。まず、このデータセットの単なる変数である新しいデータ行を定義します。

  1. # 新しいデータの行を定義する 
  2. = [13]

次に、この新しいデータを変換して、モデルへの入力として使用できるようにします。

  1. # 入力データを変換する 
  2. X_new = pt1.transform ([行])

そうすれば予測を立てることができます。

  1. # 予測する 
  2. yhat =モデル.予測(X_new)

次に、予測された変換を反転して、正しいスケールで結果を使用したり解釈したりできるようにします。

  1. # 予測時に変換を反転する 
  2. yhat = pt2.inverse_transform (yhat)

この場合は予測のみを報告します。

  1. # レポート予測 
  2. print('f(%s) = %.3f' % (行、yhat[0]))

要約すると、自動車保険データセットに最終モデルを適合させ、それを使用して新しいデータに対する予測を行う完全な例を次に示します。

  1. # 最終モデルを適合し、新しいデータに対して予測を行います。  
  2. pandasからread_csvをインポートする 
  3. sklearn.model_selectionからKFoldをインポートします 
  4. sklearn.metricsからmean_absolute_errorをインポートします 
  5. sklearn.preprocessing から MinMaxScaler をインポートします 
  6. tensorflow.kerasからSequentialをインポートする 
  7. tensorflow.keras.layers から Dense をインポートします 
  8. # データセットをロードする 
  9. パス= 'https://raw.githubusercontent.com/jbrownlee/Datasets/master/auto-insurance.csv'    
  10. df = read_csv (パス、ヘッダー=なし)  
  11. # 入力列と出力列に分割 
  12. X, y = df .values[:, :-1], df .values[:, -1]  
  13. # ターゲットが2次元配列であることを確認する 
  14. y y = y.reshape((len(y),1))  
  15. # 入力データを準備する 
  16. pt1 =最小最大スケーラー()  
  17. pt1.フィット(X)  
  18. X = pt1.変換(X)  
  19. # ターゲットを準備する 
  20. pt2 =最小最大スケーラー()  
  21. pt2.フィット(y)  
  22. y = pt2.transform (y)  
  23. # 入力特徴の数を決定する 
  24. n_features = X .shape[1]  
  25. # モデルを定義する 
  26. モデル=シーケンシャル()  
  27. model.add(Dense(10, activation = 'relu' , kernel_initializer = 'he_normal' , input_shape =(n_features,)))  
  28. model.add(Dense(8, activation = 'relu' , kernel_initializer = 'he_normal' ))  
  29. モデルを追加します(密(1))  
  30. # モデルをコンパイルする 
  31. model.compile(オプティマイザー= 'adam' 損失= 'mse' )  
  32. # モデルに適合する 
  33. model.fit(X, y,エポック= 200 バッチサイズ= 8 詳細= 0 )  
  34. # 新しいデータの行を定義する 
  35. = [13]  
  36. # 入力データを変換する 
  37. X_new = pt1.transform ([行])  
  38. # 予測する 
  39. yhat =モデル.予測(X_new)  
  40. # 予測時に変換を反転する 
  41. yhat = pt2.inverse_transform (yhat)  
  42. # レポート予測 
  43. print('f(%s) = %.3f' % (行、yhat[0]))

例を実行すると、モデルがデータセット全体に適合し、単一の新しいデータ行に対して予測が行われます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、入力が 13 の場合、出力は 62 (スウェーデン クローナ 1000 単位) になります。

  1. f([13]) = 62.595

<<:  人工知能とモノのインターネットを組み合わせた5つの技術応用トレンド

>>:  人工知能はノーベル賞レベルにまで発展した

ブログ    
ブログ    

推薦する

詳細レポート: ビッグモデルが AI を全面的に加速させます!黄金の10年が始まる

過去70年間に「3つの上昇と2つの下降」を経験した後、基盤となるチップ、コンピューティングパワー、デ...

PG&E、AIを活用して山火事のリスクを軽減

2018年、パシフィック・ガス・アンド・エレクトリック(PG&E)の送電線の故障により発生し...

テクノロジー大手が自動運転市場への参入を急いでいる背景に、あなたが知らないことは何でしょうか?

ファーウェイは最近、「自動運転ネットワークソリューション白書」を発表しました。これは、将来のネットワ...

2021 年に AI と ML に参入する前に知っておくべき 10 のこと

高度な新しい AI アルゴリズムを使用して複雑な問題を解決し、高い給料を得られるというのは魅力的に思...

...

大型モデルでも「ドリフト」現象は発生しますか? AIアプリケーション開発者は注意が必要

データセンターでの機械学習プロジェクトの開発に精通している読者は、データドリフトとコンセプトドリフト...

女性の死因第1位である乳がんをディープラーニングで検出するにはどうすればいいのでしょうか?

[51CTO.com からのオリジナル記事] 乳がんは女性に最も多く見られる浸潤がんであり、女性の...

モバイルインターネット開発における人工知能技術の応用

[[189519]]インテリジェントな需要は2つの側面に反映されるモバイル インターネットの発展が新...

Python はとても使いやすいです! AI初心者でもすぐに顔検出を体験

[[423040]] Pythonを使用してAI認識テストを実行します。具体的な方法は、リアルタイム...

...

交通分野におけるUAV航空調査の応用

ドローン航空調査は、無線遠隔制御装置と自己完結型プログラム制御装置によって制御される無人航空機であり...

Facebookは、さまざまな機械学習の問題に適用できる、勾配フリー最適化のためのオープンソースツール「Nevergrad」をリリースしました。

自然言語処理や画像分類から翻訳など、ほとんどの機械学習タスクは、モデル内のパラメータやハイパーパラメ...

...

機械学習におけるラベル漏洩とそれがモデルのパフォーマンスに与える影響について紹介します

優れた、またはほぼ優れたモデルのパフォーマンスに圧倒されていますか? あなたの幸せは裏切られています...

...