5 分で機械学習モデルのハイパーパラメータを最適化するマスターマニュアル

5 分で機械学習モデルのハイパーパラメータを最適化するマスターマニュアル

[[396168]]

機械学習アルゴリズムには、特定のデータセットに合わせて調整できるハイパーパラメータがあります。

ハイパーパラメータの効果は一般的に理解されていますが、データセットへの具体的な影響や学習中の相互作用は不明な場合があります。したがって、機械学習プロジェクトの一環として、アルゴリズムのハイパーパラメータの値を調整することが重要です。

ハイパーパラメータは、グリッド検索やランダム検索などの単純な最適化アルゴリズムを使用して調整されることが多いです。別のアプローチは、ランダム化ヒルクライミングなどのランダム化最適化アルゴリズムを使用することです。

このチュートリアルでは、機械学習アルゴリズムのハイパーパラメータを手動で最適化する方法を学びます。このチュートリアルを完了すると、次のことが分かります。

  • ハイパーパラメータの最適化には、グリッドとランダム検索の代わりにランダム化最適化アルゴリズムを使用できます。
  • ランダム化ヒルクライミングを使用してパーセプトロン アルゴリズムのハイパーパラメータを調整する方法。
  • XGBoost 勾配ブースティング アルゴリズムのハイパーパラメータを手動で最適化する方法。

チュートリアルの概要

このチュートリアルは、次の 3 つの部分に分かれています。

  • 手動ハイパーパラメータ最適化
  • パーセプトロンハイパーパラメータ最適化
  • XGBoost ハイパーパラメータの最適化

手動ハイパーパラメータ最適化

機械学習モデルには、データセットに合わせてモデルをカスタマイズするために設定する必要があるハイパーパラメータがあります。通常、ハイパーパラメータがモデルに及ぼす一般的な影響はわかっていますが、特定のデータセットと相互作用するハイパーパラメータの組み合わせに対してハイパーパラメータを最適に設定する方法は困難です。より良いアプローチは、モデルのハイパーパラメータのさまざまな値を客観的に検索し、特定のデータセットでモデルに最適なパフォーマンスをもたらすサブセットを選択することです。これはハイパーパラメータ最適化またはハイパーパラメータチューニングと呼ばれます。使用できる最適化アルゴリズムは多岐にわたりますが、最も単純で一般的な 2 つの方法はランダム検索とグリッド検索です。

ランダム検索。検索空間をハイパーパラメータ値の境界付きドメインとして定義し、このドメイン内のポイントをランダムにサンプリングします。

グリッド検索。検索空間をハイパーパラメータ値のグリッドとして定義し、グリッド内の各位置を評価します。

グリッド検索は、一般的にパフォーマンスが良いドローチェックの組み合わせに最適です。ランダム検索は、直感的に推測できないハイパーパラメータの組み合わせを発見して取得するのに最適ですが、通常は実行に時間がかかります。

ハイパーパラメータ調整のためのグリッドおよびランダム検索の詳細については、チュートリアルを参照してください。

ランダム検索とグリッド検索によるハイパーパラメータの最適化

https://machinelearningmastery.com/hyperparameter-optimization-with-random-search-and-grid-search/

グリッド検索とランダム検索は、任意の最適化を使用して機械学習アルゴリズムのパフォーマンスを調整するために使用できる基本的な最適化アルゴリズムです。たとえば、確率的最適化アルゴリズムが使用される場合があります。これは、良好または優れたパフォーマンスが要求され、モデルを調整するための十分なリソースが利用できる場合に適しています。次に使い方を見てみましょう

パーセプトロンハイパーパラメータ最適化

パーセプトロン アルゴリズムは、最も単純なタイプの人工ニューラル ネットワークです。これは、2 クラス分類問題に使用できる単一ニューロンのモデルであり、後でより大きなネットワークを開発するための基礎を提供します。このセクションでは、パーセプトロン モデルのハイパーパラメータを手動で最適化する方法について説明します。まず、モデルを最適化するための焦点として使用できる合成バイナリ分類問題を定義しましょう。 make_classification() 関数を使用して、1,000 行と 5 つの入力変数を持つバイナリ分類問題を定義できます。次の例では、データセットを作成し、データの形状を要約します。

  1. # バイナリ分類データセットを定義する 
  2. sklearn.datasets から make_classification をインポートします 
  3. #データセットを定義する 
  4. X, y = make_classification ( n_samples = 1000 n_features = 5 n_informative = 2 n_redundant = 1 random_state = 1 )  
  5. # データセットの形状を要約する 
  6. print(X.shape, y.shape)

例を実行すると、作成されたデータセットの形状が出力され、期待どおりであることが確認されます。

  1. (1000, 5) (1000,)

scikit-learn は、Perceptron クラスを通じてパーセプトロン モデルの実装を提供します。

モデルのハイパーパラメータを調整する前に、デフォルトのハイパーパラメータを使用してパフォーマンス ベースラインを確立できます。

RepeatedStratifiedKFold クラスを介して、繰り返し層別 k 分割クロス検証という優れた方法を使用してモデルを評価します。以下に、合成バイナリ分類データセットでデフォルトのハイパーパラメータを使用してパーセプトロン モデルを評価する完全な例を示します。

  1. # バイナリ分類のためのパーセプトロンのデフォルトハイパーパラメータ
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. sklearn.datasets から make_classification をインポートします 
  5. sklearn.model_selection から cross_val_score をインポートします 
  6. sklearn.model_selection から RepeatedStratifiedKFold をインポートします 
  7. sklearn.linear_model から Perceptron をインポートします 
  8. #データセットを定義する 
  9. X, y = make_classification ( n_samples = 1000 n_features = 5 n_informative = 2 n_redundant = 1 random_state = 1 )  
  10. # モデルを定義する 
  11. モデル=パーセプトロン()  
  12. # 評価手順を定義する
  13. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  14. # モデルを評価する
  15. スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  16. # レポート結果 
  17. print('平均精度: %.3f (%.3f)' % (mean(scores), std(scores)))

サンプルレポートを実行すると、モデルが評価され、分類精度の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、デフォルトのハイパーパラメータを持つモデルは約 78.5% の分類精度を達成していることがわかります。

最適化されたハイパーパラメータを使用することで、これよりも優れたパフォーマンスを実現できることを期待しています。

  1. 平均精度: 0.786 (0.069)

次に、ランダム化ヒルクライミングアルゴリズムを使用して、パーセプトロン モデルのハイパーパラメータを最適化します。最適化できるハイパーパラメータは多数ありますが、ここではモデルの学習動作に最も大きな影響を与える可能性が高い 2 つのパラメータに焦点を当てます。彼らです:

  • 学習率(eta0)
  • 正規化(アルファ)

学習率は、予測誤差に基づいてモデルがどの程度更新されるかを制御し、学習の速度を制御します。 eta のデフォルト値は 1.0 です。適切な値は 0 より大きく (たとえば、1e-8 または 1e-10 より大きい)、おそらく 1.0 より小さい必要があります。デフォルトでは、Perceptron は正則化を使用しませんが、学習中に L1 正則化と L2 正則化の両方を適用する「エラスティック ネット」正則化を有効にします。これにより、モデルはより小さなモデル重みを求めるようになり、パフォーマンスが向上する傾向があります。正規化の重みを制御する「アルファ」ハイパーパラメータを調整します。これは学習の量に影響します。 0.0 に設定すると、正規化が使用されていないかのようになります。適切な値は 0.0 ~ 1.0 です。まず、最適化アルゴリズムの目的関数を定義する必要があります。平均分類精度と反復層別 k 分割交差検証を使用して構成を評価します。設定の精度を最大限に高めるよう努めてまいります。次の Objective() 関数は、データセットと構成値のリストを取得してこれを実装します。設定値(学習率と正則化の重み)をアンパックし、それを使用してモデルを設定し、モデルを評価して平均精度を返します。

  1. # 目的関数 
  2. def目標値(X, y, cfg):  
  3. # 設定を解凍する 
  4. η、アルファ= cfg    
  5. # モデルを定義する 
  6. モデル=パーセプトロン(ペナルティ= 'elasticnet' アルファアルファ=alpha、イータeta0 =eta)  
  7. # 評価手順を定義する
  8. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  9. # モデルを評価する 
  10. スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  11. # 平均精度を計算する 
  12. 結果=平均(スコア)  
  13. 結果を返す

次に、検索空間内でステップを踏む関数が必要です。検索空間は 2 つの変数 (eta と alpha) によって定義されます。検索空間内のステップは、前の値と何らかの関係を持ち、適切な値(たとえば、0 から 1 の間)にバインドされている必要があります。 「ステップ サイズ」ハイパーパラメータを使用して、アルゴリズムが既存の構成からどの程度移動できるかを制御します。新しい構成は、現在の値を分布の平均とし、ステップ サイズを分布の標準偏差とするガウス分布を使用して確率的に選択されます。ガウス分布の乱数を生成するには、NumPy 関数 randn() を使用できます。以下の step() 関数はこれを実装し、検索空間内でステップを実行し、既存の構成を使用して新しい構成を生成します。

  1. # 検索スペースに一歩踏み出す 
  2. def step(cfg, step_size):  
  3. # 設定を解凍する 
  4. η、アルファ= cfg    
  5. # ステップ η  
  6. new_eta = eta + randn() * ステップサイズ 
  7. # ηの境界をチェックする 
  8. new_eta < = 0.0の場合:  
  9. 新しい_eta = 1e -8  
  10. # ステップアルファ 
  11. new_alpha = alpha + randn() * step_size  
  12. # アルファの境界をチェックする 
  13. new_alpha <の場合  0.0:    
  14. 新しいアルファ= 0.0  
  15. # 新しい設定を返す 
  16. [new_eta, new_alpha]を返す

次に、ランダム化ヒルクライミングアルゴリズムを実装する必要があります。このアルゴリズムでは、Objective() 関数を呼び出して候補ソリューションを評価し、step() 関数を呼び出して検索空間でステップを実行します。検索は、ランダムな初期ソリューションを生成することから始まります。この場合、eta 値と alpha 値は 0 ~ 1 の範囲になります。その後、最初のソリューションが評価され、現在最も有効なソリューションとみなされます。

  1. # 検索の開始点 
  2. = [rand(), rand()]  
  3. # 初期点を評価する 
  4. solution_eval =目標値(X, y, 解)

次に、アルゴリズムは、検索に提供されるハイパーパラメータである固定回数だけ反復します。各反復では、手順を実行し、新しい候補ソリューションを評価する必要があります。

  1. # 一歩踏み出す
  2. 候補=ステップ(ソリューション、ステップサイズ)  
  3. # 候補ポイントを評価する 
  4. candidate_eval =目標値(X, y, 候補値)

新しいソリューションが現在機能しているソリューションよりも優れている場合は、それが新しい現在機能しているソリューションとみなされます。

  1. # 新しいポイントを保持するかどうかを確認します 
  2. 候補評価> = 解決評価の場合:  
  3. # 新しいポイントを保存する 
  4. 解決策、 solution_eval =候補、candidate_eval  
  5. # 進捗状況を報告する 
  6. print(' > %d, cfg =%s %.5f' % (i, solution, solution_eval))

検索の最後に、最適なソリューションとそのパフォーマンスが返されます。これらすべてをまとめると、次の hillclimbing() 関数は、データセット、目的関数、反復回数、およびステップ サイズをパラメーターとして受け取り、パーセプトロン アルゴリズムを調整するために使用されるランダム化ヒル クライミング アルゴリズムを実装します。

  1. # ヒルクライミング局所探索アルゴリズム 
  2. def hillclimbing(X, y, 目的, n_iter, ステップサイズ):  
  3. # 検索の開始点 
  4. = [rand(), rand()]  
  5. # 初期点を評価する 
  6. solution_eval =目標値(X, y, 解)  
  7. # ヒルクライムを走る 
  8. iが範囲内(n_iter)の場合:
  9.   # 一歩踏み出す 
  10. 候補=ステップ(ソリューション、ステップサイズ)  
  11. # 候補ポイントを評価する 
  12. candidate_eval =目標値(X, y, 候補値)  
  13. # 新しいポイントを保持するかどうかを確認します 
  14. 候補評価> = 解決評価の場合:  
  15. # 新しいポイントを保存する 
  16. 解決策、 solution_eval =候補、candidate_eval  
  17. # 進捗状況を報告する
  18. print(' > %d, cfg =%s %.5f' % (i, solution, solution_eval))  
  19. [ソリューション、ソリューション評価] を返す

その後、アルゴリズムを呼び出して検索結果を報告できます。この場合、アルゴリズムを 100 回繰り返し実行し、試行錯誤の末に選択されたステップ サイズ 0.1 を使用します。

  1. # 合計反復回数を定義する 
  2. 反復回数= 100    
  3. # 探索空間のステップサイズ 
  4. ステップサイズ= 0.1  
  5. # ヒルクライミング検索を実行する 
  6. cfg、スコア=ヒルクライミング(X、y、目標、n_iter、ステップサイズ)  
  7. print('完了しました!')  
  8. print(' cfg =%s: 平均精度: %f' % (cfg, スコア))

すべてをまとめると、パーセプトロン アルゴリズムを手動で調整する完全な例が次のようになります。

  1. # バイナリ分類のパーセプトロンハイパーパラメータを手動で検索する 
  2. numpyからの平均をインポート 
  3. numpy.randomからrandnをインポート 
  4. numpy.randomからrandをインポート 
  5. sklearn.datasets から make_classification をインポートします 
  6. sklearn.model_selection から cross_val_score をインポートします 
  7. sklearn.model_selection から RepeatedStratifiedKFold をインポートします 
  8. sklearn.linear_model から Perceptron をインポートします 
  9. # 目的関数 
  10. 定義目標(X, y, cfg):  
  11. # 設定を解凍する 
  12. η、アルファ= cfg    
  13. # モデルを定義する 
  14. モデル=パーセプトロン(ペナルティ= 'elasticnet' アルファアルファ=alpha、イータeta0 =eta)  
  15. # 評価手順を定義する 
  16. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  17. # モデルを評価する 
  18. スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  19. # 平均精度を計算する 
  20. 結果=平均(スコア)  
  21. 結果を返す 
  22. # 検索スペースに一歩踏み出す 
  23. def step(cfg, step_size):  
  24. # 設定を解凍する
  25. η、アルファ= cfg    
  26. # ステップ η  
  27. new_eta = eta + randn() * ステップサイズ 
  28. # ηの境界をチェックする 
  29. new_eta < = 0.0の場合:  
  30. 新しい_eta = 1e -8  
  31. # ステップアルファ 
  32. new_alpha = alpha + randn() * step_size  
  33. # アルファの境界をチェックする 
  34. new_alpha <の場合  0.0:    
  35. 新しいアルファ= 0.0  
  36. # 新しい設定を返す 
  37. [new_eta, new_alpha]を返す  
  38. # ヒルクライミング局所探索アルゴリズム 
  39. def hillclimbing(X, y, 目的, n_iter, ステップサイズ):  
  40. # 検索の開始点 
  41. = [rand(), rand()]
  42.   # 初期点を評価する 
  43. solution_eval =目標値(X, y, 解)  
  44. # ヒルクライムを走る 
  45. iが範囲内(n_iter)の場合:  
  46. # 一歩踏み出す 
  47. 候補=ステップ(ソリューション、ステップサイズ)  
  48. # 候補ポイントを評価する
  49.   candidate_eval =目標値(X, y, 候補値)  
  50. # 新しいポイントを保持するかどうかを確認します 
  51. 候補評価> = 解決評価の場合:  
  52. # 新しいポイントを保存する 
  53. 解決策、 solution_eval =候補、candidate_eval  
  54. # 進捗状況を報告する 
  55. print(' > %d, cfg =%s %.5f' % (i, solution, solution_eval))  
  56. [ソリューション、ソリューション評価] を返す 
  57. #データセットを定義する 
  58. X, y = make_classification ( n_samples = 1000 n_features = 5 n_informative = 2 n_redundant = 1 random_state = 1 )
  59.   # 合計反復回数を定義する 
  60. 反復回数= 100    
  61. # 探索空間のステップサイズ
  62. ステップサイズ= 0.1  
  63. # ヒルクライミング検索を実行する 
  64. cfg、スコア=ヒルクライミング(X、y、目標、n_iter、ステップサイズ)  
  65. print('完了しました!')
  66. print(' cfg =%s: 平均精度: %f' % (cfg, スコア))

例を実行すると、各検索中に改善が見られるため、構成と結果が報告されます。実行の最後に、最適な構成と結果が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、学習率を 1 よりわずかに高い 1.004 に、正則化重みを約 0.002 にすると最良の結果が得られ、平均精度は約 79.1% となり、デフォルト設定の精度約 78.5% よりも優れていることがわかります。

  1. > 0、 cfg =[0.5827274503894747、0.260872709578015] 0.70533  
  2. > 4、 cfg =[0.5449820307807399、0.3017271170801444] 0.70567  
  3. > 6、 cfg =[0.6286475606495414、0.17499090243915086] 0.71933  
  4. > 7、 cfg =[0.5956196828965779、0.0] 0.78633  
  5. > 8、 cfg =[0.5878361167354715、0.0] 0.78633  
  6. > 10、 cfg =[0.6353507984485595、0.0] 0.78633  
  7. > 13、 cfg =[0.5690530537610675、0.0] 0.78633  
  8. > 17、 cfg =[0.6650936023999641、0.0] 0.78633  
  9. > 22、 cfg =[0.9070451625704087、0.0] 0.78633  
  10. > 23、 cfg =[0.9253366187387938、0.0] 0.78633  
  11. > 26、 cfg =[0.9966143540220266、0.0] 0.78633  
  12. > 31、 cfg =[1.0048613895650054、0.002162219228449132] 0.79133  
  13. 終わり!  
  14. cfg =[1.0048613895650054, 0.002162219228449132]: 平均精度: 0.791333

ランダム化ヒルクライミング法を使用して単純な機械学習アルゴリズムのハイパーパラメータを調整する方法がわかったので、XGBoost などのより高度なアルゴリズムを調整する方法を見てみましょう。

XGBoost ハイパーパラメータの最適化

XGBoost は Extreme Gradient Boosting の略で、確率的勾配ブースティング機械学習アルゴリズムの効果的な実装です。確率的勾配ブースティング アルゴリズム (勾配ブースティング マシンまたはツリー ブースティングとも呼ばれます) は、さまざまな困難な機械学習の問題に対して優れたパフォーマンス、またはクラス最高のパフォーマンスを発揮する強力な機械学習手法です。まず、XGBoost ライブラリをインストールする必要があります。次のように pip を使用してインストールできます。

  1. sudo pip xgboostをインストールします

インストールが完了したら、次のコマンドを実行して、正常にインストールされ、最新バージョンを使用していることを確認できます。

  1. #xgブースト 
  2. xgboostをインポートする 
  3. print("xgboost", xgboost.__version__)

コードを実行すると、次のバージョン番号以上が表示されます。

  1. xgboost 1.0.1

XGBoost ライブラリには独自の Python API がありますが、XGBClassifier ラッパー クラスを通じて scikit-learn API で XGBoost モデルを使用できます。モデルのインスタンスは、他の scikit-learn クラスと同様にインスタンス化して、モデル評価に使用できます。例えば:

  1. # モデルを定義する 
  2. モデル= XGBClassifier ()

XGBoost のハイパーパラメータを調整する前に、デフォルトのハイパーパラメータを使用してパフォーマンス ベースラインを確立できます。前のセクションと同じ合成バイナリ分類データセットを使用し、繰り返し層別 k 分割クロス検証を使用した同じテスト ハーネスを使用します。デフォルトのハイパーパラメータを使用して XGBoost のパフォーマンスを評価するための完全な例を以下に示します。

  1. # バイナリ分類用のデフォルトのハイパーパラメータを使用した xgboost  
  2. numpyからの平均をインポート 
  3. numpyからstdをインポート 
  4. sklearn.datasets から make_classification をインポートします 
  5. sklearn.model_selection から cross_val_score をインポートします 
  6. sklearn.model_selection から RepeatedStratifiedKFold をインポートします 
  7. xgboost から XGBClassifier をインポートします 
  8. #データセットを定義する 
  9. X, y = make_classification ( n_samples = 1000 n_features = 5 n_informative = 2 n_redundant = 1 random_state = 1 )  
  10. # モデルを定義する 
  11. モデル= XGBClassifier ()  
  12. # 評価手順を定義する 
  13. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  14. # モデルを評価する 
  15. スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  16. # レポート結果 
  17. print('平均精度: %.3f (%.3f)' % (mean(scores), std(scores)))

例を実行すると、モデルが評価され、分類精度の平均と標準偏差が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。この場合、デフォルトのハイパーパラメータを持つモデルは約 84.9% の分類精度を達成していることがわかります。最適化されたハイパーパラメータを使用することで、これよりも優れたパフォーマンスを実現できることを期待しています。

  1. 平均精度: 0.849 (0.040)

次に、ランダム化ヒルクライミング最適化アルゴリズムを使用して、XGBoost モデルのハイパーパラメータを調整します。 XGBoost モデル用に最適化したいハイパーパラメータは多数あります。

XGBoost モデルのチューニング方法の概要については、チュートリアルを参照してください。

勾配ブースティングアルゴリズムの設定方法

https://machinelearningmastery.com/configure-gradient-boosting-algorithm/

4 つの主要なハイパーパラメータに焦点を当てます。彼らです:

  • 学習率 (learning_rate)
  • ツリーの数 (n_estimators)
  • サブサンプルの割合(サブサンプル)
  • ツリーの深さ(最大深さ)

学習率は、各ツリーが全体にどれだけ貢献するかを制御します。適切な値は 1.0 未満ですが、0.0 よりわずかに大きい値 (例: 1e-8) になります。ツリーの数によってアンサンブルのサイズが制御され、一般的に、収穫逓減が起こるまではツリーの数が多いほど良いとされます。妥当な値は 1 本の木から数百または数千本の木の間です。サブサンプルのパーセンテージは、各ツリーをトレーニングするために使用されるランダム サンプルのサイズを、元のデータセット サイズのパーセンテージとして定義します。 0.0 よりわずかに大きい値 (例: 1e-8) から 1.0 までの間の値。ツリーの深さは、各ツリーのレベル数です。ツリーが深くなるほど、トレーニング データセットに特化するため、過剰適合する可能性が高くなります。一般的に、ツリーが短いほど一般化がうまくいきます。適切な値は 1 から 10 または 20 の間です。まず、Objective() 関数を更新して XGBoost モデルのハイパーパラメータを展開し、設定してから、平均分類精度を評価する必要があります。

  1. # 目的関数 
  2. 定義目標(X, y, cfg):  
  3. # 設定を解凍する 
  4. lrate、n_tree、subsam、深さ= cfg    
  5. # モデルを定義する 
  6. モデル= XGBClassifier ( learning_rate = lrate n_estimators = n_tree subsamサブサンプル= subsam、 max_depth = depth)  
  7. # 評価手順を定義する 
  8. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  9. # モデルを評価する 
  10. スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  11. # 平均精度を計算する 
  12. 結果=平均(スコア)  
  13. 結果を返す

次に、検索空間で 1 ステップ進むために使用される step() 関数を定義する必要があります。

各ハイパーパラメータの範囲は非常に異なるため、各ハイパーパラメータのステップ サイズ (分布の標準偏差) を個別に定義します。簡単にするために、関数のパラメータとしてではなく、オンラインでステップ サイズを定義します。

ツリーの数と深さは整数なので、ステップ値は丸められます。選択されたステップ サイズは任意であり、繰り返し試行した後に選択されました。更新されたステップ関数を以下に示します。

  1. # 検索スペースに一歩踏み出す 
  2. defステップ(cfg):  
  3. # 設定を解凍する 
  4. lrate、n_tree、subsam、深さ= cfg    
  5. # 学習率 
  6. lrate lrate = lrate + randn() * 0.01  
  7. lrate < = 0.0の場合:
  8. lrate = 1e -8  
  9. lrate > 1の場合:  
  10. レート= 1.0  
  11. # 木の数 
  12. n_tree =ラウンド(n_tree + randn() * 50)  
  13. n_tree < = 0.0の場合:  
  14. n_tree = 1    
  15. # サブサンプルの割合 
  16. サブサムサブサム= サブサム + randn() * 0.1  
  17. サブサム< = 0.0 の場合:  
  18. サブサム= 1e -8  
  19. サブサム> 1 の場合:  
  20. サブサム= 1.0  
  21. # 最大ツリー深度 
  22. 深さ=ラウンド(深さ + randn() * 7)  
  23. 深さ< = 1 の場合:
  24.  深さ= 1    
  25. # 新しい設定を返す 
  26. [lrate, n_tree, subsam, depth] を返します

最後に、hillclimbing() アルゴリズムを更新して、適切な値を持つ初期ソリューションを定義する必要があります。この場合、デフォルトのハイパーパラメータに一致するかそれに近い適切なデフォルトを使用して初期ソリューションを定義します。

  1. # 検索の開始点 
  2. =ステップ([0.1, 100, 1.0, 7])

すべてをまとめると、ランダム化ヒルクライミングを使用して XGBoost アルゴリズムのハイパーパラメータを手動で調整する完全な例がここにあります。

  1. # バイナリ分類のための xgboost 手動ハイパーパラメータ最適化 
  2. numpyからの平均をインポート 
  3. numpy.randomからrandnをインポート
  4. numpy.randomからrandをインポート 
  5. numpy.randomからrandintをインポート 
  6. sklearn.datasets から make_classification をインポートします 
  7. sklearn.model_selection から cross_val_score をインポートします 
  8. sklearn.model_selection から RepeatedStratifiedKFold をインポートします 
  9. xgboost から XGBClassifier をインポートします  
  10. # 目的関数 
  11. def目標値(X, y, cfg):
  12. # 設定を解凍する 
  13. lrate、n_tree、subsam、深さ= cfg    
  14. # モデルを定義する 
  15. モデル= XGBClassifier ( learning_rate = lrate n_estimators = n_tree subsamサブサンプル= subsam、 max_depth = depth)  
  16. # 評価手順を定義する 
  17. cv = RepeatedStratifiedKFold ( n_splits = 10 n_repeats = 3 random_state = 1 )繰り返し階層化Kフォールド 
  18. # モデルを評価する
  19.  スコア= cross_val_score (モデル、X、y、スコアリング= '精度' cv cv =cv、 n_jobs =-1)  
  20. # 平均精度を計算する 
  21. 結果=平均(スコア)  
  22. 結果を返す 
  23. # 検索スペースに一歩踏み出す 
  24. defステップ(cfg):  
  25. # 設定を解凍する 
  26. lrate、n_tree、subsam、深さ= cfg    
  27. # 学習率 
  28. lrate lrate = lrate + randn() * 0.01  
  29. lrate < = 0.0の場合:  
  30. lrate = 1e -8  
  31. lrate > 1の場合:  
  32. レート= 1.0  
  33. # 木の数 
  34. n_tree =ラウンド(n_tree + randn() * 50)  
  35. n_tree < = 0.0の場合:  
  36. n_tree = 1    
  37. # サブサンプルの割合 
  38. サブサムサブサム= サブサム + randn() * 0.1  
  39. サブサム< = 0.0 の場合:  
  40. サブサム= 1e -8  
  41. サブサム> 1 の場合:  
  42. サブサム= 1.0  
  43. # 最大ツリー深度 
  44. 深さ= round (深さ + randn() * 7)  
  45. 深さ< = 1 の場合:  
  46. 深さ= 1    
  47. # 新しい設定を返す 
  48. [lrate, n_tree, subsam, depth] を返します 
  49. # ヒルクライミング局所探索アルゴリズム 
  50. 定義ヒルクライミング(X, y, 目的, n_iter):  
  51. # 検索の開始点 
  52. =ステップ([0.1, 100, 1.0, 7])  
  53. # 初期点を評価する 
  54. solution_eval =目標値(X, y, 解)  
  55. # ヒルクライムを走る 
  56. iが範囲内(n_iter)の場合:  
  57. # 一歩踏み出す 
  58. 候補=ステップ(解決策)  
  59. # 候補ポイントを評価する 
  60. candidate_eval =目標値(X, y, 候補値)  
  61. # 新しいポイントを保持するかどうかを確認します 
  62. 候補評価> = 解決評価の場合:  
  63. # 新しいポイントを保存する 
  64. 解決策、 solution_eval =候補、candidate_eval  
  65. # 進捗状況を報告する 
  66. print(' > %d, cfg =[%s] %.5f' % (i, solution, solution_eval))  
  67. [ソリューション、ソリューション評価] を返す 
  68. #データセットを定義する 
  69. X, y = make_classification ( n_samples = 1000 n_features = 5 n_informative = 2 n_redundant = 1 random_state = 1 )
  70. # 合計反復回数を定義する 
  71. 反復回数= 200    
  72. # ヒルクライミング検索を実行する 
  73. cfg、スコア=ヒルクライミング(X、y、目標、n_iter)  
  74. print('完了しました!')
  75. print(' cfg =[%s]: 平均精度: %f' % (cfg, スコア))

例を実行すると、各検索中に改善が見られるため、構成と結果が報告されます。実行の最後に、最適な構成と結果が報告されます。

注意: アルゴリズムや評価手順の確率的特性、または数値精度の違いにより、結果が異なる場合があります。例を複数回実行し、平均結果を比較することを検討してください。

この場合、学習率を約 0.02、ツリーを 52 個、サブサンプリング率を約 50%、深度を 53 レベルに設定すると、最良の結果が得られることがわかります。この構成では平均精度が約 87.3% となり、デフォルト構成の平均精度である約 84.9% よりも優れています。

  1. > 0, cfg = [[0.1058242692126418, 67, 0.9228490731610172, 12]] 0.85933  
  2. > 1、 cfg = [[0.11060813799692253、51、0.859353656735739、13]] 0.86100  
  3. > 4、 cfg = [[0.11890247679234153、58、0.7135275461723894、12]] 0.86167  
  4. > 5、 cfg =[[0.10226257987735601、61、0.6086462443373852、17]] 0.86400  
  5. > 15、 cfg = [[0.11176962034280596、106、0.5592742266405146、13]] 0.86500  
  6. > 19、 cfg = [[0.09493587069112454、153、0.5049124222437619、34]] 0.86533  
  7. > 23、 cfg = [[0.08516531024154426、88、0.5895201311518876、31]] 0.86733  
  8. > 46、 cfg = [[0.10092590898175327、32、0.5982811365027455、30]] 0.86867  
  9. > 75、 cfg =[[0.099469211050998、20、0.36372573610040404、32]] 0.86900  
  10. > 96、 cfg =[[0.09021536590375884、38、0.4725379807796971、20]] 0.86900  
  11. > 100、 cfg = [[0.08979482274655906、65、0.3697395430835758、14]] 0.87000  
  12. > 110、 cfg = [[0.06792737273465625、89、0.33827505722318224、17]] 0.87000  
  13. > 118、 cfg = [[0.05544969684589669、72、0.2989721608535262、23]] 0.87200  
  14. > 122、 cfg = [[0.050102976159097、128、0.2043203965148931、24]] 0.87200  
  15. > 123、 cfg = [[0.031493266763680444、120、0.2998819062922256、30]] 0.87333  
  16. > 128、 cfg = [[0.023324201169625292、84、0.4017169945431015、42]] 0.87333  
  17. > 140、 cfg =[[0.020224220443108752、52、0.5088096815056933、53]] 0.87367  
  18. 終わり!  
  19. cfg =[[0.020224220443108752, 52, 0.5088096815056933, 53]]: 平均精度: 0.873667

<<:  2021 年のアクセス制御市場と技術開発の動向

>>:  AI 開発の方向性に関する大論争: ハイブリッド AI?強化学習?実践的な知識と常識をAIに統合する?

ブログ    

推薦する

...

...

AIGCとアップグレードにより、PC販売は2024年に8%回復する可能性がある

Canalysのアナリスト、ベン・キャディ氏とキーレン・ジェソップ氏は最近、一部の消費者が新世代のP...

Apple iPhone 15の発表イベントではAI機能に焦点が当てられたが、AI技術についてはほとんど語られなかった

9月13日北京時間午前1時に行われたアップルの秋季製品発表イベントで、アップルの広報担当者はAI技術...

AIが高度な数学の核心を突破、微分方程式と不定積分を1秒以内に解き、その性能はMatlabをはるかに上回る

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

大規模言語モデルとAIコードジェネレータの台頭

翻訳者 |李睿レビュー | Chonglouこの記事の著者であるMartin Heller は、 W...

機械学習の問題に適した事前トレーニング済みモデルを選択する方法

[[264482]]この記事では転移学習とは何か、どのように使用するのかを簡単に紹介します。転移学習...

...

静的解析に機械学習を使用する方法

機械学習と人工知能は、特にマーケティング分析とサイバーセキュリティの分野で多くの分野で広く応用されて...

「ムスク」がスピーキングの練習に役立ちます! GitHub のリアルタイム AI 音声チャットが話題に

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

150億のパラメータを持つ、史上最大のビジュアルモデル「V-MoE」の全コードをGoogleがオープンソース化

昨年 6 月に Google Brain チームが発表した 43 ページの論文「Scaling Vi...

AI による自動ラベル付けの普及により、データラベル作成者の職は失われるのでしょうか?

データ注釈業界では、「知能と同じくらい人工知能も存在する」という有名な格言があります。ラベル付けが必...