7つの機械学習アルゴリズムの7つの重要なポイント

7つの機械学習アルゴリズムの7つの重要なポイント

さまざまなライブラリとフレームワークの助けを借りて、たった 1 行のコードで機械学習アルゴリズムを実装できます。さらに一歩進んで、複数のアルゴリズムを一度に実装して比較できるものもあります。

使いやすさにはいくつかの欠点があります。これらのアルゴリズムを完全に理解するために不可欠な、アルゴリズムの背後にある重要な概念やアイデアを見落としてしまう可能性があります。

[[358237]]

この記事では、7 つの機械学習アルゴリズムに関する 7 つの重要なポイントについて説明します。ただし、この説明ではこれらのアルゴリズムを完全には説明できないため、基本的な理解があればなお良いでしょう。

始めましょう。

1. サポートベクターマシン (SVM)

重要なポイント: Cパラメータ

SVM は、2 つ以上のクラスを区別するための決定境界を作成します。

ソフトマージン SVM は、次の目的で最適化問題を解決しようとします。

  • 決定境界とクラス(またはサポートベクトル)間の距離を増やす
  • トレーニングセット内の正しく分類されたポイントの数を最大化する

これら 2 つの目標の間には明らかにトレードオフがあります。すべてのデータ ポイントに正しくラベルを付けるには、決定境界を特定のクラスに非常に近づける必要がある場合があります。ただし、この場合、決定境界がノイズや独立変数の小さな変化に敏感すぎるため、新しい観測値の精度が低下する可能性があります。

一方、一部の誤分類例外を犠牲にして、各クラスの決定境界を可能な限り大きく設定することも可能です。このトレードオフは c パラメータによって制御されます。

C パラメータは、誤分類されたデータ ポイントごとにペナルティを追加します。 c が小さい場合、誤分類されたポイントに対するペナルティは低くなるため、誤分類の数が増える代わりに、より大きなマージンを持つ決定境界が選択されます。

c が大きい場合、SVM は高いペナルティにより誤分類された例の数を最小限に抑えようとし、その結果、決定境界のマージンが小さくなります。ペナルティは、誤分類されたすべての例に対して同じではありません。決定境界までの距離に比例します。

2. 決定木

ポイント:情報収集

分割する機能を選択する際に、決定木アルゴリズムは次のことを達成しようとします。

  • より予測的
  • 不純物が少ない
  • エントロピーが低い

エントロピーは不確実性またはランダム性の尺度です。変数のランダム性が高くなるほど、エントロピーは高くなります。均一に分布する変数はエントロピーが最も高くなります。たとえば、サイコロを振ると、等しい確率で 6 つの結果が出る可能性があるため、均一な分布と高いエントロピーが実現されます。

> エントロピーとランダム性

より純粋なノードが生成される分割を選択します。これらすべては「情報ゲイン」を示唆しており、これは基本的に、分割前と分割後のエントロピーの差です。

3. ランダムフォレスト

重要なポイント: ブートストラップと関数のランダム性

ランダム フォレストは、多数の決定木の集合体です。ランダム フォレストの成功は、相関のない決定木の使用に大きく依存します。同じまたは非常に類似したツリーを使用すると、全体的な結果は単一の決定木の結果と区別がつかなくなります。ランダム フォレストは、ブートストラップと特徴のランダム性を通じて相関のない決定木を実現します。

ブートストラップでは、トレーニング データからランダムにサンプルを選択して置き換えます。これらはブートストラップ サンプルと呼ばれます。

特徴のランダム性は、ランダム フォレスト内の各決定木の特徴をランダムに選択することによって実現されます。ランダム フォレスト内の各ツリーに使用される特徴の数は、max_features パラメータによって制御できます。

> 機能のランダム性

4. 勾配ブースティング決定木

重要なポイント: 学習率とn_estimators

GBDT は、決定木とブースティング法を組み合わせたもので、決定木が順番に接続されます。

学習率と n_estimator は、勾配ブースティング決定木の 2 つの重要なハイパーパラメータです。

学習率は、モデルがどれだけ速く学習するかを示します。学習速度が遅いことの利点は、モデルがより堅牢になり、より一般化されることです。しかし、学習が遅いと代償が伴います。モデルのトレーニングにはさらに時間がかかるため、別の重要なハイパーパラメータが必要になります。

n_estimator パラメータは、モデルで使用されるツリーの数です。学習率が低い場合は、モデルをトレーニングするためにさらに多くのツリーが必要になります。ただし、木の数を選択する際には細心の注意を払う必要があります。ツリーを多用しすぎると、過剰適合のリスクが高くなります。

5. ナイーブベイズ分類器

重要なポイント: 素朴な仮定の利点は何でしょうか?

ナイーブ ベイズは分類のための教師あり機械学習アルゴリズムであるため、タスクは特徴の値が与えられた場合に観測のクラスを見つけることです。ナイーブベイズ分類器は、特徴値のセット、つまりp(yi | x1, x2, …, xn)が与えられたクラスの確率を計算します。

ナイーブベイズでは、特徴は互いに独立しており、特徴間に相関関係はないものと想定します。しかし、現実にはそうではありません。特徴は相関していないというこの単純な仮定が、このアルゴリズムが「単純」と呼ばれる理由です。

すべての関数が独立しているという仮定により、複雑なアルゴリズムに比べて非常に高速になります。場合によっては、正確さよりも速度の方が重要です。

テキスト分類、電子メールスパム検出などの高次元データに適しています。

6. K 最近傍点

重要なポイント: いつ使うべきか、いつ使わないべきか

K 最近傍法 (kNN) は、分類および回帰タスクを解決するために使用できる教師あり機械学習アルゴリズムです。 kNN の主な原則は、データ ポイントの値が周囲のデータ ポイントによって決定されるというものです。

データ ポイントの数が増えると、モデルがデータ ポイント間の距離を計算するためにすべてのデータ ポイントを保存する必要があるため、kNN アルゴリズムは非常に遅くなります。この理由により、アルゴリズムのメモリも非効率的になります。

もう 1 つの欠点は、外れ値が最も近いポイント (離れすぎている場合でも) に影響を与える可能性があるため、kNN が外れ値の影響を受けやすいことです。

良い面としては:

  • わかりやすい
  • 仮定は行われないため、非線形タスクに実装できます。
  • 複数のカテゴリの分類に適しています
  • 分類および回帰タスクに適しています

7. K平均法クラスタリング

重要なポイント: いつ使うべきか、いつ使わないべきか

K 平均法クラスタリングは、同じクラスター内のデータ ポイントは類似し、異なるクラスター内のデータ ポイントは離れるように、データを k 個のクラスターに分割することを目的としています。

K-means アルゴリズムでは、データ内に存在するクラスターの数を推測できません。クラスターの数を事前に決定する必要があり、これは難しい作業になる可能性があります。

各ステップですべてのデータ ポイントにアクセスして距離を計算するため、サンプル数が増えるにつれてアルゴリズムの速度が低下します。

K-means では線形境界のみを描画できます。データ内のグループを分離する非線形構造がある場合、k-means は適切な選択ではありません。

良い面としては:

  • 説明しやすい
  • もっと早く
  • 大規模なデータセットに対応できるスケーラビリティ
  • 初期重心の位置をインテリジェントに選択し、より速い収束を実現する機能
  • 統合の保証

各アルゴリズムに関するいくつかの重要な概念を紹介しました。示されたポイントとコメントは、決してアルゴリズムの完全な説明ではありません。ただし、これらのアルゴリズムを実装するときには必ず何か問題が発生することを理解しておくことが重要です。

<<:  ニューロモルフィック・コンピューティングが私たちを AI の新しい時代へと導くのはいつでしょうか?

>>:  動的プログラミングアルゴリズムのルーチンをマスターするにはどうすればいいですか?

ブログ    
ブログ    

推薦する

...

人工知能の便利な日常的な活用例8つ

人工知能が私たちの生活にどのような影響を与えているかを示す例は無数にあります。これを「ロボットが悪の...

AI および機械学習プロジェクトはどの程度安全ですか?

人工知能と機械学習は私たちに利益をもたらしますが、そのセキュリティには注意が必要です。どれくらい安全...

分散型ディープラーニングの新たな進歩:「分散」と「ディープラーニング」の真の統合

近年、急速に発展している人工知能の分野のひとつであるディープラーニングは、NLP、画像認識、音声認識...

2030 年の AI はどのようになっているでしょうか?専門家が10の予測を発表

2020 年も終わりに近づいていますが、AI はさまざまなことに役立っています。車を運転したり、音楽...

...

...

Huaweiの推奨システムにおけるマルチタスクとマルチシナリオの応用

1. マルチタスクとマルチシナリオの背景と課題まず、Huaweiのマルチタスクで推奨されるシナリオを...

人工知能技術は成熟しており、AI音声業界は幅広い発展の見通しを迎えている

新しいインフラの波の下で、業界のデジタル変革は本格化しています。この過程で、AI音声は近年最も成熟し...

2022年に注目すべき5つのAI活用法

AI インフラストラクチャの継続的な革新と開発により、今日の仕事のやり方は変化しました。人工知能は...

...

Nacos ランダムウェイト負荷分散アルゴリズム

導入Nacos は、クライアントがノードを選択するときに重みベースのランダム アルゴリズムを提供しま...

優れた LLM アプリケーションを構築するための 4 つの重要なポイントのうち、どれを見つけましたか?

これらの提案により、LLM 申請の精度が向上し、適切な LLM を選択する方法についての考慮事項も含...

それは大したことだ! Google によれば、人類は 2029 年に不死を達成するそうです。病気も老化も痛みも完全に消え去ります! ?

この世で最も公平なものは、誕生、老い、病気、そして死だと思います。人生においてどれほど偉大な業績を成...

知っておくべき6種類のニューラルネットワーク

[51CTO.com クイック翻訳]ニューラルネットワークは人工知能の分野で非常に人気が高まっていま...