さまざまなライブラリとフレームワークの助けを借りて、たった 1 行のコードで機械学習アルゴリズムを実装できます。さらに一歩進んで、複数のアルゴリズムを一度に実装して比較できるものもあります。 使いやすさにはいくつかの欠点があります。これらのアルゴリズムを完全に理解するために不可欠な、アルゴリズムの背後にある重要な概念やアイデアを見落としてしまう可能性があります。
この記事では、7 つの機械学習アルゴリズムに関する 7 つの重要なポイントについて説明します。ただし、この説明ではこれらのアルゴリズムを完全には説明できないため、基本的な理解があればなお良いでしょう。 始めましょう。 1. サポートベクターマシン (SVM) 重要なポイント: Cパラメータ SVM は、2 つ以上のクラスを区別するための決定境界を作成します。 ソフトマージン SVM は、次の目的で最適化問題を解決しようとします。
これら 2 つの目標の間には明らかにトレードオフがあります。すべてのデータ ポイントに正しくラベルを付けるには、決定境界を特定のクラスに非常に近づける必要がある場合があります。ただし、この場合、決定境界がノイズや独立変数の小さな変化に敏感すぎるため、新しい観測値の精度が低下する可能性があります。 一方、一部の誤分類例外を犠牲にして、各クラスの決定境界を可能な限り大きく設定することも可能です。このトレードオフは c パラメータによって制御されます。 C パラメータは、誤分類されたデータ ポイントごとにペナルティを追加します。 c が小さい場合、誤分類されたポイントに対するペナルティは低くなるため、誤分類の数が増える代わりに、より大きなマージンを持つ決定境界が選択されます。 c が大きい場合、SVM は高いペナルティにより誤分類された例の数を最小限に抑えようとし、その結果、決定境界のマージンが小さくなります。ペナルティは、誤分類されたすべての例に対して同じではありません。決定境界までの距離に比例します。 2. 決定木 ポイント:情報収集 分割する機能を選択する際に、決定木アルゴリズムは次のことを達成しようとします。
エントロピーは不確実性またはランダム性の尺度です。変数のランダム性が高くなるほど、エントロピーは高くなります。均一に分布する変数はエントロピーが最も高くなります。たとえば、サイコロを振ると、等しい確率で 6 つの結果が出る可能性があるため、均一な分布と高いエントロピーが実現されます。 > エントロピーとランダム性 より純粋なノードが生成される分割を選択します。これらすべては「情報ゲイン」を示唆しており、これは基本的に、分割前と分割後のエントロピーの差です。 3. ランダムフォレスト 重要なポイント: ブートストラップと関数のランダム性 ランダム フォレストは、多数の決定木の集合体です。ランダム フォレストの成功は、相関のない決定木の使用に大きく依存します。同じまたは非常に類似したツリーを使用すると、全体的な結果は単一の決定木の結果と区別がつかなくなります。ランダム フォレストは、ブートストラップと特徴のランダム性を通じて相関のない決定木を実現します。 ブートストラップでは、トレーニング データからランダムにサンプルを選択して置き換えます。これらはブートストラップ サンプルと呼ばれます。 特徴のランダム性は、ランダム フォレスト内の各決定木の特徴をランダムに選択することによって実現されます。ランダム フォレスト内の各ツリーに使用される特徴の数は、max_features パラメータによって制御できます。 > 機能のランダム性 4. 勾配ブースティング決定木 重要なポイント: 学習率とn_estimators GBDT は、決定木とブースティング法を組み合わせたもので、決定木が順番に接続されます。 学習率と n_estimator は、勾配ブースティング決定木の 2 つの重要なハイパーパラメータです。 学習率は、モデルがどれだけ速く学習するかを示します。学習速度が遅いことの利点は、モデルがより堅牢になり、より一般化されることです。しかし、学習が遅いと代償が伴います。モデルのトレーニングにはさらに時間がかかるため、別の重要なハイパーパラメータが必要になります。 n_estimator パラメータは、モデルで使用されるツリーの数です。学習率が低い場合は、モデルをトレーニングするためにさらに多くのツリーが必要になります。ただし、木の数を選択する際には細心の注意を払う必要があります。ツリーを多用しすぎると、過剰適合のリスクが高くなります。 5. ナイーブベイズ分類器 重要なポイント: 素朴な仮定の利点は何でしょうか? ナイーブ ベイズは分類のための教師あり機械学習アルゴリズムであるため、タスクは特徴の値が与えられた場合に観測のクラスを見つけることです。ナイーブベイズ分類器は、特徴値のセット、つまりp(yi | x1, x2, …, xn)が与えられたクラスの確率を計算します。 ナイーブベイズでは、特徴は互いに独立しており、特徴間に相関関係はないものと想定します。しかし、現実にはそうではありません。特徴は相関していないというこの単純な仮定が、このアルゴリズムが「単純」と呼ばれる理由です。 すべての関数が独立しているという仮定により、複雑なアルゴリズムに比べて非常に高速になります。場合によっては、正確さよりも速度の方が重要です。 テキスト分類、電子メールスパム検出などの高次元データに適しています。 6. K 最近傍点 重要なポイント: いつ使うべきか、いつ使わないべきか K 最近傍法 (kNN) は、分類および回帰タスクを解決するために使用できる教師あり機械学習アルゴリズムです。 kNN の主な原則は、データ ポイントの値が周囲のデータ ポイントによって決定されるというものです。 データ ポイントの数が増えると、モデルがデータ ポイント間の距離を計算するためにすべてのデータ ポイントを保存する必要があるため、kNN アルゴリズムは非常に遅くなります。この理由により、アルゴリズムのメモリも非効率的になります。 もう 1 つの欠点は、外れ値が最も近いポイント (離れすぎている場合でも) に影響を与える可能性があるため、kNN が外れ値の影響を受けやすいことです。 良い面としては:
7. K平均法クラスタリング 重要なポイント: いつ使うべきか、いつ使わないべきか K 平均法クラスタリングは、同じクラスター内のデータ ポイントは類似し、異なるクラスター内のデータ ポイントは離れるように、データを k 個のクラスターに分割することを目的としています。 K-means アルゴリズムでは、データ内に存在するクラスターの数を推測できません。クラスターの数を事前に決定する必要があり、これは難しい作業になる可能性があります。 各ステップですべてのデータ ポイントにアクセスして距離を計算するため、サンプル数が増えるにつれてアルゴリズムの速度が低下します。 K-means では線形境界のみを描画できます。データ内のグループを分離する非線形構造がある場合、k-means は適切な選択ではありません。 良い面としては:
各アルゴリズムに関するいくつかの重要な概念を紹介しました。示されたポイントとコメントは、決してアルゴリズムの完全な説明ではありません。ただし、これらのアルゴリズムを実装するときには必ず何か問題が発生することを理解しておくことが重要です。 |
<<: ニューロモルフィック・コンピューティングが私たちを AI の新しい時代へと導くのはいつでしょうか?
>>: 動的プログラミングアルゴリズムのルーチンをマスターするにはどうすればいいですか?
今日、企業は、分析アルゴリズムの良し悪しは、そのアルゴリズムをトレーニングするデータの良し悪しによっ...
人工知能と機械学習は現在では導入が容易であり、現在実行されている反復的なタスクやプロセスの多くを自動...
[[429122]]最近、GitHub 上のプロジェクト ICLR2022-OpenReviewDa...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
人工知能は現代世界のあらゆる分野を征服しつつあります。しかし、それらはすべて私たちにとって良いことな...
ちょうど今、Stability AI は次世代のテキスト グラフ モデルである SDXL 1.0 を...
本日、DeepMind の「Alpha」ファミリーに新しいメンバーが加わりました。プログラミング競技...
[51CTO.comからのオリジナル記事] 人工知能の推進により、ビジネス運営モデルは変化しました。...
最近、国家インターネット金融セキュリティ技術専門家委員会と上海振聯公司は共同で「ブロックチェーン+A...
今年、業界内では「AI 記者会見でない記者会見はない」というジョークが飛び交っています。まさにその通...
「サイバーセキュリティ」という用語は、ネットワークシステムにおけるハードウェア、ソフトウェア、データ...