サポートベクターマシン (SVM)
サポート ベクター マシンとは何ですか? サポート ベクター マシンは、データの分類分析を実行できる教師あり機械学習モデルです。実際、サポート ベクター マシン アルゴリズムは、インスタンスを分離できる優れた超平面を見つけるプロセスです。 上記のようにデータが線形に分離可能な場合は、線形分類器を使用して 2 つのクラスを分離できます。データが非線形に分離可能な場合はどうすればよいでしょうか? 次のようになります: ご覧のとおり、異なるクラスのデータ ポイントは分離可能ですが、単純に直線を描いて分類することはできません。 では、サポート ベクター マシンを使用して非線形機械学習データセットを適合させるにはどうすればよいでしょうか? SVMの実験機械学習データセットの作成 まず、非線形機械学習データセットを作成します。 Python コードは次のとおりです。
線形サポートベクターマシンを使ってみる まず、次のように Python で実装できる線形サポート ベクター マシンの使用を試みます。
C は誤分類に関連するコストです。 C 値が高いほど、データ セットを正しく分離するアルゴリズムが厳格になります。線形分類器の場合は、kernel='linear' を使用します。 ご覧のとおり、コストを高く設定したにもかかわらず、線は赤い点と青い点をうまく分離していません。 ラジアル基底関数カーネル これまで使用した線形分類器は次のとおりです。 ご覧のとおり、g(x) は線形関数です。 g(x) > 0 の場合、予測値は 1 になります。 g(x) <0の場合、予測値は-1になります。しかし、上記のような非線形データを処理するために線形関数を使用することはできないため、線形関数を別の関数に変換する必要があります。 この分類器は、非線形データに最適であると思われます。 Python コードを見てみましょう:
ガンマは1/シグマです。覚えておいてください、シグマは調整機能です。したがって、ガンマ値が小さいほど、シグマ値が大きく、分類器はポイント間の距離に対して敏感ではなくなります。 ガンマを上げて何が起こるか見てみましょう。
ガンマを 100 倍に増やすと、トレーニング セットの分類子の精度が向上するようです。ガンマ値を 10 倍するとどうなるでしょうか?
これは、ガンマを 10000 に増やすと、より正確になるという意味ですか? 実際、ガンマ値が大きすぎると、分類器は最終的に違いを認識できなくなります。 Cを増やしましょう。 C は、機械学習データセット全体の誤分類に関連するコストです。つまり、C を増やすと、単一のデータ ポイントだけでなく、データ セット全体の感度が高まります。
SVM 分類器が 2 つのポイント グループを正常に分離できるようにするためのパラメータを見つけました。 やっとこの記事を読んで、SVM 分類器とは何か、そしてそれを非線形機械学習データセットの学習にどのように使用するかについて直感的に理解していただけたと思います。データが高次元の場合、視覚化を通じて分類器のパフォーマンスを判断することはできません。良い方法は、トレーニング セットでトレーニングし、テスト セットで混同行列や f1 スコアなどのメトリックを使用することです。 |
<<: 新型コロナウイルス感染症の流行中に音声テクノロジーが再び注目を集めているのはなぜでしょうか?
>>: 私の国は、5G、人工知能、自動運転で目覚ましい成果を上げ、革新的な国の仲間入りを果たしました。
タンパク質は人体のすべての細胞と組織の重要な構成要素です。体のすべての重要な成分にはタンパク質が必要...
金融サービス業界は、特定の金融プロセスに不可欠なレガシー機器やシステムを使用しているため、他の業界に...
Theano、Caffeに続き、大学主導のディープラーニングフレームワークがオープンソース化され、国...
この問題はネットワークフロー理論において非常に基本的なものです。 「新しいアルゴリズムは驚くほど高速...
途中で迷うと、モデルは怠惰になり、コンテキストが長くなるほど、モデルは愚かになります... LLM ...
IBMは木曜日、メインフレーム開発者向けに最近発表した生成型AIコーディング機能をベースに、古いデー...
ロボット工学の研究者がここ数年で脚付きロボットで成し遂げたことは実に驚くべきことだ。昨年7月、オレゴ...
[51CTO.com クイック翻訳] Swift Algorithm Club (https://g...
[[392106]] AI は広く普及しているにもかかわらず、知識と認識のギャップにより、商業的な導...
[[388287]]なぜツリー構造が必要なのでしょうか? 1. 配列格納方法の分析:利点: 下付き...