マルチラベル分類とは何ですか?ここにいくつかの実用的な古典的な方法があります

マルチラベル分類とは何ですか?ここにいくつかの実用的な古典的な方法があります

これはおそらく、マルチラベル分類のための最も実用的なヒントです。

ご存知のとおり、バイナリ分類タスクは、与えられた入力を 0 と 1 の 2 つのカテゴリに分類することを目的としています。マルチラベル分類 (マルチターゲット分類とも呼ばれます) は、指定された入力に基づいて、複数のバイナリ分類ターゲットを一度に予測します。たとえば、モデルは、与えられた画像が犬か猫かを予測したり、毛が長いか短いかを予測したりすることができます。

マルチ分類タスクでは、予測ターゲットは相互に排他的であり、1 つの入力が複数のカテゴリに対応する可能性があることを意味します。この記事では、マルチラベル分類モデルのパフォーマンスを向上させるためのヒントをいくつか紹介します。

モデル評価関数

各列 (クラス ラベル) でモデル評価関数を計算し、平均スコアを取得することで、ほとんどのバイナリ分類評価関数をマルチラベル分類タスクに使用できます。対数損失またはバイナリクロスエントロピーは、そのような評価関数の 1 つです。クラスの不均衡現象をより適切に考慮するために、評価関数として ROC-AUC を使用できます。

図1: ROC-AUC曲線

モデリングのヒント

この記事では、特徴を構築する手法を紹介する前に、マルチラベル分類シナリオに適したモデルを設計するためのヒントをいくつか紹介します。

ほとんどの非ニューラル ネットワーク モデルの場合、唯一の選択肢は、各ターゲットの分類器をトレーニングし、予測を融合することです。この目的のために、「scikit-learn」ライブラリは、シンプルなラッパー クラス「OneVsRestClassifier」を提供します。このラッパークラスにより分類器はマルチラベルタスクを実行できるようになりますが、次の欠点があるためこのアプローチを採用すべきではありません。(1) ターゲットごとに新しいモデルをトレーニングするため、トレーニング時間が比較的長くなります。 (2)モデルは異なるラベル間の関係やラベルの相関関係を学習できない。

2 番目の問題は、2 段階のトレーニング プロセスを実行することで解決できます。その中で、ターゲットの予測結果と元の特徴を第 2 段階のトレーニングの入力として組み合わせます。この方法の欠点は、トレーニングが必要なモデルの数が以前の 2 倍になるため、トレーニング時間が大幅に増加することです。ニューラル ネットワーク (NN) は、ラベルの数がネットワーク内の出力ニューロンの数と等しいこのシナリオに適しています。任意のバイナリ分類損失をニューラル ネットワーク モデルに直接適用することができ、モデルはすべてのターゲットを出力します。この時点では、1 つのモデルをトレーニングするだけで済み、ネットワークは出力ニューロンを通じて異なるラベル間の相関関係を学習できるため、前述の非ニューラル ネットワーク モデルの 2 つの問題が解決されます。

図2: ニューラルネットワーク

教師あり特徴選択法

特徴エンジニアリングまたは特徴選択を開始する前に、特徴を正規化および標準化する必要があります。 「scikit-learn」ライブラリの「Quantile Transformer」を使用すると、データの歪度が軽減され、特徴が正規分布に従うようになります。さらに、平均値を減算し、標準偏差で割ることで特徴量を標準化できます。このプロセスは、「Quantile Transformer」と同様の作業を完了し、データを変換してより堅牢にすることを目的としています。ただし、「Quantile Transformer」の計算オーバーヘッドは高くなります。

ほとんどのアルゴリズムは単一の目的のために設計されているため、教師あり特徴選択方法の使用は少し困難です。この問題を解決するには、マルチラベル分類タスクをマルチクラス分類問題に変換します。 Label Powerset は、トレーニング データ内の各一意のラベルの組み合わせをクラスに変換する、人気のあるソリューションの 1 つです。 「scikit-multilearn」ライブラリには、このアプローチを実装するためのツールが含まれています。

図3: ラベルパワーセット法

変換が完了したら、「情報ゲイン」や「カイ二乗」などの方法を使用して特徴を選択できます。このアプローチは機能しますが、数百、あるいは数千もの異なる固有のタグの組み合わせを処理するのは困難です。この場合、教師なし特徴選択方法を使用する方が適切である可能性があります。

教師なし特徴選択法

教師なし学習法ではラベルに依存しないため、マルチラベルタスクの特性を考慮する必要はありません。典型的な教師なし特徴選択方法には以下のものがあります。

  • 主成分分析 (PCA) またはその他の因子分析方法。このタイプの方法は、特徴内の冗長な情報を削除し、モデルに役立つ特徴を抽出します。 PCA を使用する前に、各機能が分析に均等に寄与するようにデータを正規化してください。 PCA のもう 1 つのコツは、簡略化されたデータを直接使用するのではなく、アルゴリズムからの簡略化されたデータを元のデータと連結して、モデルがオプションで使用できる追加情報とすることができることです。
  • 差異しきい値。これは、特徴の次元を削減するシンプルで効果的な方法です。分散性や離散性が低い特徴は破棄します。これは、選択のためのより良いしきい値を見つけることによって最適化できます。0.5 は適切な開始しきい値です。
  • クラスタリング。入力データに基づいてクラスターを作成することによって新しい機能が構築され、対応するクラスターが入力データの各行に新しい機能の列として割り当てられます。

図4: K平均法クラスタリング

アップサンプリング方法

分類データのバランスが非常に悪い場合は、アップサンプリング手法を使用して希少クラスの人工サンプルを生成し、モデルを希少クラスに集中させることができます。マルチラベル シナリオで新しいサンプルを作成するには、マルチラベル合成少数クラス オーバーサンプリング手法 (MLSMOTE) を使用できます。

コードリンク: https://github.com/niteshsukhwani/MLSMOTE

このメソッドは、元の SMOTE メソッドから変更されています。少数派クラスのデータを生成し、少数派ラベルを割り当てた後、隣接するデータ ポイントで各ラベルが出現する回数をカウントして他の関連ラベルも生成し、統計の半分よりも頻繁に出現するデータ ポイントのラベルを保持します。

<<:  「中国版ダヴィンチ」ロボットが人気!ブドウの皮を縫うだけでなく、このような創造的な作業もあります

>>:  TransformerがCNNバックボーンネットワークを活性化、HKUとTencentの視覚的自己教師あり表現学習CARE

ブログ    
ブログ    

推薦する

生涯にわたる機械学習: 持続可能な学習のパラダイム

[[207884]]序文:最近、アンサンブル学習における持続可能性に関する研究に関する非常に興味深い...

...

ビジネスに適したRPAソフトウェアの選び方

[[407899]] [51CTO.com クイック翻訳]研究によると、企業の従業員がより生産的な仕...

2頭のアルパカが頭と尻尾を切り落とし、それをくっつけてハギングフェイスリストのトップに

HuggingFace が再びオープンソースの大規模モデルのリストのトップに躍り出ました。最前列は、...

科学者たちは指紋の水分調節メカニズムを研究しており、これはロボットや義肢の開発に役立つだろう。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

機械学習はデータに依存する

[[186928]]ビッグデータ、分析、モノのインターネット、クラウドテクノロジー...近年、これら...

ロボットシェフはトマト入りスクランブルエッグ9品を試食した後、味覚マップを描いた。

5月7日のZhidongxiによると、英国ケンブリッジ大学の研究者らは最近、シェフの調理過程を模倣...

詳細 | 顔認識が蔓延していますが、あなたの顔データを奪う権利は誰にあるのでしょうか?

記者 | 周一雪8月中旬のある日、北京市昌平区回龍観のコミュニティに住む王毅さんは、所有者グループの...

...

人工知能と機械学習の違いと影響は何ですか?

人工知能と機械学習は、意思決定を行うコンピューターが部署や課全体に取って代わる世界を思い起こさせます...

人工知能がいかにして質の高い経済発展を可能にするか

[[315132]]中国科学技術院発展戦略研究員 李秀全氏へのインタビュー第1次、第2次、第3次産業...

LLaVA-1.6は非常に強力で、Gemini Proを上回り、推論機能とOCR機能が向上しています。

昨年 4 月、ウィスコンシン大学マディソン校、マイクロソフト リサーチ、コロンビア大学の研究者が共同...

Patronus AI が LLM に懸念すべきセキュリティ上の欠陥を発見

自動評価および安全性プラットフォームである Patronus AI は、大規模言語モデル (LLM)...