これはおそらく、マルチラベル分類のための最も実用的なヒントです。 ご存知のとおり、バイナリ分類タスクは、与えられた入力を 0 と 1 の 2 つのカテゴリに分類することを目的としています。マルチラベル分類 (マルチターゲット分類とも呼ばれます) は、指定された入力に基づいて、複数のバイナリ分類ターゲットを一度に予測します。たとえば、モデルは、与えられた画像が犬か猫かを予測したり、毛が長いか短いかを予測したりすることができます。 マルチ分類タスクでは、予測ターゲットは相互に排他的であり、1 つの入力が複数のカテゴリに対応する可能性があることを意味します。この記事では、マルチラベル分類モデルのパフォーマンスを向上させるためのヒントをいくつか紹介します。 モデル評価関数各列 (クラス ラベル) でモデル評価関数を計算し、平均スコアを取得することで、ほとんどのバイナリ分類評価関数をマルチラベル分類タスクに使用できます。対数損失またはバイナリクロスエントロピーは、そのような評価関数の 1 つです。クラスの不均衡現象をより適切に考慮するために、評価関数として ROC-AUC を使用できます。 図1: ROC-AUC曲線 モデリングのヒントこの記事では、特徴を構築する手法を紹介する前に、マルチラベル分類シナリオに適したモデルを設計するためのヒントをいくつか紹介します。 ほとんどの非ニューラル ネットワーク モデルの場合、唯一の選択肢は、各ターゲットの分類器をトレーニングし、予測を融合することです。この目的のために、「scikit-learn」ライブラリは、シンプルなラッパー クラス「OneVsRestClassifier」を提供します。このラッパークラスにより分類器はマルチラベルタスクを実行できるようになりますが、次の欠点があるためこのアプローチを採用すべきではありません。(1) ターゲットごとに新しいモデルをトレーニングするため、トレーニング時間が比較的長くなります。 (2)モデルは異なるラベル間の関係やラベルの相関関係を学習できない。 2 番目の問題は、2 段階のトレーニング プロセスを実行することで解決できます。その中で、ターゲットの予測結果と元の特徴を第 2 段階のトレーニングの入力として組み合わせます。この方法の欠点は、トレーニングが必要なモデルの数が以前の 2 倍になるため、トレーニング時間が大幅に増加することです。ニューラル ネットワーク (NN) は、ラベルの数がネットワーク内の出力ニューロンの数と等しいこのシナリオに適しています。任意のバイナリ分類損失をニューラル ネットワーク モデルに直接適用することができ、モデルはすべてのターゲットを出力します。この時点では、1 つのモデルをトレーニングするだけで済み、ネットワークは出力ニューロンを通じて異なるラベル間の相関関係を学習できるため、前述の非ニューラル ネットワーク モデルの 2 つの問題が解決されます。 図2: ニューラルネットワーク 教師あり特徴選択法特徴エンジニアリングまたは特徴選択を開始する前に、特徴を正規化および標準化する必要があります。 「scikit-learn」ライブラリの「Quantile Transformer」を使用すると、データの歪度が軽減され、特徴が正規分布に従うようになります。さらに、平均値を減算し、標準偏差で割ることで特徴量を標準化できます。このプロセスは、「Quantile Transformer」と同様の作業を完了し、データを変換してより堅牢にすることを目的としています。ただし、「Quantile Transformer」の計算オーバーヘッドは高くなります。 ほとんどのアルゴリズムは単一の目的のために設計されているため、教師あり特徴選択方法の使用は少し困難です。この問題を解決するには、マルチラベル分類タスクをマルチクラス分類問題に変換します。 Label Powerset は、トレーニング データ内の各一意のラベルの組み合わせをクラスに変換する、人気のあるソリューションの 1 つです。 「scikit-multilearn」ライブラリには、このアプローチを実装するためのツールが含まれています。 図3: ラベルパワーセット法 変換が完了したら、「情報ゲイン」や「カイ二乗」などの方法を使用して特徴を選択できます。このアプローチは機能しますが、数百、あるいは数千もの異なる固有のタグの組み合わせを処理するのは困難です。この場合、教師なし特徴選択方法を使用する方が適切である可能性があります。 教師なし特徴選択法教師なし学習法ではラベルに依存しないため、マルチラベルタスクの特性を考慮する必要はありません。典型的な教師なし特徴選択方法には以下のものがあります。
図4: K平均法クラスタリング アップサンプリング方法分類データのバランスが非常に悪い場合は、アップサンプリング手法を使用して希少クラスの人工サンプルを生成し、モデルを希少クラスに集中させることができます。マルチラベル シナリオで新しいサンプルを作成するには、マルチラベル合成少数クラス オーバーサンプリング手法 (MLSMOTE) を使用できます。 コードリンク: https://github.com/niteshsukhwani/MLSMOTE このメソッドは、元の SMOTE メソッドから変更されています。少数派クラスのデータを生成し、少数派ラベルを割り当てた後、隣接するデータ ポイントで各ラベルが出現する回数をカウントして他の関連ラベルも生成し、統計の半分よりも頻繁に出現するデータ ポイントのラベルを保持します。 |
<<: 「中国版ダヴィンチ」ロボットが人気!ブドウの皮を縫うだけでなく、このような創造的な作業もあります
>>: TransformerがCNNバックボーンネットワークを活性化、HKUとTencentの視覚的自己教師あり表現学習CARE
[[207884]]序文:最近、アンサンブル学習における持続可能性に関する研究に関する非常に興味深い...
[[407899]] [51CTO.com クイック翻訳]研究によると、企業の従業員がより生産的な仕...
HuggingFace が再びオープンソースの大規模モデルのリストのトップに躍り出ました。最前列は、...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[186928]]ビッグデータ、分析、モノのインターネット、クラウドテクノロジー...近年、これら...
5月7日のZhidongxiによると、英国ケンブリッジ大学の研究者らは最近、シェフの調理過程を模倣...
記者 | 周一雪8月中旬のある日、北京市昌平区回龍観のコミュニティに住む王毅さんは、所有者グループの...
人工知能と機械学習は、意思決定を行うコンピューターが部署や課全体に取って代わる世界を思い起こさせます...
[[315132]]中国科学技術院発展戦略研究員 李秀全氏へのインタビュー第1次、第2次、第3次産業...
昨年 4 月、ウィスコンシン大学マディソン校、マイクロソフト リサーチ、コロンビア大学の研究者が共同...
自動評価および安全性プラットフォームである Patronus AI は、大規模言語モデル (LLM)...
昨年 12 月、CMU とプリンストンの 2 人の研究者が Mamba アーキテクチャをリリースし、...