非常に使いやすい自信学習: ラベルエラーを見つけるための 1 行のコード、ノイズの多いラベルを学習するための 3 行のコード

非常に使いやすい自信学習: ラベルエラーを見つけるための 1 行のコード、ノイズの多いラベルを学習するための 3 行のコード

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

知っていましたか? ImageNet でも、おそらく少なくとも 100,000 のラベル問題があります。

大規模なデータセット内のラベルエラーを記述または検出すること自体が非常に困難な作業であり、多くのヒーローがそれに悩まされてきました。

最近、MIT と Google の研究者は、与えられたラベルと未知のラベル間の結合分布を直接推定できる一般化信頼学習 (CL)法を提案しました。

この一般化された CL は、オープンソースの Clean Lab Python パッケージとしても利用可能であり、ImageNet および CIFAR で他の最先端の方法よりも 30% 優れたパフォーマンスを発揮します。

この方法はどれほど強力でしょうか?例えば。

上の図は、2012 ILSVRC ImageNet トレーニング セットで自信のある学習を使用して検出されたラベル エラーの例です。研究者たちは、CL によって発見された問題を 3 つのカテゴリーに分類しました。

1. 青: 画像内に複数のラベルがあります。
2. 緑: データセットには 1 つのクラスがあるはずです。
3. 赤: ラベルエラー。

自信のある学習により、適切なモデルを使用して任意のデータセット内のラベル付けエラーを見つけることができます。次の図は、他の 3 つの一般的なデータセットの例です。

自信のある学習を使用してさまざまなデータ パターンとモデルを識別する Amazon レビュー、MNIST、Quickdraw データセットに現在存在する誤ったラベル付けの例。

とても良い方法なので、すぐに試してみてはいかがでしょうか?

Confident Learning とは何ですか?

信頼学習は、教師あり学習のサブフィールドとして登場しました。

上の図から、CL には 2 つの入力が必要であることが容易にわかります。

1. サンプル外予測確率
2. ノイズの多いラベル

弱い監督の場合、CL は次の 3 つのステップで構成されます。

1. クラス条件付きラベルノイズを完全に記述できるように、与えられたノイズラベルと潜在的な(未知の)破損していないラベルの結合分布を推定します。
2. ラベルの問題のあるノイズの多い例を見つけて削除します。
3. エラーを排除するようにトレーニングし、推定された潜在的な事前確率に従ってサンプルの重みを再調整します。

では、CLはどのように機能するのでしょうか?

犬、キツネ、牛の画像を含むデータセットがあると仮定しましょう。 CL の動作原理は、ノイズ ラベルと真のラベルの結合分布 (下の図の右側の Q 行列) を推定することです。

左: 確信度の高いカウントの例。右: 3 種類のデータセットのノイズ ラベルと真のラベルの結合分布の例。

次に、CL は、上図の左側の C マトリックスに示すように、「犬」クラスである可能性が高い「犬」というラベルの付いた画像を 100 枚カウントしました。

CL はまた、犬としてラベル付けされた画像のうちキツネである可能性が高いものを 56 枚、犬としてラベル付けされた画像のうち牛である可能性が高いものを 32 枚数えました。

中心的な考え方は、サンプルの予測確率が各クラスのしきい値より大きい場合、サンプルがこのしきい値のクラスに属していると確信できるということです。

さらに、各クラスのしきい値は、そのクラスのサンプルの平均予測確率です。

使いやすいクリーンラボ

前述したように、この記事で言及されている一般化された CL は、実際には Clean Lab Python パッケージです。クリーンラボと呼ばれる理由は、ラベルを「クリーン」にできるからです。

Clean Lab には次のような利点があります。

高速: シングルショット、非反復、並列アルゴリズム (例: ImageNet でラベル エラーを見つけるのに 1 秒未満)。
堅牢性: 不完全な確率推定を含むリスク最小化の保証。
汎用性: PyTorch、Tensorflow、MxNet、Caffe2、scikit-learn など、あらゆる確率分類器に適用できます。
一意性: ノイズの多いラベルを使用したマルチクラス学習、または任意のデータセット/分類器のラベル エラーを見つけるための唯一のパッケージです。

たった 1 行のコードでタグ エラーを見つけます。

3 行のコードでノイズの多いラベルを学習しましょう。

次に、MNIST における Clean Lab のパフォーマンスを見てみましょう。このデータセットでは 50 個のラベル エラーを自動的に識別できます。

元の MNIST トレーニング データセット内のラベル エラーは、ランクプルーニング アルゴリズムを使用して識別されます。最も信頼性の低い 24 個のラベルを左から右に並べ、上から下に向かって信頼性 (特定のラベルに属する確率) が高くなるにつれて、青緑色で conf として示します。予測確率が最も高いラベルは緑色になります。明らかなエラーは赤で表示されます。

ポータル

プロジェクトアドレス:
https://github.com/cgnorthcutt/cleanlab/

自信を持って学ぶブログ:
https://l7.curtisnorthcutt.com/confident-learning

<<:  Uberの自動運転車による死亡事故の捜査に新たな進展:横断歩道の外を歩く歩行者を識別できない

>>:  新たなAIの冬に対する最後の防衛線

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

500億のパラメータ、103の言語をサポート: Googleが「グローバルテキスト翻訳」モデルを発表

並列データが不足しているため、小規模言語の翻訳は常に大きな問題となっていました。 Google の研...

カメラ、レーダー、地図は不要、二足歩行ロボットは「自分の感覚」で歩く

二足歩行ロボットは高価で複雑、そして壊れやすい。バランスという観点で言えば、二足歩行は四足歩行よりは...

...

IoTとAIを活用した依存症治療

IoT および AI ベースのデバイスは、私たちの中毒的な習慣をきめ細かなレベルで監視できるため、ユ...

衝撃の2017年!この10日間は中国の人工知能の時代

2017年にはすでに「残高不足」が発生。今年、中国の人工知能開発は多くの進歩を遂げ、実りある成果を達...

破壊的な AI プログラム: 人工知能が天文学の革新を推進する方法

[[349907]]あらゆる業界に嵐のように広がっている流行語があるとすれば、それは「人工知能」に違...

自律型 AI エージェント: 未来の生産性エンジン

翻訳者 | 崔昊レビュー | Chonglouまとめこの記事では、タスクを自ら作成し、優先順位を付け...

Logreduce: Python と機械学習でログノイズを除去する

Logreduce は、大量のログ データから異常を検出することでデバッグ時間を節約できます。継続的...

安全なパスワード保存の業界標準: bcrypt アルゴリズム

パスワードを安全に保護するための標準アルゴリズムである bcrypt アルゴリズムについて説明します...

...

...

AIにとって合成データが必須である理由

企業はペタバイト、エクサバイト、さらにはゼタバイト単位のデータを収集しています。しかし、データは乱雑...

LLM の成功に欠かせない基礎: RLHF とその代替技術

LLM について議論するときは、必ず「人間のフィードバックによる強化学習 (RLHF)」と呼ばれるプ...

OpenAIは、レビューの効率を向上させ、人間の関与を減らすことができるコンテンツレビュー機能をテストしている。

人工知能のスタートアップ企業OpenAIは8月16日、GPT-4がコンテンツレビュー機能をテストして...

...