データは1/5000に縮小されたが、モデルの精度は2倍に。Googleの新しい「蒸留法」が人気に

データは1/5000に縮小されたが、モデルの精度は2倍に。Googleの新しい「蒸留法」が人気に

[[441258]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

錬金術のプロセスでは、トレーニングに必要なリソースを削減するために、ML 担当者は、圧縮前と同じ結果を確保しながら、大規模で複雑なモデルを小さなモデルに「蒸留」することがあります。

これは知識蒸留、つまりモデルの圧縮/トレーニング方法です。

しかし、技術の発展に伴い、蒸留の対象は徐々にデータセットへと拡大してきました。

Google は最近、データセット抽出の新しい方法を 2 つ提案しました。これは Twitter で大きな話題となり、600 回以上閲覧されました。

このように、50,000枚の注釈付き画像のCIFAR-10データセットをそのサイズの1/5000に「蒸留」し、 10個の合成データポイントのみでトレーニングすることで、モデルの精度は依然として51%近くになります。

△上: 元のデータセット 下: 蒸留後

「蒸留データセット」が 500 枚の画像 (元のデータセットの 1% のサイズ) で構成されている場合、その精度は 80% に達します。

2 つのデータセット蒸留方法は、それぞれ ICLR 2021 と NeurIPS 2021 の 2 つの論文から得たものです。

2段階ループによる最適化

では、データセットをどのように「抽出」できるのでしょうか?

実際、これは 2 段階の最適化プロセスに相当します。

  1. 学習データでモデルをトレーニングするために使用される「内部ループ」
  2. 「外側のループ」は、自然データに対する学習データのパフォーマンスを最適化するために使用されます。

内側のループを通じてカーネル リッジ回帰 (KRR) 関数を取得し、外側のループで元の画像注釈とカーネル リッジ回帰関数で予測された注釈の間の平均二乗誤差 (MSE) を計算します。

現時点では、Google が提案する 2 つの方法には、処理ルートが異なります。

1.ラベルの説明(LS)

このアプローチは、KRR 損失関数を最小化するサポート ラベルのセットを直接解釈し、各サポート イメージに対して一意の高密度注釈ベクトルを生成します。

△ 青: オリジナルのワンホットアノテーション オレンジ: LSによって生成された密なアノテーション

2.カーネル誘導ポイント(KIP)

このアプローチは、勾配ベースの方法を通じて KRR 損失関数を最小化することにより、画像と生成される可能性のあるデータを最適化します。

MNIST を例にとると、下の図の上、中、下の画像はそれぞれ、元の MNIST データセット、固定注釈付きの KIP 蒸留画像、最適化された注釈付きの KIP 蒸留画像です。

データセットを精製する際に、注釈を最適化することで最良の効果が得られることがわかります。

既存の DC (データセット凝縮) 方式と DSP (微分可能な Siamese Augmentation によるデータセット凝縮) 方式を比較すると、次のことがわかります。

カテゴリごとに 1 つの画像のみ、つまり最終的に 10 枚の画像のみを含む蒸留データセットを使用する場合、KIP メソッドのテスト セットの精度は、DC メソッドや DSP メソッドよりも一般的に高くなります。

CIFAR-10 分類タスクでも、LS は従来の方法よりも優れており、KIP ではパフォーマンスが 2 倍になることさえあります。

これに対してGoogleは次のように答えた。

これは、場合によっては、100 倍小さい「蒸留データセット」の方が元のデータセットよりもパフォーマンスが優れていることを示しています。

2人の中国人作家

プロジェクト全体は、Lechao Xiao、Zhourong Chen、Roman Novak によって完成されました。

そのうち、シャオ・レチャオ氏は LS 法に関する論文の著者の一人です。浙江大学応用数学科を卒業し、イリノイ大学アーバナ・シャンペーン校 (UIUC) で博士号を取得しました。現在は Google Brain チームの科学者です。

彼の主な研究対象は数学、機械学習、ディープラーニングです。

[[441260]]

もう一人の中国人科学者、Zhourong Chen 氏も KIP 法に関する論文の著者の一人です。彼は中山大学で学士号を取得し、香港科技大学でコンピュータサイエンスとエンジニアリングの博士号を取得しました。現在は Google Research のソフトウェア エンジニアです。

紙:
[1] https://openreview.net/forum?id=l-PrrQrK0QR
[2] https://openreview.net/forum?id=hXWPpJedrVP

オープンソースアドレス:
https://github.com/google-research/google-research/tree/master/kip

<<:  MITの新しい研究により、物体間の潜在的な関係性を理解し、AIが人間のように世界を「見る」ことが可能になった。

>>:  美団下華夏:「無人配達」は技術的に難しいことではない

ブログ    
ブログ    

推薦する

...

OpenAI セキュリティシステムディレクターが長文記事を執筆: 大規模モデルに対する敵対的攻撃と防御

ChatGPTのリリースにより、大規模な言語モデルのアプリケーションが加速し、大規模に展開されていま...

Kuaishou Agents システム、モデル、データはすべてオープンソースです。

7BサイズのモデルはAIエージェントも処理できますか?最近、Kuaishouは「KwaiAgent...

...

映画はヒットできるでしょうか?機械学習を使用して正確な予測を行う

映画データベース (TMDB) は映画データ用の API を提供し、ユーザーはこのデータベースからデ...

フランスの科学者がアリのように移動できる六脚ロボットを開発

通常、ロボットやその他のデバイスは GPS を使用して屋外で自律的に移動を行います。しかし、フランス...

...

チューリング賞受賞者ヨシュア・ベンジオ氏:生成フローネットワークがディープラーニングの分野を拡大

最近、「GFlowNet Foundations」と題された論文が注目を集めています。これはチューリ...

「人工バカ」、いつまで我慢できるの?

[[251715]]毎年、メディアでは AI の失敗に関する報道が見られます。なぜこのようなばかげ...

Google翻訳では対応できない?ドイツ語ハードコア翻訳DeepL体験

[[321121]]インターネットを頻繁に利用する人のほとんどは、お気に入りの翻訳ツールを持っていま...

これら10機関からの24の調査データはAIのトレンドを理解するのに役立ちます

[[256519]] 2019年1月現在の人工知能の現状は?最近の調査では、AI の人気、測定可能な...

ChatGPTという独立系ゲームがSteamから削除されました。開発者は「貯金と3年半の人生が消えてしまいました」と語っています。

3年半このゲームに一生懸命取り組んだのに、ChatGPT を使用したという理由だけで Steam ...

AI + エッジコンピューティング - エッジ人工知能は本当に存在するのか?

EdgeAI はもはやブループリント段階ではありません。すでに主流として採用され、驚異的な速度で成...

300 万行から 100 行へ: 機械学習により開発エクスペリエンスが向上

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...