Google: パフォーマンスの低い微調整モデルを捨てず、平均重量を計算してパフォーマンスを向上させる

Google: パフォーマンスの低い微調整モデルを捨てず、平均重量を計算してパフォーマンスを向上させる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

モデルの精度を最大化するにはどうすればよいでしょうか?

最近、Google やその他の機関は次のことを発見しました。

パフォーマンスの悪い微調整されたモデルをまだ捨てないで、平均重量を計算してください。

これにより、推論時間とメモリのオーバーヘッドを増やすことなく、モデルの精度と堅牢性を向上させることができます。

たとえば、研究者はこの方法を使用して、ImageNet1K の新しい記録90.94% を作成しました。

これを複数の画像分類および自然言語処理タスクに拡張すると、モデルの分布外パフォーマンスが向上し、新しい下流タスクのゼロショット パフォーマンスも向上します。

このメソッドにはモジュールスープという面白い名前が付けられています

すぐにフィボナッチスープのジョークを思い出しませんか? (昨日のスープ+一昨日のスープ=今日の新しいスープ)

△ Zhihuユーザー@hzwer、承認済み

レシピは全部で3つあります

これまでのことを振り返って、モデルの価値をどのように高めましたか?

まず、さまざまなハイパーパラメータを使用して複数の微調整されたモデルをトレーニングし、検証セットで最高のパフォーマンスを発揮するモデルを選択して、残りを破棄する必要がありますか?

ニューラル ネットワークは非線形であるため、さまざまな損失領域に多くのソリューションが存在する可能性があります。そのため、すべての微調整されたモデルの重みを保持して平均化する Module Soup の方法によってパフォーマンスが向上するというのは、少し意外です。

しかし、最近、同じ初期化構成から独立して最適化された微調整モデルは同じ誤差範囲内にあることが判明しました。   (エラーランドスケープの同じ盆地内にあります)

これまでの研究では、単一のトレーニング軌跡に沿った重み平均化により、ランダムに初期化されたトレーニング モデルのパフォーマンスが向上することも示されています。

著者はこれらの結論に触発された。

モジュール スープには、均一スープ、貪欲スープ、学習スープという 3 つの「レシピ」 (実装)があります

貪欲スープは、すべての重みを直接均等に平均化するよりもパフォーマンスが高いため、最も一般的に使用される実装です。

具体的には、Greedy Soup は各モデルを「スープ」の潜在的成分として順番に追加することで構築され、検証セットでのパフォーマンスが向上した場合にのみ、対応するモデルが「スープ」に保持されます。

ソートは検証セットの精度の降順で行われます。

単一の最も優れた微調整モデルを上回る

著者らは、モジュールスープの効果を判断するために包括的な微調整実験を実施しました。

最初のステップは画像とテキストのペアのコントラスト損失を使用して事前トレーニングされた CLIP と ALIGN を微調整することです。

モジュール スープ操作後、両方とも、分布内および自然分布シフト テスト セットで、最良の単一の微調整モデルよりも優れたパフォーマンスを発揮しました。

△ 左にCLIP、右にALIGN

続いて、 JFT データセットで事前トレーニングされたViT-Gモデルを実行します

つまり、ImageNet1K データセットで 90.94% の精度を達成し、CoAtNet が以前に保持していた 90.88% を破り、推論フェーズでの FLOP を 25% 削減しました。

著者は、画像分類タスクに加えて、 NLP の分野でもモジュール スープを検証しました。

次の表は、GLUE ベンチマークの 4 つのテキスト分類タスクにおける BERT モデルと T5 モデルの結果を示しています。

画像分類ほど改善は明らかではありませんが、ほとんどのタスクでは、貪欲スープは最良の単一モデルと比較してパフォーマンスを向上できることわかります

もちろん、著者はモジュールスープには適用性の面で限界があることも指摘しています。たとえば、現在テストされているモデルは、大規模な異種データセットで事前トレーニングされています。これらのモデル以外では、効果はあまり明白ではありません。

最後に、Zhihu ネットユーザー @宫酱手艺人 は、実際にはこのようなモデルパラメータの平均化は古典的なトリックであり、元のトランスフォーマー論文でも使用されていたと述べました。

見つかりましたか?

論文の宛先:
https://arxiv.org/abs/2203.0548

<<:  テスラAIディレクター:33年前にルカンのニューラルネットワークを再現したが、今とあまり変わらない

>>:  2022 年の人工知能のトレンド: AI はあなたにどのような影響を与えるでしょうか?

ブログ    

推薦する

海外の専門家による人工知能の発展見通しに関する衝撃的な4つの予測

[[240152]]人工知能技術が成熟するにつれ、この技術のより広範な社会的、倫理的影響に十分な注意...

...

Uber劉延東:Uberがフードデリバリーサービスを開始したとき、世界中のフードデリバリー会社は衝撃を受けた

[ 51CTO.comより引用 ] 2017年7月21日から22日まで、51CTOが主催する人工知能...

DAYU200は自閉症の早期スクリーニング音声特徴フィルタリングおよび認識システムを運用しています

オープンソースの詳細については、以下をご覧ください。 51CTO オープンソース基本ソフトウェアコミ...

人工知能の知られざる12の秘密

[[375984]] [51CTO.com クイック翻訳] 人工知能技術がさまざまな業界でますます使...

人工知能は製造業の未来をどのように変えるのでしょうか?

ある研究機関が最近発表した調査報告によると、2022年までに人工知能が製造業にもたらす価値は23億ド...

ロシアとウクライナのドローン戦争:ドローン艦隊の製造に8年間で90億ドルを費やしたロシアはなぜ制空権を失ったのか?

ビッグデータ概要2014年にクリミアで戦っていたウクライナ軍兵士たちは、ロシアの無人機を目撃すると、...

...

...

...

Llama 2を完全に置き換えます!白川2は歴史上最も完全なトレーニングの詳細を明らかにする

この国では、ラマの時代は終わった。 9月6日、百川知能は7Bと13Bのベースとチャットバージョンを含...

人工知能トレーナーという職業は魅力的ですか?

人工知能については誰もが知っていますが、人工知能トレーナーについてはどのくらい知っていますか? [[...

...

Adobeは、より高品質な画像を提供するために、AI生成モデルの新世代であるFirefly Image 2をリリースしました。

アドビは10月11日、先日開催されたAdobe MAXクリエイティブカンファレンスにおいて、同社のA...

...