Google: パフォーマンスの低い微調整モデルを捨てず、平均重量を計算してパフォーマンスを向上させる

Google: パフォーマンスの低い微調整モデルを捨てず、平均重量を計算してパフォーマンスを向上させる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

モデルの精度を最大化するにはどうすればよいでしょうか?

最近、Google やその他の機関は次のことを発見しました。

パフォーマンスの悪い微調整されたモデルをまだ捨てないで、平均重量を計算してください。

これにより、推論時間とメモリのオーバーヘッドを増やすことなく、モデルの精度と堅牢性を向上させることができます。

たとえば、研究者はこの方法を使用して、ImageNet1K の新しい記録90.94% を作成しました。

これを複数の画像分類および自然言語処理タスクに拡張すると、モデルの分布外パフォーマンスが向上し、新しい下流タスクのゼロショット パフォーマンスも向上します。

このメソッドにはモジュールスープという面白い名前が付けられています

すぐにフィボナッチスープのジョークを思い出しませんか? (昨日のスープ+一昨日のスープ=今日の新しいスープ)

△ Zhihuユーザー@hzwer、承認済み

レシピは全部で3つあります

これまでのことを振り返って、モデルの価値をどのように高めましたか?

まず、さまざまなハイパーパラメータを使用して複数の微調整されたモデルをトレーニングし、検証セットで最高のパフォーマンスを発揮するモデルを選択して、残りを破棄する必要がありますか?

ニューラル ネットワークは非線形であるため、さまざまな損失領域に多くのソリューションが存在する可能性があります。そのため、すべての微調整されたモデルの重みを保持して平均化する Module Soup の方法によってパフォーマンスが向上するというのは、少し意外です。

しかし、最近、同じ初期化構成から独立して最適化された微調整モデルは同じ誤差範囲内にあることが判明しました。   (エラーランドスケープの同じ盆地内にあります)

これまでの研究では、単一のトレーニング軌跡に沿った重み平均化により、ランダムに初期化されたトレーニング モデルのパフォーマンスが向上することも示されています。

著者はこれらの結論に触発された。

モジュール スープには、均一スープ、貪欲スープ、学習スープという 3 つの「レシピ」 (実装)があります

貪欲スープは、すべての重みを直接均等に平均化するよりもパフォーマンスが高いため、最も一般的に使用される実装です。

具体的には、Greedy Soup は各モデルを「スープ」の潜在的成分として順番に追加することで構築され、検証セットでのパフォーマンスが向上した場合にのみ、対応するモデルが「スープ」に保持されます。

ソートは検証セットの精度の降順で行われます。

単一の最も優れた微調整モデルを上回る

著者らは、モジュールスープの効果を判断するために包括的な微調整実験を実施しました。

最初のステップは画像とテキストのペアのコントラスト損失を使用して事前トレーニングされた CLIP と ALIGN を微調整することです。

モジュール スープ操作後、両方とも、分布内および自然分布シフト テスト セットで、最良の単一の微調整モデルよりも優れたパフォーマンスを発揮しました。

△ 左にCLIP、右にALIGN

続いて、 JFT データセットで事前トレーニングされたViT-Gモデルを実行します

つまり、ImageNet1K データセットで 90.94% の精度を達成し、CoAtNet が以前に保持していた 90.88% を破り、推論フェーズでの FLOP を 25% 削減しました。

著者は、画像分類タスクに加えて、 NLP の分野でもモジュール スープを検証しました。

次の表は、GLUE ベンチマークの 4 つのテキスト分類タスクにおける BERT モデルと T5 モデルの結果を示しています。

画像分類ほど改善は明らかではありませんが、ほとんどのタスクでは、貪欲スープは最良の単一モデルと比較してパフォーマンスを向上できることわかります

もちろん、著者はモジュールスープには適用性の面で限界があることも指摘しています。たとえば、現在テストされているモデルは、大規模な異種データセットで事前トレーニングされています。これらのモデル以外では、効果はあまり明白ではありません。

最後に、Zhihu ネットユーザー @宫酱手艺人 は、実際にはこのようなモデルパラメータの平均化は古典的なトリックであり、元のトランスフォーマー論文でも使用されていたと述べました。

見つかりましたか?

論文の宛先:
https://arxiv.org/abs/2203.0548

<<:  テスラAIディレクター:33年前にルカンのニューラルネットワークを再現したが、今とあまり変わらない

>>:  2022 年の人工知能のトレンド: AI はあなたにどのような影響を与えるでしょうか?

ブログ    
ブログ    
ブログ    

推薦する

AlphaFold: ノーベル賞を受賞する可能性のある最初の AI 成果

「これは、ノーベル賞受賞が期待される最初の人工知能の成果かもしれない。しかし、その画期的な進歩は間違...

WOT2018 孫林:連佳は人工知能技術の応用の原理と技術を探る

[51CTO.com からのオリジナル記事] 7 年間の努力と見事な変貌。 2012年以降、6年連続...

ByteDance の新しい具現化された知能の成果: 大規模なビデオデータでトレーニングされた GR-1 は、複雑なタスクを簡単に処理します

最近、GPT モデルは NLP の分野で大きな成功を収めています。 GPT モデルは、まず大規模なデ...

機械学習における欠損値に対処する9つの方法

データサイエンスはデータに関するものです。これは、あらゆるデータ サイエンスや機械学習プロジェクトの...

OpenAI CEO: GPT-4 は週当たり 1 億人のアクティブ ユーザーを抱え、依然として世界で最も強力な AI モデルです

米国現地時間11月7日月曜日に開催された第1回OpenAI開発者会議で、同社CEOのサム・アルトマン...

機械学習で避けるべき3つのよくある間違い

企業は、お金の無駄遣い、アプリケーションのパフォーマンスの低下、成果の得られないという 3 つの間違...

なぜ人工知能は第四次産業革命と呼ばれるのでしょうか?

[[234940]]過去2年間、世界のIT大手は人工知能の分野で展開してきました。GoogleはD...

IBMは5億行のコードデータセットをオープンソース化したが、最も人気のあるプログラミング言語はPythonではない

Google サービスには 20 億行のコードが含まれており、自動車システムには 1 億行のコードが...

アリババの音声ロボットが李佳琦の生放送室に登場、その応答速度はSiriの20倍

10月30日、終了したばかりの李佳琦のライブ放送室で、オンラインショッピング客はアリババの音声ロボッ...

ディープラーニング: オートエンコーダの基礎と種類

ディープラーニングが私たちの社会に大きな影響を与えようとしていることは明らかです。 Mobibit ...

英国最高裁:AIは「発明者」として記載できない

英国最高裁判所は12月21日、特許出願において人工知能(AI)を発明者として記載することはできないと...

...

人工知能はコロナウイルスの流行との戦いにどのように役立つのでしょうか?

新型コロナウイルス感染者数がほぼ指数関数的に増加し、世界は機能停止状態に陥っている。世界保健機関によ...