ビジョントランスフォーマーや LLM などのディープラーニングモデルをトレーニングする場合、ピーク時のメモリ消費は一般的なボトルネックになります。この記事では、モデリングのパフォーマンスと予測精度を犠牲にすることなく、PyTorch のメモリ消費を約 1/20 に削減できる一連のテクニックを紹介します。 この記事の著者は、PyTorch の Torchvision ライブラリのビジュアル トランスフォーマーをベースに、約 100 行のコードからなるトレーニング スクリプトを作成しました。すべてのコード例は GitHub でご覧いただけます。 この記事で紹介するテクノロジーの名称は次のとおりです。
これらの方法は互いに分離されており、一緒に使用できます。 この論文の実験で使用された ViT は ViT-L-16 モデルです。研究者たちは、上記の方法を一つずつ追加した後、BigBird-Roberta LLM をトレーニングしてテキスト分類タスクを実行できるようにします。これらの技術により、このようなモデルを消費者向けハードウェアでトレーニングすることが可能になります。 ビジョントランスフォーマーの微調整実験の PyTorch コードを簡素化するために、この記事ではオープンソース ライブラリ Fabric を使用します。これにより、わずか 12 行のコードでさまざまな高度な PyTorch テクノロジ (自動混合精度トレーニング、マルチ GPU トレーニング、テンソル シャーディングなど) を適用できます。 ネイティブの PyTorch コードと Fabric を使用するために変更されたコードの違いは微妙で、次のコードに示すように、わずかな変更のみが加えられています。 前述のように、変更は小さいですが、既存のコードを再構築することなく PyTorch の高度な機能を使用できるのは便利です。 上の図を要約すると、通常の PyTorch コードを PyTorch + Fabric に変換するための 3 つの主な手順は次のようにまとめられます。
通常の PyTorch と Fabric を使用した PyTorch のパフォーマンスとメモリ消費はほぼ同じです。 プレーン PyTorch (01_pytorch-vit.py): PyTorch と Fabric (01-2_pytorch-fabric.py) 次のコードを使用することもできます。 次と置き換えます: 置き換え後、微調整の代わりに同じ ViT アーキテクチャが最初からトレーニングされ、予測精度は 96% 以上から約 60% に低下します。 自動混合精度前のセクションでは、Fabric を使用して PyTorch コードを変更しました。これに基づいて、混合精度と分散トレーニングを使用するには、コードを 1 行変更するだけで済みます。 混合精度トレーニングの適用 混合精度トレーニングを使用するには、次のコード行に少し変更を加えるだけです。 次と置き換えます: その後、予測精度を犠牲にすることなく、メモリ消費量は以下に示すように 26.84 GB から 18.21 GB に削減されました。 01-2_pytoch-fabric.py と 02_mixed-precision.py の結果の比較 さらに、混合精度トレーニングでは、メモリ使用量が削減されるだけでなく、実行時間が 6 分の 1 (17.88 分から 3.45 分) に短縮されます。これは予想外のメリットです。 混合精度トレーニングとは何ですか? 混合精度トレーニングでは、精度が失われないように 16 ビットと 32 ビットの両方の精度を使用します。 16 ビット表現による勾配計算は、32 ビット形式よりもはるかに高速で、大量のメモリを節約します。この戦略は、メモリや計算上の制約がある場合に特に有益です。 「低」精度トレーニングではなく「混合」精度トレーニングと呼ばれる理由は、すべてのパラメーターと操作が 16 ビット浮動小数点数に変換されるわけではないためです。実際には、トレーニング中に 32 ビット操作と 16 ビット操作を切り替えます。 下の図に示すように、混合精度トレーニングは、計算を高速化するために重みを低い精度 (FP16 など) に変換する、勾配を計算する、数値の安定性のために勾配をより高い精度 (FP32) に戻す、スケーリングされた勾配で元の重みを更新する、といういくつかのステップに分けられます。 この方法により、トレーニングの有効性を確保しながら、ニューラル ネットワークの精度と安定性を維持できます。 興味のある読者は、この記事の著者による別の記事「混合精度テクノロジーを使用した大規模言語モデルの高速化」で、より詳しい基礎概念を知ることもできます。 記事アドレス: https://lightning.ai/pages/community/tutorial/accelerating-large-language-models-with-mixed-precision-techniques/ 低精度トレーニングさらに一歩進んで、混合精度ではなく「完全な」下位 16 ビット精度で実行してみることもできます。 次のコード行を置き換えます。 置き換える
ただし、トレーニング中に NaN 値が生成されることに注意してください。 これは、通常の 16 ビット浮動小数点では -65504 から 65504 までの数値しか表現できないためです。 したがって、NaN 問題を回避するには、パラメータを "bf16 true" に変更できます。 メモリ消費量をさらに 13.82 GB まで削減することも可能です (この場合も、精度は犠牲になりません)。 03_bfloat16.pyの結果を前のコードと比較する Bfloat16とは何ですか? 「bf16 mixed」の「bf16」は、Brain Floating Point (bfloat16) の略です。 Google は、特に Tensor Processing Unit (TPU) における機械学習およびディープラーニング アプリケーション向けにこの形式を開発しました。従来の float16 形式と比較すると、Bfloat16 は精度を犠牲にしてダイナミック レンジを拡張します。 拡張されたダイナミック レンジにより、bfloat16 は非常に大きな数値と非常に小さな数値を表すことができるため、幅広い範囲の値に遭遇する可能性のあるディープラーニング アプリケーションに適したものになります。ただし、精度が低いと、一部の計算の精度に影響したり、場合によっては丸め誤差が発生したりする可能性があります。しかし、ほとんどのディープラーニング アプリケーションでは、この精度の低下はモデリングのパフォーマンスにほとんど影響しません。 bfloat16 はもともと TPU 用に開発されましたが、この形式は A100 Tensor Core GPU 以降の NVIDIA GPU でもサポートされています。 次のコードは、GPU が bfloat16 をサポートしているかどうかを確認できます。 バッチサイズを縮小する多くの場合、バッチ サイズを縮小することは、メモリ消費を削減する効果的な方法です。ただし、トレーニングのダイナミクスが変化するため、予測パフォーマンスが低下する場合があります。 いずれにしても、バッチ サイズを縮小すると結果にどのような影響があるかを調べる価値はあります。パフォーマンスを犠牲にすることなくバッチ サイズを 16 に減らすことが可能であり、メモリ消費量を 5.69 GB に削減できることがわかります。 04_lower-batchsize.py を前のコードと比較します。 勾配累積とマイクロバッチ処理勾配累積は、トレーニング中にバッチ サイズを仮想的に増やす方法であり、使用可能な GPU メモリが目的のバッチ サイズに対応するのに十分でない場合に役立ちます。この方法は実行時にのみ影響し、モデリングのパフォーマンスには影響しません。 勾配累積では、各バッチの直後にモデルの重みを更新するのではなく、より小さなバッチが計算され、複数の反復にわたって勾配が累積されます (通常は合計または平均化されます)。累積勾配が目標の「仮想」バッチ サイズに達すると、モデルの重みは累積勾配で更新されます。 勾配累積を実装するには、前方パスと後方パスに 2 つの小さな変更を加えるだけです。 05_gradient-acum.py のコード修正 この記事の著者による別の記事「勾配累積を使用して単一 GPU 上で LLM を微調整する」では、勾配累積の詳細がさらに詳しく紹介されています。 記事アドレス: https://lightning.ai/blog/gradient-accumulation/ 有効なバッチ サイズは 16 で、累積ステップ数は 4 なので、実際のバッチ サイズは 4 になります (16/4=4 のため)。 05_gradient-acum.pyの結果 この手法の欠点は、実行時間が 3.96 分から 12.91 分に増加することです。 注目すべきは、バッチ サイズを 1 まで小さくすることができ、メモリ消費量がさらに 75% 削減されることです。 よりスリムなオプティマイザーを使用する人気の Adam オプティマイザーには、実際には追加のパラメーターが付属しています。たとえば、Adam は各モデル パラメーターに対して 2 つの追加のオプティマイザー パラメーター (平均と分散) を提供します。 したがって、Adam を SGD のようなステートレス オプティマイザーと交換することで、パラメーターの数を 2/3 に削減できます。これは、ViT と LLM を使用するときに非常に重要です。 通常の SGD の欠点は収束性が低いことです。したがって、Adam を SGD と交換した後は、補償するためにコサイン減衰学習率スケジューラを導入する必要があります。 つまり、次のコードを追加することで
次と置き換えます: この変更により、モデルは約 97% の分類精度を維持しながら、ピーク時のメモリ消費量を削減できるようになりました。 06_sgd-with-scheduler.py の結果 ターゲットデバイス上でモデルを作成するPyTorch でモデルをインスタンス化する場合、通常は最初に CPU デバイス上でモデルを作成し、次にそれをターゲット デバイスに転送して、必要な精度に変換します。 ただし、CPU 上で完全精度の中間モデルを生成するのは非効率的な方法です。したがって、Fabric の init_module コンテキストを使用して、ターゲット デバイス (GPU など) 上で必要な精度のモデルを直接作成できます。 この特定のケース (モデル) では、フォワード パス中のピーク メモリは、完全精度表現でのサイズよりも大きくなります。モデルの読み込み自体の fabric.init_module メソッドをベンチマークすると、次の結果が得られます。
この場合、init_module によってモデルの読み込みに必要なピーク メモリが 50% 削減されることがわかります。 init_module の詳細については、大規模モデルの効率的な初期化に関するこの記事を参照してください。 記事アドレス: https://lightning.ai/pages/community/efficient-initialization-of-large-models/ 分散トレーニングとテンソル共有次の変更は、マルチ GPU トレーニングです。複数の GPU を利用できると、モデルのトレーニングが高速化されるため便利です。 ただし、この記事ではメモリの節約について説明します。したがって、データ並列処理とテンソル並列処理を利用して複数のデバイス間で大きな重み行列を共有する、完全共有データ並列処理 (FSDP) と呼ばれる、より高度な分散マルチ GPU 戦略が必要です。 しかし、上記のセクション 7 のコードにこのテクニックを追加する場合など、モデルがすでに小さい場合は、目に見える効果はほとんどありません。したがって、シャーディングの効果にのみ焦点を当てるには、セクション 1 のフル精度ベースラインと比較することができます。 次のコードを置き換えてください
次と置き換えます: 08_fsdpと-01-2.pyの結果 手動で定義するだけでなく、次の方法を使用して、分割するレイヤーを自動的に決定することもできます。 データ並列性とテンソル並列性を理解する データ並列処理では、ミニバッチをさらに分割し、モデルのコピーを各 GPU に配置する必要があります。複数の GPU が並列に動作するため、モデルのトレーニングを高速化できます。 仕組みは次のとおりです:
この方法の主な利点は速度です。各 GPU は他の GPU と同時に独自のミニバッチ データを処理するため、モデルはより短時間でより多くのデータでトレーニングできます。これにより、特に大規模なデータセットを扱う場合に、モデルのトレーニングに必要な時間を大幅に短縮できます。 ただし、データの並列処理にはいくつかの制限があります。各 GPU には、モデルとそのパラメータの完全なコピーが必要です。これにより、モデルが単一の GPU のメモリに収まる必要があるため、トレーニング可能なモデルのサイズが制限されますが、これは最新の ViT または LLM では実現可能ではありません。 データ並列処理とは異なり、テンソル並列処理ではモデル自体が GPU 全体に分割されます。データ並列処理では、各 GPU がモデル全体に対応する必要があり、大規模なモデルをトレーニングするときに制限となる可能性があります。ただし、テンソル並列処理を使用すると、モデルを分割して複数のデバイスに分散することで、単一の GPU では大きすぎる可能性のあるモデルをトレーニングできます。 具体的には、その原理は行列の乗算に似ています。モデルは行または列ごとに分解できます。簡単にするために、列ごとの分解を例にとると、次の図に示すように、大規模な行列乗算演算を個別の計算に分解し、それぞれを異なる GPU で実行することができます。その後、結果が連結されて元の結果が得られ、計算負荷が効果的に分散されます。 パラメータのアンインストール前のセクションで説明したFSDP戦略に加えて、次のコードを追加することで、最適化パラメータをCPUにオフロードすることもできます。 次と置き換えます: メモリ消費量が 6.59 GB から 6.03 GB に減少しました。 09_fsdp-cpu-offload-with-01-2.py の結果。 ちょっとした欠点としては、上映時間が 5.5 分から 8.3 分に増えたことです。 これまでの技を組み合わせると、十八龍鎮圧掌の最も強力な最後の掌が完成します。前のセクションでは ViT の最適化に関する多くのトピックを取り上げましたが、これらの手法は LLM にも適用できます。 著者らは、LLaMA、Falcon、Pythia、およびその他の一般的なモデルをサポートする Lit LLaMA および Lit GPT リポジトリでこれらの手法の多くを使用しています。それでも、より一般的な例を作成するために、著者らは、IMDb の映画レビューの感情を分類するための、人気の HF トランスフォーマー ライブラリから LLM を微調整しました。 上記の手法を使用すると、3.99 Gb (bonus_bigbird-before.py) ではなく 1.15 Gb のメモリ (bonus_DistilBERT-after.py) のみを使用して DistilBERT 分類器をトレーニングすることが可能になります。さらに印象的なのは、これらの手法をトランスフォーマー ライブラリの BigBird モデルに適用することで、BigBird が消費するサイズがわずか 4.03 GB (bonus_BigBird-after.py) になることです。 結論はこの記事では、PyTorch モデルのメモリ消費を削減する 9 つの手法を紹介します。これらの技術を ViT に適用すると、単一の GPU でメモリ消費量が 20 倍削減されます。ご覧のとおり、テンソルを GPU 間でシャーディングすると、メモリ消費量も削減できます。同じ最適化により、BigBird LLM はピーク時の GPU RAM を 4GB のみ使用してトレーニングすることも可能になります。 これらのテクニックはいずれもモデル固有のものではなく、どの PyTorch トレーニング スクリプトでも使用できます。オープンソースの Fabric ライブラリを使用すると、ほとんどの最適化を 1 行のコードで実装できます。 |
>>: MITの中国人博士課程学生がChatGPTをJupyterに移行し、自然言語プログラミングをワンストップソリューションに
ハリー・ポッターの世界では、組分け帽子は生徒の行動履歴、好み、性格に関するデータを取得し、そのデータ...
[[399343]]ニューラル ネットワークは実際には表現を学習しています。CV の分野では、優れ...
翻訳者|朱 仙中レビュー | Chonglou導入携帯電話、気候センサー、金融市場取引、車両や輸送コ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[404690]]長年にわたり、多くの企業がロボット、自動化、人工知能などのテクノロジーからより多...
今日の GitHub ホット リストのトップは、最新のオープン ソース ワールド モデルです。コンテ...
Huawei Connect 2021では、中国科学技術情報研究所(CITI)、AITISA(新世代...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[437743]]あなたは人工知能の将来について楽観的でしょうか、それとも悲観的でしょうか?実際...