背景近年、NLPの応用分野では大きな進歩がありました。Bert、GPT、GPT-3などの超大規模モデルがさまざまなNLPテストを席巻した後、モデルパラメータが大きいほどアルゴリズムのパフォーマンスが向上することがわかりました。そのため、大規模モデルの方向への開発が急速に進み、モデルサイズが爆発的に増加しました。大規模モデルのトレーニングが既存のトレーニング システムにもたらす主な課題は、メモリの負荷、コンピューティングの負荷、および通信の負荷です。 言語モデルのサイズは指数関数的に増加しています (出典: https://huggingface.co/blog/large-language-models) Volcano Engine 大規模モデルトレーニングフレームワーク veGiantModelこの需要に応えるために、ByteDance の AML チームは、Volcano Engine 用の大規模モデル トレーニング フレームワークである veGiantModel を開発しました。 veGiantModel は、PyTorch フレームワークをベースに、Megatron と DeepSpeed をベースにした高性能な大規模モデル トレーニング フレームワークです。機能は次のとおりです:
このうち、ByteCCLはByteDanceが開発したBytePSのアップグレード版であり、A100/V100などのさまざまなモデルトポロジー向けに階層化プロトコルの最適化が行われ、allgatherやalltoallなどのより包括的な通信プリミティブをサポートしています。 veGiantModel パフォーマンスハードウェア構成VeGiantModel のパフォーマンスを実証するために、veGiantModel チームは自社のコンピュータ ルームで物理マシンを使用し、A100 モデルと V100 モデルのテストを実施しました。実験構成は次のとおりです。
モデルとコントロールグループの選択veGiantModel は評価用に GPT-13B モデルを選択しました。シーケンス長は 256、グローバル バッチ サイズは 1536 です。 GPT は、市場で最も人気のあるトランスフォーマーベースの言語モデルです。パフォーマンス制御グループは、最も人気のあるオープンソース コミュニティ ツールである Megatron と DeepSpeed を選択しました。 テスト結果
上記のデータから、次のことがわかります。
原因分析veGiantModel が Megatron や DeepSpeed よりも高速なのはなぜですか?理由は次のとおりです。
ポータルveGiantModel は現在、次のアドレスの GitHub でオープンソース化されています。 https://github.com/volcengine/veGiantModel GitHub では、veGiantModel の使用方法と、veGiantModel を使用して GPT 事前トレーニングをすばやく実行する方法について詳しく説明しています。 Volcano Engine 機械学習プラットフォームは、veGiantModel をネイティブにサポートしています。このプラットフォームは現在パブリック ベータ版であり、誰でも試すことができます: https://www.volcengine.com/product/ml-platform |
<<: AIカーゴのロープロファイルバージョン?ネットユーザーがCNN1台を使って「ニード・フォー・スピード9」でレース
現在、自動運転車の知覚の実現は、車両に搭載されたレーザーレーダー、車載カメラ、ミリ波レーダーなどのセ...
3月23日、360テクノロジー株式会社と華泰聯合証券はIPO上場指導契約を締結した。これは360がI...
1997 年、世界は現チェスチャンピオンのガルリ・カスパロフと IBM の Deep Blue AI...
「ブラックミラー」シリーズのエピソード「メタルヘッド」を見て、ロボット犬が兵器としてもたらす危害を知...
01 自然言語生成自然言語生成は、顧客サービス、レポート生成、市場概要などで使用すべくデータをテキ...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[186706]]マサチューセッツ工科大学(MIT)は最近、同校の研究者らが樹木や植物のポンプ機構...
人工知能は本質的に、人間の知的労働を解放するでしょう。今後、サービスがボトルネックとなり、サービス産...
以前、「【インタビュー】 - 低速反応再帰」で 3 つの再帰アルゴリズムを読みました。フィボナッチ数...