2020 年のディープラーニングに最適な GPU の概要。どれが最適かを確認してください。

2020 年のディープラーニングに最適な GPU の概要。どれが最適かを確認してください。

ビッグデータダイジェスト制作

出典: lambdalabs

編纂者:張秋月

ディープラーニング モデルが強力になるにつれて、より多くのメモリ領域を占有しますが、多くの GPU にはトレーニングに十分な VRAM がありません。

では、ディープラーニングを始める準備ができたら、どのような GPU が最も適しているのでしょうか? ここでは、ディープラーニング モデルのトレーニングに適した GPU のリストと、それらを横並びで比較します。見てみましょう。

長すぎて読めない

2020 年 2 月現在、以下の GPU で現在のすべての言語モデルと画像モデルをトレーニングできます。

  • RTX 8000: 48GB VRAM、約5,500ドル
  • RTX 6000: 24GB VRAM、約4,000ドル
  • Titan RTX: 24GB VRAM、約2,500ドル

次の GPU は、ほとんどの (ただしすべてではない) モデルをトレーニングできます。

  • RTX 2080 Ti: 11GB VRAM、約1,150ドル
  • GTX 1080 Ti: 11GB VRAM、工場再生品で約800ドル
  • RTX 2080: 8GB VRAM、約720ドル
  • RTX 2070: 8GB VRAM、約500ドル

次の GPU は現在のモデルのトレーニングには適していません。

  • RTX 2060: 6GB VRAM、約359ドル。

この GPU でのトレーニングには比較的小さなバッチ サイズが必要であり、モデルの分布近似が影響を受け、モデルの精度が低下します。

画像モデル

メモリ不足になる前の最大バッチ サイズ:

*GPU にモデルを実行するのに十分なメモリがないことを示します。

パフォーマンス(1秒あたりに処理される画像数):

*GPU にモデルを実行するのに十分なメモリがないことを示します。

言語モデル

メモリ不足になる前の最大バッチ サイズ:

*GPU にモデルを実行するのに十分なメモリがないことを示します。

パフォーマンス:

* GPU にはモデルを実行するのに十分なメモリがありません。

Quadro RTX 8000の結果を使用して正規化されたパフォーマンス

画像モデル:

言語モデル

結論は

  • 言語モデルは、画像モデルよりも大きな GPU メモリの恩恵を受けます。右側の曲線が左側の曲線よりも急であることに注意してください。これは、言語モデルはメモリ サイズによってより制限され、画像モデルは計算能力によってより制限されることを示しています。
  • より大きなバッチ サイズを使用すると CUDA コアが飽和するため、VRAM が大きい GPU の方がパフォーマンスが向上します。
  • VRAM が大きい GPU では、比例して大きなバッチ サイズを実現できます。小学校レベルの数学しか知らない人なら、これが理にかなっていることがわかるでしょう。24 GB の VRAM を搭載した GPU は、8 GB の VRAM を搭載した GPU の 3 倍のバッチを処理できます。
  • 長いシーケンスの言語モデルは、シーケンスの長さの 2 乗で注意が集中するため、他のモデルと比較して不釣り合いに大量のメモリを消費します。

GPU 購入の推奨事項

  • RTX 2060 (6 GB): 空き時間にディープラーニングを探求したい。
  • RTX 2070 または 2080 (8 GB): ディープラーニングに真剣に取り組んでいますが、GPU 予算は 600 ~ 800 ドルです。 8 GB の VRAM はほとんどのモデルに適しています。
  • RTX 2080 Ti (11 GB): ディープラーニングに真剣に取り組んでおり、GPU 予算は約 1,200 ドルです。 RTX 2080 Ti は RTX 2080 よりも約 40% 高速です。
  • Titan RTX および Quadro RTX 6000 (24 GB): 最新モデルを頻繁に使用していますが、RTX 8000 を購入する予算がありません。
  • Quadro RTX 8000 (48 GB): 将来への投資をお考えの場合、または 2020 年の最新かつ最もクールなモデルをお探しの場合。

注記

画像モデル:

言語モデル:

関連レポート: https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/

[この記事は51CTOコラムBig Data Digest、WeChatパブリックアカウント「Big Data Digest(id: BigDataDigest)」のオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  Huawei のフルシナリオ AI コンピューティング フレームワーク MindSpore がオープン ソースになりました。

>>:  人工知能は優秀な医師の役割を果たすのでしょうか?

ブログ    

推薦する

自然:機械が人間の言語の出現を促進する

今週ネイチャー誌に掲載された科学報告で、研究者らはロボットが人間の言語の生成を促進できることを発見し...

顔認識が再び禁止される:プライバシーと偏見をめぐる論争は続く 米国の別の州が顔認識ソフトウェアを禁止

海外メディアの報道によると、ニューヨーク州議会は、学校での顔認証やその他の生体認証技術の使用を202...

AIと大量動画が出会うと、IBMは20秒で新時代への扉を開く

序文:約 60,000 時間のビデオから、ある人物の素晴らしい瞬間の 1 分を見つけるにはどうすれば...

百度技術委員会の呉華委員長:NLP技術は機械に人間の言語によるコミュニケーション能力を持たせるはずだ

[[211656]] 「人工知能を人間の生活に取り入れたいなら、人間とコミュニケーションできる言語能...

顔認識モデルをゼロから構築する(例と Python コード付き)

01 はじめにFacebook に写真をアップロードするたびに、プラットフォームが顔認識アルゴリズ...

毎日のアルゴリズム: 二分木のレベルトラバーサル

[[423982]]バイナリ ツリーが与えられた場合、そのノード値のボトムアップ レベルのトラバーサ...

【ビッグネーム登場、第2話】快溝タクシーの知能進化への道

インテリジェントな注文発送システムをゼロから構築するように依頼され、1 日の注文数が 40 万件だと...

Google が 17 分野を網羅し 18,000 の注釈を付した大規模な対話コーパスを公開

Google アシスタントのような AI アシスタントは、追加データや再トレーニングを必要とせずに、...

人工知能クロニクル | これら 10 大イベントは、人工知能の 64 年間の発展を記録しています

1956 年の夏、アメリカの小さな町ハノーバーの静かなダートマス大学に、ジョン・マッカーシー (Li...

中国の新世代人工知能レポートが発表:中国はAI論文数で世界一

[[266390]] 5月24日、浦江イノベーションフォーラムで「中国の新世代人工知能発展報告書20...

...

最近、ソラは子供たちの間でパニックを引き起こしています!

昨晩、娘がぼんやりしてリビングルームに立っていたので、私は彼女に尋ねました。「何をしているの?」彼女...

ヘルスケアにおける AI: 注目すべき 3 つのトレンド

COVID-19 パンデミック、メンタルヘルス危機、医療費の高騰、人口の高齢化により、業界のリーダ...

...