Google は、AI を使用して最適化された新世代の人工知能とインフラストラクチャの開発をリードする Transformer アーキテクチャなど、業界をリードする AI 機能を常に構築してきました。 Google Cloud は、GPU や TPU などの高度な AI インフラストラクチャ サービスを提供することに取り組んでいます。 現地時間8月29日、Google CloudはGoogle Cloud Next '23年次カンファレンスを開催し、新しいTPU製品であるCloud TPU v5eを発表しました。これはAIに最適化されたインフラストラクチャ製品ポートフォリオであり、これまでで最もコスト効率が高く、汎用性が高く、スケーラブルなCloud TPUになります。現在プレビュー版が利用可能です。 TPU v5e は、Google Kubernetes Engine (GKE)、モデルや AI アプリケーションを構築するための開発者ツールである Vertex AI、Pytorch、JAX、TensorFlow などのディープラーニング フレームワークと統合でき、使いやすく使い慣れたインターフェースが提供され、簡単に始められることがわかりました。 Google Cloud は、大規模な AI モデルのサポートを提供するために、NVIDIA H100 GPU をベースにした GPU スーパーコンピューターである A3 VM もリリースしました。この製品は9月に一般発売される予定です。 Google CEO ピチャイ。 Google の主任科学者であり著名な学者であるジェフ・ディーン氏のツイート。 また、このイベントで Google は、Meta や Anthropic (Llama 2 や Claude 2 など) などの企業の AI ツールを自社のクラウド プラットフォームに追加し、強力な生成 AI 機能を自社のクラウド製品に統合すると発表しました。現在、Llama 2 と Claude 2 を含め、Google Cloud のお客様は 100 を超える強力な AI モデルとツールにアクセスできます。 TPU v4 と比較して、TPU v5e の改善点は何ですか?今回Google CloudがリリースしたTPU v5eの性能や使いやすさはどのようなものなのでしょうか?引き続き見ていきましょう。 公式データによると、Cloud TPU v5e は中規模から大規模のトレーニングと推論に高いパフォーマンスとコスト効率をもたらします。この世代のTPUは、大規模言語モデルや生成AIモデル向けに特別に設計されていると言えます。前世代のTPU v4と比較すると、1ドルあたりのトレーニング性能は最大2倍、1ドルあたりの推論性能は最大2.5倍向上しています。 TPU v5e は、TPU v4 の半分以下のコストで、より多くの組織に、より大規模で複雑な AI モデルをトレーニングおよび展開する機会を提供します。 TPU v5e チップ。 技術革新のおかげで、これらのコストメリットを実現するためにパフォーマンスや柔軟性を犠牲にする必要がないことは注目に値します。 Google Cloud は、TPU v5e ポッドを使用してパフォーマンス、柔軟性、効率性のバランスを取り、最大 256 個のチップを相互接続して、合計 400 Tb/s を超える帯域幅と 100 petaOps の INT8 パフォーマンスを実現しています。 TPU v5e の 2D スライスの詳細。 TPU v5e は汎用性も高く、1 つのチップ上のチップ数が 1 ~ 256 の 8 つの異なる仮想マシン構成をサポートしているため、顧客は適切な構成を選択して、さまざまなサイズの大規模な言語モデルや生成 AI モデルをサポートできます。 TPU v5e は、機能性とコスト効率の向上に加え、使いやすさもまったく新しいレベルに到達しています。お客様は、Google Kubernetes Engine (GKE) を使用して、TPU v5e および TPU v4 上の大規模な AI ワークロード オーケストレーションを管理できるようになり、AI 開発の効率が向上します。シンプルなマネージド サービスを好む組織向けに、Vertex AI では、さまざまなフレームワークとライブラリのトレーニングに Cloud TPU 仮想マシンの使用をサポートするようになりました。 さらに、前述のように、Cloud TPU v5e は、JAX、PyTorch、TensorFlow などの主要な AI フレームワークや、人気のオープンソース ツール (Huggingface の Transformers と Accelerate、PyTorch Lightning と Ray) の組み込みサポートを提供します。今後の PyTorch/XLA 2.1 バージョンでは、TPU v5e と、大規模モデル トレーニング用のモデリングやデータ並列処理などの新機能がサポートされる予定です。 最後に、トレーニング ジョブのスケーリングを容易にするために、Google Cloud は TPU v5e プレビューでマルチスライス テクノロジーを導入しました。これにより、ユーザーは物理的な TPU ポッドの範囲を超えて AI モデルを簡単にスケーリングし、最大数万個の TPU v5e または TPU v4 チップに対応できるようになりました。 複数の TPU ポッドスライスを活用して、線形パフォーマンスのスケーラビリティを実現します。 これまで、TPU を使用したトレーニング ジョブは単一の TPU チップに制限されており、TPU v4 の場合、スライスの最大数は 3,072 でした。 Multislice を使用すると、開発者は、単一のポッド内またはデータ センター ネットワーク (DCN) 上の複数のポッド間で ICI (In-Chip Interconnect) テクノロジーを活用して、ワークロードを数万個のチップに拡張できます。 この多層スライス技術は、Google の最先端の PaLM モデルを支えています。現在、Google Cloud のお客様もこのテクノロジーを体験できます。 アップグレードされた TPU v5e はお客様から高い評価を受けています。 AssemblyAI の技術担当副社長 Domenic Donato 氏は、TPU v5e を使用して ASR (自動音声認識) モデルの推論を実行すると、1 ドルあたりのパフォーマンスが市場の同様のソリューションの 4 倍になると述べています。この強力なハードウェアとソフトウェアの組み合わせにより、よりコスト効率の高い AI ソリューションを顧客に提供できます。 Google Cloud が AI インフラストラクチャを継続的にアップグレードするにつれて、Google Cloud サービスを選択する顧客がますます増えるでしょう。 Googleの親会社Aplabetの紹介によると、生成AIスタートアップの半数以上がGoogleのクラウドコンピューティングプラットフォームを使用している。 Google にとって、Cloud TPU v5e は、製品モデルのさらなる変革とクラウド顧客の支援の始まりとなります。 |
<<: マルチモーダル大規模モデル機能評価: Bard は必要なものですか?
>>: 学者は大喜び!MetaがPDFと数式を変換できるOCRツールをリリース
「シンギュラリティ」は、人工知能(AI)の将来展望とその社会的影響を説明する重要な概念です。 AIの...
過去数年間、ディープラーニングは、従来の機械学習を凌駕し、ほとんどの AI 型の問題に対する頼りにな...
機械学習エンジニアは、製品の開発やアルゴリズムの構築を行うチームの重要なメンバーです。データの専門家...
IT 組織は、サポートの改善、インフラストラクチャの最適化、システム障害の予測のために AI ベース...
いつの間にか、2019年は完全に私たちの前から去ってしまいました。過去1年を振り返ると、人工知能は間...
[[260578]]海外メディアの報道によると、グーグルは以前の取り組みが失敗した後、ロボット工学プ...
「エネルギー自己教師学習っていったい何?」と多くのRedditネットユーザーがコメントした。ちょう...
11月16日、Googleは、動画に関する質問に答えたり、新たな記録を樹立したりできる小型人工知能モ...
ヘルスケアビジネスの大局において、予測モデルは血液検査、X 線検査、MRI と同じ役割を果たします。...
視覚効果 (VFX) の分野における AI の統合は、シームレスでデータ主導のアプローチを導入するこ...
過去1年間、Stable Diffusionに代表される一連の文化イメージ拡散モデルは、ビジュアル創...
[[441262]]人々がシーンを観察するとき、通常はシーン内のオブジェクトとそれらの間の関係を観...
センサーデータは、産業オペレーションにおける運用の安全性と効率性を確保する上で重要な役割を果たします...