現在、クラウドコンピューティングやAIなどの技術の出現により、データセンター設計の構造的変化が進み、CPU+GPUアクセラレーションコンピューティングプラットフォームが主流となっています。今後、これらの技術が普及するにつれて、同様のニーズを持つ業界や企業はますます増えていくでしょう。 Boya は以前からこの傾向を認識しており、AI トレーニングと AI 推論パフォーマンスを向上させる一連の AI サーバー製品の発売を主導してきました。最近、NVIDIA は Ampere アーキテクチャの第 3 世代 Tensor Core をリリースしました。これによりパフォーマンスが大幅に向上し、AI のトレーニング時間が数週間から数時間に短縮され、推論速度が大幅に加速され、AI 業界全体の発展が促進されることは間違いありません。 Boyaの最初のDGX A 100は、顧客のビジネスを強化するアプリケーションを提供します DGX A100 は、トレーニング、推論、分析を単一の導入しやすい AI インフラストラクチャに統合し、企業にこれまでにないコンピューティング密度、パフォーマンス、弾力性を提供する、あらゆる AI ワークロードに対応するユニバーサル システムです。前世代のVoltaアーキテクチャV100コンピューティングカードと比較して、AmpereアーキテクチャA100コアはINT8推論性能とFP32トレーニング性能が20倍向上し、FP64高性能コンピューティングも2.5倍向上しており、これは史上最大の向上です。 DGX A100 システムには、8 つの新しい NVIDIA A100 Tensor Core GPU、最大規模の AI データセットをトレーニングするための 320 GB のメモリ、最新の高速 NVIDIA Mellanox® HDR 200Gbps インターコネクトが統合されています。新しい DGX の大幅なパフォーマンス向上により、企業は AI モデルとデータの急激な増加に先んじることができます。 Boya は、現地の顧客ビジネスに関する深い洞察と実際の使用におけるシステム パフォーマンス要件の深い理解を通じて、カスタマイズされた DGX A100 エンドツーエンド ソリューションを顧客に提供します。最近、PowerLeader は最初の DGX A100 を無事に納品し、企業のインテリジェント化を支援する PowerLeader の優れた能力を改めて実証しました。 Boyaの最初のDGX A100は、AI分野での使用のために納入されました。クライアントは、大量のデータを扱うマシンビジョン、顔認識、温度検知などのアプリケーションに AI 技術を使用するビデオ製品およびシステム ソリューション プロバイダーです。協力の過程で、お客様のディープラーニング システムがトレーニング要件を満たせなくなったことが判明しました。そこで、Boya は DGX A100 の優れたパフォーマンスに基づいてカスタマイズされたソリューションを作成しました。実際のアプリケーションを通じて、顧客のディープラーニング システムの GPU 容量は当初の基準からさらに向上し、GPU クラスターは 2 倍の AI トレーニング タスクを同時に処理できるようになり、メモリ帯域幅は 1.6TB/s に達し、相互接続機能はより高速でスケーラブルになりました。 PowerLeader AIサーバーがNVIDIA A100 GPU と「出会う」とき NVIDIA A100 GPU の第 3 世代 Tensor コアは、最大 4 億回/秒のパフォーマンスを備え、より高速で柔軟性が高く、使いやすくなっています。同時に、新世代の NVSwitch テクノロジにより、GPU 間通信のパフォーマンスが最大 600GB/秒に倍増します。より強力なコンピューティング パフォーマンスと GPU 間の相互接続帯域幅の向上により、AI コンピューティングの効率が向上し、ユーザーはより大規模なデータ スケールとより複雑なモデルで AI トレーニングを実施できるようになります。さらに、NVIDIA A100 GPU には 40GB の HBM2 メモリが搭載され、メモリ帯域幅が 70% 増加して 1.6TB/s となり、より大規模なディープラーニング モデルのトレーニングをサポートできます。 Boya は、俊敏かつ強力な製品設計および開発能力により、業界で最初に NVIDIA® Ampere アーキテクチャ GPU に追従した企業の 1 つとなり、NVIDIA® Ampere アーキテクチャに基づく AI サーバー製品を多数発売しようとしています。 新世代の製品は、互換性が向上し、トポロジーがより柔軟になりました。PCIe スロットは GEN4 をサポートし、4 ~ 10 個の PCIe バージョンの NVIDIA A100、最大 8 個の NVMe ドライブをサポートし、メモリは最大 DDR4-3200 をサポートできます。これにより、AI 顧客に、アプリケーション シナリオの究極の革新と最適化のために設計された AI コンピューティング プラットフォームが提供され、Boya AI サーバー製品ラインナップがさらに充実し、現在の膨大なデータ爆発と複雑なモデルによってもたらされる膨大なコンピューティングの課題に、より適切に対処できるようになります。同時に、当社は AI 顧客と緊密に連携し、音声、セマンティクス、画像、ビデオ、検索などの分野における AI アプリケーションのパフォーマンスを桁違いに向上できるよう支援しています。 |
<<: 「新しいインフラ」に注力 - Powerleader がコンピューティングパワーで人工知能を強化
>>: Boyaのディープラーニング製品がHuman Horizonsの自動運転実現に貢献
[[378110]]デジタル技術の導入に関しては、製薬業界では導入が遅れる傾向にあります。これまで、...
かつては、特に『スタートレック』や『2001年宇宙の旅』などのSF作品では未来の文明の進歩の象徴とみ...
ロジスティック回帰は、バイナリ分類タスクで最も一般的に使用される機械学習アルゴリズムの 1 つです。...
[[410827]] [51CTO.com クイック翻訳]急速な技術開発と進歩の時代において、個人情...
2019年もすでに半分が過ぎました。今年上半期のテクノロジー業界の目覚ましい成果は何でしょうか?今日...
X プラットフォーム (Twitter) で AI 論文をよく閲覧する研究者は、AK (@_akha...
最近、多くのソーシャル ネットワーキング プラットフォームに、オープン ワールド サバイバル ゲーム...
生成型人工知能 (GenAI) は技術革新の最前線にあり、さまざまな業界の変革と発展に新たな可能性を...
最近、シリコンバレーの高精度地図サービスプロバイダーであるDeepMapは、Accelが主導し、エン...
大気汚染は常に国家経済と国民の健康を悩ませる重要な要因となっている。大気中の汚染物質をタイムリーかつ...