現在、クラウドコンピューティングやAIなどの技術の出現により、データセンター設計の構造的変化が進み、CPU+GPUアクセラレーションコンピューティングプラットフォームが主流となっています。今後、これらの技術が普及するにつれて、同様のニーズを持つ業界や企業はますます増えていくでしょう。 Boya は以前からこの傾向を認識しており、AI トレーニングと AI 推論パフォーマンスを向上させる一連の AI サーバー製品の発売を主導してきました。最近、NVIDIA は Ampere アーキテクチャの第 3 世代 Tensor Core をリリースしました。これによりパフォーマンスが大幅に向上し、AI のトレーニング時間が数週間から数時間に短縮され、推論速度が大幅に加速され、AI 業界全体の発展が促進されることは間違いありません。 Boyaの最初のDGX A 100は、顧客のビジネスを強化するアプリケーションを提供します DGX A100 は、トレーニング、推論、分析を単一の導入しやすい AI インフラストラクチャに統合し、企業にこれまでにないコンピューティング密度、パフォーマンス、弾力性を提供する、あらゆる AI ワークロードに対応するユニバーサル システムです。前世代のVoltaアーキテクチャV100コンピューティングカードと比較して、AmpereアーキテクチャA100コアはINT8推論性能とFP32トレーニング性能が20倍向上し、FP64高性能コンピューティングも2.5倍向上しており、これは史上最大の向上です。 DGX A100 システムには、8 つの新しい NVIDIA A100 Tensor Core GPU、最大規模の AI データセットをトレーニングするための 320 GB のメモリ、最新の高速 NVIDIA Mellanox® HDR 200Gbps インターコネクトが統合されています。新しい DGX の大幅なパフォーマンス向上により、企業は AI モデルとデータの急激な増加に先んじることができます。 Boya は、現地の顧客ビジネスに関する深い洞察と実際の使用におけるシステム パフォーマンス要件の深い理解を通じて、カスタマイズされた DGX A100 エンドツーエンド ソリューションを顧客に提供します。最近、PowerLeader は最初の DGX A100 を無事に納品し、企業のインテリジェント化を支援する PowerLeader の優れた能力を改めて実証しました。 Boyaの最初のDGX A100は、AI分野での使用のために納入されました。クライアントは、大量のデータを扱うマシンビジョン、顔認識、温度検知などのアプリケーションに AI 技術を使用するビデオ製品およびシステム ソリューション プロバイダーです。協力の過程で、お客様のディープラーニング システムがトレーニング要件を満たせなくなったことが判明しました。そこで、Boya は DGX A100 の優れたパフォーマンスに基づいてカスタマイズされたソリューションを作成しました。実際のアプリケーションを通じて、顧客のディープラーニング システムの GPU 容量は当初の基準からさらに向上し、GPU クラスターは 2 倍の AI トレーニング タスクを同時に処理できるようになり、メモリ帯域幅は 1.6TB/s に達し、相互接続機能はより高速でスケーラブルになりました。 PowerLeader AIサーバーがNVIDIA A100 GPU と「出会う」とき NVIDIA A100 GPU の第 3 世代 Tensor コアは、最大 4 億回/秒のパフォーマンスを備え、より高速で柔軟性が高く、使いやすくなっています。同時に、新世代の NVSwitch テクノロジにより、GPU 間通信のパフォーマンスが最大 600GB/秒に倍増します。より強力なコンピューティング パフォーマンスと GPU 間の相互接続帯域幅の向上により、AI コンピューティングの効率が向上し、ユーザーはより大規模なデータ スケールとより複雑なモデルで AI トレーニングを実施できるようになります。さらに、NVIDIA A100 GPU には 40GB の HBM2 メモリが搭載され、メモリ帯域幅が 70% 増加して 1.6TB/s となり、より大規模なディープラーニング モデルのトレーニングをサポートできます。 Boya は、俊敏かつ強力な製品設計および開発能力により、業界で最初に NVIDIA® Ampere アーキテクチャ GPU に追従した企業の 1 つとなり、NVIDIA® Ampere アーキテクチャに基づく AI サーバー製品を多数発売しようとしています。 新世代の製品は、互換性が向上し、トポロジーがより柔軟になりました。PCIe スロットは GEN4 をサポートし、4 ~ 10 個の PCIe バージョンの NVIDIA A100、最大 8 個の NVMe ドライブをサポートし、メモリは最大 DDR4-3200 をサポートできます。これにより、AI 顧客に、アプリケーション シナリオの究極の革新と最適化のために設計された AI コンピューティング プラットフォームが提供され、Boya AI サーバー製品ラインナップがさらに充実し、現在の膨大なデータ爆発と複雑なモデルによってもたらされる膨大なコンピューティングの課題に、より適切に対処できるようになります。同時に、当社は AI 顧客と緊密に連携し、音声、セマンティクス、画像、ビデオ、検索などの分野における AI アプリケーションのパフォーマンスを桁違いに向上できるよう支援しています。 |
<<: 「新しいインフラ」に注力 - Powerleader がコンピューティングパワーで人工知能を強化
>>: Boyaのディープラーニング製品がHuman Horizonsの自動運転実現に貢献
[51CTO.comからのオリジナル記事] 人工知能の急速な発展に伴い、音声インタラクションは人工知...
[[248047]] (AIの2つのルート)ホフスタッターは1995年に予測した。 (人工知能におい...
コンピューター ビジョン モデルのパフォーマンスが低下する理由は、アーキテクチャ設計上の欠陥、代表的...
[[336217]]多くの新製品と同様に、自動運転に対する人々の態度は、過度の信頼から過少な信頼まで...
「滴滴出行がユーザーとドライバーをつなぐ旅行プラットフォームになるだけでなく、人、車、道路、信号、そ...
オンライン マイクロクレジットの一般的なリスク管理シナリオは、融資前、融資中、融資後の段階に分けられ...
AI の最新の傾向は、自然言語モデルが大きくなるほど精度が向上するということですが、コスト、時間、...
今年の AI 界のトップトレンドである大規模言語モデル (LLM) は概念を組み合わせるのが得意で、...
この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...
職場向けソーシャルプラットフォーム「LinkedIn」は6月26日、広告主が生成AIを通じてマーケテ...
[51CTO.comからのオリジナル記事]最近、UiPathとSF Supply Chainは共同オ...
「農業」は国家の基盤です。基盤がしっかりしていれば国家は平和になります。農業は国民経済の建設と発展を...