[51CTO.com クイック翻訳]今日、グラフィックス プロセッシング ユニット (GPU) は、人工知能と機械学習の最も興味深いアプリケーションのいくつかにおいて、ますます重要な役割を果たしています。 GPUは人工知能と機械学習での利用を拡大し続けている人工知能(AI)は間違いなく世界の生産性、労働パターン、ライフスタイルを変え、莫大な富を生み出すでしょう。調査会社ガートナーによると、2022年までに世界の人工知能市場の規模は2020年の約1.2兆米ドルから約3.9兆米ドルに急速に拡大し、マッキンゼーは2030年までに世界の人工知能市場の規模が約13兆米ドルに達すると予測しています。もちろん、この変革は、深層強化学習 (DRL)、敵対的生成ネットワーク (GAN)、勾配ブースティング決定木モデル (GBM)、自然言語処理 (NLP) などの強力な機械学習 (ML) ツールと技術によって推進されています。 現代の人工知能および機械学習システムの成功は、大量の生データを並列処理するために使用するタスク最適化ハードウェアの能力に大きく依存します。実際、AI の現代的なルネッサンスは 2012 年の ImageNet コンペティションから始まりました。このコンペティションでは、ディープラーニング アルゴリズムが非ディープラーニング アルゴリズムに比べて画像分類の精度を劇的に向上させました。しかし、巧みなプログラミングと数学的モデリングに加え、特殊なハードウェアの使用が人工知能の初期の成功に重要な役割を果たしました。 コンピューター ビジョン (CV) の進歩は、多くの AI および機械学習システムの開発を推進し続けています。コンピューター ビジョン (CV) はさまざまな業界で広く使用されるようになり、製造、自動運転、ヘルスケアなどの業界では、組織が機械やビジネス システムの動作方法を完全に変えることができるようになりました。ほぼすべてのコンピューター ビジョン (CV) システムは、従来のルールベースのプログラミング モデルから大規模なデータ駆動型の機械学習モデルへと進化しています。したがって、GPU ベースのハードウェアは、ペタバイト範囲以上になることが多い大量のトレーニング データの処理を支援し、高品質の予測と分類を保証する上で重要な役割を果たします。 この記事では、この特殊なハードウェア (特に GPU) がますます重要な役割を果たす、最も人気のある人工知能と機械学習のアプリケーション領域のいくつかを紹介します。 人工知能と機械学習で最も話題になっている分野は次のとおりです。
なぜ GPU はこれらのタスクで優れているのでしょうか?現実には、汎用 CPU では大量のデータの処理 (たとえば、数万または数十万の浮動小数点数を含む行列に対する線形代数演算の実行) が困難な場合がよくあります。ディープニューラルネットワークは、主に行列の乗算やベクトルの加算などの演算で構成されています。 GPU は、数千の小さなコンピューティング コアを使用して大規模な並列計算を処理するビデオ ゲームで使用するために開発されました。また、ニューラル ネットワークを数百エポックにわたってトレーニングするときに必要な大量の計算を実行しながら、高速データ ストリーム (処理ユニットが低速のメイン メモリにキャッシュし、その逆も行う) を処理するための大きなメモリ帯域幅も備えています。これにより、GPU はコンピューター ビジョン タスクの計算負荷を処理するための理想的なハードウェアになります。 GPUは多くのフレームワークや計算領域に最適化されていますGPU の一般的なアーキテクチャは、ディープラーニング アルゴリズムの中核となる特定の種類のコンピューティング タスクに適しています。しかし、この相乗効果が研究者や開発者によって十分に活用され、確認されると、GPU メーカー (NVIDIA など) は、さまざまなアプリケーション シナリオ向けに、より高性能で高度に最適化された GPU を開発するために多額の資金と人材を投資しました。 また、アプリケーション ソフトウェアとファームウェア スタックが継続的に更新され、最新の高レベル プログラミング フレームワークとシームレスに統合されるため、世界中の何百万もの開発者が GPU のパワーをより簡単に活用できます。下の図は、NVIDIA GPU 製品が最適化しているさまざまなディープラーニング フレームワークのエコシステムを示しています。 さらに、電力とパフォーマンスのトレードオフに応じて、GPU (および関連メモリ) アーキテクチャは、学術研究室で使用されるデスクトップ ワークステーションから産業用 IoT や自律走行車で使用されるエッジ コンピュータまで、幅広いコンピューティング ドメインに合わせて最適化できます。 Nvidia の Web サイトにあるこのグラフィックは、この点を説明するのに役立ちます。 自動運転における人工知能と機械学習自動運転は、機械学習システムにとって非常に困難で複雑な産業分野です。自動運転車は、さまざまな機能を備えた膨大な数のセンサーを使用して、道路状況、他の車両、歩行者、自転車、道路標識、出口、高速道路の標示、道路沿いの店舗、その他多くの変数に関する情報を収集します。この情報の多くは画像ベースです(さまざまな場所に設置された複数のカメラを使用)。その他の情報としては、LiDAR や他の種類のセンサーからのデータ ストリームなどが考えられます。 自動運転車の使用事例も、物体検出だけでなく、物体分類、セグメンテーション、動き検出などが含まれるため、非常に困難です。これに加えて、機械学習システムは、この画像/視覚処理を数秒以内に完了し、最終的な運転タスクを担当する上位レベルの監視システムにその決定を伝える必要があります。 さらに、あらゆる自動運転システムでは、通常、複数のこのようなコンピューター ビジョン (CV) システム/アルゴリズムが採用されています。このような場合には並列処理の必要性が高くなり、データを処理するコンピューターにかかる負担が大きくなります。複数のニューラル ネットワークを同時に使用すると、共通のシステム ストレージが共有され、共通のリソース プールをめぐって互いに競合する可能性があります。 さらに、この分野向けに高度に特化され最適化されたシステムオンチップ (SoC) プラットフォームも存在します。 NVIDIA は NVIDIA DRIVE AGX について次のように説明しています。「NVIDIA DRIVE™ AGX 組み込みスーパーコンピューティング プラットフォームは、カメラ、レーダー、および LiDAR センサーからのデータを処理し、周囲の環境を認識し、地図上で車両の位置を特定し、安全な前進経路を計画して実行します。この AI プラットフォームは、自動運転、車内機能、ドライバー監視、およびその他の安全機能をすべてコンパクトでエネルギー効率の高いパッケージでサポートします。」 ヘルスケアにおける人工知能と機械学習(医療画像)医療用画像処理の場合、コンピューター ビジョン システムのパフォーマンスは、病理画像を理解している経験豊富な放射線科医や臨床医によって評価されます。さらに、ほとんどの場合、このタスクには、罹患率が非常に低い希少疾患を特定することが含まれます。これにより、トレーニング データがスパースになります (トレーニング イメージが不十分になります)。したがって、ディープラーニング (DL) アーキテクチャでは、巧妙な処理と複雑なアーキテクチャを追加することでこれを補う必要があります。もちろん、これにより計算の複雑さが増します。 磁気共鳴画像(MRI)やその他の高度な医療用画像システムでは機械学習アルゴリズムが採用されており、がん検出における第一線の防御手段としてますます重要になっています。膨大な量のデジタルデータに直面すると、放射線科医の数と質が需要を満たすのが難しくなることが多く、機械学習ベースのシステムは放射線科医が意思決定プロセスを完了するのを支援するのに最適な選択肢です。 ネイチャー誌に掲載された記事によると、放射線科医は仕事量の要求を満たすために、1日8時間の勤務時間中に3~4秒ごとに1枚のX線画像を解釈する必要がある。今日では、医療画像データは豊富であり、ディープラーニング (DL) アルゴリズムに医療画像の拡大し続けるデータセットを投入することで、訓練を受けた放射線科医と同様に異常を検出し、結果を解釈することができます。このようなアルゴリズムは、皮膚の疑わしい斑点、病変、腫瘍、脳出血の特定など、日常的な所見と異常な所見を分類するようにトレーニングできます。しかし、何百万ものトレーニング例を分類し、正しく識別するには、GPU に最適化されたソフトウェアとハードウェア システムの助けが必要です。 病気との戦いにおける人工知能と機械学習(創薬)業界の専門家は、新型コロナウイルス感染症のような世界的なパンデミックは主にウイルスによって引き起こされていると指摘している。基本的な構造レベルでは、これらのウイルスは主に 1 つまたは複数の DNA/RNA 鎖で構成されています。遺伝子検査データから 3D タンパク質構造、つまりアミノ酸分子の配列を決定することは、特定のクラス (サブユニットおよび核酸タイプ) のワクチンを開発する上で重要です。 従来のタンパク質折り畳みアルゴリズムを試みると、そのタスクは計算上実行不可能になります (どれだけのハードウェア リソースを投入しても)。人工知能は、最新の深層強化学習 (DRL) とベイズ最適化技術を通じて、この課題の解決に重要な役割を果たすことができます。この点に関して、Google のディープラーニング研究部門である DeepMind は、遺伝子配列に基づいてタンパク質の 3D 構造を予測できる深層強化学習 (DRL) に基づくシステムである AlphaFold を発表しました。 2020年3月初旬、このシステムはコロナウイルスの検出にテストされ、DeepMindのAI研究者は、このシステムに基づいて、SARS-CoV-2に関連するいくつかの研究不足のタンパク質の構造予測を発表し、世界中の臨床およびウイルス学研究コミュニティがウイルスとそれが人間の生物学に与える影響を理解するための研究をより適切に遂行するのに役立ちました。 2020 年 11 月、このシステムは、CASP (Critical Assessment of Structure Prediction) と呼ばれる 2 年ごとのタンパク質構造予測コンテストで、他の 100 チームが開発したシステムよりも優れた成績を収めました。 しかし、これらの目覚ましい進歩は、より多くの GPU 搭載ハードウェアを導入するというコストを伴います。 AlphaFold のトレーニングに使用された計算能力を推定することは困難ですが、業界メディアの報道によると、その有名な前身である AlphaGo は、有名な囲碁の試合で数百の CPU と GPU を同時に使用し、囲碁の世界チャンピオンであるイ・セドルを破ったそうです。 環境・気候科学における人工知能と機械学習気候変動は、21 世紀に人類が直面する最も深刻な存在的危機の一つです。この画期的な世界的出来事の影響を理解するには、膨大な量の科学的データの収集、高忠実度の視覚化機能、堅牢な予測モデルが必要です。 したがって、天気予報と気候モデルは、気候変動に対する人類の対応の最前線にあります。しかし、このようなモデリングは簡単ではありません。少なくともビッグデータ分析と科学的シミュレーション機能が進化したため、この規模の問題は今日のハードウェアおよびソフトウェア スタックでは解決不可能です。 米国では、ほとんどの天気予報サービスは、Weather Research and Forecasting (WRF) と呼ばれる中規模統合モデルに基づいています。このモデルは、数十メートルから数千キロメートルまでの広範囲の気象アプリケーションに適用できます。したがって、このような包括的なモデルでは、数多くの気象関連変数とそれらの非常に複雑な相互関係に対処する必要があります。また、これらの複雑な関係を統一された一連の解析方程式を使用して記述することは不可能であることが判明しました。代わりに、科学者は、実際の現象よりも大きなスケールで関係をモデル化する、パラメータ化と呼ばれる方法を使用して方程式を近似しようとします。 ディープラーニングの魔法はこの問題を解決できるでしょうか? アルゴンヌ国立研究所の環境科学者と計算科学者は協力して、深層ニューラル ネットワーク (DNN) を使用して気象研究予報 (WRF) モデルの特定の物理スキームのパラメーターを置き換え、忠実度と予測力を損なうことなくモデリング時間を大幅に短縮することを目指しています。 彼らは、GPU 対応の高性能コンピューティング (HPC) ノードのパワーを活用して、この計算集約型研究を行っています。ニュース記事には、アルゴンヌ リーダーシップ コンピューティング ファシリット (ALCF) からの詳細がいくつか記載されています。「ALCF は、NVIDIA DGX A100 ノードで構成される Theta の拡張機能である ThetaGPU で、承認されたリクエストに時間を割り当て始めました。各 DGX A100 ノードには、8 つの NVIDIA A100 TensorCore GPU と 2 つの AMD Rome CPU が搭載されており、AI データセットのトレーニング用に 320 GB (合計 7680 GB) の GPU メモリを提供するとともに、モデリングとシミュレーション用の GPU 固有および GPU 強化 HPC アプリケーションもサポートしています。」 スマート製造における人工知能と機械学習原材料、商品、部品の移動は、あらゆる製造システムの中核業務です。そして、コンピューティングと情報技術の革命により、人々は、これらのアイテムの動きは、情報処理エンジンによって正確に制御され、監視されることによってのみ最も効率的に制御できることに気づきました。 したがって、ソフトウェアとハードウェアの革新的な組み合わせにより、従来の産業はインテリジェント製造の時代へと移行しました。コンピューティングとストレージのコストと運用の複雑さが飛躍的に減少するにつれて、人、機械、コントローラー、工場、倉庫、物流機械によって生成される情報コンテンツのサイズと複雑さは爆発的に増加しています。 現在、人工知能と機械学習の分野における革新的なアイデアにより、多くの製造組織がデータの洪水に溺れることから救われ、毎日処理しなければならないエクサバイト単位のデータの分析と理解に役立っています。ディープラーニング技術は、設計、品質管理、機械/プロセスの最適化、サプライチェーン、予測保守および予防保守など、さまざまな分野で使用されています。 データ生成と処理の要件の量と速度が急速に増加していることから、これらの AI/ML システムの大部分は GPU 搭載ワークステーションとクラウド コンピューティング リソースを使用しています。 GPU を使用した AI および機械学習アプリケーションの概要ますます多くの業界セクターが、業務や研究開発に強力な AI/ML ツールとプラットフォームを導入しています。この記事では、そのうちのいくつかについて説明し、GPU ベースのシステムのパワーと柔軟性が、さまざまな業界分野での AI の応用をどのようにサポートできるかを検討します。この傾向から判断すると、カスタマイズされた AI/ML ハードウェア ソリューション (ディープラーニング ワークステーションなど) の市場とオプションは、今後数年間で急速に成長し続けると自信を持って言えます。 原題: GPU ベースの AI と機械学習のアプリケーション、著者: Kevin Vu [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
<<: フェイフェイ・リーがリストに載っています!バイデン氏、AI研究者にデータを公開するため12人からなるタスクフォースを設置
>>: TensorFlow2 を使用してアラビア語の手書き文字データセットを認識する方法を説明します
スマート音声開発者はAIの「ゴールドラッシュ」を先導しています。 7月4日、第2回百度AI開発者会議...
ノア著制作:51CTO テクノロジースタック(WeChat ID:blog)かつて AI の王者だっ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
「機械は人間を攻撃できるか?」という疑問は、世界中の会議やソーシャルチャットの議論のテーブルで浮上し...
真の人工知能技術がまだ成熟していないため、人間が自律知能に対して想定するリスクは、高度な知能を持つロ...
大規模言語モデルは実際に数学の定理の研究に使用できます。最近、Microsoft Research ...
今年12月1日より、物理チャネルでは顔認識技術対策を全面的に導入し、電話ネットワークへのアクセスプロ...
知覚、学習、推論、問題解決などの認知機能を実行する能力を持つ機械は、人工知能を備えていると考えられて...
DAMOアカデミーは9月18日、2020年雲奇大会において、音声AI技術の最新のブレークスルーを発表...
[[408906]] Google でニュースを検索すると、検索結果にポルノ記事が大量に混ざって表...
OpenAI の侵害を調査し、AI 企業 SSC のハッキングの可能性とその影響の可能性を推測します...