最近、NVIDIA GPU 製品や SDK を使用してディープラーニングを学習している学生に多く出会いました。これらの言葉をよく目にしますが、混乱しがちです。今日は見てみましょう。 これらの概念について説明する前に、ディープラーニングとは何かを確認しましょう。 DL-ディープラーニング ディープラーニングは、複数、場合によっては数百の層の関数を使用することを特徴とする機械学習の分野です。ディープラーニングは、線形分類が可能なパーセプトロンから、より複雑な関数を近似するために複数のレイヤーを追加するものへと進化しました。畳み込み層を追加すると、小さな画像の処理性能が向上し、手書きの数字も認識できるようになります。現在では、大規模な画像データセットと高性能な並列計算が利用できるようになり、畳み込みネットワークが大規模な画像に適用され、これまでは実現不可能だった幅広いアプリケーションが可能になっています。 ここでは、ディープラーニングがどのように使用されているか、実際のアプリケーションをいくつか紹介します。 ディープラーニングが優れている分野の一つは、画像分類と物体検出であり、ロボット工学や自律走行車などのアプリケーションで使用できます。物体検出は、ロボットが視覚情報をインテリジェントに使用して環境と対話できるようにするため、ロボットにとって重要です。ディープラーニングは、視覚を通じて人物の身元を確認できる顔認識にも使用されており、スマートフォンでは一般的です。しかし、ディープラーニングは画像処理だけではなく、スマートスピーカーや音声アシスト検索などの自然言語処理にも活用できます。その他のアプリケーションには、医療用画像処理、地震画像の解釈、コンテンツ推奨システムなどがあります。 多くのアプリケーションはクラウドの強力なパフォーマンスを活用できますが、一部のアプリケーションでは活用できません。たとえば、ロボットや自律走行車など、応答時間と信頼性が重要な一部のアプリケーションでは、低レイテンシが求められます。ビデオ分析などの高帯域幅を必要とするアプリケーションもあり、複数のカメラからリモート サーバーにデータを継続的にストリーミングすることは現実的ではありません。医療用画像処理など、患者データのプライバシーに関わるアプリケーションもいくつかあります。また、クラウドはドローンには使用できません。これらのアプリケーションでは、センサー自体またはその近くでの処理が必要です。そのため、NVIDIA Jetson プラットフォームはエッジ コンピューティングに最適なプラットフォームです。 Jetson プラットフォームの一般的なワークフローは、GPU サーバーまたはワークステーションでトレーニングを実行し、トレーニング済みのデータ モデルを Jetson でのエッジ推論に使用することです。 Nvidia は、すべての主要なディープラーニング ソフトウェア フレームワークに CUDA アクセラレーションを統合することで、モデルのトレーニングを容易にしました。これらのソフトウェア フレームワークは、ディープラーニング アプリケーションの開発と展開のプロセスを簡素化します。 これらのフレームワークのほとんどには微妙な違いがありますが、一般的にはそれぞれニューラル ネットワークを構築するための方法と、それをトレーニングするためのアルゴリズムを提供します。さまざまなフレームワークがありますが、それぞれに独自の利点があります。 TF - テンソルフロー Tensorflowはディープラーニングフレームワークの一つです TensorFlow は、Google がオープンソース化した人気のディープラーニング フレームワークです。 TensorFlow では、ニューラル ネットワークは、畳み込み、行列乗算、または各レイヤーの要素を変換するその他の操作など、一連の関連する操作で構成されるグラフとして定義されます。トレーニング プロセス中にネットワーク層内のパラメーターは変化しますが、ネットワーク構造は変化しません。 一般的なワークフローでは、開発者は Python で TensorFlow API 呼び出しを行って計算グラフを定義します。Python 呼び出しにより、ニューラル ネットワークを完全に定義するグラフ データ構造が作成されます。開発者は、明確に定義されたグラフ構造を使用して、トレーニングまたは推論の手順を記述できます。 TLT-転移学習ツールキット 新しいニューラル ネットワークを定義するだけでなく、他の開発者や研究者によってすでに定義されトレーニングされた既存のネットワークを再利用することも簡単です。これらのいわゆる事前トレーニング済みネットワークは、そのまま新しいタスクに再利用することができ、このプロセスは転移学習と呼ばれます。転移学習の場合、開発者は保存されたファイルから事前トレーニング済みのパラメータを読み込み、新しいデータセットを使用してトレーニング プロセスを実行します。この手法では、ネットワークを最初からトレーニングするよりもトレーニング サンプルが少ないため、通常は精度が高くなります。 NVIDIA の NVIDIA Transfer Learning Toolkit (TLT) は、「AI フレームワークの専門知識がなくても、インテリジェントなビデオ分析とコンピューター ビジョンのための正確で効率的な AI モデルを作成できます。コーディングなしでプロのように開発できます。」と主張しています。 Transfer Learning Toolkit (TLT) は、専用の事前トレーニング済み AI モデルを取得し、独自のデータでカスタマイズするための Python ベースの AI ツールキットです。転移学習は、既存のニューラル ネットワークから学習した特徴を新しいニューラル ネットワークに抽出します。転移学習は、大規模なトレーニング データセットを作成することが不可能な場合によく使用されます。スマート ビジョン AI アプリケーションとサービスを構築する開発者、研究者、ソフトウェア パートナーは、独自のデータを使用して、最初からトレーニングすることなく、事前トレーニング済みのモデルを微調整できます。 NVIDIA は、特定のユースケース (建物の占有状況分析、交通監視、駐車場管理、ナンバープレート認識、異常検出など) 向けに事前トレーニング済みのモデルを用意しています。これにより、開発者がモデルをゼロから作成して最適化するという時間のかかるプロセスが回避され、エンジニアリング作業を 80 週間から約 8 週間に短縮できるため、より短い時間でより高いスループットと精度を実現できます。 DeepStream を使用してビジョン AI アプリケーションを展開することで、より高いストリーミング密度を実現し、大規模に展開できます。 事前トレーニング済みのモデルは AI トレーニング プロセスを加速し、大規模なデータ収集、ラベル付け、およびモデルを最初からトレーニングすることに関連するコストを削減します。 NVIDIA の専用に構築された事前トレーニング済みモデルは、製品品質を備えており、人数カウント、車両検出、交通最適化、駐車場管理、倉庫運営など、さまざまなユースケースで使用できます。 TRT-テンソルRT ネットワークが完成すると、モデルを展開するのは簡単です。ただし、モデルが tensorRT を使用して最適化されている場合は、通常、パフォーマンス上の大きな利点が得られます。 TensorRT は NVIDIA によって提供されており、ニューラル ネットワーク推論を最適化するアクセラレータです。 覚えておいてください: TensorFlow や他のフレームワークとは異なり、TensorRT はディープラーニング モデルのトレーニングには使用されません。代わりに、トレーニングが完了したら、TensorRT を使用してモデルを展開用に最適化します。変換プロセスでは、高度に最適化された GPU 操作を活用するためにモデルが再構築され、レイテンシが短縮され、スループットが向上します。 このビデオでは、TensorRTを使用してモデルをデプロイする方法を学ぶことができます。 DS-ディープストリーム ディープラーニングは、世界中のビデオ分析アプリケーションの成長の原動力であり、開発者はコンピューター ビジョン ベースのアプリケーションでディープラーニングをますます使用しています。 2020 年までに世界中で 10 億台のカメラが稼働すると予想されており、これは信じられないほどの量の生のセンサー データです。このデータを使用して、人々、社会グループ、企業は、カメラとストリーミング分析を使用して、空港での入国管理管理、製造センターや工場での生産ライン管理、駐車場管理、乗客の流れ分析アプリケーションなど、スマート シティの構築に重要な機能を実行する強力なアプリケーションを構築しています。小売分析は、店舗が顧客が何を購入したいかを理解するために役立つ、もう 1 つの重要なユース ケースです。また、より包括的な洞察を提供するためにビデオ分析の使用を必要とする他の業界アプリケーションもあります。 NVIDIA Deepstream SDK は、さまざまなセンサーから独自のアプリケーションを構築できる汎用ストリーミング分析フレームワークです。これは実際には、オープンソースのマルチメディア分析フレームワークである GStreamer 上に構築された SDK です。 NVIDIA は、ストリーミング ビデオ分析に必要なフル スタックを高速化するように設計された SDK として Deepstream を提供しています。これは、開発者がインテリジェント ビデオ分析 (IVA) 用の効率的なパイプラインを構築できるようにするモジュール式 SDK です。ここで示されているのは、Deepstream プラグインによって構築された典型的な IVA パイプラインです。このパイプラインは、プラグインによって使用される基盤となるハードウェアとパイプラインの各機能をサポートし、ハードウェア アーキテクチャを活用してメモリ コピーなしでデータを移動します。 上記の概念は、AI アプリケーションを開発するときに相互に組み合わせることができます。例えば:
この記事が皆様にインスピレーションを与えることができれば幸いです。 |
<<: 人工知能はビッグデータ天体物理学の時代へのマスターキーとなるのでしょうか?
>>: 復旦大学の論文は、3体のSFシーンを実現:体にディスプレイ画面を装着し、ナビゲートやチャットも可能
序文機械学習プロジェクトを実行するには、まずモデルを(ほとんどの場合は予測 API として)デプロイ...
インターネット上に何気なく投稿された写真から、どれほどの情報が漏れてしまうのでしょうか?外国人ブロガ...
[[205201]] 9月26日、北京市内の中学校で、顔認証システムで本人確認がされた受験者が模擬試...
Google からもう 1 人の中核社員が退職することが明らかになりました。今回逃亡したのは、Dee...
この世で唯一負けない武術はスピードだ。ディープラーニング モデルをより速くトレーニングする方法は、常...
多くの企業が AI のビジネスケースを模索し、経営陣の支援を求め、基本的な IT およびデータ機能を...
ポストパンデミックの時代において、在宅勤務によって従業員の生産性を最大限に引き出すにはどうすればいい...
この記事はWeChatの公開アカウント「Product Second Sister」から転載したもの...
[[409851]] 0 はじめにこの記事で議論されている問題は、ICLR 2019の記事「CRI...
関数呼び出しの紹介関数呼び出しとは何ですか? OpenAI Chat API公式ドキュメント: Ch...
北京時間2月15日、研究者グループが、機密性の高いオンライン通信や取引を暗号化するためにRSAアルゴ...
人工知能の急速な発展を背景に、特定のタスクを実行するためのモデルのトレーニングは常に困難な作業となっ...