大規模ディープラーニングツールの最新動向を詳しく見る

大規模ディープラーニングツールの最新動向を詳しく見る

Panos Labropoulos 博士は、Bright Computing のシニア サポート エンジニアです。

過去 10 年間、企業は競争上の優位性を獲得するために、大量のデータを収集および分析するために機械学習 (ML) を使用し始めました。現在、ディープラーニング(DL)と呼ばれる機械学習の分野を使用して、さらに先に進もうとする人もいます。彼らは、データに隠されたより深い特性を探求し、不正検出、需要予測、クリック予測、その他のデータ集約型分析のための予測アプリケーションを作成したいと考えています。

ディープラーニング (DL) 技術を使用して開発されたコンピューター ビジョン、音声認識、自然言語処理、オーディオ認識アプリケーションでは、大量のデータを処理するために膨大な計算能力が必要です。企業が求めているディープラーニング (DL) テクノロジー ソリューションを実現するには、基盤となる IT インフラストラクチャを企業レベルで導入および管理する必要があります。組織が大量の複雑なデータから実用的な洞察をより迅速かつ容易に得られるようにするための新しいソリューションが開発されています。

機械学習では、サンプル入力からモデルを構築して、データに基づいた予測や意思決定を行うアルゴリズムを開発します。 Google、Facebook、Amazon、Baidu、Yahoo、Tesla Motors、Walmart Labs などの大手テクノロジー企業はすでに機械学習ツールを使用して、画像認識、プログラマティック広告、製品やコンテンツの推奨などの分析アプリケーションを改善しています。

機械学習には、教師あり機械学習、教師なし機械学習、強化学習の 3 種類があります。

教師あり機械学習では、プログラムは事前に定義された一連の基準に基づいて「トレーニング」されます。たとえば、地域、寝室の数、総面積に基づいて、以前の住宅販売価格に関する情報をプログラムに入力し、新しい販売価格を予測するように依頼することができます。優秀な不動産業者は、立地、近隣地域、および類似の要素に基づいて住宅の価格を決める方法を知っていますが、標準的な手法を使用してコンピューターでこれを実行させるのは非常に面倒です。もう 1 つの例としては、事前定義されたデータセット (猫や犬の画像のコレクションなど) をコンピューターに表示して、他の類似画像を正しく識別できるようにトレーニングすることが挙げられます。

教師なし機械学習とは、プログラムに大量のデータが与えられ、提供されたデータ間の非線形関係を見つける必要があることを意味します。一例としては、不動産データを調べて、都市の特定の地域で価格が上昇している要因を特定することが挙げられます。大手メーカーは、この教師なし機械学習を使用して、さまざまな部品の将来の需要を予測しています。この方法では、機器を接地する前に部品を取り付ける準備が整います。人間の専門家は部品の需要に影響を与える要因を知っているかもしれませんが、機械学習は自律的な意思決定に必要な追加データを提供します。

強化学習とは、コンピュータ プログラムがタスクを実行する必要がある動的な環境と対話することを意味します。例としては、ソーシャル メディア フィードとやり取りして、ある問題に関する世論に関するデータを収集することが挙げられます。コンピューターはデータから洞察を引き出し、将来の貢献をリアルタイムで予測できます。

これらの機械学習手法は、問題が解決可能であり、データが利用可能な場合にのみ機能します。たとえば、機械学習の手法を使用して、消費者が犬を飼っているかどうかに基づいて飛行機のチケットの価格を見積もることはできません。データが人間の専門家の問題解決に役立たないのであれば、機械にも役立ちません。

例に示すように、一番上の行には明らかに子供の画像が含まれています。コンピュータにとって、自転車に乗っている子供、ビーチにいる子供、横になっている子供を含むビットマップはまったく異なるデータ セットです。それらを区別することをコンピュータに教えるのは非常に困難です。場合によっては、これらの画像の違いが生死に関わる問題となることもあります。たとえば、下部には道路交通標識が含まれています。自動運転車が雪で覆われているために道路標識を認識できないというのは受け入れられません。通常のドライバーは八角形の形状からそれを認識できるので、コンピューターでも同じことが行えるはずです。

機械学習により、企業はますます大規模かつ多様化するデータセットからパターンや傾向を発見できるようになるだけでなく、従来は人間が行っていた分析を自動化し、ビジネスに関連するやり取りから学習して証拠に基づく応答を提供できるようになります。また、提案されたアクションが成功する可能性が高いという信頼レベルも提供します。これにより、企業は差別化されパーソナライズされた新しい製品やサービスを提供できるようになるほか、既存の製品やサービスの効果を高めたり、コストを削減したりすることもできます。しかし、機械学習は特徴をモデル化する決定論的な方法を持っていないため、不正確な形式のコンピューティングです。通常、特徴はニューラル ネットワークとしてモデル化する必要があり、パラメーターは入力データセットの品質に依存します。

ディープラーニングは機械学習の一分野であり、人間の脳、特に脳内でニューロンが互いに相互作用する方法や脳内のさまざまな層が連携する方法をシミュレートする動的システムです。機械学習とは異なり、ディープラーニングでは、特徴はいくつかの内部/隠し層を持つディープラーニングニューラルネットワークとしてモデル化され、データの微妙な情報をキャプチャして物理的な意味を割り当てます。ディープラーニングは、デジタル画像をより簡単に分析できるセグメントに分割することができます。つまり、高レベルの情報を抽出してエンコードし、コンピューターで使用できるということです。

たとえば、人間の顔には目があります。コンピュータにとって、顔には明るいピクセルと暗いピクセルがあり、ある種の抽象的な線を形成します。ディープラーニング モデルの各レイヤーにより、コンピューターは同じオブジェクトの別の抽象レベルを認識できるようになります。先ほどの動物の例えを使うと、ディープラーニングによって、ユーザーは地面に横たわっている猫の写真とジャンプしている猫の写真を区別できるようになります。

ディープラーニングはここ数年で大きな進歩を遂げました。たとえば、下の図は、大規模な物体検出および画像分類アルゴリズムを評価する ImageNet Large Scale Visual Recognition Challenge (ILSCRC) の一環として行われた画像認識研究の精度を示しています。この研究の目的は、研究者がより広範囲の物体の検出における進歩を比較し、コンピュータービジョンにおける大規模な画像インデックス検出と注釈付けの進歩を評価できるようにすることです。

図の青い部分は、2010 年と 2011 年に利用可能だった従来のコンピューター ビジョン手法を示しており、紫色の部分は、最近使用されているディープラーニング手法を示しています。赤は、個人やグループに画像の説明と分類を依頼して測定された人間の正確さを示しています。グループの人々は、示された画像について考え、共通の答えを出すことができます。それを改善する確実な方法がすぐに分かります。 2015 年、ディープラーニング技術を使用するコンピューターは人間と同等の効率を実現しました。

Baidu Research の Deep Speech プロジェクトは最近、単一のディープ リカレント ニューラル ネットワークを使用して、英語と中国語の音声認識において人間レベルの精度を達成しました。この結果は、ディープラーニングがコンピュータービジョン以外の分野にも適用できることを示しています。

もう 1 つの興味深い例は、囲碁をプレイするために開発されたコンピュータ プログラムである AlphaGo で Google DeepMind がディープラーニング技術を使用していることです。 AlphaGo のアルゴリズムは、(人間とコンピューターのゲームから) 徹底的に訓練された人工ニューラル ネットワークを通じて以前に「学習」した知識に基づいて動きます。 2015年には、フルサイズの盤上で何の障害もなくプロの囲碁プレイヤーに勝利した初のコンピュータ囲碁プログラムとなった。

ディープラーニング技術への関心の高まりを示す最後の例は、StarCraft II を開発している DeepMind と Blizzard のコラボレーションです。このプロジェクトは、世界で最も人気のあるコンピューター ゲームを使用して、研究コミュニティとして開発されており、世界中の AI および機械学習の研究者に公開されています。

機械学習がもたらす膨大な計算上の課題

これらの機械学習とディープラーニングの技術の例は印象的ですが、計算負荷が大きくなります。ディープラーニングのトレーニングには通常、数十京回の浮動小数点演算 (FLOP) が必要であり、小規模なクラスターでは数週間から数か月かかります。急速に変化する環境において、ほとんどの組織では、インテリジェンスを抽出するためにそれほど長く待つことはできません。

ディープラーニング ソフトウェア モジュールをオープン ソース リポジトリを使用してダウンロードしてインストールするには、企業全体で数日かかる場合があります。特定のディープラーニング モジュールまたはライブラリのすべての依存関係を見つけるには、さらに長い時間がかかります。これらのツールはまだ新しいため、これらの依存関係の多くでは、特定のライブラリの特定のバージョンが利用可能であることをユーザーが確認する必要があります。見つかったら、ユーザーはすべてのライブラリと依存関係を手動でインストールする必要があり、時間がかかります。場合によっては、60 を超える依存関係を満たす必要がありました。多くのライブラリは標準的なエンタープライズでは利用できません
Linux ディストリビューションはオープン ソース リポジトリからインストールされるため、ユーザーは相互に動作するバージョンを確実に使用するには、手動でそれらを見つけてインストールする必要があります。

優れた公称パフォーマンス特性を備えていても、最適化されたライブラリがない場合、それらのライブラリの作成に数か月または数年かかるため、ユーザーは新しいハードウェアのメリットを享受できません。特に、ディープラーニングには、BLAS、FFT、畳み込み、malloc、memcopy への効率的な C インターフェースが必要です。 NVIDIA は cuBLAS と cuFFT に必要なインターフェイスを提供していますが、このような最適化されたライブラリは他の高密度ハードウェア プラットフォームには存在しません。通常、これらのライブラリを新しいアーキテクチャ上で最適化するには数年かかります。

利用可能な機械学習パッケージの概要を探している人のために、Knowm の豊富な機械学習ツールでは、40 を超える機械学習パッケージとライブラリの詳細な比較が提供されています。

ディープラーニングのフレームワークの構築

ディープラーニングを容易にする新しいツールやフレームワークが登場しています。組織は、アプリケーションを効果的に開発および実行するために、ハードウェア、ソフトウェア、ネットワーク、ツール、ライブラリの適切な組み合わせを選択する必要があります。

最初のビジネス プロセスは、ディープラーニング環境の展開、管理、運用、スケーリングを簡素化することです。企業はまずアナリストと開発者を有効にする必要があります。ディープラーニング ツールは単独では動作しません。より効果的にするために、企業は開発者やアナリストに、IT マネージャーにならなくても、ハードウェアとソフトウェアの両方をサポートする適切なツールとフレームワークのセットを提供する必要があります。

人工知能と機械学習は何十年も前から存在していますが、ディープラーニングはまだ絶えず変化している新しい分野です。企業は新しいツールやプラクティスを柔軟に導入し、機敏に市場の需要に迅速に対応する必要があります。

最新のディープラーニング環境

こうしたニーズに応えて、Bright Computing は Bright Cluster Manager バージョン 7.3 で利用可能な Bright for Deep Learning ソリューションを開発しました。新しいアプローチでは、Caffe、Torch、TensorFlow、Theano、CNTK などの機械学習フレームワークの選択肢が提供され、ディープラーニング プロジェクトが簡素化されます。これには、MLPython、cuDNN (NVIDIA CUDA Deep Neural Network ライブラリ)、DIGITS (Deep Learning GPU トレーニング システム)、CaffeOnSpark (ビッグ データ クラスター上のオープン ソース分散型ディープラーニング ソリューション) など、データセットへのアクセスに役立つ最も人気のある機械学習ライブラリがいくつか含まれています。

ディープラーニングのために大量のデータを処理するには、大量の計算能力が必要です。ディープラーニング専用に設計された新しいツールが利用可能になると、開発者はそれらを使用して、NVIDIA GPU などのアクセラレータを使用した高度なハイパフォーマンス コンピューティング (HPC) クラスター上でアプリケーションを構築します。

GPU を使用すると、機械学習に必要な計算集約型の手順を、CPU のみのソリューションよりもはるかに高速に実行できます。 Bright for Deep Learning ソリューションは、一般的な機械学習ライブラリの GPU アクセラレーション バージョンを提供し、ハードウェア、関連ソフトウェア、API、機械学習ライブラリの導入と管理を容易にします。つまり、研究者や開発者はツールの管理ではなく、自分の仕事に集中できるのです。

これはまた、機械学習パッケージをサポートする 400 MB を超える Python モジュール、NVIDIA ハードウェア ドライバー、CUDA (Parallel Computing Platform API) ドライバー、CUB (CUDA Building Blocks)、NCCL (Standard Collective Communication Library) など、これらのディープラーニング ライブラリとフレームワークを実行するために必要なすべての依存関係の検索、構成、展開についてユーザーが心配する必要がないことも意味します。今後は、CNTK、Bidmach、Keras、MXNet などがさらに追加される予定です。

ユーザーがさらに容量を必要とする場合、Bright のクラウド バースト機能を使用して、ディープラーニング機能を備えた GPU 対応インスタンスをクラウドにスケールアウトできます。また、ディープラーニング アプリケーションを簡単に統合したり、プライベート OpenStack クラウドで実行したりすることもできます。ユーザーは、CaffeOnSpark を使用してディープラーニング アプリケーションを実行することで、最新のクラスターが提供するパフォーマンスを活用することもできます。

エンタープライズは最先端のHPCクラスターとディープラーニングを組み合わせます

さまざまな企業がすでにこのソリューションを使用して、最先端の HPC クラスターとディープラーニングを組み合わせています。たとえば、スタンフォード大学はコンピュータービジョン、自然言語処理、クレジットカード詐欺検出に取り組んでいます。ジョージ・メイソン大学は科学的シミュレーションデータを分析しています。

生命科学研究、トランスレーショナルゲノミクス、コンシューマーゲノミクス、分子診断のためのシーケンシングおよびアレイ技術を開発しているイルミナは、特定の機能をコード化できるゲノムの部分を特定するための遺伝子予測研究を行っています。 Samsung は、Caffe ディープラーニング ネットワークをヘルスケア アプリケーション用のコンピューター ビジョンに適用する取り組みを進めています。リコーは画像認識のためのディープラーニング技術を研究しており、ニューヨーク大学 (NYU) マルチメディアセンターは HPC クラスター上でディープラーニングタスクをテストしています。

ディープラーニングは、従来の HPC ワークロード (大規模で高密度な線形代数問題など) と一致しています。しかし、現在、最速のディープラーニング クラスターと最速のスーパーコンピュータの間には大きなギャップがあります。多くの課題が残っているものの、ディープラーニングのパフォーマンスをさらに向上させ、より大きなデータセットの使用を可能にする大きなチャンスがあります。

<<:  自動運転のためのニューラルネットワークとディープラーニング

>>:  2022年のAIはどうなるでしょうか? IBMが5つの予測を発表

ブログ    

推薦する

Facebookが開発した高速データ圧縮アルゴリズムZstdの使い方

[51CTO.com クイック翻訳] Zstandard (Zstd とも呼ばれる) は、Faceb...

自分で作成したデータセット、TensorFlow を使用した株価予測チュートリアル

[[211061]] STATWORX チームは最近、Google Finance API から S...

...

MITは、ニューラルネットワークトレーニングのブラックボックスを自動的に覗くネットワーク解剖フレームワークを提案

MIT の新しいテクノロジーは、視覚データでトレーニングされたニューラル ネットワークの内部の仕組み...

世界で最も美しいソートアルゴリズム!

[[248668]]早速、世界で最も「美しい」ソートアルゴリズムについてお話ししましょう。 voi...

バーチャル試着室テクノロジーの仕組み

[51CTO.com クイック翻訳]テクノロジーの進歩と発展により、バーチャル試着室が人々の生活に入...

DeepMindの「フィッシングエンフォースメント」:AIに間違った発言をさせ、数万件の危険な発言を発見させる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

疑わないでください、それはあなたです!あなたの信頼が自動運転の運命を決める

ヒューマンエラーによる交通事故は人々を自動車恐怖症にさせませんが、自動運転車はなぜか人々を恐怖に陥れ...

...

機械学習モデルの品質を保証し、その有効性を評価する方法

[[396139]]近年、機械学習モデルアルゴリズムは、ますます多くの産業実践に実装されるようになり...

大規模モデルは小規模モデルに正確にフィードバックし、知識の蒸留はAIアルゴリズムのパフォーマンスを向上させるのに役立ちます。

01 知識蒸留の誕生の背景近年、ディープニューラルネットワーク (DNN) は、特にコンピューター...

1秒で元の写真に戻る: Adob​​e Photoshop のリバース ツールは、編集した場所を認識して修正するのに役立ちます

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

NLP/CVモデルは国境を越えて、ビジュアルトランスフォーマーはCNNを超えるのか?

コンピュータービジョンの分野では、畳み込みニューラルネットワーク (CNN) が常に市場を支配してき...