まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

AI の初心者向けに、AI の注目すべき 6 つの分野と、その概要、重要性、現在の使用方法、研究している企業について説明します。

[[184083]]

1. 強化学習

RL は、人間が新しいタスクを学習する方法にヒントを得た、試行錯誤による学習パラダイムです。一般的な RL 設定では、AI に、デジタル環境における現在の状態を観察し、環境から各アクションの結果を受け取り、アクションが進捗を促進するか妨げるかを AI が認識できるように動機付けのフィードバックを与えるというタスクが与えられます。したがって、AI は報酬を得るための最善の戦略を見つける必要があります。 Google の DeepMind はこのアプローチを採用しています。 RL の実際の例としては、Google のデータ センターの冷却エネルギー効率を最適化するタスクがあります。このタスクでは、1 つの RL システムによって冷却コストが 40% 削減されました。シミュレート可能な環境 (ビデオゲームなど) で RL を使用する利点は、トレーニング データを非常に安価に生成できることです。これは、通常、高価で現実世界から入手するのが難しいトレーニング データを必要とする教師ありディープラーニング タスクとはまったく対照的です。

アプリケーション: 複数の AI が独自の環境で学習または相互作用する、同じ環境で相互に学習する、迷路や街路などの 3D 環境をナビゲートする方法を学習する自動運転、観察された動作を学習タスクの目標 (運転の学習など) に一般化する逆強化学習。

企業: Google DeepMind、Prowler.io、Osaro、MicroPSI、Maluuba/Microsoft、NVIDIA、Mobileye。

2. 生成モデル

分類や回帰タスクに使用される識別モデルとは対照的に、生成モデルはトレーニング例に対して確率分布を学習します。この高次元分布からサンプリングすることにより、生成モデルはトレーニング データに類似した新しい例を出力します。これは、たとえば、実際の顔画像でトレーニングされた生成モデルが、顔に似た新しい合成画像を出力できることを意味します。これらのモデルの動作の詳細については、Ian Goodfellow の素晴らしい NIPS 2016 チュートリアルを参照してください。彼は、教師なし学習への道を提供するアーキテクチャ、Generative Adversarial Networks (GAN) を紹介しました。 GAN には 2 つのニューラル ネットワークがあります。1 つはランダム ノイズを入力として受け取り、コンテンツ (画像など) を合成するジェネレーター、もう 1 つは実際の画像がどのように見えるかを学習し、画像が本物か偽物かを識別するディスクリミネーターです。敵対的トレーニングは、生成された画像と実際の画像を識別器が区別できなくなるようにする方法を機械が反復的に学習しなければならないゲームと考えることができます。このフレームワークは、多くのデータ モデルとタスクに拡張されています。

アプリケーション: 時系列の可能性のある未来をシミュレートする (強化学習の計画タスクなど)、超解像度画像、2D 画像を 3D 構造に復元する、小さなラベル付きデータセットから一般化する、1 つの入力から複数の正しい出力を生成する (ビデオの次のフレームを予測するなど)、会話型インターフェース用の自然言語を作成する、すべてのラベルを半教師あり学習できない場合、芸術的なスタイルの転送、音楽やサウンドの合成。

企業: Twitter、Adobe、Apple、Prisma、Jukedeck、Creative.ai、Gluru、Mapillary、Unbabel。

3. メモリストレージを備えたネットワーク

AI システムがさまざまな現実世界の環境にわたって一般化するには、新しいタスクを継続的に学習し、将来のすべてのタスクの実行方法を記憶できる必要があります。しかし、従来のニューラル ネットワークは一般にそのような学習を実行できず、これは破滅的忘却と呼ばれる欠点があります。これは、ネットワークがタスク B を解決するようにトレーニングされると、タスク A を解決するためのネットワーク内の重みが変化するため発生します。

ただし、時系列の処理と予測が可能な Long Short-Term Memory Networks (リカレント ニューラル ネットワークのバリエーション) など、ニューラル ネットワークにさまざまなレベルのメモリを付与できる強力なアーキテクチャがいくつかあります。ニューラルネットワークとストレージシステムを組み合わせた DeepMind のマイクロニューラルコンピュータは、独自の複雑なデータ構造を学習してナビゲートすることができます。

アプリケーション: 新しい環境に一般化可能、ロボットアームの制御タスク、自動運転、時系列予測 (金融市場、ビデオ、IoT など)、自然言語理解と次の単語の予測。

企業: Google DeepMind、NNaisense、SwiftKey/Microsoft Research、Facebook AI Research。

4. より少ないデータで学習し、より小さなモデルを構築する

ディープラーニング モデルに関して注目すべき点の 1 つは、大量のトレーニング データが必要になることです。大規模なトレーニング データがなければ、ディープラーニング モデルは最適な設定に収束せず、音声認識や機械翻訳などの複雑なタスクのパフォーマンスが低下します。このデータ要件は、音声の生のオーディオ録音を入力として受け取り、音声のテキスト転写を出力するなど、単一のニューラル ネットワークを使用してエンドツーエンドで問題を解決する場合にのみ増加します。

トレーニング データが不足し、コストがかかり、時間がかかる問題を AI で解決したい場合は、より少ない例から最適なソリューションを学習できるモデル (つまり、1 ベースまたは 0 ベースの学習) を開発する必要があります。小さなデータセットでトレーニングする場合、オーバーフィッティング、外れ値の処理の難しさ、トレーニングとテスト間のデータ分布の違いなどの課題が発生します。もう一つのアプローチは転移学習です。

アプリケーション: 最初に大規模なラベル付きトレーニング データでトレーニングされた深層ネットワークのパフォーマンスを模倣するために浅いネットワークをトレーニングする方法の学習、パラメーターは少ないがパフォーマンスは同等の深層モデル アーキテクチャ (例: SqueezeNet)、機械翻訳。

企業: Geometric Intelligence/Uber、DeepScale.ai、Microsoft Research、Google、Bloomsbury AI。

5. トレーニング用ハードウェア

AI の進歩の大きなきっかけとなったのは、大規模なニューラル ネットワーク モデルのトレーニングにグラフィックス プロセッシング ユニット (GPU) を再利用したことです。順次計算する中央処理装置 (CPU) とは異なり、GPU は複数のタスクを同時に処理できる超並列アーキテクチャを提供します。ニューラル ネットワークは大量の (多くの場合、高次元の) データを処理する必要があるため、GPU でのトレーニングは CPU よりもはるかに高速です。これが、NVIDIA が近年非常に人気になった理由です。

ただし、GPU は AI のトレーニング用に特別に設計されているわけではなく、ビデオやゲームのグラフィックをレンダリングするために作られています。 GPU の高い計算精度は必要なく、メモリ帯域幅とデータ スループットの問題があります。これにより、スタートアップ企業には、高次元の機械学習アプリケーション向けに特別に設計されたチップを作成する機会が生まれます。メモリ帯域幅の拡大、コンピューティング密度の向上、効率性、ワットあたりのパフォーマンスの向上を実現した新しいチップによって改善が実現します。これにより、より高速で効率的なモデルトレーニング → より優れたユーザーエクスペリエンス → ユーザーと製品の迅速な反復 → より大きなデータセットの作成 → 最適化によるモデルパフォーマンスの向上が可能になります。

アプリケーション: モデルの高速トレーニング (特にグラフ)、予測を行う際のエネルギーとデータ効率の向上、AI システムを実行する IoT デバイス、IaaS、自動運転、ドローン、ロボット。

企業: Graphcore、Cerebras、Isocratic Engineering、Google (TPU)、NVIDIA (DGX-1)、Nervana Systems (Intel)、Movidius (Intel)、Scortex

6. シミュレーション環境

前述したように、AI システムのトレーニング データを生成することは、多くの場合困難です。さらに、AI が現実世界で役立つためには、多くの状況に一般化する必要があります。したがって、現実世界を模倣した物理学と動作を開発することは、AI をトレーニングするための優れた環境を提供します。これらの環境は、生のピクセルを AI に提示し、AI は設定された(または学習された)目標を達成するためにアクションを実行します。トレーニングでは、これらのシミュレーション環境は、AI システムがどのように学習し、それをどのように改善するかを理解するのに役立ちますが、実際のアプリケーションに転送できる可能性のあるモデルも提供します。

用途: 運転の学習、製造、工業デザイン、ゲーム開発、スマート シティ。

<<:  ディープラーニングの未来に関する6つの予測

>>:  14,000元の費用でディープラーニングサーバーを自分で構築するにはどうすればいいでしょうか?

ブログ    
ブログ    

推薦する

ニッチから人気へ: 世界的な AI イノベーションが「ソフト」になった理由

この人工知能の波が出現したとき、世界中の AI 研究所が競争を重視していたことを今でも覚えています。...

ディープフェイクが流行中!誰かがこれを使ってロシアの野党の人物を真似し、ズームで欧州の国会議員を「からかう」

[[399266]]ビッグデータダイジェスト制作著者: 王 イエ最近、欧州の一部の上級議員は困惑し...

DeepMindの最新研究がNatureに掲載され、AI時代の科学研究の新たなパラダイムを明らかにし、未知の領域を探索し、新たな課題をもたらしている。

AIがさまざまな科学分野と融合するにつれ、可能性と課題に満ちた技術革命が起こっています。 AI は...

...

...

...

...

アルゴリズムを知的財産として保護する方法

Ogilvy は、ロボティック プロセス オートメーションと Microsoft のビジュアル AI...

詳細 | 顔認識が蔓延していますが、あなたの顔データを奪う権利は誰にあるのでしょうか?

記者 | 周一雪8月中旬のある日、北京市昌平区回龍観のコミュニティに住む王毅さんは、所有者グループの...

6月にはロボット産業が再び活況を呈し、数十億元の資金調達が相次いだ。

科学技術の継続的な発展により、ロボットは業界でますます注目され、支持されるようになっています。ロボッ...

53ページのPDFが広く出回り、中核社員が次々と退職。OpenAIにはどんな秘密があるのか​​?

「OpenAIが2027年にAGIを実現する」という53ページのPDFがインターネット上で広く流通...

データセキュリティリスクのため、米国宇宙軍はChatGPTなどの人工知能ツールの使用を一時停止

ロイターが確認したメモによると、10月12日、米宇宙軍はデータセキュリティに関する懸念から、職員によ...

GitHub のホット プロジェクト: 実稼働レベルのディープラーニング プロジェクトを構築するには?

ディープラーニング モデルを本番環境に導入することは、優れたパフォーマンスのモデルをトレーニングする...