まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

AI の初心者向けに、AI の注目すべき 6 つの分野と、その概要、重要性、現在の使用方法、研究している企業について説明します。

[[184083]]

1. 強化学習

RL は、人間が新しいタスクを学習する方法にヒントを得た、試行錯誤による学習パラダイムです。一般的な RL 設定では、AI に、デジタル環境における現在の状態を観察し、環境から各アクションの結果を受け取り、アクションが進捗を促進するか妨げるかを AI が認識できるように動機付けのフィードバックを与えるというタスクが与えられます。したがって、AI は報酬を得るための最善の戦略を見つける必要があります。 Google の DeepMind はこのアプローチを採用しています。 RL の実際の例としては、Google のデータ センターの冷却エネルギー効率を最適化するタスクがあります。このタスクでは、1 つの RL システムによって冷却コストが 40% 削減されました。シミュレート可能な環境 (ビデオゲームなど) で RL を使用する利点は、トレーニング データを非常に安価に生成できることです。これは、通常、高価で現実世界から入手するのが難しいトレーニング データを必要とする教師ありディープラーニング タスクとはまったく対照的です。

アプリケーション: 複数の AI が独自の環境で学習または相互作用する、同じ環境で相互に学習する、迷路や街路などの 3D 環境をナビゲートする方法を学習する自動運転、観察された動作を学習タスクの目標 (運転の学習など) に一般化する逆強化学習。

企業: Google DeepMind、Prowler.io、Osaro、MicroPSI、Maluuba/Microsoft、NVIDIA、Mobileye。

2. 生成モデル

分類や回帰タスクに使用される識別モデルとは対照的に、生成モデルはトレーニング例に対して確率分布を学習します。この高次元分布からサンプリングすることにより、生成モデルはトレーニング データに類似した新しい例を出力します。これは、たとえば、実際の顔画像でトレーニングされた生成モデルが、顔に似た新しい合成画像を出力できることを意味します。これらのモデルの動作の詳細については、Ian Goodfellow の素晴らしい NIPS 2016 チュートリアルを参照してください。彼は、教師なし学習への道を提供するアーキテクチャ、Generative Adversarial Networks (GAN) を紹介しました。 GAN には 2 つのニューラル ネットワークがあります。1 つはランダム ノイズを入力として受け取り、コンテンツ (画像など) を合成するジェネレーター、もう 1 つは実際の画像がどのように見えるかを学習し、画像が本物か偽物かを識別するディスクリミネーターです。敵対的トレーニングは、生成された画像と実際の画像を識別器が区別できなくなるようにする方法を機械が反復的に学習しなければならないゲームと考えることができます。このフレームワークは、多くのデータ モデルとタスクに拡張されています。

アプリケーション: 時系列の可能性のある未来をシミュレートする (強化学習の計画タスクなど)、超解像度画像、2D 画像を 3D 構造に復元する、小さなラベル付きデータセットから一般化する、1 つの入力から複数の正しい出力を生成する (ビデオの次のフレームを予測するなど)、会話型インターフェース用の自然言語を作成する、すべてのラベルを半教師あり学習できない場合、芸術的なスタイルの転送、音楽やサウンドの合成。

企業: Twitter、Adobe、Apple、Prisma、Jukedeck、Creative.ai、Gluru、Mapillary、Unbabel。

3. メモリストレージを備えたネットワーク

AI システムがさまざまな現実世界の環境にわたって一般化するには、新しいタスクを継続的に学習し、将来のすべてのタスクの実行方法を記憶できる必要があります。しかし、従来のニューラル ネットワークは一般にそのような学習を実行できず、これは破滅的忘却と呼ばれる欠点があります。これは、ネットワークがタスク B を解決するようにトレーニングされると、タスク A を解決するためのネットワーク内の重みが変化するため発生します。

ただし、時系列の処理と予測が可能な Long Short-Term Memory Networks (リカレント ニューラル ネットワークのバリエーション) など、ニューラル ネットワークにさまざまなレベルのメモリを付与できる強力なアーキテクチャがいくつかあります。ニューラルネットワークとストレージシステムを組み合わせた DeepMind のマイクロニューラルコンピュータは、独自の複雑なデータ構造を学習してナビゲートすることができます。

アプリケーション: 新しい環境に一般化可能、ロボットアームの制御タスク、自動運転、時系列予測 (金融市場、ビデオ、IoT など)、自然言語理解と次の単語の予測。

企業: Google DeepMind、NNaisense、SwiftKey/Microsoft Research、Facebook AI Research。

4. より少ないデータで学習し、より小さなモデルを構築する

ディープラーニング モデルに関して注目すべき点の 1 つは、大量のトレーニング データが必要になることです。大規模なトレーニング データがなければ、ディープラーニング モデルは最適な設定に収束せず、音声認識や機械翻訳などの複雑なタスクのパフォーマンスが低下します。このデータ要件は、音声の生のオーディオ録音を入力として受け取り、音声のテキスト転写を出力するなど、単一のニューラル ネットワークを使用してエンドツーエンドで問題を解決する場合にのみ増加します。

トレーニング データが不足し、コストがかかり、時間がかかる問題を AI で解決したい場合は、より少ない例から最適なソリューションを学習できるモデル (つまり、1 ベースまたは 0 ベースの学習) を開発する必要があります。小さなデータセットでトレーニングする場合、オーバーフィッティング、外れ値の処理の難しさ、トレーニングとテスト間のデータ分布の違いなどの課題が発生します。もう一つのアプローチは転移学習です。

アプリケーション: 最初に大規模なラベル付きトレーニング データでトレーニングされた深層ネットワークのパフォーマンスを模倣するために浅いネットワークをトレーニングする方法の学習、パラメーターは少ないがパフォーマンスは同等の深層モデル アーキテクチャ (例: SqueezeNet)、機械翻訳。

企業: Geometric Intelligence/Uber、DeepScale.ai、Microsoft Research、Google、Bloomsbury AI。

5. トレーニング用ハードウェア

AI の進歩の大きなきっかけとなったのは、大規模なニューラル ネットワーク モデルのトレーニングにグラフィックス プロセッシング ユニット (GPU) を再利用したことです。順次計算する中央処理装置 (CPU) とは異なり、GPU は複数のタスクを同時に処理できる超並列アーキテクチャを提供します。ニューラル ネットワークは大量の (多くの場合、高次元の) データを処理する必要があるため、GPU でのトレーニングは CPU よりもはるかに高速です。これが、NVIDIA が近年非常に人気になった理由です。

ただし、GPU は AI のトレーニング用に特別に設計されているわけではなく、ビデオやゲームのグラフィックをレンダリングするために作られています。 GPU の高い計算精度は必要なく、メモリ帯域幅とデータ スループットの問題があります。これにより、スタートアップ企業には、高次元の機械学習アプリケーション向けに特別に設計されたチップを作成する機会が生まれます。メモリ帯域幅の拡大、コンピューティング密度の向上、効率性、ワットあたりのパフォーマンスの向上を実現した新しいチップによって改善が実現します。これにより、より高速で効率的なモデルトレーニング → より優れたユーザーエクスペリエンス → ユーザーと製品の迅速な反復 → より大きなデータセットの作成 → 最適化によるモデルパフォーマンスの向上が可能になります。

アプリケーション: モデルの高速トレーニング (特にグラフ)、予測を行う際のエネルギーとデータ効率の向上、AI システムを実行する IoT デバイス、IaaS、自動運転、ドローン、ロボット。

企業: Graphcore、Cerebras、Isocratic Engineering、Google (TPU)、NVIDIA (DGX-1)、Nervana Systems (Intel)、Movidius (Intel)、Scortex

6. シミュレーション環境

前述したように、AI システムのトレーニング データを生成することは、多くの場合困難です。さらに、AI が現実世界で役立つためには、多くの状況に一般化する必要があります。したがって、現実世界を模倣した物理学と動作を開発することは、AI をトレーニングするための優れた環境を提供します。これらの環境は、生のピクセルを AI に提示し、AI は設定された(または学習された)目標を達成するためにアクションを実行します。トレーニングでは、これらのシミュレーション環境は、AI システムがどのように学習し、それをどのように改善するかを理解するのに役立ちますが、実際のアプリケーションに転送できる可能性のあるモデルも提供します。

用途: 運転の学習、製造、工業デザイン、ゲーム開発、スマート シティ。

<<:  ディープラーニングの未来に関する6つの予測

>>:  14,000元の費用でディープラーニングサーバーを自分で構築するにはどうすればいいでしょうか?

ブログ    
ブログ    

推薦する

中国電子科技大学の博士号取得者は、2年でネイチャーとサイエンスに論文を発表して有名になった。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

基本的なプログラミングアルゴリズムを簡単にマスターする(パート2)

[[121970]]この記事を書く前に、プログラマーの基本的な知識についてお話ししたいと思います。...

多くの銀行は顔認識の安全性を確保する方法について警告を発している。

11月28日、北京ビジネスデイリーの記者は、今年初めから、平安銀行、中国光大銀行、綿陽市商業銀行、...

2019年に「AI+教育」分野で大手企業は何をしたのでしょうか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

Googleとハーバード大学がこれまでで最も複雑な3D脳マップを作成

脳の神経回路を研究するのは簡単ではありません。なぜなら、現時点では、すべてのニューロン、シナプス、そ...

2021年のAI展望

人工知能は進歩し続け、企業の運営方法や私たち自身の日常の経験を変えています。実際、AI はほぼすべて...

APOS A5は従業員の健康情報登録管理をインテリジェントに強化します

訪問者は検問所で携帯電話の「健康コード」を開き、携帯電話の画面をコードスキャンウィンドウの前に置くこ...

ビジネスインテリジェンスを通じて脆弱性と危険な行動を特定する方法

[[389855]]ビジネスに関連するすべてのリスクを排除できると主張しても、多くの人はそれを信じま...

ビッグニュース! Meta が「次世代」の大型モデル Llama 2 をオープンソース化、Zuckerberg: 無料かつ商用利用可能!

今朝早く、私たちがまだ寝ている間に、海の向こうの Meta が大きなことをしました。Llama 2 ...

最新レビュー!拡散モデルと画像編集の愛憎関係

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

生成 AI: サイバーセキュリティにとっての恩恵か、それとも災いか?

脅威の状況が絶えず変化する中、高度なサイバー攻撃に対する防御手段として、生成型人工知能 (GAI) ...

ロボット研究助手が人間の1,000倍の速さで研究を行うために登場

研究者たちは、研究室の中を動き回り、人間のように科学実験を行うことができる画期的なロボット研究助手を...

ロボットと人間:その組み合わせが産業オートメーションの様相を変える可能性

進化する産業オートメーションの世界では、人間と機械の境界を越えた革新的なパートナーシップが生まれてい...

年末総括|2020年日本におけるAI(ロボティクス)分野の主なニュースを振り返る

在庫がなければ大晦日もありません。 2020年に日本のAI・ロボティクス分野で起こった出来事をいくつ...