強化学習アルゴリズムの分類をさまざまな観点から理解します

強化学習アルゴリズムの分類をさまざまな観点から理解します

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)から転載したものです。

この記事では、強化学習アルゴリズムの分類を紹介し、さまざまな観点からいくつかの分類を検討します。さっそく、深呼吸して、一緒に RL アルゴリズムの分類を学びましょう。

[[355287]]

モデルフリー vs. モデルベース

モデルフリー分類とモデルベース分類 [画像出典: 著者、OpenAI Spinning Up による再作成]

RL アルゴリズムを分類する 1 つの方法は、エージェントが環境のモデルにアクセスできるかどうかを尋ねることです。言い換えれば、環境がエージェントのアクションに反応するかどうかを尋ねます。この見解に基づくと、RL アルゴリズムにはモデルフリーとモデルベースの 2 つの分野があります。

  • モデル RL アルゴリズムは、学習した環境のモデルに基づいて最適なポリシーを選択します。
  • モデルフリー RL アルゴリズムは、エージェントを繰り返しテストすることで最適なポリシーを選択します。

次の表に示すように、両方のアルゴリズムにはそれぞれ長所と短所があります。

価値ベースとポリシーベース

RL アルゴリズムを分類する別の方法は、アルゴリズムが価値関数を最適化するのか、ポリシーを最適化するのかを考えることです。詳しく説明する前に、まず戦略と価値の機能について理解しましょう。

(1)戦略

ポリシー π は状態 s からアクション a へのマッピングです。ここで、π(a|s) は状態 s でアクション a を実行する確率です。戦略は決定論的なものでもランダムなものでもかまいません。

非常に単純なゲーム「じゃんけん」をプレイしているとします。このゲームでは、2 人のプレイヤーが 3 つのアクション (グー、チョキ、パー) のうち 1 つを同時に実行して勝敗を競います。ルールは簡単です:

  • はさみと布
  • グー vs ハサミ
  • ブッカー・ストーン

戦略を反復的なじゃんけんと考える

  • 決定論的な戦略は簡単に利用できます。あなたがより多くの「石」をプレイしていることに気付いた場合、私はこれを有利に利用してより大きな勝利を得ることができます。
  • 均一なランダム ポリシーが最適です。選択が完全にランダムである場合、勝つためにどのようなアクションを実行すればよいかわかりません。

(2)価値関数

価値関数は、将来の報酬 (戻り値) の予測に基づいて状態がどの程度優れているかを測定する関数です。戻り値 (Gt) は基本的に、「割引」された戻り値 (時刻 t 以降) の合計に等しくなります。


γ∈[0,1]は割引係数です。割引率は、いくつかの理由により将来の収益を相殺することを目的としています。

  • 便利な数学計算
  • 状態変化図における無限ループの解消
  • 将来の収益に関する不確実性が高い(株価の変動など)
  • 将来の報酬はすぐには利益にならない(例えば、人々は10年後よりも今楽しみを味わうことを好む)

戻り値の概念を理解したところで、値関数の数学的形式を定義しましょう。

価値関数には 2 つの数学的形式があります。


状態アクション価値関数 (Q 値) は、時刻 t における状態とアクションの組み合わせの期待される戻り値です。


Q値と価値関数の違いは、アクションアドバンテージ関数(A値と呼ばれることが多い)です。


これで、価値関数とアクション状態価値関数が何であるかがわかりました。次に、アルゴリズムが最適化するコンポーネントに重点を置いた RL アルゴリズムの別の分野について詳しく学習します。

価値アルゴリズムと戦略アルゴリズム [画像ソース: 著者、David Silver RL コースの再現]

  • 価値強化学習は、価値/アクション価値関数を学習して最適なポリシーを生成する(つまり、暗黙的に最適なポリシーを生成する)ことを目的としています。
  • ポリシー RL は、パラメータ化された関数を使用してポリシーを直接学習することを目的としています。
  • Actor-Critic RL は価値関数とポリシーの両方を学習することを目的としています。

次の表は、価値アルゴリズムと戦略アルゴリズムの長所と短所を示しています。


  • 価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択する必要があります。アクション空間が非常に高次元または連続的である場合、これは非常にコストがかかる可能性があります。一方、ポリシー アルゴリズムは、最大化計算を実行せずにポリシーのパラメーターを直接調整することによって動作します。
  • 値アルゴリズムは、適切に実行されない場合、多くの問題が発生する可能性があります (収束特性が低い/不安定)。一方、ポリシー アルゴリズムは、ポリシー勾配に小さな増分変更のみを加えるため、より安定しており、収束特性が優れています。
  • ポリシー アルゴリズムは決定論的ポリシーと確率論的ポリシーの両方を学習できますが、値アルゴリズムは決定論的ポリシーのみを学習できます。
  • 価値アルゴリズムと比較すると、元の戦略アルゴリズムは遅く、分散が大きくなります。価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択しようとします。これにより、ポリシーが最適化されます (操作が高速化され、分散が小さくなります)。一方、ポリシー アルゴリズムは、数ステップしか実行せず、スムーズかつ安定して更新されますが、同時に効率が低く、分散が大きくなることがあります。
  • ポリシー アルゴリズムは通常、グローバル最適値ではなくローカル最適値に収束します。

戦略的アルゴリズムと非戦略的アルゴリズム

RL アルゴリズムを分類する別の方法は、戦略ソース分類に基づいています。


戦略アルゴリズムは「実践しながら学ぶ」ものであると言えます。つまり、アルゴリズムは π からサンプリングされた経験からポリシー π を学習しようとします。非ポリシー アルゴリズムは「監視」によって機能します。言い換えれば、アルゴリズムは、μ によってサンプリングされた経験からポリシー π を学習しようとします。たとえば、ロボットは人間の行動を観察して操作方法を学習します。

<<:  ビデオ通話の低品質なビデオとはおさらば: NVIDIA の新しいアルゴリズムはトラフィックを最大 90% 圧縮できます

>>:  2020年Qizhi開発者会議が北京で盛大に開幕、第一弾の1000万インセンティブボーナスが発表された

ブログ    
ブログ    
ブログ    

推薦する

百度の自動運転タクシーが長沙で運行開始!乗客は百度地図を通じて電話をかけ、無料の試乗を受けることができる。

4月20日の最新ニュースは、百度がApollp Robotaxi自動運転タクシーサービスの全面オー...

Python 機械学習チュートリアル

この機械学習チュートリアルでは、機械学習の基本および中級の概念について説明します。初心者の学生と働く...

...

Gen-2 は AI 生成ビデオに革命をもたらします。一言で4K高画質映画が作れる。ネットユーザー「ゲームのルールを完全に変えた」

これは間違いなく、生成 AI の進歩における画期的な出来事です。深夜、Runway の象徴的な AI...

人工知能の発展方向と機会

[[358422]] 01 現段階における人工知能のボトルネック現在、人工知能、特にその応用分野では...

...

AIの到来、将来のアプリケーション開発における7つのトレンド

最近テクノロジーのニュースに注目しているなら、良いことであれ悪いことであれ、人工知能に関する何かを読...

人工知能(AI)はアパレル業界をどのように変えるのでしょうか?

衣服のデザインから将来のファッショントレンドの発見、パーソナルスタイリストになること、そして消費者の...

オープンソース「AI史上最も重要な非公開会議」!マスク氏、ザッカーバーグ氏、その他のテクノロジー界の巨人が集まり、AIの将来について議論した

昨日、現地時間午前10時、AI業界のリーダーたちがワシントンに集まり、シューマー上院議員が主催するA...

畳み込みなしでTransformerのみをベースにした初のビデオ理解アーキテクチャがリリースされました

Facebook AI は、Transformer を完全にベースとし、畳み込みが不要で、トレーニン...

...