強化学習におけるベルマン演算子は何ですか?


10

数学では、演算子という単語は、いくつかの異なるが関連する概念を参照できます。演算子は、2つのベクトル空間の間の関数として定義でき、ドメインとコドメインが同じである関数として定義できます。または、関数(ベクトル)から他の関数​​(の場合)への関数として定義できます。たとえば、微分演算子)、つまり高次関数(関数プログラミングに精通している場合)。

強化学習(RL)におけるベルマン演算子とは何ですか?なぜそれが必要なのですか?ベルマン演算子は、RLのベルマン方程式とどのように関連していますか?


このトピックに関連するいくつかの論文は、大規模動的プログラミングの機能ベースの方法(John N. TsitsiklisおよびBenjamin Van Roy、1996)、関数近似による時間差学習の分析(John N. TsitsiklisおよびBenjamin Vanによる)です。 Roy、1997)および最小二乗ポリシー反復(Michail G. LagoudakisおよびRonald Parr、2003年)。
nbro

私が見つけたさらにいくつかの関連する論文は、一般化されたマルコフ決定プロセス:動的プログラミングと強化学習アルゴリズム(CsabaSzepesváriとMichael L. Littman、1997)とϵ-MDP:変化する環境での学習(IstvánSzita、BálintTakács、AndrásLörincz、2002年)。
nbro

回答:


11

私が使用する表記は、David Silverによる2つの 異なる講義からのものであり、これらのスライドによっても説明されています

予想されるベルマン方程式は

(1)vπ(s)=aAπ(a|s)(Rsa+γsSPssavπ(s))

させたら

(2)Pssπ=aAπ(a|s)Pssa
そして
(3)Rsπ=aAπ(a|s)Rsa
その後、書き換えることができます (1) なので

(4)vπ(s)=Rsπ+γsSPssπvπ(s)

これは行列形式で書くことができます

(5)[vπ(1)vπ(n)]=[R1πRnπ]+γ[P11πP1nπPn1πPnnπ][vπ(1)vπ(n)]

Or, more compactly,

(6)vπ=Rπ+γPπvπ

Notice that both sides of (6) are n-dimensional vectors. Here n=|S| is the size of the state space. We can then define an operator Tπ:RnRn as

(7)Tπ(v)=Rπ+γPπv

for any vRn. This is the expected Bellman operator.

Similarly, you can rewrite the Bellman optimality equation

(8)v(s)=maxaA(Rsa+γsSPssav(s))

as the Bellman optimality operator

(9)T(v)=maxaA(Ra+γPav)

The Bellman operators are "operators" in that they are mappings from one point to another within the vector space of state values, Rn.

Rewriting the Bellman equations as operators is useful for proving that certain dynamic programming algorithms (e.g. policy iteration, value iteration) converge to a unique fixed point. This usefulness comes in the form of a body of existing work in operator theory, which allows us to make use of special properties of the Bellman operators.

Specifically, the fact that the Bellman operators are contractions gives the useful results that, for any policy π and any initial vector v,

(10)limk(Tπ)kv=vπ

(11)limk(T)kv=v

where vπ is the value of policy π and v is the value of an optimal policy π. The proof is due to the contraction mapping theorem.

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.