確率的動的計画法:宝くじの定常状態の導出


1

McCandless著(2008年)の本の確率的RBCモデルの基本的な例に取り組んでいます:The ABCs of RBCs、pp。71-75

標準的な確率的動的計画問題

基本的な確率的動的プログラミングモデルの定式化はとおりです。

yt=Atf(kt)

At={A1 with probability pA2 with probability (1p)

kt+1=Atf(kt)+(1δ)ktct

予想されるユーティリティ関数を最大化するエージェントの場合:

Ettβtu(ct)

前の方程式から消費を代入し、問題の再帰定式化を使用すると、次の問題が発生します。

V(kt,At)=maxkt+1[u(Atf(kt)+(1δ)ktkt+1)+βEtV(kt+1,At+1)]

その後、McCandlessは、問題を解決するアルゴリズムは決定論的な場合とほぼ同じであると言います。制御変数の次条件(に関する値関数の導関数)を、に対して同じことを、エンベロープ定理を適用して分析解を取得します。定常状態が見つかり、モデルが作成され、論文が提出されました。利益。kt+1kt

宝くじ拡張版

今、私は少し異なるケースを調査したいと思います。まったく同じモデルを使用しますが、別の制御変数を導入します。セキュリティのためにとます: st

lt+1=lt+st

そして、は変数を通じて問題に入ります: ltAt

At={A1 with probability pA2lt with probability (1 - p)

主な違いは、期間収入の式を明示的に期待記号を開くと簡単にわかります。 t

yt=pA1f(kt)+(1p)A2ltf(kt)

この場合、特定のイベントが発生すると決定論的な制御変数「オン」になります(宝くじに当たったかのように、投資した分だけ収入が増えます-はい、この例はほとんど意味がありません)しかし、私は原則自体に興味があります)。 質問:次の宝くじの増強により、モデルの解決方法のプロセスが変わりますか?「はい」の場合、背後にあるアイデアは何で、何が変わるのですか?いいえの場合、それはなぜですか?l

PS誰かが私が説明したモデルに非常に近いモデルの例を使った論文を私に指摘できたら、それは素晴らしいでしょう。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.