タグ付けされた質問 「principal-agent」

1
LENモデルの同等性
開始位置は、不完全な情報(モラルハザード)と次のプロパティを持つプリンシパルエージェントモデルです。 エージェントユーティリティ:u(z)=−e(−raz)u(z)=−e(−raz)u(z)=-e^{(-r_az)} 主な効用:B(z)=−e(−rpz)B(z)=−e(−rpz)B(z)=-e^{(-r_pz)} エフォートレベルe∈Re∈Re\in \Bbb R アウトカムx∈R,x∼N(μ(e),σ),μ′(e)>0,μ′′(e)≤0x∈R,x∼N(μ(e),σ),μ′(e)>0,μ″(e)≤0x\in \Bbb R, x\sim N(\mu(e), \sigma), \mu'(e)>0, \mu''(e)\le0 契約:、w(x)=a+bxw(x)=a+bxw(x)=a+bx ここで、とr Pは、それぞれエージェントとプリンシパルの絶対リスク回避のArrow-Prattメジャーです。rArAr_ArPrPr_P エージェントの努力が見えないときに、プリンシパルがエージェントに提供する最適な契約を探しています。プリンシパルのユーティリティは次のように書くことができます: UP(e,a,b)=∫∞−∞−e(−rP((1−b)x−a))f(x∣e)dxUP(e,a,b)=∫−∞∞−e(−rP((1−b)x−a))f(x∣e)dxU^P(e,a,b)=\int_{-\infty}^\infty-e^{(-r_P((1-b)x-a))}f(x\mid e) \, dx 次の同等性が成り立つことを示したいと思います。つまり、プリンシパルの効用の最大化は、次の同等性のRHSとして書くことができます。 maxe,a,b∫∞−∞−e(−rP((1−b)x−a))f(x∣e)dx⇔maxe,a,b(1−b)μ(e)−a−rP2(1−b)2σ2maxe,a,b∫−∞∞−e(−rP((1−b)x−a))f(x∣e)dx⇔maxe,a,b(1−b)μ(e)−a−rP2(1−b)2σ2\max_{\rm e,a,b}\int_{-\infty}^\infty-e^{(-r_P((1-b)x-a))}f(x\mid e) \, dx \Leftrightarrow \max_{\rm e,a,b}(1-b)\mu(e)-a-\frac{r_P}2(1-b)^2\sigma^2 f(x|e)=1σ2π√e(−12(x−μ(e)σ)2)f(x|e)=1σ2πe(−12(x−μ(e)σ)2)f(x|e)=\frac{1}{\sigma\sqrt{2\pi}}e^{(-\frac{1}2(\frac{x-\mu(e)}\sigma)^2)}x∼N(μ(e),σ)x∼N(μ(e),σ)x\sim N(\mu(e),\sigma)μ(e)μ(e)\mu(e)σ>0σ>0\sigma>0 f(x|e)f(x|e)f(x|e)

2
リスク中立エージェントによるモラルハザード
私たちは、プリンシパルがリスクを嫌い、エージェントがリスクに中立である隠されたアクションを持つプリンシパルエージェントモデルを持っています。また、2つのレベルの出力xxxとx′x′x'(x′>xx′>xx'>x)と2つのアクションがあると仮定しa,a′a,a′a,a'ます。アクションa 、a ' の下でのx 'の確率それぞれ定義します。また、アクションa ´からのエージェントの非効用は− 1です。p(a),p(a′)p(a),p(a′)p(a),p(a')x′x′x'a,a′a,a′a,a'a′a′a'−1−1-1。関連付けられている賃金x,x′x,x′x,x'は、それぞれw,w′w,w′w,w'です。 私の問題は、最適な契約でx′−w′=x−wx′−w′=x−wx'-w' =x-wであること、つまり、リスクニュートラルなエージェントがプロジェクトに関連するすべての変動性を引き受けることを示す方法がわからないことです。 私は(誘導するために主要な欲求を想定し、問題形式化する「そう、私の質問は自明です、)a′a′a' max{w,w′}u(x′−w′)p(a′)+u(x−w)(1−p(a′))max{w,w′}u(x′−w′)p(a′)+u(x−w)(1−p(a′))\max\limits_{\{w,w'\}} u(x'-w')p(a') + u(x-w)(1-p(a')) st w′p(a′)+w(1−p(a′))−1≥0w′p(a′)+w(1−p(a′))−1≥0w'p(a') + w(1-p(a')) - 1 \geq 0 w′p(a′)+w(1−p(a′))−1≥w′p(a)+w(1−p(a))w′p(a′)+w(1−p(a′))−1≥w′p(a)+w(1−p(a))w'p(a') + w(1-p(a')) - 1 \geq w'p(a) + w(1-p(a)) 特に、「標準」の個別の合理性(λλ\lambda乗数を使用)およびインセンティブの互換性(μμ\mu乗数を使用)の制約に従ってプリンシパルの期待されるペイオフを最大化することで問題を解決しようとする場合(プリンシパルはより多くに興味があると思います)費用のかかるアクションa′a′a')上記の結果と一致しない2つの方程式になります。特に: u′(x−w)=λ+μ[1−(1−p(a))(1−p(a′))]u′(x−w)=λ+μ[1−(1−p(a))(1−p(a′))] u'(x-w) = \lambda + \mu [1- \frac{(1-p(a))}{(1-p(a'))}] u′(x′−w′)=λ+μ[1−p(a)p(a′)]u′(x′−w′)=λ+μ[1−p(a)p(a′)] u'(x'-w') = \lambda + \mu [1- \frac{p(a)}{p(a')}] がの場合に成り立つことは明らかですが、この問題にはません(ここでは、)。別の可能性は、インセンティブの互換性制約がスラックであると仮定することです(したがって)。しかし、プリンシパルが最もコストのかかるアクション(ここで助けます)を誘発したいとき、なぜそれが成り立つのか理解できません。 P …

0
繰り返されるモラルハザード問題に対する校長の信念
プリンシパルエージェントモデルの繰り返しのモデルについて質問があります。 Bengt Holmstromによるこの有名な作品があります:モラルハザードと可観測性、1979、The Bell Journal of Economics。モラルハザードを持つ古典的なプリンシパルエージェントモデルを提示します。Rogerson(ECTA 1985)またはSpear and Srivastava(REStud 1987)による論文は、彼のモデルを繰り返しゲームに拡張しています。 プリンシパルは、インセンティブに適合した契約を選択する必要があります。エージェントはアクションを選択する必要があります。エージェントは、分布f (x 、a )からランダムな量xを生成します。プリンシパルはaを監視しませんが、xを監視します。aaaバツxxf(x 、a )f(x,a)f(x,a)aaaxxx 私の質問は次のとおりです。これらのモデル(およびこの文献の他の多くの論文)では、分布は公に知られています。fがプリンシパル(またはエージェント)によって観察されないと仮定した結果/記事がいくつか存在しますか。代わりに、プリンシパルには事前の信念があり、たとえばゲームが繰り返されると、時間の経過とともにそれを更新することがあります。ffffff
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.