iid Gumbel変数の最大値の期待


12

ランダム効用モデルで使用される特定の結果について、経済学の雑誌で読み続けています。その結果の1つのバージョンは、次の場合ϵiiid,ガンベル(μ,1),i、その後、:

E[maxi(δi+ϵi)]=μ+γ+ln(iexp{δi}),

どこγ0.52277オイラーの定数です。Rを使用してこれが理にかなっていることを確認しました。Gumbel (μ,1)分布のCDF は次のとおりです。

G(ϵi)=exp(exp((ϵiμ)))

私はこの証拠を見つけようとしていますが、成功していません。私は自分でそれを証明しようとしましたが、特定のステップを通過することはできません。

誰も私にこれの証拠を示すことができますか?そうでない場合は、たぶん行き詰まったところまで試した証拠を投稿できます。


回答:


7

あなたの答えに示された仕事に感謝します。その貢献に感謝します。この投稿の目的は、より簡単なデモを提供することです。シンプルさの価値は啓示です:期待だけなく、最大値の分布全体を簡単に取得できます。


無視μにそれを吸収することにより、δiと仮定ϵi全てガンベル有する(0,1)分布。(つまり、それぞれ置き換えるϵiによるϵiμとの変化δiためにδi+μ。)これは、ランダムな変数を変更しません

X=maxi(δi+ϵi)=maxi((δi+μ)+(ϵiμ)).

独立性ϵiすべての実のために意味xというPr(Xx)個々のチャンスの積であるPr(δi+ϵix)。ログを取得し、指数関数の基本プロパティを適用する

logPr(Xx)=logiPr(δi+ϵix)=ilogPr(ϵixδi)=ieδiex=exp(x+logieδi).

これは位置パラメータとガンベル分布のCDFの対数であり、 あれは、λ=logieδi.

ガンベル有するログΣ I E δ I1 分布。X(logieδi,1)

これは、要求されたよりもはるかに多くの情報です。例えば、Aの分布の平均値は、ある伴いますγ+λ,

E[X]=γ+logieδi,

QED。


12

これは、ことが判明しエコノメトリカのケネス・小とハーベイ・ローゼン記事は 1981年にこれを示したが、非常に特殊な状況で結果が経済学のいくつかのトレーニングはもちろんのこと、掘りの多くを必要とせ。私はよりアクセスしやすい方法でそれを証明することにしました。

証明を選択肢の数とする。ベクトルの値に応じてε = { ε 1ε J }、関数マックスIδ I + ε Iの異なる値をとります。最初の値に焦点εようマックスIδ I + ε I= δ 1 + ε 1。つまり、δを統合しますJϵ={ϵ1,...,ϵJ}maxi(δi+ϵi)ϵmaxi(δi+ϵi)=δ1+ϵ1δ1+ϵ1セットオーバーM1{ϵ:δ1+ϵ1>δj+ϵj,j1}

EϵM1[maxi(δi+ϵi)]=(δ1+ϵ1)f(ϵ1)[δ1+ϵ1δ2...δ1+ϵ1δJf(ϵ2)...f(ϵJ)dϵ2...dϵJ]dϵ1=(δ1+ϵ1)f(ϵ1)(δ1+ϵ1δ2f(ϵ2)dϵ2)...(δ1+ϵ1δJf(ϵJ)dϵJ)dϵ1=(δ1+ϵ1)f(ϵ1)F(δ1+ϵ1δ2)...F(δ1+ϵ1δJ)dϵ1

JE[maxi(δi+ϵi)]

E[maxi(δi+ϵi)]=iEϵMi[maxi(δi+ϵi)].

Now we apply the functional form of the Gumbel distribution. This gives

EϵMi[maxi(δi+ϵi)]=(δi+ϵi)eμϵieeμϵijieeμϵi+δjδidϵi=(δi+ϵi)eμϵijeeμϵi+δjδidϵi=(δi+ϵi)eμϵiexp{jeμϵi+δjδi}dϵi=(δi+ϵi)eμϵiexp{eμϵijeδjδi}dϵi

where the second step comes from collecting one of the exponentiated terms into the product, along with the fact that δjδi=0 if i=j.

Now we define Dijeδjδi, and make the substitution x=Dieμϵi, so that dx=DieμϵidϵidxDi=eμϵidϵi and ϵi=μlog(xDi). Note that as ϵi approaches infinity, x approaches 0, and as ϵi approaches negative infinity, x approaches infinity.

EϵMi[maxi(δi+ϵi)]=0(δi+μlog[xDi])(1Di)exp{x}dx=1Di0(δi+μlog[xDi])exdx=δi+μDi0exdx1Di0log[x]exdx+log[Di]Di0exdx

The Gamma Function is defined as Γ(t)=0xt1exdx. For values of t which are positive integers, this is equivalent to Γ(t)=(t1)!, so Γ(1)=0!=1. In addition, it is known that the Euler–Mascheroni constant, γ0.57722 satisfies

γ=0log[x]exdx.

Applying these facts gives

EϵMi[maxi(δi+ϵi)]=δi+μ+γ+log[Di]Di

Then we sum over i to get

E[maxi(δi+ϵi)]=iδi+μ+γ+log[Di]Di

Recall that Di=jeδjδi=jeδjeδi. Notice that the familiar logit choice probabilities Pi=eδijδj are inverses of the Di's, or in other words Pi=1/Di. Also note that iPi=1. Then we have

E[maxi(δi+ϵi)]=iPi(δi+μ+γ+log[Di])=(μ+γ)iPi+iPiδi+iPilog[Di]=μ+γ+iPiδi+iPilog[jeδjeδi]=μ+γ+iPiδi+iPilog[jeδj]iPilog[eδi]=μ+γ+iPiδi+log[jeδj]iPiiPiδi=μ+γ+log[jexp{δj}].
Q.E.D.

3
I linked what I believe is the article you're referring to, without actually looking through it to be sure; please correct if wrong.
Dougal

@Jason Do you know how to prove what this is when the max is conditional on one being the max? See question here that is unsolved: stats.stackexchange.com/questions/260847/…
wolfsatthedoor
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.