REMLにはベイジアン解釈が存在しますか?


14

REMLのベイジアン解釈は利用可能ですか?私の直感では、REMLはいわゆる経験的ベイズ推定手順に非常に似ており、ある種の漸近的等価性(たとえば、適切な事前クラスのもとで)が実証されているのだろうかと思います。経験的ベイズとREMLはどちらも、たとえば迷惑なパラメーターに直面して行われた「妥協した」推定アプローチのように見えます

主に、この質問で私が求めるのは、こうした種類の議論がもたらす傾向がある高レベルの洞察です。もちろん、何らかの理由でこの性質の議論をREMLで有効に追求できない場合、これがなぜそうなのかについての説明も歓迎すべき洞察を提供するでしょう!


この論文は関連があるようです:Foulley J.(1993)。制限付き最尤法の導出方法を示す簡単な引数。J.デイリーサイエンス。76、2320〜2324。10.3168 / jds.S0022-0302(93)77569から4 sciencedirect.com/science/article/pii/...
DJW

回答:


5

ベイジアン解釈は、事後分布に関連する推定量について、ベイジアン分析のフレームワーク内にのみ存在します。したがって、REML推定量にベイジアン解釈(つまり、事後から得られる推定量としての解釈)を与えることができる唯一の方法は、REML分析で制限された対数尤度を対応する対数後ベイズ分析; この場合、REML推定量は、ベイズ理論からのMAP推定量であり、対応するベイジアン解釈を備えています。


REML推定量をMAP推定量に設定する: REML分析で制限された対数尤度をBayes分析で対数事後に設定する方法を見るのは比較的簡単です。これを行うには、log-priorがREMLプロセスによって削除される対数尤度の部分の負である必要があります。我々は対数尤度があるとℓのREθは残留対数尤度とあるθをx(θ,ν)=(θ,ν)+RE(θ)RE(θ)θは、関心のあるパラメーターです(は迷惑パラメーターです)。前に設定π θ ν α EXP - *θ νは事後対応できます:νπ(θ,ν)exp((θ,ν))

π(θ|x)Lx(θ,ν)π(θ,ν)dνexp(x(θ,ν))exp((θ,ν))dν=exp(x(θ,ν)(θ,ν))dν=exp((θ,ν)+RE(θ)(θ,ν))dν=exp(RE(θ))dν=LRE(θ)dνLRE(θ)

これにより、次のことができます。

θ^MAP=argmaxθπ(θ|x)=argmaxθLRE(θ)=θ^REML.

この結果により、REML推定量をMAP推定量として解釈できます。したがって、REML推定量の適切なベイジアン解釈は、上記の事前条件の下で事後密度を最大化する推定量であるということです

REML推定量にベイジアン解釈を与える方法を説明したので、このアプローチにはいくつかの大きな問題があることに注意します。1つの問題は、データに依存する対数尤度成分を使用して事前確率が形成されることです。したがって、この解釈を得るために必要な「事前」は、データを見る前に形成できる関数であるという意味で、実際の事前ではありません。別の問題は、事前確率が不適切であることが多く(つまり、事前確率に統合されない)、パラメーター値が極端になると実際に重みが増加する可能性があることです。(この例を以下に示します。)(θ,ν)

これらの問題に基づいて、REML推定量に妥当なベイジアン解釈ないと主張することができます。あるいは、REML推定器は上記のベイジアン解釈を維持し、指定された形式の観測データと偶然一致する必要がある「事前」の最大事後推定器であり、非常に不適切であると主張できます。


x1,...,xnN(ν,1/θ)θν

x(ν,θ)=n2lnθθ2i=1n(xiν)2.

REMLでは、この対数尤度を2つのコンポーネントに分割しました。

(ν,θ)=n2lnθθ2i=1n(xiν)2RE(θ)=n12lnθθ2i=1n(xix¯)2.

We obtain the REML estimator for the precision parameter by maximising the residual likelihood, which gives an unbiased estimator for the variance:

1θ^REML=1n1i=1n(xix¯)2.

In this case, the REML estimator will correspond to a MAP estimator for the "prior" density:

π(θ)θn/2exp(θ2i=1n(xiν)2).

As you can see, this "prior" actually depends on the observed data values, so it cannot actually be formed prior to seeing the data. Moreover, we can see that it is clearly an "improper" prior that puts more and more weight on extreme values of θ and ν. (Actually, this prior is pretty bonkers.) If by "coincidence" you were to form a prior that happened to correspond to this outcome then the REML estimator would be a MAP estimator under that prior, and hence would have a Bayesian interpretation as the estimator that maximises the posterior under that prior.


3
What an immensely clear answer! I feel I understand REML much better as a result, which to a large extent was my principal aim. Your approach in opening your argument seems to have been essentially to make the identification, then 'solve for' the prior. Then you proceed to demolish that prior, which looks to me like a criticism (from Bayesian perspective) directed against REML. Beautifully done!
David C. Norris

3
Yes, that is the method I used. By analogy, we usually give the MLE a Bayesian interpretation by the same method ---i.e., by figuring out that the MLE is the MAP under a uniform prior. So in general, when we want to find the Bayesian analogue to a classical estimator that is formed by maximisation of some function, we just set that function to the posterior and then solve for the prior. If this gives a sensible prior then we have a good Bayesian interpretation; if the prior is crazy (like with REML) then we have a good argument that there is no good Bayesian interpretation.
Reinstate Monica
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.