タグ付けされた質問 「reml」

3
「制限付き最尤法」とは何ですか?いつ使用する必要がありますか?
この論文の要旨で次のことを読みました。 「Hartley aud Raoの最尤法(ML)手続きは、尤度を2つの部分に分割するパターソンとトンプソンからの変換を適用することによって修正されます。1つは固定効果がありません。 (REML)推定量。」 また、このペーパーの要約でREML を読みました。 「固定効果の推定から生じる自由度の損失を考慮します。」 悲しいことに、私はそれらの論文の全文にアクセスできません(そして、もし私がそうしたら理解できないでしょう)。 また、REMLとMLの利点は何ですか?混合効果モデルをフィッティングする場合、どのような状況下でMLよりもREMLが好まれるか(またはその逆)。数学の背景が高校(またはそれ以上)の人に適した説明をお願いします!

3
ネストされたvar-covarモデルの中から選択するために(MLではなく)REMLを使用する必要があるのはなぜですか?
線形混合モデルのランダム効果に関するモデル選択に関するさまざまな説明は、REMLの使用を指示しています。あるレベルでREMLとMLの違いは知っていますが、MLにバイアスがかかっているため、なぜREMLを使用する必要があるのか​​わかりません。たとえば、MLを使用して正規分布モデルの分散パラメーターでLRTを実行するのは間違っていますか(以下のコードを参照)。モデルの選択において、MLであるよりも偏らないことが重要である理由がわかりません。最終的な答えは「モデル選択がMLよりもREMLの方がうまく機能するため」でなければならないと思いますが、それ以上のことを知りたいと思います。LRTとAICの派生物は読みませんでした(それらを完全に理解するのに十分ではありません)が、派生物でREMLが明示的に使用されている場合は、実際に十分であることを知っているだけです(たとえば、 n <- 100 a <- 10 b <- 1 alpha <- 5 beta <- 1 x <- runif(n,0,10) y <- rnorm(n,a+b*x,alpha+beta*x) loglik1 <- function(p,x,y){ a <- p[1] b <- p[2] alpha <- p[3] -sum(dnorm(y,a+b*x,alpha,log=T)) } loglik2 <- function(p,x,y){ a <- p[1] b <- p[2] alpha <- p[3] beta <- …

1
完全な列ランク未満の制限付き最尤法
この質問は、線形モデルの特定のバージョンにおける制限付き最尤法(REML)の推定を扱っています。 Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), ここで、は、と同様に、でパラメーター化された()行列です。は迷惑パラメーターの未知のベクトルです。関心が推定である、私たちは持っている。最尤法によるモデルの推定は問題ありませんが、REMLを使用したいと思います。これはよく知られており、例えば、参照LaMotteを、尤度その、なるよう任意の半直交行列である書くことができます。X(α)X(α)X(\alpha)n×pn×pn \times pα∈Rkα∈Rk\alpha \in \mathbb R^kΣ(α)Σ(α)\Sigma(\alpha)ββ\betaαα\alphak≤p≪nk≤p≪nk\leq p\ll nA′YA′YA'YAAAA′X=0A′X=0A'X=0 LREML(α∣Y)∝|X′X|1/2|Σ|−1/2|X′Σ−1X|−1/2exp{−12r′Σ−1r},r=(I−X(X′Σ−1X)+X′Σ−1)Y,LREML(α∣Y)∝|X′X|1/2|Σ|−1/2|X′Σ−1X|−1/2exp⁡{−12r′Σ−1r},r=(I−X(X′Σ−1X)+X′Σ−1)Y, L_{\text{REML}}(\alpha\mid Y) \propto\vert X'X\vert^{1/2} \vert \Sigma\vert^{-1/2}\vert X'\Sigma^{-1}X\vert^{-1/2}\exp\left\{-\frac{1}{2} r'\Sigma^{-1}r \right\}, \\ r = (I - X(X'\Sigma^{-1}X)^+X'\Sigma^{-1})Y, when XXX is full column rank. My problem is that for some perfectly reasonable, and …

1
REMLにはベイジアン解釈が存在しますか?
REMLのベイジアン解釈は利用可能ですか?私の直感では、REMLはいわゆる経験的ベイズ推定手順に非常に似ており、ある種の漸近的等価性(たとえば、適切な事前クラスのもとで)が実証されているのだろうかと思います。経験的ベイズとREMLはどちらも、たとえば迷惑なパラメーターに直面して行われた「妥協した」推定アプローチのように見えます。 主に、この質問で私が求めるのは、こうした種類の議論がもたらす傾向がある高レベルの洞察です。もちろん、何らかの理由でこの性質の議論をREMLで有効に追求できない場合、これがなぜそうなのかについての説明も歓迎すべき洞察を提供するでしょう!

2
制限付き最尤法が分散のより良い(バイアスされていない)推定値をもたらすのはなぜですか?
Rのlme4パッケージに関するDoug Batesの理論の論文を読んで、混合モデルの要点をよりよく理解し、制限付き最尤(REML)を使用して分散を推定することについて、より理解したい興味深い結果に出会いました。 REML基準のセクション3.3で、分散推定におけるREMLの使用は、近似線形モデルの残差から分散を推定するときの自由度補正の使用と密接に関連していると述べています。特に、「通常はこの方法で導出されることはありませんが」、「REML基準」の最適化を通じて分散を推定することにより、自由度補正を導出できます(式(28))。REML基準は基本的には尤度だけですが、線形フィットパラメーターは、(バイアスされたサンプル分散を与えるフィット推定に等しく設定する代わりに)マージナライズすることで削除されました。 私は計算を行い、固定効果のみの単純な線形モデルに対して主張された結果を検証しました。私が苦労しているのは解釈です。適合パラメーターが取り除かれた可能性を最適化することによって分散推定値を導き出すことが自然であるいくつかの視点がありますか?確率を事後として考え、フィット変数をランダム変数であるかのように取り除いているかのように、それはベイジアンのような感じです。 それとも正当化は主に数学的なものですか?それは線形の場合に機能しますが、一般化も可能ですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.