混合効果モデルのランダム効果のレベル間で固定効果が変化することを「許可しない」必要があるのはいつですか?


15

予測変数(P)、ランダム効果(R)、および固定効果(F)が与えられた場合、2つの混合効果モデル(lme4構文)を当てはめることができます。

m1 = lmer( P ~ (1|R) + F )
m2 = lmer( P ~ (1+F|R) + F)

私が理解しているように、2番目のモデルは、固定効果をランダム効果のレベル間で変化させることができるものです。

私の研究では、通常、混合効果モデルを使用して、複数の人間の参加者で実施された実験のデータを分析します。参加者をランダム効果として、実験的操作を固定効果としてモデル化します。固定効果が実験のパフォーマンスに影響する程度を参加者間で変化させることは、先験的に理にかなっていると思います。ただし、ランダム効果のレベル間で固定効果を変化させるべきではない状況を想像するのは難しいため、私の質問は次のとおりです。

ランダム効果のレベル間で固定効果が変化することを許可しない場合


私はまだlme4の構文を完全には理解していないので、答えを見てみたいです。しかし、次の違いに関連しているという予感があります。Pは学生が宿題をするのに費やした時間、Rはクラスレベルでの治療、Fは学生です。(クラス自体にもランダムな効果があるはずです。)すべての学生が異なる時間にすべてのRの処理を受ける場合、Fのレベルはクラス間で同等です。学校全体を一度に測定すると、各クラスに異なる生徒がいるため、異なるクラスのFのレベルは互いに関係ありません。
トーマスレヴィン

回答:


11

私は混合効果モデリングの専門家ではありませんが、階層回帰モデリングのコンテキストで言い換えれば、質問の答えははるかに簡単です。したがって、私たちの観測には、クラスiとクラスのjメンバーを表すインデックスiを持つ2つのインデックスF i jがあります。階層モデルを使用すると、クラスごとに係数が異なる線形回帰を近似できます。PjFjj

Yj=β0+β1Fj

これが最初のレベルの回帰です。2番目のレベルの回帰は、最初の回帰係数で実行されます。

β0=γ00+あなたは0β1=γ01+あなたは1

これを第1レベルの回帰に代入すると、次のようになります

Yj=γ0+あなたは0+γ01+あなたは1Fj=γ0+あなたは0+あなたは1Fj+γ01Fj

ここで、は固定効果で、uはランダム効果です。混合モデルは、γuの分散を推定します。γあなたはγあなたは

書き留めたモデルはlmer構文に対応しています

P ~ (1+F|R) + F

私たちが置か今ならばランダム用語ずに我々が得ますβ1=γ01

Yj=γ0+あなたは0+γ01Fj

lmer構文に対応

P ~ (1|R) + F

質問は、第2レベルの回帰からエラー項を除外できるのはいつですか?正規の答えは、第2レベルの回帰のリグレッサ(ここには含まれていませんが、クラス内で自然に一定です)が確実である場合、クラス間の係数の分散を完全に説明することです。

Fjあなたは1

。代数的説明だけを行いましたが、特定の応用例を考える方がずっと簡単だと思います。


Yij=β0i+β1iFij+eij

はい、しかし明確にするために省略しました。
mpiktas

9

「固定効果」は、分散成分がゼロの「ランダム効果」と考えることができます。

したがって、固定効果を変化させない理由の簡単な答えは、「十分に大きい」分散成分の証拠が不十分であることです。証拠は、以前の情報とデータの両方から取得する必要があります。これは、基本的な「occamの剃刀」の原則に沿ったものです。モデルを必要以上に複雑にしないでください。

私は線形混合モデルを次のように考える傾向があり、次のように重回帰を書きます。

Y=バツβ+Zあなたは+e

バツβZあなたはeあなたはN0DθθeN0σ2Zあなたは+eN0ZDθZT+σ2

YNバツβZDθZT+σ2

Z=0

YNバツβσ2

したがって、モデルの「ランダムな」部分は、モデル内のノイズまたはエラー成分の相関構造に関する事前情報を指定する方法と見なすことができます。OLSは基本的に、モデルの固定部分からの1つのエラーは、確実にモデルの固定部分を知っていたとしても、他のエラーを予測するのに役に立たないと仮定します。ランダム効果を追加するとは、基本的に、他のエラーを予測する際にいくつかのエラーが役立つと思われるということです。


4

これはいくつかの非常に良い答えを持つかなり古い質問ですが、より実用的な観点に取り組むために新しい答えから利益を得ることができると思います。

ランダム効果のレベル間で固定効果が変化することを許可しない場合

他の回答ですでに説明されている問題には対処せず、代わりに今では有名なものを参照しますが、Barr et al(2013)による「悪名高い」論文は、単に「最大に保つ」と呼ばれます

Barr、DJ、Levy、R.、Scheepers、C。、およびTily、HJ、2013年。確証的な仮説テストのためのランダム効果構造:最大に保ちます。記憶と言語のジャーナル、68(3)、pp.255-278。

この論文では、著者は、すべての固定効果がグループ化要因(ランダムインターセプト)のレベル間で変化することを許可する必要があると主張しています。彼らの議論は非常に説得力があります-基本的に、それらを変化させないことにより、モデルに制約を課しているということです。これは他の回答で詳しく説明されています。ただし、このアプローチには潜在的に深刻な問題があり、Bates el al(2015)によって説明されています。

Bates、D.、Kliegl、R.、Vasishth、S. and Baayen、H.、2015. Par約混合モデル。arXivプレプリントarXiv:1506.04967

ここでlme4、Rで混合モデルを適合させるためのパッケージの主な作成者がBatesであることに注意してください。おそらく、このようなモデルで最も広く使用されているパッケージです。ベイツらは、多くの実世界のアプリケーションでは、関連する変数に対する各クラスターの観測数が不十分なことが多いため、データが単純に最大のランダム効果構造をサポートしないことに注意しています。これは、収束に失敗したモデル、またはランダム効果で特異なモデルに現れます。そのようなモデルに関するこのサイト上の質問の多くは、それを証明しています。また、Barr et alは、論文の基礎として「行儀の良い」ランダム効果を使用した比較的単純なシミュレーションを使用したことにも注目しています。代わりに、ベイツらは次のアプローチを提案しています。

(1)PCAを使用してランダム効果構造の分散共分散行列の次元を決定すること、(2)特に最大モデルに適合させる最初の試みが収束しない場合に相関パラメーターを最初にゼロに制約することを提案しました。 (3)有意でない分散成分と関連する相関パラメーターをモデルから削除する

同じ論文で、彼らは次の点にも注意しています。

重要なことに、収束の失敗は推定アルゴリズムの欠陥によるものではなく、データで適切にサポートするには複雑すぎるモデルを適合させようとする単純な結果です。

そして:

反保守的な結論から保護するために、最大モデルは必要ありません。この保護は、データがサポートできる複雑さに関する現実的な期待に基づいた包括的なモデルによって完全に提供されます。統計では、科学の他の場所と同様に、par約は美徳であり、悪ではありません。

ベイツ他(2015)

より適用された観点から、行われるべきさらなる考慮事項は、データ生成プロセス、データの根底にある生物学/物理/化学理論が分析者をランダム効果構造の特定に導くべきかどうかです。


「多くの場合、各クラスターに十分な数の観測がないため」これについて詳しく説明できますか?クラスターごとに必要な最小数は1だと思いましたか?これは、ここにも、あなたの受け入れ答えです:stats.stackexchange.com/questions/388937/...
LuckyPal

@LuckyPalあなたがリンクした質問はランダムな切片に関するもので、これはランダムな勾配に関するものです。サンプルサイズ1の勾配をどのように推定しますか?
ロバートロング

ポイントをとった。ありがとう!+1しかし、十分なクラスターがある場合は、クラスターごとに1つの観測のみで固定勾配を推定できますか?これは少し奇妙に思えます。たぶん、サンプルサイズに起因するランダムな勾配の収束問題がある場合、勾配の推定は、それがランダムであるかどうかにかかわらず、一般に疑問があるかもしれませんか?
LuckyPal

@LuckyPalはい、固定勾配の推定はすべてのクラスターで行われるため、通常は問題になりません。小さなクラスターでランダムな勾配を推定すると、収束の問題が発生する可能性があることに同意しますが、固定勾配の推定には影響しません。
ロバートロング
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.