私は混合効果モデリングの専門家ではありませんが、階層回帰モデリングのコンテキストで言い換えれば、質問の答えははるかに簡単です。したがって、私たちの観測には、クラスiとクラスのjメンバーを表すインデックスiを持つ2つのインデックスとF i jがあります。階層モデルを使用すると、クラスごとに係数が異なる線形回帰を近似できます。P私はjF私はj私j
Y私はj= β0 i+ β1 iF私はj
これが最初のレベルの回帰です。2番目のレベルの回帰は、最初の回帰係数で実行されます。
β0 iβ1 i= γ00+ あなた0 i= γ01+ あなた1 i
これを第1レベルの回帰に代入すると、次のようになります
Y私はj= (γ0+ あなた0 i)+ (γ01+ あなた1 i)F私はj= γ0+ あなた0 i+ あなた1 iF私はj+ γ01F私はj
ここで、は固定効果で、uはランダム効果です。混合モデルは、γとuの分散を推定します。γあなたはγあなたは
書き留めたモデルはlmer
構文に対応しています
P ~ (1+F|R) + F
私たちが置か今ならばランダム用語ずに我々が得ますβ1 i= γ01
Y私はj= γ0+ あなた0 i+ γ01F私はj
lmer
構文に対応
P ~ (1|R) + F
質問は、第2レベルの回帰からエラー項を除外できるのはいつですか?正規の答えは、第2レベルの回帰のリグレッサ(ここには含まれていませんが、クラス内で自然に一定です)が確実である場合、クラス間の係数の分散を完全に説明することです。
F私はjあなたは1 i
注。代数的説明だけを行いましたが、特定の応用例を考える方がずっと簡単だと思います。