モデルがあるとしましょう
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
ここでは、切片とx変量効果の相関が-1であるため、特異フィットを観察します。ここで、この有用なリンクによると、このモデルに対処する1つの方法は、高次のランダム効果(X:ConditionBなど)を削除し、特異性をテストするときに違いが生じるかどうかを確認することです。もう1つは、ベイジアンアプローチを使用blme
することです。たとえば、特異性を避けるためにパッケージを使用します。
優先される方法とは何ですか?なぜですか?
1つ目または2つ目を使用すると異なる結果が生じるため、これを質問します。最初のケースでは、X:ConditionBランダム効果を削除し、XとX:ConditionBランダム効果の間の相関を推定できなくなります。一方、を使用blme
すると、X:ConditionBを維持し、特定の相関を推定できます。ベイジアンアプローチですべてを推定できる場合、特異フィットが発生したときに非ベイズ推定を使用してランダム効果を削除する必要がある理由はわかりません。
誰かが特異フィットを処理するためにどちらの方法を使用してもメリットと問題を説明できますか?
ありがとうございました。