計算されるテストの違いだと思います。car::Anova
Wald検定を使用しますが、drop1
単一項を削除してモデルを再適合します。John Foxがかつて私に書いた、Waldのテストおよび尤度比テスト(つまり、drop1
)は、線形モデルに同意しますが、必ずしも非線形モデルには同意しません。残念ながら、このメールはオフリストであり、参照は含まれていませんでした。しかし、彼の本にはWaldテストに関する章があり、そこには必要な情報が含まれている可能性があります。
への助け car::Anova
言う:
タイプIIテストは、周辺性の原則に従って計算され、用語の高次の親族を無視することを除いて、各用語を他のすべての用語の後にテストします。いわゆるタイプIIIテストは周辺性に違反し、モデル内の各項を他のすべての後にテストします。Type-IIテストのこの定義は、すべての予測因子が因子であるが、より一般的ではない(すなわち、定量的予測因子がある場合)分散分析モデルのためにSASが生成するテストに対応します。タイプIIIテストのモデルを公式化する場合は十分に注意してください。そうしないと、テストした仮説が意味をなさなくなります。
残念ながら、2番目または3番目の質問についてはお答えできません。
更新コメントを更新:
一般化された混合モデルには、Wald、LR、Fのテストはありません。混合モデル(つまり、によって返されるオブジェクト)をAnova
許可し"chisq"
て"F"
テストするだけです。使用法のセクションは言う:"mer"
lmer
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
しかし、mer
オブジェクトのF検定はによって計算さpbkrtest
れるため、私の知る限り、線形混合モデルでのみ機能するためAnova
、GLMMの場合は常に返されるはずchisq
です(したがって、違いはありません)。
質問に関する更新:
私の前の回答だけで、あなたのメインの質問に違い対応しようとしたAnova()
としますdrop1()
。しかし、私はあなたが特定の固定効果が重要であるかどうかをテストしたいことを理解しました。R-SIG-混合モデリングに関するFAQはこのに関する以下の言葉:
単一パラメーターのテスト
最悪から最高まで:
- Wald Z検定
- dfを計算できるバランスのとれたネストされたLMMの場合:Wald t検定
- (anovaまたはdrop1を介して)パラメーターを分離/ドロップできるようにモデルを設定するか、尤度プロファイルの計算を介して、尤度比テスト
- MCMCまたはパラメトリックブートストラップ信頼区間
効果のテスト(つまり、いくつかのパラメーターが同時にゼロであることのテスト)
最悪から最高まで:
- Waldカイ二乗検定(例:car :: Anova)
- 尤度比検定(anovaまたはdrop1を使用)
- dfを計算できるバランスのとれたネストされたLMMの場合:条件付きF検定
- LMMの場合:df修正を伴う条件付きF検定(pbkrtestパッケージのKenward-Rogerなど)
- MCMCまたはパラメトリック、またはノンパラメトリックのブートストラップ比較(グループ化要因を考慮して、ノンパラメトリックブートストラップを注意深く実装する必要があります)
(強調を追加)
これは、car::Anova()
GLMM に使用するアプローチは一般に推奨されないが、MCMCまたはブートストラップを使用するアプローチを使用する必要があることを示しています。GLMMを使用pvals.fnc
したlanguageR
パッケージの中華鍋かどうかはわかりませんが、試してみる価値はあります。