ここで抽象化しようとする実験があります。私があなたの前に3つの白い石を投げて、それらの位置について判断を下すようにあなたに頼むことを想像してください。石の様々な特性とあなたの反応を記録します。私はこれをいくつかの主題にわたって行います。2つのモデルを生成します。1つは、最も近い石が反応を予測することであり、もう1つは、石の幾何学的中心が反応を予測することです。したがって、RIでlmerを使用すると記述できます。
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
更新と変更-いくつかの役立つコメントを組み込んだより直接的なバージョン
試してみた
anova(mNear, mCenter)
もちろん、これらはネストされておらず、私は実際にそのように比較することはできないため、これは間違っています。私はanova.merがエラーをスローすることを期待していましたが、そうではありませんでした。しかし、ここで試すことのできるネストは自然なことではなく、まだ分析的な記述が多少少なくなっています。モデルが自然にネストされている場合(たとえば、線形で2次)、テストは1つの方法にすぎません。しかし、この場合、非対称の結果があるとはどういう意味でしょうか?
たとえば、モデル3を作成できます。
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
その後、私は分散することができます。
anova(mCenter, mBoth)
anova(mNearest, mBoth)
これは適切なことで、センターが最も近い効果(2番目のコマンド)に追加されますが、BICは実際にセンターに追加されると実際に上がります(低位の節約の修正)。これは疑わしいものを確認します。
しかし、これで十分でしょうか?そして、中心と最も近くに非常に高い相関があるとき、これは公平ですか?
説明変数(自由度)を加算および減算することではない場合、モデルを分析的に比較するより良い方法はありますか?