ランダム効果が一般的な線形混合モデルの期待値に向かって縮小する直感的な理由はありますか?
ランダム効果が一般的な線形混合モデルの期待値に向かって縮小する直感的な理由はありますか?
回答:
あなたの質問はそれ自体で答えませんか?値が予想される場合は、値をそれに近づける手法が最適です。
簡単な答えは、多数の法則から来ます。サブジェクトがランダムな効果であるとしましょう。200件の試行で被験者AからDを実行し、20回の試行で被験者Eを実行した場合、被験者の測定された平均パフォーマンスのうち、muをより代表していると思いますか?多数の法則は、サブジェクトEのパフォーマンスがAからDのいずれよりもmuから大きく逸脱する可能性が高いと予測します。対象Eの効果を対象Aから対象Dに向けて、他の方法よりも縮小することで正当化されます。したがって、ランダム効果が大きく、Nが小さいほど、最も縮小される傾向があります。
この説明から、固定効果が縮小されない理由もわかります。それらは修正されているため、モデルには1つしかありません。それを縮小する参照はありません。傾きとして0を参照として使用することもできますが、それはランダム効果が縮小される対象ではありません。それらは、muなどの全体的な見積もりに向かっています。モデルから得られる固定効果は、その推定です。
混合モデルを階層モデルまたはマルチレベルモデルと考えると、直感的に役立つと思います。少なくとも私にとっては、ネストと、モデルが階層内でカテゴリ内およびカテゴリ間でどのように機能するかを考えると、より理にかなっています。
編集:マクロ、私はこれをより直観的に見るのに役立つので、これを少し自由にしたままにしましたが、それが正しいかどうかはわかりません。しかし、おそらく間違った方向にそれを拡大するには...
私はそれを、カテゴリー間での平均化された固定効果と、カテゴリーを区別するランダム効果と見なします。ある意味で、ランダム効果はいくつかの特性を共有する「クラスター」であり、より大きくよりコンパクトなクラスターは、より高いレベルの平均に大きな影響を与えます。
OLSがフィッティングを行うと(段階的に、私は信じます)、より大きく、よりコンパクトなランダム効果「クラスター」はより強くそれらに向かって適合を引っ張りますが、より小さいまたはより拡散した「クラスター」は適合を弱めます。または、より高いレベルの平均が最初に近いので、フィットはより大きくよりコンパクトな「クラスター」に近づき始めます。
申し訳ありませんが、明確にすることはできません。直感的には理にかなっていますが、それを書こうとすると、それがトップダウンなのかボトムアップなのか、それとも違うものなのかわかりません。それは、より低いレベルの「クラスター」がより強く自分自身にフィットすることの問題なのか、それともより高いレベルの平均化に大きな影響を与えることなのか-つまり、より高いレベルの平均に「近づく」のか-それともどちらでもないのか?
どちらの場合でも、ランダム変数のより小さくてより拡散したカテゴリーが、より大きくよりコンパクトなカテゴリーよりも平均に向かって引っ張られる理由を説明しているように感じます。