ランダム効果が0に向かって縮小するのはなぜですか


10

ランダム効果が一般的な線形混合モデルの期待値に向かって縮小する直感的な理由はありますか?


この質問についてもう少し詳しく説明していただけますか?
マクロ

変量効果モデルからの予測値は収縮推定量です。統計単位が異なる場合、または測定値が正確な場合、または大きなサンプルを使用する場合、収縮はほとんどありません。これはあなたが求めているものですか、それとも本当に期待値に向かって縮小するという意味ですか?
2012

3
私はブラッドリー・エフロンとカール・モリスによる古い記事、スタインの統計におけるパラドックス(1977)を提案します(オンラインPDFはこちらです)。直感的かどうかはわかりませんが、収縮の概念について(実例を使用して)かなり穏やかに紹介しています。
アンディW

回答:


4

一般的に言えば、ほとんどの「ランダムな効果」は、「固定効果」またはモデルの他の一部も存在する状況で発生します。一般的な線形混合モデルは次のようになります。

yi=xiTβ+ziTu+ϵi

βuuβx~i=(xiT,ziT)Tβ~=(βT,uT)T

yi=x~iTβ~+ϵi

u β βu=0uu


2

あなたの質問はそれ自体で答えませんか?値が予想される場合は、値をそれに近づける手法が最適です。

簡単な答えは、多数の法則から来ます。サブジェクトがランダムな効果であるとしましょう。200件の試行で被験者AからDを実行し、20回の試行で被験者Eを実行した場合、被験者の測定された平均パフォーマンスのうち、muをより代表していると思いますか?多数の法則は、サブジェクトEのパフォーマンスがAからDのいずれよりもmuから大きく逸脱する可能性が高いと予測します。対象Eの効果を対象Aから対象Dに向けて、他の方法よりも縮小することで正当化されます。したがって、ランダム効果が大きく、Nが小さいほど、最も縮小される傾向があります。

この説明から、固定効果が縮小されない理由もわかります。それらは修正されているため、モデルには1つしかありません。それを縮小する参照はありません。傾きとして0を参照として使用することもできますが、それはランダム効果が縮小される対象ではありません。それらは、muなどの全体的な見積もりに向かっています。モデルから得られる固定効果は、その推定です。


1

混合モデルを階層モデルまたはマルチレベルモデルと考えると、直感的に役立つと思います。少なくとも私にとっては、ネストと、モデルが階層内でカテゴリ内およびカテゴリ間でどのように機能するかを考えると、より理にかなっています。

編集:マクロ、私はこれをより直観的に見るのに役立つので、これを少し自由にしたままにしましたが、それが正しいかどうかはわかりません。しかし、おそらく間違った方向にそれを拡大するには...

私はそれを、カテゴリー間での平均化された固定効果と、カテゴリーを区別するランダム効果と見なします。ある意味で、ランダム効果はいくつかの特性を共有する「クラスター」であり、より大きくよりコンパクトなクラスターは、より高いレベルの平均に大きな影響を与えます。

OLSがフィッティングを行うと(段階的に、私は信じます)、より大きく、よりコンパクトなランダム効果「クラスター」はより強くそれらに向かって適合を引っ張りますが、より小さいまたはより拡散した「クラスター」は適合を弱めます。または、より高いレベルの平均が最初に近いので、フィットはより大きくよりコンパクトな「クラスター」に近づき始めます。

申し訳ありませんが、明確にすることはできません。直感的には理にかなっていますが、それを書こうとすると、それがトップダウンなのかボトムアップなのか、それとも違うものなのかわかりません。それは、より低いレベルの「クラスター」がより強く自分自身にフィットすることの問題なのか、それともより高いレベルの平均化に大きな影響を与えることなのか-つまり、より高いレベルの平均に「近づく」のか-それともどちらでもないのか?

どちらの場合でも、ランダム変数のより小さくてより拡散したカテゴリーが、より大きくよりコンパクトなカテゴリーよりも平均に向かって引っ張られる理由を説明しているように感じます。


こんにちはウェイン、これを拡張して、これを階層モデルとして考えることで収縮を(おそらくより直感的に)概念化する方法を説明できますか?
マクロ

@マクロ:わかりました。試してみました。それでも答えが良くなるか悪くなるかはわかりません。
ウェイン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.