サンプルサイズが増加すると、信頼区間はどの設定で改善されませんか?


11

ブログの記事、私はその主張を発見しました

「私はWGコクランが最初の指摘(およそ1970年代)を信じて、観測設定の信頼区間では、サンプルサイズが小さいと、カバレッジがゼロに近く、十分に大きいサンプルでカバレッジが良くなると思います。」

ここで、サンプルサイズが大きくなるとCI幅が0に近づくと想定しますが、カバレッジが同時に悪化するという考えは私には納得できません。これは本当ですか、そしてどのような状況下ですか?それとも私はそれを誤解していますか?

私は、10000から1000000のサンプルサイズ(1サンプルのt検定、95%CI)のランダムな正規分布データを使用してシミュレーションを実行しました。サンプルサイズごとに1000回実行し、高いサンプルサイズではカバレッジは悪化しませんでした。 (代わりに、予想されるほぼ一定の約5%のエラー率が見つかりました)。


2
ちなみに、ここで言及されている有名な統計家は、ウィリアムG.コクラン(コクランではない)でした。
Nick Cox

2
回答の1つで混乱が生じたため、「CIの幅は1に近づくべきである」という主張は、意味がない(1何ですか?測定単位は何ですか)か、まったく間違っていることに注意してください。
whuber

回答:


17

「観察設定」の資格に注意してください。

引用元のコンテキスト(コメントが含まれているコメントのサブスレッド)を確認すると、シミュレーションではなく「現実の世界」にあるように見え、おそらく制御された実験が含まれていません。そしてその場合、可能性が高い意図は、間隔が導出される仮定が実際には完全には成立しないという事実の結果です。バイアスに影響を与える可能性のあるものは多数あります。これらは、小さなサンプルの変動性と比較して影響は小さいですが、サンプルサイズが増加してもサイズは減少しませんが、標準エラーは増加します。

私たちの計算にはバイアスが組み込まれていないため、間隔が短くなると()、変化が小さいバイアスであっても、それはかなり小さい織機であっても、間隔がますます真の値を含む可能性は低くなります。1/

これは、サンプルサイズが増加するにつれてCIカバレッジ確率が減少することについて私が何を意味するのかを示すための図です-おそらくバイアスを誇張しているものです:

バイアスが存在する場合にサンプルサイズが増加すると、CIカバレッジ確率が減少する図

もちろん、特定のサンプルでは、​​間隔はランダムになります-間隔は図に対して相対的に広くまたは狭くなり、左または右にシフトします。そのため、どのサンプルサイズでも、0と1の間のカバレッジ確率はありますが、バイアスの量は異なります。が増加すると、ゼロに向かって縮小します。シミュレーションデータを使用して各サンプルサイズで100の信頼区間を設定した例を次に示します(透明度でプロットされているため、より多くの区間がカバーする色はより塗りつぶされています)。

上記と同様のプロットで、各nに10のサンプルCIがある


0

甘い皮肉。その段落の前に、同じ人が「そのような広範囲にわたる混乱があるのも不思議ではない」と言っています。「観察設定における信頼区間」:それはどういう意味ですか?

これは、推定仮説検定の間の混乱であるように私には思えます

これで、サンプルサイズが大きくなるとCI幅が1に近づくはずです。

0

参照は、個人ブログの投稿へのコメントです。この種の参照の妥当性についてはあまり心配しません。一方、Larry Wassermanが所有するブログは、非常によく書かれている傾向があります。これは私にxkcdコミックを思い出させました:

http://xkcd.com/386/

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.