でブログの記事、私はその主張を発見しました
「私はWGコクランが最初の指摘(およそ1970年代)を信じて、観測設定の信頼区間では、サンプルサイズが小さいと、カバレッジがゼロに近く、十分に大きいサンプルでカバレッジが良くなると思います。」
ここで、サンプルサイズが大きくなるとCI幅が0に近づくと想定しますが、カバレッジが同時に悪化するという考えは私には納得できません。これは本当ですか、そしてどのような状況下ですか?それとも私はそれを誤解していますか?
私は、10000から1000000のサンプルサイズ(1サンプルのt検定、95%CI)のランダムな正規分布データを使用してシミュレーションを実行しました。サンプルサイズごとに1000回実行し、高いサンプルサイズではカバレッジは悪化しませんでした。 (代わりに、予想されるほぼ一定の約5%のエラー率が見つかりました)。