Nが増加すると縮小する変動性は、多くの場合標準誤差として表されるサンプル平均の変動性です。または、他の言葉で、サンプル平均の信of性の確実性は増加しています。
3人の男性と3人の女性を集め、身長を測定する実験を実行するとします。各グループの平均身長が、男性と女性の別々の集団の真の平均であることをどの程度確信していますか?私はあなたがまったく確信がないと思うべきです。3の新しいサンプルを簡単に収集し、最初のサンプルから数インチの新しい平均を見つけることができます。このように繰り返される実験のかなりの数は、平均が非常に異なるため、女性が男性よりも背が高くなることさえあるかもしれません。Nが低いと、サンプルの平均値にあまり確実性がなく、サンプルによって大きく異なります。
次に、各グループで10,000の観測を想像してください。互いに大きく異なる平均値を持つ10,000の新しいサンプルを見つけるのはかなり難しいでしょう。これらの変数ははるかに少なくなり、その正確性がより確実になります。
この考え方を受け入れることができれば、統計の計算に標準誤差として挿入できます。方程式からわかるように、それはパラメーターの推定値であり、(nが増加するにつれてより正確になるはずです)を常にnとともに増加する値割ったものです。その標準誤差は、計算の平均または効果のばらつきを表しています。小さいほど、統計的検定は強力になります。√σn−−√
Rの小さなシミュレーションは、標準誤差と初期実験の多くの複製の平均の標準偏差との関係を示しています。この場合、母平均100と標準偏差15から始めます。
mu <- 100
s <- 50
n <- 5
nsim <- 10000 # number of simulations
# theoretical standard error
s / sqrt(n)
# simulation of experiment and the standard deviations of their means
y <- replicate( nsim, mean( rnorm(n, mu, s) ) )
sd(y)
最終的な標準偏差が理論上の標準誤差にどのように近いかに注意してください。ここでn変数を操作すると、nが増加するにつれて変動性の尺度が小さくなることがわかります。
[余談ですが、グラフの尖度は実際には変化していません(正規分布であると仮定)。分散を下げても尖度は変わりませんが、分布は狭くなります。尖度の変化を視覚的に調べる唯一の方法は、分布を同じスケールにすることです。]