データセットをシグマで除算すると、標本分散が1になるのはなぜですか?単純化のためにゼロ平均を仮定します。
この背後にある直感は何ですか?
範囲(最大-最小)で除算すると、直感的に理解できます。しかし、標準偏差はそうではありません。
データセットをシグマで除算すると、標本分散が1になるのはなぜですか?単純化のためにゼロ平均を仮定します。
この背後にある直感は何ですか?
範囲(最大-最小)で除算すると、直感的に理解できます。しかし、標準偏差はそうではありません。
回答:
標準化とは、単位を「標準偏差」単位に変更することです。標準化後の値1.5は、「0を超える1.5標準偏差」を意味します。標準偏差が8の場合、これは「0から12ポイント上」と言うことと同じです。
例:(アメリカで)インチをフィートに変換する場合、データをインチ単位で変換係数で乗算します。これは、1フィートが12インチであることから、基本的には、データポイントに1のファンシーバージョン(つまり、分子と分母が等しい分数)を乗算するだけです。たとえば、72インチからフィートに移動するには、ます。
生の単位から標準偏差の単位にスコアを変換するときは、生の単位のデータに変換係数を掛けます。したがって、スコアが100で標準偏差()が20の場合、標準化されたスコアはます。標準化は単位を変えるだけです。
データセットの単位を変更しても、データセットの広がりには影響しません。使用しているスプレッドの測定単位を変更して、一致するようにします。したがって、元のデータの標準偏差が20ポイントであり、20の元のポイントが1つの新しい標準化された単位に等しくなるように単位を変更した場合、新しい標準偏差は1ユニットになります(元の20の単位は1つの新しい単位に等しいため)。