なぜ分散を安定させるのですか?


15

Kaggle Essay Evalメソッドを読んでいるときに、分散を安定させる分散に遭遇しました。分散安定化変換を使用して、平均値をとる前にカッパ値を変換してから、元に戻します。分散を安定させる変換に関するwikiを読んだ後でも理解できませんが、なぜ実際に分散を安定させるのですか?これによりどのような利益が得られますか?


6
通常、目的は、(漸近的)分散を対象のパラメーターから独立させることです。これは、関連する関心のある量を計算するために参照分布を知る必要がある推論において特に重要です。
枢機

回答:


13

1つの答えは次のとおりです。通常、統計的推論を行う最も効率的な方法は、データがiidの場合です。そうでない場合、異なる観測から異なる量の情報を取得することになり、効率が低下します。別の見方をすれば、推論に追加の情報を追加できる場合(つまり、分散安定化変換を介して分散の関数形式)、一般に少なくとも漸近的に推定の精度が向上するということです。非常に小さなサンプルでは、​​分散のモデリングに煩わ​​されると、小さなサンプルバイアスが増加する場合があります。これは一種の計量経済学のGMMタイプの引数です。追加のモーメントを追加すると、漸近的分散は上がりません。過剰に識別された自由度に応じて、有限のサンプルバイアスが増加します。

別の答えは枢機byによって与えられました:漸近分散の表現にぶら下がる未知の分散がある場合、漸近分布への収束は遅くなり、どうにかその分散を推定する必要があります。通常、データまたは統計を事前にピボットすると、漸近近似の精度が向上します。


私はあなたの答えの最初の文を理解しており、直感的に私に訴えかけると思います。この観測にグーグルができるという名前はありますか?私はあなたが別の観測で異なる情報の量があり、ときに何が起こるかを示して、いくつかの思考実験や例を見つけるしたいと思いますどのようにそれは非効率的である
Pushpendre

Korn&Graubard(1999)の調査統計に関するテキストはそれを議論しています。
StasK

ただし、ここでは、変換を使用して平均を計算します。 f11nfκ。私は本当に要点がわかりません。私にとって、これは信頼区間推定の方法ですが、点推定ではバイアスを導入するだけです。
エルビス

@PushpendreRastogiあなたは、このまさに変容に関するウィキペディアの記事を読みたいかもしれません。フィッシャーにより、経験的相関係数の分散を安定化するために導入されました(通常の変数間)。その場合、変換された変数はほぼ正常になり、分散はサンプルサイズのみに依存し、未知の相関係数には依存しません(これが分散を「安定化」する理由です)。
エルビス

@Elvis、重要な統計に関するウィキペディアの記事(en.wikipedia.org/wiki/Pivotal_statistic)で相関の例を挙げました。[コメントで素敵なリンクをどのように提供しましたか?hrefを試してみましたが、見苦しくなりました。]
StasK
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.