タグ付けされた質問 「blue」

1
最良の線形不偏予測器(BLUP)からの推定値が、最良の線形不偏推定器(BLUE)と異なるのはなぜですか?
それらの違いは、モデル内のグループ化変数が固定効果またはランダム効果として推定されるかどうかに関連することを理解していますが、なぜ同じではないのかは分かりません(同じでない場合)。 小面積推定を使用する場合、これが関連する場合、これがどのように機能するかに特に興味がありますが、質問は固定効果とランダム効果の適用に関連していると思われます。

1
線形モデルのBLUE(OLSソリューション)以外の不偏推定量
線形モデルの場合、OLSソリューションはパラメーターに最適な線形不偏推定量を提供します。 もちろん、より低い分散、例えばリッジ回帰のバイアスをトレードオフできます。しかし、私の質問はバイアスがないということです。偏りはないが、OLS推定パラメーターよりも高い分散を持つ、やや一般的に使用される推定器は他にありますか? 巨大なデータセットがある場合は、もちろんそれをサブサンプリングし、より少ないデータでパラメーターを推定し、分散を増やすことができます。これは仮説的に有用だと思います。 BLUE推定量について読んだときに、より悪い代替案が提供されていないため、これは修辞的な質問です。悪い選択肢を提供することは、人々が青い推定器の力をよりよく理解するのにも役立つと思います。

2
ガウス・マルコフの定理:BLUE and OLS
私はwikipediaの Guass-Markovの定理について読んでいます。誰かがこの定理の主要な点を理解するのを手伝ってくれることを願っていました。 :私たちは、マトリクス状に、によって与えられ、線形モデルを想定し と私たちはBLUEを探しています、β。y= Xβ+ ηy=Xβ+η y = X\beta +\eta βˆβ^ \widehat\beta この、私はラベルう "残留"と ε = β - β "エラー"。(つまり、Gauss-Markovページでの使用法の反対です)。η= y− Xβη=y−Xβ\eta = y - X\betaε = βˆ- βε=β^−β\varepsilon = \widehat\beta - \beta OLS(通常の最小二乗)推定量は、のargminとして導出できます。| 残差| | 2 2 = | | η | | 2 2。| | 残差 | |22= …

2
OLSよりも望ましいMLEの特性は何ですか?
この質問は、どこかでここで回答されたと確信できるほど根本的なようですが、私はそれを見つけていません。 回帰の従属変数が正規分布している場合、最大尤度と通常の最小二乗が同じパラメーター推定を生成することを理解しています。 従属変数が正規分布していない場合、OLSパラメーター推定はMLEと同等ではなくなりますが、それらは依然として最良(最小分散)線形不偏推定(青)です。 それでは、OLSが提供するもの(BLUEであること)を超えてMLEを望ましいものにする特性は何ですか? 言い換えると、OLS推定が最尤推定であると言えない場合、何を失うのですか? この質問をやる気にさせるために、明らかに非正規の従属変数が存在する場合に、なぜOLS以外の回帰モデルを選択するのか疑問に思っています。

1
線形回帰に関してOLS推定器のバイアスがゼロに等しいのはなぜですか?
バイアス分散のトレードオフの概念を理解しています。私の理解に基づくバイアスは、単純な分類子(例:線形)を使用して複雑な非線形決定境界をキャプチャするため、エラーを表します。そのため、OLS推定器には高いバイアスと低い分散があると期待していました。 しかし、私にはOLS = 0のバイアスが意外であるというガウスマルコフ定理に出くわしました。OLSのバイアスが高いと予想していたため、OLSのバイアスがどのようにゼロであるかを説明してください。バイアスの理解が間違っているのはなぜですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.