線形モデルのBLUE(OLSソリューション)以外の不偏推定量


15

線形モデルの場合、OLSソリューションはパラメーターに最適な線形不偏推定量を提供します。

もちろん、より低い分散、例えばリッジ回帰のバイアスをトレードオフできます。しかし、私の質問はバイアスがないということです。偏りはないが、OLS推定パラメーターよりも高い分散を持つ、やや一般的に使用される推定器は他にありますか?

巨大なデータセットがある場合は、もちろんそれをサブサンプリングし、より少ないデータでパラメーターを推定し、分散を増やすことができます。これは仮説的に有用だと思います。

BLUE推定量について読んだときに、より悪い代替案が提供されていないため、これは修辞的な質問です。悪い選択肢を提供することは、人々が青い推定器の力をよりよく理解するのにも役立つと思います。


最尤推定量はどうですか?たとえば、データが比較的低い自由度パラメーター(t 3 またはt 4 が経済的リターンに特徴的である可能性がある)のt分布からサンプリングされていると思う場合、最尤推定量はOLSと一致しませんが、推測しますそれはまだ公平です。t3t4
リチャードハーディ


1
@RichardHardy、私もあなたが予想した結果で、MLEを試しました。
クリストフハンク

回答:


19

頭に浮かぶ1つの例は、ガウス-マルコフの仮定が満たされている場合は必要ではありませんが、観測に異なる重みを付けるGLS推定量です(統計学者はそうではないため、GLSを適用します)。

説明のために定数のyii=1,,n回帰の場合を考えてみましょう(一般的なGLS推定量に簡単に一般化できます)。ここで、{yi}平均と母集団からのランダムサンプルであると仮定されμ及び分散σ2

その後、我々はOLSがちょうどであることを知っているβ = ˉ Y、サンプルの平均。各観察、重量で重み付けされている点を強調するために、1 / N、としてこれを書い β = N Σ iが= 1 1β^=y¯1/n

β^=i=1n1nyi.
それは、よく知られているVar(β^)=σ2/n

今、別のように書くことができる推定検討

β~=i=1nwiyi,
重みはそのようなことであるiwi=1。これにより、
E(i=1nwiyi)=i=1nwiE(yi)=i=1nwiμ=μ.
その分散は、すべてのiについてwi=1/n(この場合はもちろんOLSに減少します)でない限り、OLSの分散を超えます。i

L=V(β~)λ(iwi1)=iwi2σ2λ(iwi1),
偏導関数はWRTでwiに等しいゼロに設定2σ2wiλ=0全てについてi、およびL/λ=0等しいiwi1=0。の導関数の最初のセットを解くλそれらと等化生じるwi=wj意味し、wi=1/n 1に要求その加重和によって、分散を最小限にします。

以下は、以下のコードで作成された小さなシミュレーションのグラフィカルな図です。

編集:@kjetilbhalvorsenと@RichardHardyの提案に応じて、yi中央値、位置パラメータpf at(4)分布のMLE(In log(s) : NaNs producedさらにチェックしなかったという警告が表示されます)およびHuberの推定値をプロット。

enter image description here

wi=(1±ϵ)/n

後者の3つがOLSソリューションによってアウトパフォームされることは、それらが線形推定器であるかどうかは明らかではないため(少なくとも私にとっては)BLUEプロパティによってすぐに暗示されるわけではありません(MLEとHuberが偏っていないかどうかもわかりません)。

library(MASS)
n <- 100      
reps <- 1e6

epsilon <- 0.5
w <- c(rep((1+epsilon)/n,n/2),rep((1-epsilon)/n,n/2))

ols <- weightedestimator <- lad <- mle.t4 <- huberest <- rep(NA,reps)

for (i in 1:reps)
{
  y <- rnorm(n)
  ols[i] <- mean(y)
  weightedestimator[i] <- crossprod(w,y)  
  lad[i] <- median(y)   
  mle.t4[i] <- fitdistr(y, "t", df=4)$estimate[1]
  huberest[i] <- huber(y)$mu
}

plot(density(ols), col="purple", lwd=3, main="Kernel-estimate of density of OLS and other estimators",xlab="")
lines(density(weightedestimator), col="lightblue2", lwd=3)     
lines(density(lad), col="salmon", lwd=3)     
lines(density(mle.t4), col="green", lwd=3)
lines(density(huberest), col="#949413", lwd=3)
abline(v=0,lty=2)
legend('topright', c("OLS","weighted","median", "MLE t, 4 df", "Huber"), col=c("purple","lightblue","salmon","green", "#949413"), lwd=3)

2
きちんとした!これは非常に単純な例であり、私が思いついたものよりも少し一般的だと思います。人々が頻繁な設定で推定器について学んでいるとき、私はこれらの種類の例がしばしば欠落していると感じます、彼らは本当にあなたが概念のより良い把握を得るのを本当に助けます。
グメオ

4
別の可能性は、次のような基準を最小化することに基づく(ロバストな)推定量です。 W==1nwe どこ e i番目の残差であり、 w 凸または非凸の対称関数であり、(グローバル)最小値は0です。 w0=0。Huber推定器は一例です。
kjetil bハルヴォルセン

1
@kjetilbhalvorsen、私は現在、Huber推定器も含めています。
クリストフハンク
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.