楽観バイアス-予測誤差の推定


9

本の統計的学習の要素(PDFオンラインで入手可能)は、楽観バイアス(7.21、229ページ)について説明しています。楽観バイアスは、トレーニングエラーとサンプル内エラー(元の各トレーニングポイントで新しい結果値をサンプリングした場合に観察されるエラー)の差であると述べています(以下を参照)。

ここに画像の説明を入力してください

次に、この楽観バイアス()は、推定されたy値と実際のy値(以下の式)の共分散に等しいと述べています。なぜこの式が楽観バイアスを示しているのか理解できません。単純に、実際のyと予測されたyの間の強い共分散は、楽観主義ではなく、単に正確さを表すと考えていました。誰かが公式の導出を手伝ってくれるか、直感を共有できるかどうか教えてください。 ωyy

ここに画像の説明を入力してください


とても助かります、ありがとう!私は方程式の1つにマイナーなタイプミスがあると思います:=1Ni=1N(Ey[yi2]+Ey[y^i2]2Ey[yi]Ey[y^i]Ey[yi2]Ey[y^i2]+2E[yiy^i])
Sleepster

回答:


8

直感から始めましょう。

使用して何も間違ってあります予測することは、Yに私は。実際、これを使用しないと、貴重な情報が廃棄されることになります。ただし、予測を行うためにy iに含まれる情報に依存するほど、推定量は楽観的になります。yiy^iyi

y^iyiR2=1df(y^)=n

yyi=yi^=y¯i

この直感の詳細については、Ryan Tibshiraniによるこの素晴らしい資料を確認してください。


今、他の答えと同様の証明ですが、もう少し説明があります

定義により、平均的な楽観主義は次のとおりです。

ω=Ey(Errinerr¯)

=Ey(1Ni=1NEY0[L(Yi0,f^(xi)|T)]1Ni=1NL(yi,f^(xi)))

次に、二次損失関数を使用して、二乗項を展開します。

=Ey(1Ni=1NEY0[(Yi0y^i)2]1Ni=1N(yiy^i)2))

=1Ni=1N(EyEY0[(Yi0)2]+EyEY0[y^i2]2EyEY0[Yi0y^i]Ey[yi2]Ey[y^i2]+2E[yiy^i])

EyEY0[(Yi0)2]=Ey[yi2]

=1Ni=1N(Ey[yi2]+Ey[yi^2]2Ey[yi]Ey[y^i]Ey[yi2]Ey[y^i2]+2E[yiy^i])

=2Ni=1N(E[yiy^i]Ey[yi]Ey[y^i])

Cov(x,w)=E[xw]E[x]E[w]

=2Ni=1NCov(yi,y^i)

5
彼の名前が「Ryan Tibshirani」と綴られていることを指摘して
おきます。RobTibshirani

2
私たちのサイト、ロブへようこそ-エラーを修正するためだけに、ここにいることは特権です!これ以上表示された場合はお知らせください。もちろん、あなた(またはあなたの学生)が投稿してもよい回答があれば喜んでお知らせします。あなたの仕事はこのサイト、特にESLIntro to the Bootstrapで
whuber

EyEY0[(Yi0)2]=Ey[yi2]2EyEY0[Yi0y^i]=2Ey[EY0[Yi0]EY0[y^i]]=2Ey[yi]Ey[y^i]

7

f^(xi)=y^i

ω=Ey[op]=Ey[Errinerr¯]=Ey[Errin]Ey[err¯]=Ey[1Ni=1NEY0[L(Yi0,f^(xi))]Ey[1Ni=1NL(yi,f^(xi))]=1Ni=1NEyEY0[(Yi0y^i)2]Ey[(yiy^i)2]=1Ni=1NEyEY0[(Yi0)2]+EyEY0[y^i2]2EyEY0[Yi0y^i]Ey[yi2]Ey[y^i2]+2Ey[yiy^i]=1Ni=1NEy[yi2]+Ey[y^i2]2Ey[yi]Ey[y^i]Ey[yi2]Ey[y^i2]+2Ey[yiy^i]=2Ni=1NEy[yiy^i]Ey[yi]Ey[y^i]=2Ni=1NEy[yiy^iyiEy[y^i]Ey[yi]y^i+Ey[yi]Ey[y^i]]=2Ni=1NEy[(y^iEy[y^i])([yiEy[yi])]=2Ni=1Ncov(y^i,yi)

1
E[xw]E[x]E[w]=Cov(x,w)
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.