「減衰バイアス」のケースは、「プロビット」モデルを調べるとより明確に提示できますが、結果はロジスティック回帰にも引き継がれます。
条件付き確率モデル(ロジスティック(ロジット)、「プロビット」、および「線形確率」モデル)の下で、潜在的な(観測不可能な)線形回帰モデルを仮定できます。
y∗=Xβ+u
ここで、は観測不能な連続変数です(はリグレッサー行列です)。エラー項は、リグレッサから独立しており、ゼロを中心に対称な密度を持つ分布に従うと想定されています。この場合、標準正規分布 です。y∗XFU(u)=Φ(u)
観測するもの、すなわちバイナリ変数は、観測不可能なインジケータ関数であると。yy∗
y=1ify∗>0,y=0ify∗≤0
次に、「回帰子が与えられたときにが値をとる確率はどれくらいですか?」(つまり、条件付き確率を見ています)。これはy1
P(y=1∣X)=P(y∗>0∣X)=P(Xβ+u>0∣X)=P(u>−Xβ∣X)=1−Φ(−Xβ)=Φ(Xβ)
標準の累積分布関数の「反射」特性による最後の等式。これは、ゼロ付近の密度関数の対称性に由来します。はから独立していると仮定しましたが、量を非ランダムとして扱うために条件付けが必要であることに注意してください。uXXXβ
と仮定すると、理論モデルが得られますXβ=b0+b1X1+b2X2
P(y=1∣X)=Φ(b0+b1X1+b2X2)(1)
ここで、をから独立させ、基になる回帰の仕様から誤って除外します。だから指定するX2X1
y∗=b0+b1X1+ϵ
さらに、も通常のランダム変数ます。しかし、これはつまり
X2X2∼N(μ2,σ22)
ϵ=u+b2X2∼N(b2μ2,1+b22σ22)
正規分布の追加中の閉包のため(および独立性の仮定)。前と同じロジックを適用すると、ここにあります
P(y=1∣X1)=P(y∗>0∣X1)=P(b0+b1X1+ϵ>0∣X1)=P(ϵ>−b0−b1X1∣X1)
持っている変数を標準化するϵ
P(y=1∣X1)=1−P⎛⎝⎜ϵ−b2μ21+b22σ22−−−−−−−√≤−(b0+b2μ2)1+b22σ22−−−−−−−√−b11+b22σ22−−−−−−−√X1∣X1⎞⎠⎟
⇒P(y=1∣X1)=Φ⎛⎝⎜(b0+b2μ2)1+b22σ22−−−−−−−√+b11+b22σ22−−−−−−−√X1⎞⎠⎟(2)
モデルとを比較できます。(1)(2)
理論式上記、を教えてくれる場所の私達の最尤推定量それがないという意味では、一貫性の推定残存するため、収束に起こっている、それは理論本当にモデルに存在する量に収束する(そしてもちろん、ありませんでどんな場合でも「真実」を見つけるという意味):b1
b^1→pb11+b22σ22−−−−−−−√⟹|b^1|<|b1|
これは「ゼロへのバイアス」結果です。
ロビット(ロジスティック回帰)ではなく、プロビットモデルを使用しました。これは、正規性の下でのみ分布を導出できるためです。ロジスティック分布は追加中は閉じられません。これは、ロジスティック回帰で関連する変数を省略した場合、エラー項(現在は省略された変数を含む)がロジスティック分布に従わなくなるため、分布の誤指定も作成することを意味します。しかし、これはバイアス結果を変更しません(OPによってリンクされた論文の脚注6を参照)。ϵ