多重線形回帰の最小二乗推定量を導き出す方法は?


30

単純な線形回帰のケースでは、最小二乗推定量、あなたが知っている必要はないように推定するために、β 1 = Σ X I - ˉ XY I - ˉ Yy=β0+β1xβ 0 β 1β^1=(xix¯)(yiy¯)(xix¯)2β^0β^1

私がしたとし、どのように私は導出ん推定することなく?またはこれは不可能ですか?β 1 β 2y=β1x1+β2x2β^1β^2


1
変数の1つを省略しても、変数が独立している場合は、他の変数の不偏推定値を取得できます。
david25272 14年

回答:


51

マトリックス表記の導出

から始まります。これは実際には次と同じです。y=Xb+ϵ

[y1y2yN]=[x11x12x1Kx21x22x2KxN1xN2xNK][b1b2bK]+[ϵ1ϵ2ϵN]

それはすべてe'eをすることになり。ee

ϵϵ=[e1e2eN][e1e2eN]=i=1Nei2

したがって、を最小化するとます。ee

e e = y X b y X b minb ee=(yXb)(yXb)

e e = y y 2 b X y + b X X bminb ee=yy2bXy+bXXb

(ee)b=2Xy+2XXb=!0

XXb=Xy

b=(XX)1Xy

最後の数学的なことの1つである、最小値の2次条件では、行列が正定値であることが必要です。がフルランクの場合、この要件は満たされます。XXXX

より詳細な手順のすべてを通るより正確な導出は、http: //economictheoryblog.com/2015/02/19/ols_estimator/で見つけることができます


3
この派生はまさに私が探していたものです。スキップされた手順はありません。同じものを見つけるのがどれほど難しいかは驚いた。
javadba

1
行列方程式では、2番目*はa であってはなりません+か?また、すべきではない代わりの寸法が一致するように取得するには?b NbKbN
アレクシスオルソン

アレクシス・オルソン、あなたは正しいです!回答を編集しました。
アンドレアスディビアシ

13

重回帰では、他の係数を推定せずに1つの係数のみを推定することができます。

推定値の影響を除去することにより得られるX 2を他の変数から、その後の残差回帰の残差に対して。これについて説明し、図解します そしてどのように()の回帰係数を正規化するには?。このアプローチの利点は、微積分や線形代数を必要とせず、2次元ジオメトリのみを使用して視覚化でき、数値的に安定であり、多重回帰の1つの基本概念を活用することです。 )単一の変数の効果。β1x2x 1yx1


この場合、重回帰は、3つの通常の回帰ステップを使用して実行できます。

  1. を回帰します(定数項なし!)。近似をます。推定値は したがって、残差は 幾何学的に、は、への投影が差し引かれた後の残りです。、X 2、Y = α Y 2 X 2 + δ α Y 2 = Σ I 、Y I X 2 Iyx2y=αy,2x2+δδ=Y-αY2X2δY、X2

    αy,2=iyix2iix2i2.
    δ=yαy,2x2.
    δyx2
  2. を回帰(定数項なし)。近似をます。推定値は残差は幾何学的に、はへの投影が差し引かれた後の残りです。、X 2 、X 1 = α 1 2 X 2 + γ α 1 2 = Σ iは、xは1 iは xは2 x1x2x1=α1,2x2+γγ=X1-α12X2γX1X2

    α1,2=ix1ix2iix2i2.
    γ=x1α1,2x2.
    γx1x2
  3. 退行上の(定数項なし)。推定値は近似はます。幾何学的に、の成分である(表し有するで取り出す)(表し方向と取り出し)を。γ β 1 = Σ I δ I γ Iδγδ= β 1γ+ε β 1δYX2γ、X1、X2

    β^1=iδiγiiγi2.
    δ=β^1γ+εβ^1δyバツ2γバツ1バツ2

が推定されていないことに注意してください。β2 これは、簡単に(同じように、これまでに得られているものから回収することができる通常の回帰場合は、簡単に傾き推定値から得られる)。の二変量回帰の残差です上と。β 0 β 1 εY、X 1 、X 2β^0β^1εyバツ1バツ2

通常の回帰との類似点は強力です。ステップ(1)および(2)は、通常の式の平均を減算する類似物です。あなたが聞かせている場合もののベクトルで、あなたは実際には通常の式を回復します。バツ2

これは、3つ以上の変数を使用した回帰の明白な方法で一般化されます。を推定し、および他のすべての変数に対して個別に回帰し、次にそれらの残差を互いに回帰します。その時点での重回帰における他の係数のまだ推定されていません。、Y、X1、Yβ^1yバツ1y


1
偉大な答えは、ここでは一般的な定理であるen.wikipedia.org/wiki/...
JohnK

4

の通常の最小二乗推定は、応答変数の線形関数ですβ。簡単に言えば、係数のOLS推定値であるは、従属変数()および独立変数()のみを使用して記述できます。Y I X k個のIβYバツk

一般的な回帰モデルのこの事実を説明するには、少し線形代数を理解する必要があります。重回帰モデルの係数を推定するとします。β0β1βk

Y=β0+β1バツ1++βkバツk+ϵ

ここでです。設計行列は行列で、各列には従属変数の観測値が含まれます。ここでは、推定係数の計算に使用される式の多くの説明と導出を見つけることができます、iは= 1 nはXのn × kのN kはT H X K β = β 0β 1β kはϵdN0σ2=1nバツn×knkthバツkβ^=β^0β^1β^k

β^=バツバツ1バツY

逆が存在すると仮定します。推定係数は、他の推定係数ではなく、データの関数です。バツバツ1


私はフォローアップの質問があります、単純な回帰の場合、、は行列になりおよび、その後ます。私の場合、方程式をどのように書き換えるべきですか?y=β0+β1バツ¯+β1バツバツ¯+eバツ11バツ1バツ¯バツnバツ¯β^=バツバツ1バツY
セイバーCN

さらにもう1つ質問がありますが、これはとが線形ではないが、モデルが線形である場合に適用されますか?たとえば、減衰曲線場合、指数関数をおよびに置き換えて元の質問にできますか?バツ1バツ2y=β1eバツ1t+β2eバツ2tバツ1バツ2
セイバーCN

最初のコメントでは、変数を中央に配置し(平均値を減算)、それを独立変数として使用できます。「標準化された回帰」を検索します。マトリックスに関して記述した式は正しくありません。2番目の質問では、そうすることができます。線形モデルはで線形であるため、はの線形結合に等しい限り問題ありません。βyβ
caburke

2
(+1)。しかし、代わりに" matrix"であってはいけませんか?n×kk×n
ミウラ

3

理論と実践に関する小さなマイナーノート。数学的には次の式で推定できます。β0β1β2βn

β^=バツバツ1バツY

ここで、は元の入力データ、は推定する変数です。これは、エラーを最小化することから始まります。少し実用的な点を述べる前に、これを証明します。バツY

してみましょう線形回帰がポイントになりますエラーである。次に:e

e=yy^

合計2乗誤差は次のとおりです。

=1ne2==1nyy^2

線形モデルがあるため、次のことがわかります。

y^=β0+β1バツ1+β2バツ2++βnバツn

次のようにマトリックス表記で書き直すことができます:

Y^=バツβ

私達はことを知っています

=1ne2=EE

次の式が可能な限り小さくなるように、総二乗誤差を最小化したい

EE=YY^YY^

これは次と等しい:

EE=YバツβYバツβ

書き換えはわかりにくいかもしれませんが、線形代数に基づいています。行列は、いくつかの点でそれらを乗算するときに変数と同様に動作することに注意してください。

この式が可能な限り小さくなるようにの値を見つけたいです。微分をゼロに設定して微分する必要があります。ここではチェーンルールを使用します。β

dEEdβ=2バツY+2バツバツβ=0

これは与える:

バツバツβ=バツY

最終的に:

β=バツバツ1バツY

数学的には解決策を見つけたようです。ただし、1つの問題があります。それは、行列が非常に大きい場合、を計算するのが非常に難しいということです。これにより、数値の精度に問題が生じる可能性があります。この状況で最適値を見つける別の方法は、勾配降下法を使用することです。最適化する関数は無制限で凸であるため、必要に応じて実際には勾配法も使用します。 バツバツ1バツβ


あなたが実際に計算する必要がないことを除いて ...バツバツ1
user603

有効なポイント。グラムシュミットプロセスを使用することもできますが、ベクトルの最適値を見つけることは、凸性のために数値的にも実行できることに注意したいだけです。β
ビンセントウォーマーダム

2

単純な導出は、LRの幾何学的解釈を使用するだけで実行できます。

線形回帰は、列空間へのの投影として解釈できます。したがって、エラーは列空間に直交します。 Yバツϵ^バツ

したがって、とエラーの内積は0でなければなりません。 バツ

<バツyバツβ^> =0

バツyバツバツβ^=0

バツy=バツバツβ^

これは、

バツバツ1バツy=β^

これで同じことができます:

(1)を投影(エラー)、、Yバツ2δ=Yバツ2D^D^=バツ2バツ21バツ2y

(2)を投影(エラー)、、X 2 γ = X 1 - X 2 G G = X ' 1、X 1 - 1 X 1 X 2バツ1バツ2γ=バツ1バツ2G^G^=バツ1バツ11バツ1バツ2

そして最後に、

(3)を、投影するγ β 1δγβ^1

ここに画像の説明を入力してください

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.