多変量線形回帰といくつかの単変量回帰モデル


11

一変量回帰設定では、モデル化を試みます

y=Xβ+noise

ここで、は観測値のベクトルであり、は予測子をもつ計画行列です。解はです。yRnnXRn×mmβ0=(XTX)1Xy

多変量回帰設定では、モデル化を試みます

Y=Xβ+noise

ここで、は、観測値と異なる潜在変数の行列です。解はです。yRn×pnpβ0=(XTX)1XY

私の質問は、異なる一変量線形回帰を実行することとどのように異なるのですか?後者の場合、従属変数間の相関を考慮することをここで読みましたが、数学からはわかりません。p


1
Frisch-Waugh-Lovellの定理を参照してください。
rsm 2017

1
@amorfati:だから私が正しく理解すれば、それらは同じです。なぜ人々はそれらを異なって扱うのですか?
ロイ

回答:


6

古典的な多変量線形回帰の設定では、次のモデルがあります。

Y=Xβ+ϵ

ここで、は独立変数を表し、は複数の応答変数を表し、はiidガウスノイズ項です。ノイズの平均はゼロであり、応答変数間で相関させることができます。重みの最尤解は、最小二乗解と等価です(ノイズ相関に関係なく)[1] [2]:XYϵ

β^=(XTX)1XTY

これは、応答変数ごとに個別の回帰問題を個別に解決することと同じです。これは、の番目の列(番目の出力変数の重みを含む)が、に乗算することによって取得できるという事実からわかります。列(番目の応答変数の値を含む)。iβ^i(XTX)1XTiYi

ただし、多変量線形回帰は、個々の回帰問題を個別に解決することとは異なります。これは、統計的推論手順が複数の応答変数間の相関を説明するためです(たとえば、[2]、[3]、[4]を参照)。たとえば、ノイズ共分散行列は、サンプリング分布、検定統計量、区間推定に表示されます。

各応答変数に独自の共変量のセットを許可すると、別の違いが生じます。

Yi=Xiβi+ϵi

ここで、は番目の応答変数を表し、とは対応する共変量とノイズ項のセットを表します。上記のように、ノイズ項は応答変数間で相関させることができます。この設定では、最小二乗法よりも効率的で、各応答変数の個別の回帰問題を解決するために還元できない推定量が存在します。たとえば、[1]を参照してください。YiiXiϵi

参考文献

  1. ツェルナー(1962)。一見無関係な回帰を推定する効率的な方法と、集計バイアスのテスト。
  2. ヘルヴィヒ(2017)。多変量線形回帰[スライド]
  3. Fox and Weisberg(2011)。Rの多変量線形モデル。[付録:応用回帰のRコンパニオン]
  4. マイトラ(2013)。多変量線形回帰モデル。[スライド]

1
おかげで、今はもっとはっきりしています。この定式化のリファレンスはありますか?私は最小二乗形式だけに遭遇しました。また、それを実装するPythonパッケージを知っていますか?
ロイ

1
次に、参照リクエスト。相関関係は結果の共分散にすぎませんか、それとも条件付き共分散の場合、ある種のことを学びますか?
generic_user

@ user20160がこれらを参照していたかどうかは100%わかりませんが、彼らが考えていたのは、方程式の推定/一般化された推定方程式だったと思います。EE / GEEは、共分散構造が誤って指定されている場合でも一貫しており、予想される共分散構造を設定することもできます。ただし、これらのモデルは、閉じた形式のOLSとは対照的に、反復的に推定されます。PythonでGEE / EEを推定できるはずですが、パッケージはわかりません。
iacobus 2017

1
@ロイ私は答えを書き直し、参照を追加しました。私の元の投稿は、現在、改訂された投稿の最後の段落であるケースを想定していました。後で詳細を追加してみます。
user20160
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.