線形回帰予測子を追加するとR 2乗が減少します


10

私のデータセット()従属変数(DV)、5つの独立した"ベースライン"変数(P1、P2、P3、P4、P5)と関心の独立変数(Q)を有します。N10,000

次の2つのモデルに対してOLS線形回帰を実行しました。

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

つまり、予測子Qを追加すると、線形モデルで説明される分散の量が減少します。私の知る限り、これは起こらないはずです。

明確にするために、これらはR二乗値であり調整済みR 二乗値ではありません

JaspとPythonのstatsmodelsを使用して、R二乗値を検証しました。

この現象が発生する理由はありますか?たぶん、OLS法に関連するものはありますか?


1
数値の問題?数値は互いに非常に近い...

@ user2137591これは私が考えていることですが、これを確認する方法がわかりません。R二乗値の絶対差が小さい0.000513569である、ではないこと小さいです。
Cai

1
XdetXTXTdet

8
欠損値は自動的に削除されますか?
generic_user 2017

1
0.000513569は非常に小さい数値です。0.41%の変化です。おそらく数値的な問題です。Clarinetistが

回答:


25

Q自動ドロップされている値が不足している可能性がありますか?これはサンプルに影響し、2つの回帰を比較できなくなります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.