私のデータセット()従属変数(DV)、5つの独立した"ベースライン"変数(P1、P2、P3、P4、P5)と関心の独立変数(Q)を有します。
次の2つのモデルに対してOLS線形回帰を実行しました。
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
つまり、予測子Qを追加すると、線形モデルで説明される分散の量が減少します。私の知る限り、これは起こらないはずです。
明確にするために、これらはR二乗値であり、調整済みR 二乗値ではありません。
JaspとPythonのstatsmodelsを使用して、R二乗値を検証しました。
この現象が発生する理由はありますか?たぶん、OLS法に関連するものはありますか?
1
数値の問題?数値は互いに非常に近い...
@ user2137591これは私が考えていることですが、これを確認する方法がわかりません。R二乗値の絶対差が小さい0.000513569である、ではないこと小さいです。
—
Cai
欠損値は自動的に削除されますか?
—
generic_user 2017