調整されたR 2乗がモデルをより良く予測する場合、調整されたR 2乗はR 2乗よりも小さいのはなぜですか?


15

私が理解している限り、R2はモデルが観測をどれだけうまく予測できるかを説明しています。調整済みR2は、より多くの観測値(または自由度)を考慮したものです。それでは、Adjusted R2はモデルをより良く予測しますか?では、なぜこれがよりも小さいのR2でしょうか?多くの場合、それ以上のはずです。

回答:


30

は、独立変数と従属変数の間の線形関係を示しています。1 S S Eとして定義されますR2は、平方誤差の合計を平方の合計で割ったものです。 SSTO=SSE+SSRは、回帰二乗の総誤差と総和です。独立変数が追加されると、SSRは上昇し続け(SSTOが固定されているため)、SSEは下降し、追加した変数の価値に関係なくR2は継続的に上昇します。1SSESSTOSSTO=SSE+SSRSSRSSTOSSER2

調整済みは、統計的収縮を考慮しようとしています。大量の予測変数を含むモデルは、サンプルからテストする場合よりもサンプルでパフォーマンスが向上する傾向があります。調整されたR 2は、既存のモデルを改善しない追加の予測変数を追加したことを「ペナルティ」します。モデルの選択に役立ちます。調整R 2が等しくなるR 2を 1つの予測変数のため。変数を追加すると、R 2より小さくなります。R2R2R2R2R2


調整済みのR正方形が先のとがった特性をどのように達成するかは明らかではありません。つまり、式は何であり、それがどのようにプロパティを引き起こしますか?
アレクセイ・ヴォイテンコ

Adj R ^ 2 = 1-((n -1)/(n-k -1))(1-R ^ 2)
mountainclimber

ここで、k =独立変数の#N =#観測
mountainclimber

統計的な収縮を説明しようとしています -おそらく過剰適合のためですか?
リチャードハーディ

-1

R ^ 2は、線形回帰モデルの独立変数(X)によって説明される従属変数(Y)の変動の割合を説明します。

調整済みR ^ 2は、線形回帰モデルの2つ以上の独立変数(X)によって説明される従属変数(Y)の変動の割合を示します。


1
「独立変数」と「複数の独立変数」を区別するのは明確ではありません。また、下からアンディを引用して、「以前に提供されたものに新しい情報を実際に追加することはありません。」
アメーバは、モニカを復活させる

-2

R-Squaredは、従属変数に関連しない変数を追加しても増加しますが、調整されたR-Squaredは、従属変数に関連しない変数を追加するたびに減少するため、注意してください。減少します。


3
この質問にはすでに受け入れられた答えがあるので、これはもっとコメントになるはずです。以前に提供されたものに新しい情報を実際に追加することはありません。
アンディ14
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.