回答:
相関関係の違いは何だとと予測する線形回帰から?
まず、いくつかの類似点:
第二に、いくつかの違い:
lm
とcor.test
でR
、同一のp値が得られます。
graphpad.comのWebサイトに投稿した回答は次のとおりです。
相関と線形回帰は同じではありません。これらの違いを考慮してください。
線形回帰の単一予測子の場合、標準化された勾配は相関係数と同じ値を持ちます。線形回帰の利点は、予測変数の特定の値が与えられた場合、予測変数のスコアを(2つの変数間の関係に基づいて)予測できるように関係を記述できることです。特に、線形回帰では、相関関係は切片ではなく、予測変数が0の場合の予測変数の値ではないという情報が得られます。
要するに、それらは同じ結果を計算で生成しますが、単純な線形回帰で解釈できる要素がさらにあります。2つの変数間の関係の大きさを単純に特徴付けることに関心がある場合は、相関を使用します。特定の値に関して結果を予測または説明する場合は、おそらく回帰が必要です。
相関分析は、従属変数と独立変数を無視して、2つの変数間の関係のみを定量化します。ただし、回帰を適用する前に、他の変数で確認する変数の影響を計算する必要があります。
これまでに与えられた答えはすべて重要な洞察を提供しますが、一方のパラメーターを他方に変換できることを忘れてはなりません。
回帰:
回帰パラメーターと相関関係、共分散、分散、標準偏差、平均との関係: B= ˉ Y -M ˉ X
そのため、パラメータをスケーリングおよびシフトすることにより、両方を相互に変換できます。
Rの例:
y <- c(4.17, 5.58, 5.18, 6.11, 4.50, 4.61, 5.17, 4.53, 5.33, 5.14)
x <- c(4.81, 4.17, 4.41, 3.59, 5.87, 3.83, 6.03, 4.89, 4.32, 4.69)
lm(y ~ x)
##
## Call:
## lm(formula = y ~ x)
##
## Coefficients:
## (Intercept) x
## 6.5992 -0.3362
(m <- cov(y, x) / var(x)) # slope of regression
## [1] -0.3362361
cor(y, x) * sd(y) / sd(x) # the same with correlation
## [1] -0.3362361
mean(y) - m*mean(x) # intercept
## [1] 6.599196
アルトマンDG、「医学研究の実用統計」チャップマン&ホール、1991年、321ページを引用:「相関は、データセットを実際のデータと直接関係のない単一の数値に減らします。回帰は、得られた測定に明確に関連する結果。関係の強さは明示的であり、不確実性は信頼区間または予測区間から明確に見ることができます。
回帰分析は、2つの変数間の関係の影響の原因を調査する手法です。一方、相関分析は、2つの変数間の関係を定量化する手法です。
相関は、関係の強さのインデックス(1つの数字)です。回帰は、特定の機能的関係の妥当性の分析(モデルのパラメーターの推定とその有意性の統計的検定)です。相関のサイズは、回帰の予測の精度に関連しています。
相関とは、2つの間に関係があるかどうかを決定し、次に関係の程度を決定する統計上の用語です。範囲は-1〜+1です。回帰は平均に戻ることを意味します。回帰から、1つの変数を依存し、他の変数を独立させて値を予測しますが、予測する変数の値を明確にする必要があります。