線形回帰のt検定について


17

私は線形回帰でいくつかの仮説検定を実行する方法を考えています(null仮説は相関関係なし)。私が遭遇した主題に関するすべてのガイドとページは、t検定を使用しているようです。しかし、線形回帰のt検定が実際に何を意味するのか理解できません。t検定は、2つの母集団を比較するために、完全に間違った理解または精神モデルがない限り使用されます。しかし、リグレッサーとリグレッサンドは類似した母集団のサンプルではなく、同じユニットでさえないかもしれないので、それらを比較することは意味がありません。

それでは、線形回帰でt検定を使用する場合、実際に何をしているのでしょうか?

回答:


37

おそらく、2つのサンプルのt検定を考えているのは、それがt分布が最初に現れる場所であることが多いからです。しかし、実際には、すべてのt検定は、検定統計量の参照分布がt分布であることです。もしZN(0,1)S2χd2ZS2の独立した、次いで

ZS2/dtd
の定義によります。私はことを強調するために、このアウトを書いているtそれは多くのことをアップしますので、分布は、この比率の分布に与えられた名前だけであり、この形式のものがありますt分布を。2つのサンプルt検定のために、この比は、帰無仮説の下では平均の差はゼロ平均ガウスであり、独立したガウス分布の分散推定値が独立しているため、表示されχ2(独立性を介して示すことができるBasuさんの定理 これは、ガウス標本の標準分散推定値が母平均に付随するという事実を使用しますが、標本平均はその同じ量に対して完全で十分です。

線形回帰では、基本的に同じものが得られます。ベクトル形式で。ましょS 2 jは = X T X - 1 J Jと予測子と仮定Xが非ランダムであるが。私たちは知っていた場合はσ 2、私たちは持っていると思い ββ^N(β,σ2(XTX)1)Sj2=(XTX)jj1Xσ2 ヌルの下でH0βJ=0、我々は実際にZテストを持っていると思いますので。しかし、我々は推定たらσ2我々はで終わるχ2、当社の正規性の仮定の下で、私たちの統計とは独立であることが判明、という確率変数 βの J

β^j0σSjN(0,1)
H0:βj=0σ2χ2β^jとし、我々が得る分布を。t

ここではその詳細です:仮定。まかせH = X X T X - 1 X Tハット行列で我々は E 2 = I - H Y 2 = Y TI - H yはHはi等であるため、本当に素晴らしい結果が得られます。 yN(Xβ,σ2I)H=X(XTX)1XT

e2=(IH)y2=yT(IH)y.
H を有する非中心性パラメーター δ = β T X TI - H X β = β TX T X - X T X β = 0、そう実際に、これは中心である χ 2 N - P
yT(IH)y/σ2χnp2(δ)
δ=βTXT(IH)Xβ=βT(XTXXTX)β=0χ2np自由度(これはコクランの定理の特殊なケースです)。私が使用している列の数を示すためにXを 1列の場合はそう、Xがインターセプトを与え、その後、我々は持っているだろうとのp - 1非インターセプト予測因子を。一部の著者は、インターセプトではない予測子の数としてpを使用しているため、そこの自由度でn p 1のようなものが表示されることがありますが、それはすべて同じです。pXXp1pnp1

この結果は、そのので、σ 2= 1E(eTe/σ2)=npの推定として素晴らしい作品σ2σ^2:=1npeTeσ2

この手段その β J カイ標準ガウスの比は自由その度で割った二乗されます。これを完了するには、独立性を示す必要があり、次の結果を使用できます。

β^jσ^Sj=β^jSjeTe/(np)=β^jσSjeTeσ2(np)

結果:のためのと行列ABのR L × K及びRをM × Kそれぞれ、A ZおよびB Zはである場合にのみ独立A Σ Bは、T = 0(これは運動であります58(b)Jun ShaoのMathematical Statisticsの第1章にあります)。ZNk(μ,Σ)ABRl×kRm×kAZBZAΣBT=0

我々はβ = X T Xを- 1 X T YE = I - H Y Y NXのβ σ 2 Iを。この手段 X T X - 1 X Tσ 2 I I - H T = σ 2β^=(XTX)1XTye=(IH)yyN(Xβ,σ2I)

(XTX)1XTσ2I(IH)T=σ2((XTX)1XT(XTX)1XTX(XTX)1XT)=0
β^eβ^eTe

β^jσ^Sjtnp
as desired (under all of the above assumptions).

Here's the proof of that result. Let C=(AB) be the (l+m)×k matrix formed by stacking A on top of B. Then

CZ=(AZBZ)N((AμBμ),CΣCT)
where
CΣCT=(AB)Σ(ATBT)=(AΣATAΣBTBΣATBΣBT).
CZ is a multivariate Gaussian and it is a well-known result that two components of a multivariate Gaussian are independent if and only if they are uncorrelated, so the condition AΣBT=0 turns out to be exactly equivalent to the components AZ and BZ in CZ being uncorrelated.


3
+1 always enjoy reading your answer.
Haitao Du

9

@Chaconne's answer is great. But here is a much shorter nonmathematical version!

Since the goal is to compute a P value, you first need to define a null hypothesis. Almost always, that is that the slope is actually horizontal so the numerical value for the slope (beta) is 0.0.

The slope fit from your data is not 0.0. Is that discrepancy due to random chance or due to the null hypothesis being wrong? You can't ever answer that for sure, but a P value is one way to sort-of-kind-of get at an answer.

The regression program reports a standard error of the slope. Compute the t ratio as the slope divided by its standard error. Actually, it is (slope minus null hypothesis slope) divided by the standard error, but the null hypothesis slope is nearly always zero.

Now you have a t ratio. The number of degrees of freedom (df) equals the number of data points minus the number of parameters fit by the regression (two for linear regression).

With those values (t and df) you can determine the P value with an online calculator or table.

It is essentially a one-sample t-test, comparing an observed computed value (the slope) with a hypothetical value (the null hypothesis).


3
The real question is why this is "essentially a one-sample t-test", and I don't see how it can become clear from your answer...
amoeba says Reinstate Monica
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.