パラメータの推定可能性に関する問題


13

レッツと、このような、4つのランダム変数である、ここでは不明なパラメーターです。また、、と仮定し次に、どれが本当ですか?Y1,Y2,Y3Y4E(Y1)=θ1θ3;  E(Y2)=θ1+θ2θ3;  E(Y3)=θ1θ3;  E(Y4)=θ1θ2θ3θ1,θ2,θ3Var(Yi)=σ2i=1,2,3,4.

A.は推定可能です。θ1,θ2,θ3

B.は推定可能です。θ1+θ3

C.は推定可能であり、は最良の線形不偏推定値です。θ1θ312(Y1+Y3)θ1θ3

D.は推定可能です。θ2

答えはCです。これは私には奇妙に見えます(Dを取得したため)。

なぜ私はDを得たのですか?以来、。E(Y2Y4)=2θ2

Cが答えだと理解できないのはなぜですか?わかりました、は不偏推定量であり、その分散は未満です。Y1+Y2+Y3+Y44θ1θ3Y1+Y32

どこが間違っているのか教えてください。

こちらにも投稿されています:https : //math.stackexchange.com/questions/2568894/a-problem-on-estimability-of-parameters


1
中に入れself-studyたタグまたは誰かが一緒に来て、あなたの質問を閉じます。
カール

@Carlできましたが、なぜですか?
Stat_prob_001

それらはサイトのルールであり、私のルール、サイトのルールではありません。
カール

ある?Y1Y3
カール

1
@Carlは次のように考えることができます:ここで、は平均および分散 rv です。そして、ところ平均とRVで、分散ε 1 0 σ 2 Y 3 = θ 1 - θ 3 + ε 3 ε 3 0 σ 2Y1=θ1θ3+ϵ1ϵ10σ2Y3=θ1θ3+ϵ3ϵ30σ2
Stat_prob_001

回答:


8

この答えは、推定可能性の検証を強調しています。最小分散プロパティは、私の二次的な考慮事項です。

まず、次のように線形モデルの行列形式で情報を要約します Eε=0ヴァールε=σ2I(estimabilityを議論するために、spherityの仮定は必要ありません。しかし、ガウス・マルコフ性を議論するために、我々はspherityを前提とする必要性を行いますε)。

(1)Y:=[Y1Y2Y3Y4]=[101111101111][θ1θ2θ3]+[ε1ε2ε3ε4]:=Xβ+ε,
E(ε)=0,Var(ε)=σ2Iε

計画行列の場合フルランクであり、次いでorginalパラメータβは、ユニークな最小二乗推定認めβ = X ' X - 1 X ' Y。したがって、任意のパラメータφ線形関数として定義され、φ β βは、それが明確に最小二乗介してデータによって推定に推定することができるという意味で、見積りであるβとしてφ = P ' βXββ^=(XX)1XYϕϕ(β)ββ^ϕ^=pβ^

がフルランクではない場合、微妙さが生じます。徹底的な議論をするために、最初にいくつかの表記法と用語を修正します(線形モデルへの座標フリーアプローチ、セクション4.8 の規則に従います。用語の一部は不必要に技術的に聞こえます)。加えて、議論は、一般的な線形モデルに適用されるY = X β + εX R N × Kβ R KXY=Xβ+εXRn×kβRk

  1. 回帰マニホールドとして平均ベクトルの集合であり、にわたって変化のR KM = { X β β R K } βRk
    M={Xβ:βRk}.
  2. パラメトリック機能 の一次関数であるβφ β = P ' β = P 1 β 1 + + P K β Kϕ=ϕ(β)β
    ϕ(β)=pβ=p1β1++pkβk.

上記のように、場合、すべてのパラメトリック汎関数ϕ β が推定できるわけではありません。しかし、待って、技術的に推定可能な用語の定義は何ですか?小さな線形代数を気にせずに明確な定義を与えることは難しいようです。私が最も直感的だと思う定義の1つは、次のとおりです(前述の同じ参照から)。rank(X)<kϕ(β)

定義1. Aパラメトリック機能それが一意により判定された場合には見積りである Xのβ意味で φ β 1= φ β 2たび β 1β 2R kを満たす Xは、β 1 = X β 2ϕ(β)Xβϕ(β1)=ϕ(β2)β1,β2RkXβ1=Xβ2

解釈。回帰マニホールドからマッピングすることを上記の定義の規定のパラメータ空間のφは一対一の、保証されなければならないランクX = K(すなわち、X自体が一対一です)。場合ランクX < K、我々が存在することを知っているβ 1β 2ように、Xはβ 1 = X β 2Mϕrank(X)=kXrank(X)<kβ1β2Xβ1=Xβ2。上記の推定可能な定義は、事実上、自然に意味をなさないの同じ値であっても、異なる値自体をもたらす構造的欠損パラメトリック汎関数を除外します。一方、見積パラメトリック機能φ ケース許可しφ β 1= φ β 2β 1β 2長く条件ほど、X β 1 = X β 2が満たされます。Mϕ()ϕ(β1)=ϕ(β2)β1β2Xβ1=Xβ2

同じ参照、提案8.4で与えられているパラメトリック汎関数の推定可能性をチェックする他の同等の条件があります。

このような詳細な背景説明の後、質問に戻りましょう。

A. 自体が理由のために、非推定可能である順位X < 3伴う、X β 1 = X β 2β 1β 2。上記の定義はスカラー関数に与えられていますが、ベクトル値関数に簡単に一般化できます。βrank(X)<3Xβ1=Xβ2β1β2

B. 非見積りです。ウィットに、検討β 1 = 0 1 0 'β 2 = 1 1 1 '、与えるX β 1 = X β 2が、φ 1ϕ1(β)=θ1+θ3=(1,0,1)ββ1=(0,1,0)β2=(1,1,1)Xβ1=Xβ2ϕ1(β1)=0+0=0ϕ1β2=1+1=2

C.は、見積りです。ので、Xは、β 1 = X β 2自明意味θ 1 1 - θ 1 3 = θ 2 1 - θ 2 3、すなわち、φをϕ2β=θ1θ3=101βバツβ1=バツβ2θ1(1)θ3(1)=θ1(2)θ3(2)ϕ2(β1)=ϕ2(β2)

D.は、あるにも見積ります。導出Xは、β 1 = X β 2に対してφ 3β 1= φ 3β 2も自明です。ϕ3(β)=θ2=(0,1,0)βXβ1=Xβ2ϕ3(β1)=ϕ3(β2)

推定可能性が検証された後、定理(命題8.16、同じ参考文献)により、ガウス・マルコフ特性が主張されます。その定理に基づいて、オプションCの2番目の部分は正しくありません。最良線形不偏推定値であるˉ Y = Y 1 + Y 2 + Y 3 + Y 4/ 4以下の定理によって、。ϕ(β)Y¯=(Y1+Y2+Y3+Y4)/4

定理。ましょう見積パラメトリック機能、その最良線形不偏推定値である(別名、ガウス-マルコフ推定値)である φ βの任意の溶液のための β正規方程式に X ' X β =をX " Yϕ(β)=pβϕ(β^)β^XXβ^=XY

証明は次のようになります。

証明。正規方程式であることを単純計算ショー 、簡略化した後、される [ φ βはθ 2 / 2 - φ

[404020404]β^=[111101011111]Y,
すなわち、φ β= ˉ Y
[ϕ(β^)θ^2/2ϕ(β^)]=[Y¯(Y2Y4)/4Y¯],
ϕ(β^)=Y¯

したがって、オプションDが唯一の正しい答えです。


補遺:推定可能性と識別可能性の関係

私は学校にいたときは、教授の簡潔には、パラメトリック機能のestimabilityことを述べたモデル識別性に対応しています。私はこの主張を当然と思っていました。ただし、同値をより明示的に記述する必要があります。ϕ

AC Davisonのモノグラフ統計モデル p.144によると

定義2.各パラメーターが異なる分布を生成するパラメトリックモデルは、識別可能と呼ばます。θ

線形モデルの場合にかかわらず、spherity条件ヴァーε = σ 2 I、それは次のように再定式化することができる E [ Y ] = X β (1)Var(ε)=σ2I

(2)E[Y]=Xβ,βRk.

単純なモデルなので、応答ベクトル最初のモーメント形式のみを指定しました。場合ランクX = K、モデル2 識別可能であるので、β 1β 2を意味X β 1X β 2(ワード元の定義における"分布"は、天然にモデルの下で、 "平均"に減少2 。)。Yrank(X)=k(2)β1β2Xβ1Xβ2(2)

ここで、あり、与えられたパラメトリック汎関数ϕ β = p βであると仮定すると、定義1定義2をどのように調整しますか?rank(X)<kϕ(β)=pβ

さて、表記と言葉を操作することによって、我々はそれ(「証拠」はかなり簡単です)estimability表示することができますモデルと同等である2 それはパラメータでパラメータ化されたときに識別可能ですφ = φ β = p β(設計行列Xはそれに応じて変化する可能性が高い)。証明する、と仮定するφ βはこと見積りそうであるXは、β 1 = X β 2を意味P ' βを1ϕ(β)(2)ϕ=ϕ(β)=pβXϕ(β)Xβ1=Xβ2、定義によって、これは φ 1 = φ 2、したがってモデル図3はで索引付けするときに識別可能です φ。逆に、仮定するモデル図3はことが識別可能なようである Xは、β 1 = X β 2を意味 φ 1 = φ 2は自明であり、 φ 1β = φ 2β pβ1=pβ2ϕ1=ϕ2(3)ϕ(3)Xβ1=Xβ2ϕ1=ϕ2ϕ1(β)=ϕ2(β)

直観的には、ランクを下げた場合、βを持つモデルはパラメーターの冗長性(パラメーターが多すぎる)であるため、非冗長の低次元再パラメーター化(線形関数のコレクションで構成される可能性があります)が可能です。そのような新しい表現はいつ可能ですか?キーは推定可能性です。Xβ

上記のステートメントを説明するために、例を再考しましょう。私たちは、パラメトリック汎関数を確認したφ 3β = θ 2がされて見積ります。したがって、我々は、モデル書き換えることができる1 reparametrizedパラメータの点でφ 2φ 3 '次のように E [ Y ] = [ 1 0 1 1 1ϕ2(β)=θ1θ3ϕ3(β)=θ2(1)(ϕ2,ϕ3)

E[Y]=[10111011][ϕ2ϕ3]=X~γ.

X~γ


オプションCの2番目の部分の証明が必要な場合は、回答を補足します。
Zhanxiong

2
14(Y1+Y2+Y3+Y4) is not "best"?
Stat_prob_001

2
Oh, I don't know why I thought it is the estimator in C. Actually (Y1+Y2+Y3+Y4)/4 is the best estimator. Will edit my answer
Zhanxiong

6

Apply the definitions.

I will provide details to demonstrate how you can use elementary techniques: you don't need to know any special theorems about estimation, nor will it be necessary to assume anything about the (marginal) distributions of the Yi. We will need to supply one missing assumption about the moments of their joint distribution.

Definitions

All linear estimates are of the form

tλ(Y)=i=14λiYi
for constants λ=(λi).

An estimator of θ1θ3 is unbiased if and only if its expectation is θ1θ3. By linearity of expectation,

θ1θ3=E[tλ(Y)]=i=14λiE[Yi]=λ1(θ1θ3)+λ2(θ1+θ2θ3)+λ3(θ1θ3)+λ4(θ1θ2θ3)=(λ1+λ2+λ3+λ4)(θ1θ3)+(λ2λ4)θ2.

Comparing coefficients of the unknown quantities θi reveals

(1)λ2λ4=0 and λ1+λ2+λ3+λ4=1.

In the context of linear unbiased estimation, "best" always means with least variance. The variance of tλ is

Var(tλ)=i=14λi2Var(Yi)+ij4λiλjCov(Yi,Yj).

The only way to make progress is to add an assumption about the covariances: most likely, the question intended to stipulate they are all zero. (This does not imply the Yi are independent. Furthermore, the problem can be solved by making any assumption that stipulates those covariances up to a common multiplicative constant. The solution depends on the covariance structure.)

Since Var(Yi)=σ2, we obtain

(2)Var(tλ)=σ2(λ12+λ22+λ32+λ42).

The problem therefore is to minimize (2) subject to constraints (1).

Solution

The constraints (1) permit us to express all the λi in terms of just two linear combinations of them. Let u=λ1λ3 and v=λ1+λ3 (which are linearly independent). These determine λ1 and λ3 while the constraints determine λ2 and λ4. All we have to do is minimize (2), which can be written

σ2(λ12+λ22+λ32+λ42)=σ24(2u2+(2v1)2+1).

No constraints apply to (u,v). Assume σ20 (so that the variables aren't just constants). Since u2 and (2v1)2 are smallest only when u=2v1=0, it is now obvious that the unique solution is

λ=(λ1,λ2,λ3,λ4)=(1/4,1/4,1/4,1/4).

Option (C) is false because it does not give the best unbiased linear estimator. Option (D), although it doesn't give full information, nevertheless is correct, because

θ2=E[t(0,1/2,0,1/2)(Y)]

is the expectation of a linear estimator.

It is easy to see that neither (A) nor (B) can be correct, because the space of expectations of linear estimators is generated by {θ2,θ1θ3} and none of θ1,θ3, or θ1+θ3 are in that space.

Consequently (D) is the unique correct answer.

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.