サンプルサイズが変数の数より小さいときに、サンプルの共分散行列が特異なのはなぜですか?


30

次元の多変量ガウス分布があるとしましょう。そして、この分布から観測値(それぞれベクトル)を取得し、標本共分散行列を計算します。この論文では、著者は、計算されたサンプル共分散行列は特異であると述べています。pnpSp>n

  • それはどのように真実または派生していますか?
  • 説明はありますか?

4
これは、基礎となる分布とは無関係に真であることに注意してください。ガウス分布である必要はありません。
アメーバは、Reinstate Monica

回答:


22

証明なしで提供される行列ランクに関するいくつかの事実(ただし、それらのすべてまたはほとんどすべての証明は、標準線形代数テキストで提供されるか、場合によっては十分な情報を提供した後に演習として設定する必要があります):

場合はBは、2つの適合行列は、以下のとおりです。AB

(I)の列ランク =の行ランクAAA

(ii)rank(A)=rank(AT)=rank(ATA)=rank(AAT)

(iii)rank(AB)min(rank(A),rank(B))

(iv)rank(A+B)rank(A)+rank(B)

(v)がフルランクの正方行列の場合、ランクA B = ランクA Brank(AB)=rank(A)

サンプルデータの行列yを考えます。上記から、yのランクは最大でmin n p です。n×pyymin(n,p)

さらに、上記から明らかなように、のランクはyのランクより大きくなりません(マトリックス形式でのSの計算を考慮して、おそらくいくらか簡略化しています)。SyS

場合、rank y < pで、その場合はrank S < pです。n<prank(y)<prank(S)<p


いい答えだ!しかし、yとSがAとBにどのように関係しているかは完全には明らかではありませんか?
マティフォー

Sはyから計算されます。(元の投稿の「x」)。yについての事実と(上記のルールを介して)行われた操作を使用して、Sのランクの境界を取得できます。AとBが果たす役割は、ステップごとに変わります。
Glen_b-モニカの復活

14

あなたの質問への短い答えはそのランクである。したがって、p > nの場合、Sは特異です。(S)n1p>nS

より詳細な回答については、(不偏)サンプル共分散行列は次のように記述できることを思い出してください。

S=1n1i=1n(xix¯)(xix¯)T.

実際には、それぞれがランク1の行列を合計します。観測が線形独立であると仮定すると、ある意味で各観測x iはランクS )に 1を与え、ランクからa 1が減算されます(p > nの場合))各観測をcenter xの中心に配置するため。ただし、観測に多重共線性が存在する場合、ランクS が低下する可能性があります。これにより、ランクがn 1未満になる理由が説明されます。nxi(S)p>nx¯(S)n1

大量の作業がこの問題の研究に費やされています。例えば、私の同僚と私は書いた紙を我々があれば、処理方法を決定することに興味を持ったこの同じトピック、上のに適用した場合に特異である判別分析線形のp » n個の設定を。Spn


4
各観測を中央揃えするのでx¯、なぜ1を引くのか詳しく説明してください。
アボカド14


いい答えだ!たぶん、それぞれがランク1を持っている𝑛行列を合計しているステートメントに関する説明/リンクを追加することができますか?ありがとう!
マティフォー

10

状況を正しい方法で見ると、結論は直感的に明白ですぐにわかります。

この投稿では、2つのデモを提供しています。最初の、すぐ下にあるのは言葉です。これは、最後に表示される単純な図面と同等です。間には、言葉と図面の意味の説明があります。


p変量観測の共分散行列は、行列X n p(再センタリングされたデータ)に転置X p nを左掛けすることにより計算されるp × p行列です。この行列の積は、次元がpおよびnであるベクトル空間のパイプラインを通じてベクトルを送信します。したがって、共分散行列であるqua線形変換は、R nを次元が最大でmin p n である部分空間に送ります。n pp×pXnpXpnpnRnmin(p,n)共分散行列のランクがより大きくないことはすぐにわかります。min(p,n) したがって、場合、ランクは最大でnであり、厳密にpよりも小さいことは、共分散行列が特異であることを意味します。p>nnp

このすべての用語は、この投稿の残りの部分で完全に説明されています。

(アメーバが削除されたコメントで親切に指摘し、関連する質問への回答で示しているようにの画像は実際にはR n(成分の合計がゼロになるベクトルで構成される)の余次元1部分空間にあります列はすべてゼロに再センタリングされているため、サンプル共分散行列1のランクXRnn1を超えることはできません。)1n1XXn1


線形代数はすべて、ベクトル空間の次元の追跡に関するものです。ランクと特異点に関するアサーションの深い直観を得るには、いくつかの基本的な概念を理解するだけです。

  1. Matrix multiplication represents linear transformations of vectors. An m×n matrix M represents a linear transformation from an n-dimensional space Vn to an m-dimensional space Vm. Specifically, it sends any xVn to Mx=yVm. That this is a linear transformation follows immediately from the definition of linear transformation and basic arithmetical properties of matrix multiplication.

  2. Linear transformations can never increase dimensions. This means that the image of the entire vector space Vn under the transformation M (which is a sub-vector space of Vm) can have a dimension no greater than n. This is an (easy) theorem that follows from the definition of dimension.

  3. The dimension of any sub-vector space cannot exceed that of the space in which it lies. This is a theorem, but again it is obvious and easy to prove.

  4. The rank of a linear transformation is the dimension of its image. The rank of a matrix is the rank of the linear transformation it represents. These are definitions.

  5. A singular matrix Mmn has rank strictly less than n (the dimension of its domain). In other words, its image has a smaller dimension. This is a definition.

To develop intuition, it helps to see the dimensions. I will therefore write the dimensions of all vectors and matrices immediately after them, as in Mmn and xn. Thus the generic formula

ym=Mmnxn

is intended to mean that the m×n matrix M, when applied to the n-vector x, produces an m-vector y.

Products of matrices can be thought of as a "pipeline" of linear transformations. Generically, suppose ya is an a-dimensional vector resulting from the successive applications of the linear transformations Mmn,Llm,,Bbc, and Aab to the n-vector xn coming from the space Vn. This takes the vector xn successively through a set of vector spaces of dimensions m,l,,c,b, and finally a.

Look for the bottleneck: because dimensions cannot increase (point 2) and subspaces cannot have dimensions larger than the spaces in which they lie (point 3), it follows that the dimension of the image of Vn cannot exceed the smallest dimension min(a,b,c,,l,m,n) encountered in the pipeline.


This diagram of the pipeline, then, fully proves the result when it is applied to the product XX:

![enter image description here

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.