タグ付けされた質問 「covariance」

共分散は、2つの変数間の線形関係の強さと方向を測定するために使用される量です。共分散はスケーリングされていないため、しばしば解釈が困難です。変数のSDでスケーリングすると、ピアソンの相関係数になります。

1
逆共分散行列の前のウィッシュアートのパラメーター(スケール行列と自由度)の超優先分布
jags / rjags / Rのウィッシュアートの事前分布を使用して、さまざまなサブ母集団にわたる一連の測定値のいくつかの逆共分散行列を推定しています。 以前の逆共分散行列(ウィッシュアート分布)にスケールマトリックスと自由度を指定する代わりに、スケール母とハイパー自由度にハイパープライアを使用して、サブ母集団間の変動から推定できるようにします。 スケールマトリックスと自由度のハイパープライアに関する文献はあまりありません。ほとんどの文献は、共分散/逆共分散の前の選択で階層を停止するようであり、および/または異なる母集団にわたる複数の共分散行列ではなく単一の共分散行列の推定に焦点を当てています。 これをどのように行うかについての提案-スケールマトリックスとwishart分布の自由度に使用するために推奨されるハイパープライオ分布は何ですか?これについて私が見逃している文献はありますか?

2
このデータセットに共分散がないのはなぜですか?
共分散がどのように機能するかについての私の理解は、相関しているデータはある程度高い共分散を持つべきだということです。(散布図に示されているように)データが相関しているように見えても、共分散がゼロに近い状況に遭遇しました。データが相関している場合、データの共分散はどのようにゼロになりますか? import numpy as np x1 = np.array([ 0.03551153, 0.01656052, 0.03344669, 0.02551755, 0.02344788, 0.02904475, 0.03334179, 0.02683399, 0.02966126, 0.03947681, 0.02537157, 0.03015175, 0.02206443, 0.03590149, 0.03702152, 0.02697212, 0.03777607, 0.02468797, 0.03489873, 0.02167536]) x2 = np.array([ 0.0372599 , 0.02398212, 0.03649548, 0.03145494, 0.02925334, 0.03328783, 0.03638871, 0.03196318, 0.03347346, 0.03874528, 0.03098697, 0.03357531, 0.02808358, 0.03747998, 0.03804655, 0.03213286, 0.03827639, 0.02999955, …

1
関連する共分散の兆候
とが2つの正のRVであり、と仮定し。これはであることを意味しますか、それともより多くの情報が必要ですか?XXXYYYCov(X,Y)&gt;0Cov(X,Y)&gt;0Cov(X,Y)>0Cov(X,1/Y)&lt;0Cov(X,1/Y)&lt;0Cov(X,1/Y)<0


1
ガウス過程の共分散
ガウシアンプロセスで共分散を計算するための式について少し混乱しています(分散が追加されていると、常に明示的に示されるとは限らないため、常に混乱します)。混乱の起源は、式はで与えられているということである司教によってパターン認識と機械学習とラスムッセンによる機械学習のためのガウス過程異なっています。 GPの平均は次の関係で与えられます: μ = K(X∗、X)[ K(X、X)+ σ2私]− 1yμ=K(X∗,X)[K(X,X)+σ2I]−1y\mu = K(X_*, X)[K(X,X)+\sigma^2\mathrm{I}]^{-1}y Bishopによる分散(ページ番号:308)は次のとおりです: Σ = [ K(X∗、X∗)+ σ2] − K(X∗、X)[ K(X、X)+ σ2私]− 1K(X、X∗)Σ=[K(X∗,X∗)+σ2]−K(X∗,X)[K(X,X)+σ2I]−1K(X,X∗)\Sigma = [K(X_*, X_*)+\sigma^2] - K(X_*, X)[K(X,X)+\sigma^2\mathrm{I}]^{-1}K(X, X_*) Rasmussenによる分散(ページ番号:16)は次のとおりです: Σ = K(X∗、X∗)− K(X∗、X)[ K(X、X)+ σ2私]− 1K(X、X∗)Σ=K(X∗,X∗)−K(X∗,X)[K(X,X)+σ2I]−1K(X,X∗)\Sigma = K(X_*, X_*) - K(X_*, X)[K(X,X)+\sigma^2\mathrm{I}]^{-1}K(X, X_*) 私の疑問は、共分散行列 RHSの最初の項に分散があるかどうかです。または私は物事を台無しにしていますか?ΣΣ\Sigma さらに情報が必要な場合はお知らせください。

4
これはどんな分布ですか?
2つの変数間の共分散がゼロの制限分布に直面しましたが、それらの相関はです。そのような分布はありますか?どのように説明できますか?111 詳細を教えてください。OK、XとYは、分散と平均が異なる(nがない)2変量正規分布ですが、corr = 1-(1 / n)ですが、Yn | Xn = xの極限分布を調べます。

1
直感的に理解する
私はこのフォーラムでこの質問と素晴らしい受け入れられた答えを見ました。次に、が共分散を正規化する理由を直感的に理解しようとするきっかけがありました。SxSySxSyS_xS_y COV(X,Y)SxSy∈[−1,1]COV⁡(X,Y)SxSy∈[−1,1]\frac{\operatorname{COV}(X,Y)}{S_xS_y} \in [-1,1] S_xS_xが\ operatorname {COV}(X、X)を1にSxSxSxSxS_xS_x正規化する理由を理解できれば役立つと思います。もちろん、私は定義上それらが等しいことを理解しています。しかし、私の質問は基本的にこれです:受け入れられた回答の用語を使用して、なぜプロットの赤の合計は正確にS_xS_x = \ operatorname {VAR}(X)です(より正確には、私が理解している限り、合計を言うことです)n ^ 2によって分割された四角形の\ operatorname {VAR}(X)である必要があります)。つまり、10個の観測値のサンプルを取得する場合、45個の長方形よりも、定義を使用しながら、10個の値のみの平均を見つける必要があります。COV(X,X)COV⁡(X,X)\operatorname{COV}(X,X)111SxSx=VAR(X)SxSx=VAR⁡(X)S_xS_x = \operatorname{VAR}(X)n2n2n^2VAR(X)VAR⁡(X)\operatorname{VAR}(X)101010454545101010

1
3つの変数の共分散
私は共分散行列がどのように機能するかを理解しようとしています。したがって、 2つの変数があるとします。ここで、変数間の関係、つまり、一方が他方にどれだけ依存しているかを示します。Cov (X 、Y )= E [ (x - E [ X ] )(y - E [ Y ] )]バツ、YX,YX, YCov (X、Y)= E [ (x − E [ X] )(y− E [ Y] )]Cov(X,Y)=E[(x−E[X])(y−E[Y])]\text{Cov}(X,Y) = \mathbb{E}[(x -\mathbb{E}[X])(y-\mathbb{E}[Y])] さて、3つの変数のケースは私にはあまり明確ではありません。共分散関数の直感的な定義は、ですが、代わりに、変数のペアごとに2つの変数の共分散として定義されている共分散行列を使用することが文献で提案されています。Cov (X、Y、Z)= E [ (x − E [ X] )(y− E [ Y] …

1
2つの変数間の
まず、についての議論は一般に(つまり、回帰における決定係数)についての説明を引き起こすことを理解しています。私が答えようとしている問題は、2つの変数間の相関のすべてのインスタンスにそれを一般化することです。R 2r2r2r^2R2R2R^2 だから、私はかなりの間、分散の分散について困惑してきました。私はいくつかの説明を提供しましたが、それらはすべて問題があるようです: これは共分散の別の用語です。因子分析の文献ではPCAとEFAを区別するため、後者は共有分散を説明し、前者は説明しないと説明しているため、これは当てはまりません(PCAは明らかに共分散行列で動作しているため、共分散を考慮しているため、共有されます分散は異なる概念でなければなりません)。 相関係数の2乗()です。見る:r2r2r^2 http://www.philender.com/courses/linearmodels/notes1/var1.htmlまたは http://www.strath.ac.uk/aer/materials/4dataanalysisineducationalresearch/unit6/correlationcoefficient/ これは少し意味があります。ここでの問題は、それが共有分散であることを意味する方法を解釈することです。たとえば、「共有分散」の解釈の1つはです。はそれまで減少しない、または確かにすぐ直感的な概念[ ; これは4次元オブジェクトです]。r 2 c o v(A 、B )2 /(v a r(A )× v a r(B ))c o v(A、B) / [ v a r(A)+ v a r(B)]cov(あ、B)/[var(あ)+var(B)]{\rm cov}(A,B)/[{\rm var}(A)+{\rm var}(B)]r2r2r^2c o v(A、B)2/( v a r(A)× v a r(B))cov(あ、B)2/(var(あ)×var(B)){\rm cov}(A,B)^2/({\rm var}(A)\times{\rm var}(B)) 上記のリンクはどちらも、バレンティン図で説明しようとしています。彼らは助けにはなりません。まず、円のサイズは同じです(これは、何らかの理由で図にとって重要であるように思われます)。これは、不均一な分散を考慮していません。それは標準化された変数のバレンティンダイアグラムであり、したがって分散が等しいと想定できます。だから、、いない。r 2rrrr2r2r^2 …

3
特異な共分散行列を持つ多変量分布は密度関数を持つことができますか?
上の多変量分布に特異共分散行列があるとします。密度関数がないと結論付けることはできますか?RnRn\mathbb R^n たとえば、多変量正規分布の場合ですが、他のすべての多変量分布に当てはまるかどうかはわかりません。 これは、ルベーグ測度に対するラドン・ニコディム微分の存在の問題だと思いますが、素確率論にも答えがあるかもしれません。RnRn\mathbb R^n

1
通常のクリギングの問題
私は通常のクリギングに関連するこのウィキの記事をフォローしていました これで、4つの変数の共分散行列は次のようになります。 1 0.740818220681718 0.548811636094027 0.406569659740599 0.740818220681718 1 0.740818220681718 0.548811636094027 0.548811636094027 0.740818220681718 1 0.740818220681718 0.406569659740599 0.548811636094027 0.740818220681718 1 まあ、semvariogramとvariogramの関係は γ(h )/(C0 )= 1 − C(h )/ C(0 )γ(h)/(C0)=1−C(h)/C(0)\gamma(h)/(C0) = 1 - C(h)/C(0) そこで、も計算しました。次のように重みを計算しようとするとγ(h )γ(h)\gamma(h) A = 1.0000 0.7408 0.5488 1.0000 0.7408 1.0000 0.7408 1.0000 0.5488 0.7408 1.0000 1.0000 1.0000 1.0000 …

3
逆共分散行列の計算の数値的不安定性
21次元データの65サンプル(ここに貼り付け)があり、それから共分散行列を構築しています。C ++で計算すると、ここに共分散行列が貼り付けられます。そして、データからMATLABで計算すると(以下に示すように)、ここに共分散行列が貼り付けられます データからcovを計算するためのMatlabコード: data = csvread('path/to/data'); matlab_cov = cov(data); 共分散行列の違いがわかるように(〜e-07)、これはおそらく浮動小数点演算を使用するコンパイラーの数値の問題が原因です。 ただし、matlabによって生成された共分散行列とC ++コードによって生成された共分散行列から疑似逆共分散行列を計算すると、大きく異なる結果が得られます。私はそれらを同じ方法で計算しています: data = csvread('path/to/data'); matlab_cov = cov(data); my_cov = csvread('path/to/cov_file'); matlab_inv = pinv(matlab_cov); my_inv = pinv(my_cov); 違いが非常に大きいため、サンプル(ここに貼り付け)から65サンプルの分布までのマハラノビス距離を次のように計算しています。 (65/642)×((sample−mean)×∑−1×(sample−mean)′)(65/642)×((sample−mean)×∑−1×(sample−mean)′)(65/64^2) \times ((sample-mean)\times {\sum}^{-1} \times (sample-mean)') 異なる逆共分散行列()を使用すると、大きく異なる結果が得られます。∑−1∑−1{\sum}^{-1} (65/(64^2))*((sample-sample_mean)*my_inv*(sample-sample_mean)') ans = 1.0167e+05 (65/(64^2))*((sample-sample_mean)*matlab_inv*(sample-sample_mean)') ans = 109.9612 共分散行列の小さな(e-7)差が疑似逆行列の計算にそのような影響を与えるのは正常ですか?もしそうなら、この影響を緩和するために私は何ができますか? これに失敗すると、逆共分散を含まない、使用できる他の距離メトリックスはありますか?私はマハラノビス距離を使用します。これは、n個のサンプルについてはベータ分布に従うため、仮説検定に使用します。 事前に感謝します EDIT:以下、共分散行列を計算するためのC ++コードを追加:vector&lt;vector&lt;double&gt; &gt;貼り付けたファイルからの行の集合を表します。 Mat …

1
与えられた固有値の分布は既知です
ランダムマトリックス理論の洞察を使用して、因子を形成するために使用する共分散/相関行列のPCAから主成分の数を決定することに慣れています。 最初のPCに関連付けられている固有値が大きい場合、それは残りの固有値が小さいことを意味します(固有値の合計は相関行列のトレースと等しくなければならないため)。最初のPCが十分に大きい場合、これらの固有値はすべてMarcenko-Pastur分布の下限を下回る可能性があります。これは、偶然のためではなく、最初の固有値が非常に大きいために低いことを意味します。ただし、重要な情報が含まれているという意味ではありません。むしろ、「最初のPCがいくらか大きいとすると、残りの固有値の分布は、ランダムデータが原因である場合、どのように見えるでしょうか?」という質問をするのが理にかなっています。 この問題に対処する研究はありますか?1つまたは複数の固有値を知ることを条件としてマルセンコパストル分布を得ることが可能である場合、因子を有意な情報に反映するかどうかを決定するために反復的に進めることが可能です。

1
変数と他の変数の線形結合の共分散
LETである時系列変数およびこれらの任意の二つの対の間の共分散が知られています。バツ、A 、B 、C、Dバツ、あ、B、C、DX,A,B,C,D を検索するとします。ここは定数です。cov(X、a A + b B + c C+ dD )cov(バツ、aあ+bB+cC+dD)\textrm{cov}(X,aA + bB + cC + dD)a 、b 、c 、da、b、c、da,b,c,d を拡張せずにこれを行う方法はありますか?E[ (X− E[ X] )(A + 。。。。。。)]E[(バツ−E[バツ])(aあ+。。。。。。)]E[(X-E[X])(aA+......)]


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.