タグ付けされた質問 「covariance」

共分散は、2つの変数間の線形関係の強さと方向を測定するために使用される量です。共分散はスケーリングされていないため、しばしば解釈が困難です。変数のSDでスケーリングすると、ピアソンの相関係数になります。

2
2つの共分散行列の合計と積も共分散行列ですか?
共分散行列とYがあるとします。これらのオプションのどれが共分散行列でもありますか?バツXXYYY バツ+ YX+YX+Y バツ2X2X^2 バツYXYXY 何かが共分散行列になるために正確に何が必要かを理解するのに少し問題があります。たとえば、、およびY = cov (Y 1、Y 2)の場合、1がtrueになるには、cov (X 1、X 2)+ cov (Y 1、Y 2)= cov (Z 1、バツ= cov(X1、X2)X=cov⁡(X1,X2)X=\operatorname{cov}(X_1,X_2)Y= cov(Y1、Y2)Y=cov⁡(Y1,Y2)Y=\operatorname{cov}(Y_1,Y_2)、ここで Z 1と Z 2は他の確率変数です。ただし、3つのオプションのいずれにも当てはまる理由がわかりません。どんな洞察も認められます。cov(X1、X2)+ cov(Y1、Y2)= cov(Z1、Z2)cov⁡(X1,X2)+cov⁡(Y1,Y2)=cov⁡(Z1,Z2)\operatorname{cov}(X_1,X_2) + \operatorname{cov}(Y_1,Y_2) = \operatorname{cov}(Z_1, Z_2)Z1Z1Z_1Z2Z2Z_2


1
サンプルの共分散行列が反転可能でない場合はどうすればよいですか?
いくつかのクラスタリング手法に取り組んでいます。d次元ベクトルの特定のクラスターについて、多変量正規分布を仮定し、サンプルのd次元平均ベクトルとサンプルの共分散行列を計算します。 次に、目に見えない新しいd次元ベクトルがこのクラスターに属しているかどうかを判断しようとするときに、次のメジャーを使用してその距離をチェックしています: (Xi−μ^X)′σ^−1X(Xi−μ^X)>B0.95(p2,−p2)(Xi−μ^X)′σ^X−1(Xi−μ^X)>B0.95(p2,−p2)\left(X_i-\hat{\mu}_X\right)'\hat{\sigma}_X^{-1}\left(X_i-\hat{\mu}_X\right)>B_{0.95}\left(\frac{p}{2},\frac{-p}{2}\right) これには、共分散行列の逆行列を計算する必要があります。しかし、いくつかのサンプルを考えると、共分散行列が可逆であることを保証できません。そうでない場合はどうすればよいですか?σ^Xσ^X\hat{\sigma}_X ありがとう

4
誰かがどのように依存性とゼロ共分散があるかを説明できますか?
誰かがGregのように説明できますが、より詳細には、確率変数はどのように依存することができますが、共分散はゼロですか?ここのポスターであるGregは、ここの円を使用した例を示しています。 誰かがこのプロセスをいくつかの段階で説明する一連のステップを使用して、このプロセスをより詳細に説明できますか? また、心理学の例を知っている場合は、この概念と関連する例を示してください。説明は非常に正確で、順番にしてください。また、結果がどのようになるかを説明してください。

1
相互共分散行列がゼロでないかどうかをテストするにはどうすればよいですか?
私の研究の背景: ギブスサンプリングでは、(対象の変数)とをそれぞれとからサンプリングします。ここで、とは次元のランダムベクトルです。通常、プロセスは2つの段階に分かれています。XXXP (X | Y )P (Y | X )X Y kYYYP(X|Y)P(X|Y)P(X|Y)P(Y|X)P(Y|X)P(Y|X)XXXYYYkkk すべてのサンプルを破棄するバーンイン期間。サンプルをおよびます。Y 1〜Y トンX1∼XtX1∼XtX_1\sim X_tY1∼YtY1∼YtY_1\sim Y_t 「バーンイン後」の期間。サンプルを平均化し、最終的な望ましい結果としてをします。X¯=1k∑ki=1Xt+iX¯=1k∑i=1kXt+i\bar{X} = \frac{1}{k}\sum_{i=1}^k X_{t+i} ただし、「アフターバーンイン」シーケンスのサンプルは独立して配布されません。したがって、最終結果の分散を調べたい場合は、バツt + 1〜Xt + kXt+1∼Xt+kX_{t+1}\sim X_{t+k} Var[ X¯] = Var[ ∑i = 1kバツt + i] = 1k2(Σi = 1kVar[ Xt + i] + ∑i = 1k − 1Σj = …

1
ガウス過程とウィシャート分布の共分散行列
一般化されたウィシャートプロセス(GWP)に関するこのペーパーを読んでいます。この論文では、2乗指数共分散関数、つまりを使用して、さまざまな確率変数(ガウスプロセスに従って)間の共分散を計算します。次に、この共分散行列はGWPに従います。K(x,x′)=exp(−|(x−x′)|22l2)K(x,x′)=exp⁡(−|(x−x′)|22l2)K(x,x') = \exp\left(-\frac{|(x-x')|^2}{2l^2}\right) 私は、線形共分散関数()K(x,x′)=xTx′K(x,x′)=xTx′K(x,x') = x^Tx'から計算された共分散行列は、適切なパラメーターを使用してウィシャート分布に従うと考えていました。 私の質問は、二乗指数共分散関数を使用してウィシャート分布に従う共分散をまだどのように仮定できるかです。また、一般的に、Wishart分散共分散行列を生成するための共分散関数に必要な条件は何ですか?

1
共分散、相互共分散、自己相関/相互相関、パワースペクトル密度を直感的に理解
現在、ECE学士号の基本統計のファイナルを勉強しています。 数学はほとんど落ち込んでいると思いますが、数字が実際に何を意味するのかを直感的に理解できていません。 E [X]は、確率で重み付けされたXのすべての結果の「加重平均」です。 Var [X]は、E [X]の2乗から予想される分散を与えるため、分布の「ぼやけ」について何かを教えてくれます。 他のプロパティは式を知っていますが、直感に欠けています。誰かがそれを助けるための良い説明/リソースを持っていますか?

5
共分散の定義に関する直感
私は2つの確率変数の共分散をよりよく理解しようとし、それを最初に考えた人が統計で日常的に使用されている定義に到達した方法を理解しようとしました。私はそれをよりよく理解するためにウィキペディアに行きました。記事から、適切な候補メジャーまたは数量には次のプロパティが必要です。Co v (X、Y)Cov(バツ、Y)Cov(X,Y) 2つの確率変数が類似している場合(つまり、一方が増加し、もう一方が増加し、一方が減少すると、もう一方も増加する)、正の符号が表示されます。 また、2つの確率変数が逆に類似している場合(つまり、1つが増加すると、もう1つの確率変数が減少する傾向がある場合)には、負の符号を付けます。 最後に、2つの変数が互いに独立している場合(つまり、それらが互いに共変動しない場合)は、この共分散量をゼロ(またはおそらく非常に小さい)にする必要があります。 上記のプロパティから、を定義します。私の最初の質問は、なぜがこれらのプロパティを満足するのかが完全に明らかではないということです。私たちが持っている特性から、「導関数」のような方程式が理想的な候補になることを期待していました。たとえば、「Xの変化が正の場合、Yの変化も正でなければならない」などのようなものです。また、なぜ平均との違いを「正しい」こととするのですか?C o v (X 、Y )= E [ (X - E [ X ] )(Y - E [ Y ] )]Co v (X、Y)Cov(バツ、Y)Cov(X,Y)Co v (X、Y)= E[ (X− E[ X] )(Y− E[ Y] )]Cov(バツ、Y)=E[(バツ−E[バツ])(Y−E[Y])]Cov(X,Y) = E[(X-E[X])(Y-E[Y])] より接線的ですが、それでも興味深い質問ですが、それらの特性を満たし、さらに意味があり、有用であった別の定義がありますか?なぜこの定義を最初から使用しているのか誰も疑問に思わないので、私はこれを尋ねています数学的好奇心と思考)。受け入れられた定義は、私たちが持つことができる「最良の」定義ですか? これらは、受け入れられた定義が理にかなっている理由についての私の考えです(それは直感的な議論になるだけです): してみましょう(すなわち、それはいくつかの時点でいくつかの他の値にいくつかの値から変更)、変数Xのためのいくつかの違いがあります。同様に、を定義します。ΔΔバツΔバツ\Delta_XΔYΔY\Delta_Y ある時点で、それらが関連しているかどうかを計算することができます: よ私グラムn (Δバツ⋅ ΔY)s私gん(Δバツ⋅ΔY)sign(\Delta_X \cdot \Delta_Y) …

3
共分散行列が正定でないときに因子分析を行う方法は?
33の変数(列)によって記述される717の観測(行)で構成されるデータセットがあります。データは、すべての変数をzスコアリングすることによって標準化されます。2つの変数が線形従属ではありません()。また、分散が非常に小さい(0.1未満)すべての変数を削除しました。以下の図は、対応する相関行列(絶対値)を示しています。r = 1r=1r=10.10.10.1 factoranMatlabで次のように使用して因子分析を実行しようとすると: [Loadings1,specVar1,T,stats] = factoran(Z2,1); 次のエラーが表示されます。 The data X must have a covariance matrix that is positive definite. 問題がどこにあるか教えていただけませんか?使用されている変数間の相互依存性が低いためですか?また、どうすればいいですか? 私の相関行列:

2
共分散行列のメトリック:欠点と長所
共分散行列の「最良の」メトリックスは何ですか、そしてなぜですか?Frobenius&cは適切ではなく、角度のパラメーター化にも問題があることは明らかです。直感的にこれらの2つの間の妥協を望むかもしれませんが、心に留めておくべき他の側面やおそらく確立された標準があるかどうかも知りたいです。 共通メトリックは、共分散行列にとって自然ではないため、さまざまな欠点があります。たとえば、非PSD行列に特にペナルティを課したり、ランクに対して適切に動作しないことがよくあります(2つの回転した低ランク共分散楕円体を考えてください:同じです) -コンポーネントの平均よりも距離が短くなるように中間回転をランク付けします。これは、やおそらくフロベニウスには当てはまりません。ここで修正してください)。また、凸性は必ずしも保証されていません。これらの問題やその他の問題を「良い」指標で対処するのは良いことです。L1L1L_1 ここではいくつかの問題の良い議論、あるネットワーク最適化の一例とコンピュータビジョンの一つが。そして、ここに他のいくつかのメトリックを取得するが議論なしの同様の質問があります。

2
共分散行列を作る変数間の距離とは何ですか?
私が持っているの共分散行列をとに区分変数にしたいk個使用してクラスタ階層的クラスタリングを(例えば、共分散行列をソートします)。n×nn×nn \times nkkk 変数間(つまり、正方共分散行列の列/行間)の典型的な距離関数はありますか? それとももっとある場合、そのトピックに関する良い参考資料はありますか?

3
センタリングは共分散を減らすことを意味しますか?
独立していない確率変数が2つあり、過度の「信号」を失うことなく、それらの間の共分散をできるだけ減らしたいと仮定すると、センタリングは役に立ちますか?センタリングによって相関が大幅な要因で減少するということをどこかで読んだので、共分散についても同じようにする必要があると思います。

1
2つの共分散行列の結合
分布の共分散を並列で計算していて、分布結果を特異ガウス分布に結合する必要があります。2つを組み合わせるにはどうすればよいですか? 2つが同様に分布し、サイズが設定されている場合、2つの間を線形補間することはほとんど機能します。 ウィキペディアでは、組み合わせのための下部にフォーラムラを提供していますが、正しくないようです。2つの同一分布の分布は同じ共分散を持つ必要がありますが、ページの下部にある式は共分散を2倍にします。 2つの行列を組み合わせる方法はありますか?

2
増分ガウスプロセス回帰
ストリームを介して1つずつ到着するデータポイントにスライディングウィンドウを使用して、増分ガウスプロセス回帰を実装したいと思います。 ましょう入力空間の次元を表します。したがって、すべてのデータポイントx iにはd個の要素があります。dddバツ私xix_iddd してみましょうスライディングウィンドウのサイズです。んnn 予測を行うには、グラム行列逆を計算する必要があります。ここで、K i j = k (x i、x j)であり、kは2乗指数カーネルです。KKKK私はj= k (x私、xj)Kij=k(xi,xj)K_{ij} = k(x_i, x_j) Kが新しいデータポイントごとに大きくなるのを避けるために、新しいポイントを追加する前に最も古いデータポイントを削除して、グラムが大きくならないようにすることができると考えました。例えば、聞かせてここで、Σは、重みの共分散であり、φは、二乗指数カーネルによって暗示暗黙的なマッピング関数です。K=ϕ(X)TΣϕ(X)K=ϕ(X)TΣϕ(X)K = \phi(X)^{T}\Sigma\phi(X)ΣΣ\Sigmaϕϕ\phi 今聞かせて ]およびX n e w = [ x t − n + 2 | 。。。| x t | X T + 1 ] X「sはさdはによって1列の行列。X=[xt−n+1|xt−n+2|...|xtX=[xt−n+1|xt−n+2|...|xtX=[x_{t-n+1}|x_{t-n+2}|...|x_{t}Xnew=[xt−n+2|...|xt|xt+1]Xnew=[xt−n+2|...|xt|xt+1]X_{new}=[x_{t-n+2}|...|x_{t}|x_{t+1}]xxxddd111 Kを潜在的に使用してを見つける効果的な方法が必要です。これは、シャーマンモリソンの公式で効率的に処理できる、ランク1の更新された行列の問題の逆のようには見えません。K−1newKnew−1K_{new}^{-1}KKK

3
2つの変数の合計の分散の式の背後にある直観
以前の研究から、 Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B) = Var(A) + Var(B) + 2 Cov (A,B) しかし、なぜかはわかりません。AとBが高度に変動する場合、効果は分散を「押し上げる」ことになることがわかります。2つの相関性の高い変数からコンポジットを作成する場合、Aの高い観測値とBの高い観測値を加算する傾向があり、Aの低い観測値とBの低い観測値を加算する傾向があります。これは、コンポジット変数に極端に高い値と低い値を作成し、コンポジットの分散を増やします。 しかし、なぜ共分散を正確に 2 倍することが機能するのでしょうか。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.