タグ付けされた質問 「canonical-correlation」

4
正準相関分析の機能を視覚化する方法(主成分分析の機能と比較して)
正準相関分析(CCA)は、主成分分析(PCA)に関連する手法です。散布図を使用してPCAまたは線形回帰を教えるのは簡単ですが(Googleの画像検索に関する数千の例を参照)、CCAの同様の直感的な2次元の例を見たことはありません。線形CCAの機能を視覚的に説明する方法

1
PCA、LDA、CCA、およびPLS
PCA、LDA、CCA、およびPLSはどのように関連していますか?それらはすべて「スペクトル」および線形代数であり、非常によく理解されているように見えます(たとえば、50年以上の理論が構築されています)。それらは非常に異なることに使用されます(次元削減のためのPCA、分類のためのLDA、回帰のためのPLS)にもかかわらず、それらは非常に密接に関連していると感じています。


1
分類手法であるLDAがPCAのような次元削減手法としてどのように機能するか
この記事 では、著者は線形判別分析(LDA)を主成分分析(PCA)にリンクします。私の知識が限られているため、LDAがPCAといくぶん類似していることを理解することはできません。 LDAは、ロジスティック回帰と同様の分類アルゴリズムの一種であると常に考えてきました。LDAがPCAにどのように似ているか、つまり、次元削減手法であるLDAがどのように理解されているかを理解する上で、私はいくらか感謝します。

2
ランク相関を使用した正準相関分析
正準相関分析(CCA)は、2つのデータセットの線形結合の通常のピアソンの積率相関(すなわち線形相関係数)を最大化することを目的としています。 これは、我々はまた、例えば、Spearman-使用する理由は非常に理由である-今、組合の直線のみの措置この相関係数があるという事実を検討またはKendall- τの間の任意のモノトーンを測定する(ランク)相関係数(必ずしも直線的ではない)の接続を変数。ρρ\rhoττ\tau したがって、私は次のことを考えていました:CCAの1つの制限は、目的関数のために、形成された線形の組み合わせ間の線形の関連付けをキャプチャしようとすることです。それが最大化することによって、ある意味でCCAを拡張することが可能ではないでしょう、Spearman-は、言う代わりPearson-ののR?ρρ\rhorrr そのような手順は、統計的に解釈可能で意味のあるものにつながりますか?(たとえば、ランクでCCAを実行することは理にかなっていますか?)非正常なデータを処理するときに役立つかどうか疑問に思っています...


1
CCAを実行するか、PCAで従属変数を作成してから回帰を実行するか
2つの多次元データセットとYが与えられると、主成分分析(PCA)を使用して代理従属変数を作成することにより、多変数分析を実行する人がいます。すなわち、上の実行PCAであるYの第一の構成要素に沿って得点を取り、セットY '、および上にそれらのスコアの重回帰を実行X:Y ' = β X + ε。(私はこの記事を基に質問をしています)。 バツバツXYYYYYYy』y』y'バツバツXy』= βバツ+ ϵy』=βバツ+εy' = \beta X+\epsilon 私には、2つのデータセット間の正規相関分析(CCA)の偽装された形式のように見えます。しかし、この領域に背景がないため、指を置くことができません。だから私の質問は、CCAと比較して、PCA +回帰分析の長所/短所は何でしょうか? 直感は、CCAはここでより合理的である必要があると言います。なぜなら、説明された分散を盲目的に最大化するのではなく、との相関を最大化するという最終的な目的を念頭に置いて、正規変量を構築するからです。私は正しいですか? バツバツX 参照:Mei et al。、2010、メタボリックシンドロームコンポーネントの遺伝的関連研究のための主成分ベースの多変量回帰

3
分布を見つけて正規分布に変換する
1時間にイベントが発生する頻度(「1時間あたりの数」、nph)とイベントが持続する時間(「1秒あたりの秒数」、dph)を説明するデータがあります。 これは元のデータです: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, 27.8399999994814, 15.3750000002237, NA, 6.00000000004109, 9.71428571436649, 12.4848484848485, 16.5034965037115, 20.6666666666667, 3.49999999997453, 4.65882352938624, 4.74999999996544, 3.99999999994522, 2.8, 14.2285714286188, 11.0000000000915, NA, 2.66666666666667, 3.76470588230138, 4.70588235287673, 13.2727272728677, 2.0000000000137, 18.4444444444444, 17.5555555555556, 14.2222222222222, 2.00000000001663, 4, 8.46153846146269, 19.2000000001788, 13.9024390245481, 13, 3.00000000004366, NA, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 

1
PCAはICAと同様にCCAに対するものですか?
PCAは、説明された分散を最大化するデータの要因を探します。正準相関分析(CCA)は、私が理解している限り、PCAに似ていますが、2つのデータセット間の相互共分散を最大化する要因を探します。したがって、2つのデータセットに共通するPCAのような要素を見つけます。 独立成分分析(ICA)はPCAに似ていますが、統計的に独立している要因を探します。これにより、何らかの意味で、より解釈可能な要因が生まれます。例えば、遺伝子経路、脳ネットワーク、顔の一部。または、データを生成するために混合される独立したソースを識別すると言うことができます。 PCAがCCAと同様に、ICAと同様の方法はありますか?それでは、2つのデータセットに共通する独立したコンポーネントを見つけるでしょうか?結果は実際に理にかなっていますか?

1
部分最小二乗、減少ランク回帰、および正準相関分析の確率モデル?
この質問は、前の質問に続く議論の結果です。部分最小二乗、縮小ランク回帰、および主成分回帰の間の接続は何ですか? 主成分分析の場合、一般的に使用される確率モデルはx=λ−−√wz+ϵ∈Rp,x=λwz+ϵ∈Rp,\mathbf x = \sqrt{\lambda} \mathbf{w} z + \boldsymbol \epsilon \in \mathbb R^p,、z∼N(0,1)z∼N(0,1)z\sim \mathcal N(0,1)、w∈Sp−1w∈Sp−1\mathbf{w}\in S^{p-1}、λ>0λ>0\lambda > 0、およびϵ∼N(0,Ip)ϵ∼N(0,Ip)\boldsymbol\epsilon \sim \mathcal N(0,\mathbf{I}_p)。次に、\ mathbf {x}の母共分散xx\mathbf{x}はλwwT+IpλwwT+Ip\lambda \mathbf{w}\mathbf{w}^T + \mathbf{I}_p、つまりx∼N(0,λwwT+Ip).x∼N(0,λwwT+Ip).\mathbf{x}\sim \mathcal N(0,\lambda \mathbf{w}\mathbf{w}^T + \mathbf{I}_p).目標は\ mathbf {w}を推定することですww\mathbf{w}。これはスパイク共分散モデルと呼ばれ、PCA文献で頻繁に使用されます。真の\ mathbf {w}を推定する問題は、単位球上の\ mathbf {w}より\ operatorname {Var}(\ mathbf {Xw})をww\mathbf{w}最大化することで解決できます。Var(Xw)Var⁡(Xw)\operatorname{Var} (\mathbf{Xw})ww\mathbf{w} @amoebaによる前の質問への回答で指摘されているように、ランク回帰の減少、部分最小二乗法、および正準相関分析には、密接に関連した定式化があります。 PCA:RRR:PLS:CCA:Var(Xw),Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv),Var(Xw)⋅Corr2(Xw,Yv)⋅Var(Yv)=Cov2(Xw,Yv),Var(Xw)⋅Corr2(Xw,Yv).PCA:Var⁡(Xw),RRR:Var⁡(Xw)⋅Corr2⁡(Xw,Yv)⋅Var⁡(Yv),PLS:Var⁡(Xw)⋅Corr2⁡(Xw,Yv)⋅Var⁡(Yv)=Cov2⁡(Xw,Yv),CCA:Var⁡(Xw)⋅Corr2⁡(Xw,Yv).\begin{align} \mathrm{PCA:}&\quad \operatorname{Var}(\mathbf{Xw}),\\ \mathrm{RRR:}&\quad \phantom{\operatorname{Var}(\mathbf {Xw})\cdot{}}\operatorname{Corr}^2(\mathbf{Xw},\mathbf {Yv})\cdot\operatorname{Var}(\mathbf{Yv}),\\ …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.