線形判別分析(LDA)のスケーリング値を使用して、線形判別式に説明変数をプロットできますか?


11

主成分分析で得られた値のバイプロットを使用して、各主成分を構成する説明変数を調べることができます。 これは線形判別分析でも可能ですか?

提供されている例では、データは「エドガーアンダーソンのアイリスデータ」(http://en.wikipedia.org/wiki/Iris_flower_data_set)です。ここで、虹彩データ

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

Rのirisデータセットを使用したPCAバイプロットの例(以下のコード):

ここに画像の説明を入力してください

この図は、花びらの長さと花びらの幅が、PC1スコアの決定と種のグループ間の識別に重要であることを示しています。setosaには、小さな花びらと広いがく片があります。

どうやら、LDAプロットが何を示しているかは定かではありませんが、問題なので、線形判別分析の結果をプロットすることで、同様の結論を導き出すことができます。軸は、最初の2つの線形判別式(LD1 99%およびLD2 1%トレース)です。赤いベクトルの座標は、「スケーリング」とも呼ばれる「線形判別係数」です(lda.fit $ scaling:観測値を判別関数に変換する行列。グループ内の共分散行列が球状になるように正規化されます)。「スケーリング」はdiag(1/f1, , p)およびとして計算されf1 is sqrt(diag(var(x - group.means[g, ])))ます。データは(predict.ldaを使用して)線形判別式に投影できます(以下のコードは、https: //stackoverflow.com/a/17240647/742447に示されています))。データと予測子変数は一緒にプロットされ、どの種がどの予測子変数の増加によって確認できるかがわかります(通常のPCAバイプロットと上記のPCAバイプロットで行われるように)。

Rのアイリスデータセットを使用したLDAバイプロットの例

このプロットから、Sepal幅、花びら幅、花びら長さはすべて、LD1と同様のレベルに寄与しています。予想通り、setosaは小さい花びらと広いがく片に見えます。

RのLDAからこのようなバイプロットをプロットする組み込みの方法はなく、このオンラインでの議論はほとんどありません。

このLDAプロット(以下のコードを参照)は、予測子変数のスケーリングスコアの統計的に有効な解釈を提供しますか?

PCAのコード:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

LDAのコード

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

LDAの結果は次のとおりです。

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088

私はあなたのコードを追跡できません(私はRユーザーではなく、説明のない写真や説明のないコードではなく、実際のデータと結果の値を確認したいと思います)。あなたのプロットは何をプロットしますか?赤いベクトルの座標は何ですか -潜在変数または変数の回帰重み?何のためにデータポインをプロットしましたか?なにdiscriminant predictor variable scaling scores?-この言葉は私には一般的で奇妙ではないようです。
ttnphns 2014年

@ttnphns:現在、質問に反映されている質問の改善を提案していただきありがとうございます。
エティエンヌローデカリー2014年

まだわかりませんpredictor variable scaling scores。たぶん「判別スコア」?とにかく、あなたの興味を引くかもしれない答えを追加しました。
ttnphns 2014年

回答:


7

主成分分析と線形判別分析の出力虹彩データ

バイプロットはさまざまな正規化で描画できるため、異なるように見える可能性があるため、バイプロットは描画しません。私はRユーザーではないので、プロットをどのように作成したかを追跡し、繰り返すことが困難です。代わりに、私はPCAとLDAを行いますし、同様にして、結果を示し、この(あなたが読みたいと思うかもしれません)。どちらの分析もSPSSで行われました。

主成分アイリスデータ

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

固有ベクトルではなく、負荷であることを強調することが重要です。これにより、通常、主成分(または因子分析の因子)を解釈する必要があります。負荷は、標準化されたコンポーネントによるモデリング変数の回帰係数です。同時に、コンポーネントは相互相関しないため、それらはそのようなコンポーネントと変数の間の共分散です。相関のように、標準化された(再スケーリングされた)負荷は1を超えることはできず、変数の不均一な分散の影響が取り除かれるので、解釈がより簡単です。

固有ベクトルではなく、ローディングであり、通常、バイプロット上にコンポーネントスコアと並んで表示されます。後者は列で正規化されて表示されることがよくあります。


線形判別式アイリスデータ

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

LDAでの判別式抽出時の計算についてはこちらをご覧ください。判別式は通常、判別係数または標準化された判別係数によって解釈されます(変数の微分分散が行われるため、後者がより便利です)。これはPCAのようなものです。ただし、注意:ここでの係数は、変数による判別式のモデリングの回帰係数であり、PCAの場合のようにその逆ではありません。変数は無相関ではないため、係数は変数と判別式の間の共分散と見なすことはできません。

代わりに、判別式の解釈の代替ソースとして役立つ別の行列があります。判別式と変数間のグループ内相関がプールされています。PCのように判別式は無相関であるため、このマトリックスはある意味でPCAの標準化されたローディングに類似しています。

全体として、PCAには潜在要素の解釈に役立つ唯一のマトリックス(ローディング)がありますが、LDAには2つの代替マトリックスがあります。プロットする必要がある場合(バイプロットまたはその他)、係数または相関をプロットするかどうかを決定する必要があります。

そしてもちろん、アイリスデータのPCAでは、コンポーネントは3つのクラスがあることを「認識」していないことを思い出してください。クラスを区別することは期待できません。差別はクラスがあることを「知っている」ので、差別するのは彼らの自然な仕事です。


したがって、任意のスケーリングの後に、「標準化された判別係数」または「変数と判別値の間のプールされたグループ内相関」を「判別スコア」と同じ軸にプロットして、2つの異なる方法で結果を解釈できますか?私の質問では、「標準化されていない判別係数」を「判別スコア」と同じ軸にプロットしました。
エティエンヌローデカリー2014年

1
@エティエンヌ私はあなたが求めた詳細をこの回答stats.stackexchange.com/a/48859/3277の最後に追加しました。寛大に感謝します。
ttnphns 2014年

1
@TLJは次のようになります。変数と標準化されたコンポーネントの間。単語を挿入しました。してくださいを参照してくださいここにLoadings are the coefficients to predict...だけでなく、ここに[Footnote: The components' values...]。ローディングは、標準化されたコンポーネントと直交コンポーネントから変数を計算するための係数です。ローディングとは、これらのローディングとローディングの間の共分散です。
ttnphns 2014

1
@TLJ、「これらとそれら」=変数とコンポーネント。生のコンポーネントスコアを計算したとおっしゃいました。各コンポーネントをvariance = 1に標準化します。変数とコンポーネント間の共分散を計算します。それはローディングでしょう。「標準化された」または「再スケールされた」負荷は、負荷をstで割ったものです。それぞれの変数の偏差。
ttnphns 2014

1
負荷の二乗は、コンポーネントによって説明される変数の分散のシェアです。
ttnphns 2014

4

私の理解では、線形判別分析のバイプロットを実行でき、実際にはRパッケージのggbiplotggordに実装されており、それを行う別の関数がこのStackOverflowスレッドに投稿されています

また、M。Greenacre著の「Biplots in実際」には1つの章(第11章、pdfを参照)があり、図11.5に、虹彩データセットの線形判別分析のバイプロットを示しています。 ここに画像の説明を入力してください


実際には、本全体がオンラインで無料で入手できます(章ごとに1つのPDF)ここmultivariatestatistics.org/biplots.html
amoeba

ああ、危険なウェブサイトは必要ありません、そのおかげです!
トムウェンセリアーズ2015

2

私はこれが1年以上前に尋ねられたことを知っており、ttnphnsは優れた詳細な回答を提供しましたが、PCAとLDAにエコロジーでの有用性について興味がある人(私のような)にコメントをいくつか追加すると思います科学ですが、統計的背景は限られています(統計学者ではありません)。

PCAのPCは、元の変数の線形結合であり、多次元データセットの合計分散を順次最大限に説明します。元の変数と同じ数のPCを使用できます。PCが説明する分散のパーセントは、使用される類似度行列の固有値によって与えられ、新しい各PCの各元の変数の係数は、固有ベクトルによって与えられます。PCAには、グループに関する前提がありません。PCAは、データ全体で複数の変数の値がどのように変化するか(バイプロットなど)を確認するのに非常に適しています。PCAの解釈は、バイプロットに大きく依存しています。

LDAは非常に重要な理由で異なります。グループ間の分散を最大化することにより、新しい変数(LD)を作成します。これらは依然として元の変数の線形結合ですが、各順次LDで可能な限り多くの分散を説明するのではなく、新しい変数に沿ったグループ間の差異を最大化するために描画されます。LDA(およびMANOVA)は、類似度マトリックスではなく、二乗和とクロス積のグループ間およびグループ内の比較マトリックスを使用します。この行列の固有ベクトル(OPが元々関係していた係数)は、元の変数が新しいLDの形成にどの程度貢献しているかを示します。

これらの理由により、PCAからの固有ベクトルは、データクラウド全体で変数の値がどのように変化するか、およびLDAよりもデータセットの分散の合計にとってどの程度重要であるかをよりよく理解できるようにします。ただし、LDAは、特にMANOVAと組み合わせると、グループの多変量の重心の差の統計的検定と、それぞれのグループへのポイントの割り当ての誤差の推定(ある意味では、多変量効果サイズ)を提供します。LDAでは、変数がグループ間で(および大幅に)線形に変化しても、LDの係数はその効果の「スケール」を示さない場合があり、分析に含まれる他の変数に完全に依存します。

それが明確だったといいのですが。御時間ありがとうございます。下の写真を見てください...

PCとLDは異なる方法で構築され、LDの係数は、データセット内の元の変数がどのように変化するかを理解できない場合があります


これはすべて正解で、+ 1ですが、LDAバイプロットの描画方法に関する具体的な質問である元の質問にどのように答えるかはわかりません。
amoeba

私はあなたが正しいと思います-私はこれに応答していました。ほとんどは「主成分分析を通じて得られた値のバイプロットを使用して、各主成分を構成する説明変数を探索することが可能です。これは線形判別分析でも可能ですか? 」-そして、答えは、はい、ですが、上で説明したように、意味は非常に異なります...コメントをありがとう、+ 1!
danno 2015
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.