タグ付けされた質問 「composite」

2
PCA / FAから保持された複数の主成分または因子から単一のインデックスを作成する
主成分分析(PCA)を使用して、研究に必要なインデックスを作成しています。私の質問は、PCAで計算された保持主成分を使用して、単一のインデックスを作成する方法です。 たとえば、PCAを使用した後、3つの主成分を保持することにし、これら3つの主成分のスコアを計算しました。回答者ごとに、これら3つのスコアから単一のインデックスを作成する適切な方法は何ですか? 3つの計算されたスコアを追加して複合値を取得することは重要ですか? または、3つのスコアを平均してそのような値を得るには? または、最初の主成分(最強)のみを保持し、そのスコアをインデックスとして使用する必要がありますか? あるいは、因子分析(FA)を使用することもできますが、同じ質問が残ります。複数の因子スコアに基づいて単一のインデックスを作成する方法ですか?

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
科学的に健全なスケール構築に関するアドバイス
組織研究の分野で、20のリッカートアイテム(1〜5、サンプルサイズn = 299)のセットが与えられました。これらのアイテムは、多面的で多面的であり、本質的に異質である潜在的な概念を測定することを目的としています。目標は、さまざまな組織の分析に使用でき、ロジスティック回帰で使用できるスケールを作成することです。アメリカの心理学協会に従って、スケールは(1)一次元、(2)信頼でき、(3)有効でなければなりません。 したがって、それぞれ4/6/6/4アイテムの4つの次元またはサブスケールを選択することにしました。コンセプトを表すと仮定されています。 アイテムは、リフレクトアプローチを使用して構築されました(可能なアイテムの多くを生成し、その後の3つのグループでcronbachのアルファおよび概念表現(有効性)を使用してアイテムを繰り返し削除します)。 利用可能なデータを使用して、ポリコリック相関に基づく予備的な並列説明因子分析とバリマックスローテーションを使用すると、アイテムが予想とは異なる他の因子にロードされていることが明らかになりました。4つの仮説とは異なり、少なくとも7つの潜在要素があります。項目間相関の平均は、正ではありますがかなり低い(r = 0.15)。cronbach-alpha係数も、各スケールで非常に低い(0.4〜0.5)。確認的因子分析が適切なモデルフィットをもたらすとは思えません。 2つの次元が削除された場合、cronbachsアルファは受け入れられます(スケールあたり10アイテムで0.76,0.7、これはcronbachsアルファの通常バージョンを使用することでさらに大きくすることができます)が、スケール自体は依然として多次元です! 私は統計に不慣れで適切な知識が不足しているため、さらに先に進む方法に困っています。スケールを完全に破棄し、説明のみのアプローチに辞任することに消極的であるため、さまざまな質問があります。 I)信頼でき、有効であるが一次元ではないスケールを使用することは間違っていますか? II)その後、概念を形成的であると解釈し、消失四面体テストを使用してモデル仕様を評価し、部分最小二乗(PLS)を使用して可能な解決策に到達するのは適切でしょうか?結局のところ、この概念は反射的なものよりも形成的なもののようです。 III)項目応答モデル(Rasch、GRMなど)を使用することは役に立ちますか?私が読んだように、ラッシュモデルなども一次元性の仮定が必要です IV)7つの要素を新しい「サブスケール」として使用するのが適切でしょうか?古い定義を破棄し、因子負荷に基づいて新しい定義を使用するだけですか? 私はこれについての考えをいただければ幸いです:) 編集:追加された因子負荷と相関 > fa.res$fa Factor Analysis using method = ml Call: fa.poly(x = fl.omit, nfactors = 7, rotate = "oblimin", fm = "ml") 因子パターン行列と因子相互相関行列から計算された因子負荷、0.2を超える値のみが表示されます
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.