タグ付けされた質問 「confirmatory-factor」

1
自由度は非整数の数値にできますか?
GAMを使用すると、残留DFは(コードの最終行)になります。どういう意味ですか?GAMの例を超えて、一般に、自由度の数を整数以外の数にすることはできますか?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
項目応答理論と確証的因子分析
項目応答理論と確認的因子分析の核となる、意味のある違いは何かと思っていました。 計算に違いがあることを理解しています(アイテム対共分散に重点を置いています;対数線形対線形)。 しかし、私はこれが上位レベルの観点から何を意味するのか見当がつかない-これは、状況によってはIRTがCFAよりも優れていることを意味するのか または、わずかに異なる最終目的のために? 研究文献のスキャンがIRTとCFAの核となる違いの有用な比較よりも多くのIRTとCFAの説明をもたらしたため、どんな黙想も有用です。

2
コンストラクトの独立性の決定における探索的因子分析と確認的因子分析の違い
研究者はしばしば非常に類似した項目を持つ2つの尺度を使用し、異なることを測定すると主張します(例えば、「車の周りにいるといつも心配」、「車が怖い」など)。仮想尺度を「自動車の恐怖」尺度と「自動車スケールからの不安」と呼びましょう。異なる潜在的な構成要素を実際に評価するか、同じものを測定するか、経験的にテストすることに興味があります。 私がこれを行うために考えられる2つの最良の方法は、探索的工場分析(EFA)または確認的因子分析(CFA)によるものです。EFAは、すべてのアイテムを制約なしに自由にロードできるため、良いと思います。2つのスケールの項目が同じ要因でロードされる場合、メジャーは異なるものをあまりうまく評価していない可能性が高いと結論付けることができます。ただし、事前定義されたモデルをテストするので、CFAの利点もわかります。たとえば、すべてのアイテムが単一の要因にロードされるモデルの適合度を比較したり(つまり、異なる構成要素を評価しない)、アイテムが期待されるメジャーに分離されたりします。CFAの問題は、代替モデル(3因子モデルなど)を実際には考慮しないことだと思います。 議論の目的のために、おそらく私はミックスに投入したい他の2つの非常に類似した尺度(例えば、車の不安アンケートと車の恐怖の評価のためのスケール)があるかもしれないと考えてみましょう! 2つのメジャーが異なる構成を評価するかどうかを統計的に決定するにはどうすればよいですか?

1
溶岩の出力をどのように解釈しますか?
を使用して確認因子分析(CFA)を試みていlavaanます。によって生成された出力を解釈するのに苦労していlavaanます。 私は単純なモデルを持っています-収集された調査データからのアイテムによってそれぞれサポートされる4つの要素。これらの要素は、それらが有効な測定値として機能する可能性が高いと思われる程度まで、項目によって測定されるものと一致しています。 私はによって生成次の出力を理解する助けてくださいlavaanさんをcfa(): Number of observations 1730 Estimator ML Minimum Function Test Statistic 196.634 Degrees of freedom 21 P-value (Chi-square) 0.000 Model test baseline model: Minimum Function Test Statistic 3957.231 Degrees of freedom 36 P-value 0.000 User model versus baseline model: Comparative Fit Index (CFI) 0.955 Tucker-Lewis Index (TLI) 0.923 …

2
CFAが複数項目スケールに適合しない場合の対処方法
溶岩でこのCFAイムをどのように進めるかわかりません。私は172人の参加者のサンプル(CFAにとってはそれほど多くないことを知っています)と7つの要因に基づく7ポイントのリッカートスケールを持つ28のアイテムを持っています。「mlm」推定器を使用してCFAを実行しましたが、モデルの近似は本当に悪かった(χ2(df = 329)= 739.36;比較近似指数(CFI)= .69;標準化された二乗平均平方根残差(SRMR)=。10;二乗平均平方根誤差(RMSEA)=。09; RMSEA 90%信頼区間(CI)= [.08、.10])。 私は以下を試しました: 1つの一般的な方法因子を持つ二因子モデル—>は収束しませんでした。 順序データの推定量(„ WLSMV“)—>モデルフィット:(χ2(df = 329)= 462;比較フィットインデックス(CFI)= .81;標準化二乗平均平方根残差(SRMR)=。09;二乗平均平方根エラー近似値(RMSEA)=。05; RMSEA 90%信頼区間(CI)= [.04、.06]) 因子が少なく、特定のアイテム間の共分散を追加するアイテムによってモデルを削減->モデルフィット:χ2(df = 210)= 295; 比較適合指数(CFI)= .86; 標準化された二乗平均平方根残差(SRMR)=。08; 二乗平均平方根誤差(RMSEA)=。07; RMSEA 90%信頼区間(CI)= [.06、.08]。 今私の質問: このようなモデルをどうすればよいですか? 統計的に正しいことは何でしょうか? 適合するか、適合しないと報告しますか?そして、それらのモデルのどれですか? この件についてお話しさせていただければ幸いです。 以下は、元のモデルのCFAの溶岩出力です。 lavaan (0.5-17.703) converged normally after 55 iterations Used Total Number of observations 149 172 …

1
EFAは明らかに1要素をサポートし、測定値は内部的に一貫していますが、CFAは適合性が低いですか?
私は、10項目の自己報告メジャーの心理測定特性を調査しています。2つの独立したサンプルで約400のケースがあります。アイテムは4ポイントリッカートスケールで完成します。EFAは明らかに1要素の解(たとえば、最初の固有値が6を超え、他はすべて1未満)をサポートし、クロンバッハのアルファは優れています(たとえば、.90)。アイテムと合計の相関が低いアイテムはありません。 私はもともとCFAを実行したいと思っていました(EFAはCFAが良くないことを確認した後の単なるフォローアップでした)単要素モデルをテストしました。驚いたことに、モデルへの適合は比較的不十分でした。 CFI=.91 TLI=.88 RMSEA=.13 さらに、各アイテムのロードは非常に良好です(0.65以上)。 奇妙なことにSRMR=.05、これは許容可能/良好です。 修正インデックスは、私がいたるところにエラーを関連付けることを示唆しています。そうすることの明確な合理性があった場合(たとえば、いくつかの項目は非常に類似した文言を持っている)、私はこれを行うでしょう。ただし、すべての測定値は同じように表現されており、すべての誤差項を関連付けることは奇妙で苦痛でしょう。 このようなケースを見たことがありません。指標は内部的に一貫しており、明らかにEFAの1つの要素で構成されていますが、CFAでの適合性は不十分です。結果は両方の独立したサンプル(異なる大陸から)で一致しています。私は2因子CFA(5つのランダムな項目をグループ化)を試してみましたが、適合は同じか、わずかに優れていました。 ここに私の質問があります: EFA / Cronbachアルファ/因子の負荷を考えると、CFI / TLI / RMSEAによる適合はなぜそれほど悪いのですか? なぜSRMRは良いのに他のインデックスはそうでないのですか?私はそれらが異なるものを測定することを知っていますが、私の経験では、ほとんど常に収束します。 エラーのいくつかを関連付ける必要がありますか? アイテムの例: あなたは自分の欠点について考えています あなたは忘れることが難しい考えを持っています あなたはいつも状況を考えています

3
SVDを実行して欠損値を代入する方法、具体例
SVDを適用する前に欠損値を処理する方法に関する素晴らしいコメントを読みましたが、簡単な例でどのように機能するか知りたいです。 Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 上記のマトリックスを考えると、NAの値を削除すると、User2とUser5しかなくなります。これは、私のUが2×kになることを意味します。しかし、欠損値を予測する場合、Uは5×kである必要があります。これは、特異値とVで乗算できます。 上記のマトリックスで、最初に欠損値のあるユーザーを削除してからSVDを適用して、欠損値を記入する人はいますか?数学記号を使いすぎずに、適用した手順の非常に簡単な説明を提供し、答えを実用的なものにしてください(つまり、数値に別の数値を掛けると答えが得られます)。 次のリンクを読みました。 stats.stackexchange.com/q/33142 stats.stackexchange.com/q/31096 stats.stackexchange.com/q/33103
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

2
内部因子構造は良好ですが、Cronbachの不良ですか?
私はCFAを実行しており、1次元スケールの適切なインデックス(CFI = .99、RMSEA = .01)を取得しています。ただし、内部整合性をテストすると、Cronbachの s()が悪くなります。外れ値の削除からアイテムの削除まですべてを試しましたが、それでも同じ問題が発生します。αα\alphaα = .6α=.6\alpha = .6 SEMに測定が信頼できることを示すものがあるかどうか疑問に思っていますか? クロンバックの(または内部一貫性)が信頼性を測定するかどうかについては議論があることを知っていますが、私の分野ではクロンバックのを心理測定の良さの尺度として報告する必要があるため、内部一貫性をあるものとして示す方法を見つける必要がありますこの対策には十分です。αα\alphaαα\alpha

4
確認的要因分析で重みを1に設定するのはなぜですか?
:私は、次のドキュメントのp138-142に例を参照しながら、この質問を書くftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf。 以下は、図と表です。 潜在変数には自然なメトリックがなく、この問題を解決するために因子負荷を1に設定することを理解しています。ただし、(完全に)理解していないことがいくつかあります。 因子負荷を1に修正すると、スケールの不確定性の問題がどのように修正されますか? なぜ他の数値ではなく1に固定するのですか? 因子->指標の回帰の重みの1つを1に固定することで、その因子に対する他のすべての回帰の重みを相対的に作成することを理解しています。しかし、特定の因子負荷を1に設定した場合、どうなるでしょうか。その場合、因子のスコアが高いほど、問題の観測された変数のスコアが低いことが予測されます。最初に因子負荷を1に設定した後、負の理解された回帰の重み、または負の標準化された回帰の重みに到達できますか? これに関連して、回帰係数と共分散の両方と呼ばれる因子負荷を見てきました。これらの定義はどちらも完全に正しいですか? なぜ、spatial-> vispercとverbal-paragrapの両方を1に修正する必要があったのですか?これらのパスの1つを1に固定した場合はどうなりますか? 標準化された係数を見て、どのようにして単語平均>文>パラグラフの非標準化係数であるのか、標準化された係数パラグラフ>単語平均>文を見ることができるでしょうか。私はパラグラップを1に固定することにより、最初に因子にロードされた他のすべての変数がパラグラップに関連するようになったと思いました。 また、関連する答えがあると想像する質問も追加します。なぜ、一意の項(たとえば、err_v-> visperc)の回帰係数を1に修正するのですか?vispercの予測でerr_vの係数が1になるとはどういう意味ですか? すべての質問に対応していなくても、大歓迎です。

1
SEMのインターセプトの直感的な定義/説明とは何ですか?
私の友人/同僚の何人かは最近、構造方程式モデリングに関心を持っており、SEMについてますます多くの質問に答える必要があります。多くの場合、これらの質問は、さまざまな測定モデルパラメーター(つまり、因子負荷、残差分散、切片)の推定値の意味を解釈する方法、およびこれらの値がグループ間でほぼ等しいことが重要である理由(つまり、推定された構造パラメーター(すなわち、分散、共分散、および平均)でグループを比較する前に、測定の不変性を確立します。 因子負荷と残差分散のアクセス可能な定義、および構造パラメーターのグループを比較する前にこれらの推定パラメーターがグループ間で同等であることが重要である理由についてのアクセス可能な説明を提供することについて、私はかなり良いハンドルを持っているように感じます。しかし、何らかの理由で、私は同様にアクセス可能な定義のように感じ、切片の説明が私を逃れました。 だから、私の質問は、切片とは何かをアクセシブルに説明する最善の方法であり、グループの潜在的手段を比較する前に切片がグループ間で不変であることが重要である理由を説明するのですか? 例:因子負荷は、観測変数と潜在変数の間の関連の推定方向と強さを表します。言い換えると、因子負荷は、その観測された変数が、関連する潜在変数の発現に対してどれほど中心的であるかを表します。グループを比較すると構造パラメータを、ので、それは、彼らがグループ間で不変であることを確認することが重要です与えられた潜在変数の理解、それ以外の場合は、同じ観測変数が両方のグループにも同じように重要ではないことを示唆している-潜在変数の手段何か違います各グループに。 それに関連する潜在変数がゼロに等しいときの切片があるもの...与えられた観測変数の期待値であり、換言すれば、...と、それらが不変であることを確認することが重要です、なぜなら...の説明の部分解釈(SEMのコンテキストで)?

1
ラヴァンの因子スコアを予測する方法
でCFAを実行するLavaan場合、元のデータで負の分散などのエラーが発生したため、共分散行列を入力として使用する必要がありました。 通常、predict()関数を使用して因子スコアを予測しますが、lavPredict関数は同じですが、共分散行列を使用しているため、これを直接実行することはできません。 CFAからの情報を使用して、それと同じ方法で因子スコアを計算する方法Lavaanはありますか?このpredict()関数は回帰の方法を使用して因子スコアを計算すると思います。 これは、生データを入力として使用して因子スコアを生成するサンプルコードです。この方法を使用すると、差異の1つでエラーが発生します。 library(lavaan) model1 = ' Latent1 =~ X1 + X2 Latent2 =~ X3 + X4 + X5 Latent3 =~ X6 + X7 ' model1.fit = cfa(model1, data=mydata) #fit Lavaan model predict(model1.fit) #Predict factor scores (method of regression) これは、入力として共分散行列を使用して因子スコアを生成するコードです。ここにはエラーメッセージはありませんが、それらをリンクするデータがないため、因子スコアを生成できません。 cov = cor2cov(cor,std) #(using cor2cov function to create covariance …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.