タグ付けされた質問 「cronbachs-alpha」

2
アンケートの信頼性の評価:次元、問題のある項目、およびalpha、lambda6またはその他のインデックスを使用するかどうか?
実験に参加している参加者のスコアを分析しています。製品に対する参加者の態度を推定することを目的とした6つの項目で構成されるアンケートの信頼性を推定したいと思います。 Cronbachのアルファを計算し、すべてのアイテムを単一のスケールとして扱い(アルファは約0.6)、一度に1つのアイテムを削除しました(最大アルファは約0.72)。アイテムの数と基礎となる構造の次元によっては、アルファが過小評価および過大評価される可能性があることを知っています。それで、PCAも行いました。この分析により、分散の約80%を説明する3つの主成分があることが明らかになりました。だから、私の質問は、今どのように進めることができるかについてのすべてですか? これらの各次元でアルファ計算を実行する必要がありますか? 信頼性に影響するアイテムを削除しましたか? さらに、Webで検索すると、信頼性の別の尺度があることがわかりました。guttmanのlambda6です。 このメジャーとアルファの主な違いは何ですか? ラムダの良い値は何ですか?

3
Cronbachのアルファ値の記述子はどこから来ますか(例:貧弱、優秀)?
Cronbachのアルファ値を次のように記述することはかなり一般的なようです: α≥0.9すばらしい 0.7≤α<0.9良い 0.6≤α<0.7許容範囲 0.5≤α<0.6悪い α<0.5許容できない これらの値はどこから来たのですか?これらを説明するオリジナルの研究記事が見つかりません。 編集:私はそれが単に慣習に基づいているだけであり、これらを概説する古典的な研究記事がないことを90%確信しています。

1
観測48で革新的な異常値をARIMAモデルに組み込むにはどうすればよいですか?
私はデータセットに取り組んでいます。いくつかのモデル識別手法を使用した後、私はARIMA(0,2,1)モデルを思いつきました。 R detectIOのパッケージの関数を使用して、元のデータセットの48回目の観測で革新的な外れ値(IO)TSAを検出しました。 この外れ値をモデルに組み込んで、予測に使用するにはどうすればよいですか?Rではそれから予測を行うことができない可能性があるため、ARIMAXモデルを使用したくありません。これを行う方法は他にありますか? これが私の値です。 VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

1
スケールの信頼性の測定(Cronbachのアルファなど)とコンポーネント/要素の負荷の関係は何ですか?
心理学の研究のように、理論的には少数のスケールで構成されている一連のアンケート項目のスコアを含むデータセットがあるとします。 ここでの一般的なアプローチは、クロンバッハのアルファなどを使用してスケールの信頼性を確認し、スケールの項目を集計してスケールスコアを形成し、そこから分析を続けることです。 しかし、因子分析もあります。これは、すべてのアイテムスコアを入力として受け取り、それらが一貫した因子を形成していることを通知します。負荷や共同性などを調べることにより、これらの要素がどの程度強力であるかを知ることができます。私にはこれは同じようなもののように聞こえますが、はるかに詳細です。 スケールの信頼性がすべて優れていても、EFAはどのアイテムがどのスケールに適しているかを修正することがありますよね?あなたはおそらくクロスローディングを取得するでしょうし、単純なスケール合計よりも派生因子スコアを使用する方が理にかなっているかもしれません。 これらのスケールを後の分析(回帰やANOVAなど)に使用する場合、信頼性が維持される限り、スケールを集計する必要がありますか?または、CFAのようなものです(スケールが適切な要素として保持されるかどうかをテストするテスト。これは、「信頼性」と同じものを測定しているようです)。 私は両方のアプローチを個別に教えられてきたので、それらがどのように一緒に使用できるか、どちらがどのコンテキストに適しているかなど、それらがどのように関連しているかは本当にわかりません。この場合、優れた研究実践のための決定木はありますか?何かのようなもの: 予測されたスケールアイテムに従ってCFAを実行する CFAが適切な適合を示している場合は、因子スコアを計算し、それらを分析に使用します。 CFAの適合性が低い場合は、代わりにEFAを実行し、探索的アプローチ(または何か)を実行します。 因子分析と信頼性テストは、実際には同じことへの別のアプローチですか、それとも私はどこかで誤解していますか?


3
分布を見つけて正規分布に変換する
1時間にイベントが発生する頻度(「1時間あたりの数」、nph)とイベントが持続する時間(「1秒あたりの秒数」、dph)を説明するデータがあります。 これは元のデータです: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, 27.8399999994814, 15.3750000002237, NA, 6.00000000004109, 9.71428571436649, 12.4848484848485, 16.5034965037115, 20.6666666666667, 3.49999999997453, 4.65882352938624, 4.74999999996544, 3.99999999994522, 2.8, 14.2285714286188, 11.0000000000915, NA, 2.66666666666667, 3.76470588230138, 4.70588235287673, 13.2727272728677, 2.0000000000137, 18.4444444444444, 17.5555555555556, 14.2222222222222, 2.00000000001663, 4, 8.46153846146269, 19.2000000001788, 13.9024390245481, 13, 3.00000000004366, NA, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 

2
内部因子構造は良好ですが、Cronbachの不良ですか?
私はCFAを実行しており、1次元スケールの適切なインデックス(CFI = .99、RMSEA = .01)を取得しています。ただし、内部整合性をテストすると、Cronbachの s()が悪くなります。外れ値の削除からアイテムの削除まですべてを試しましたが、それでも同じ問題が発生します。αα\alphaα = .6α=.6\alpha = .6 SEMに測定が信頼できることを示すものがあるかどうか疑問に思っていますか? クロンバックの(または内部一貫性)が信頼性を測定するかどうかについては議論があることを知っていますが、私の分野ではクロンバックのを心理測定の良さの尺度として報告する必要があるため、内部一貫性をあるものとして示す方法を見つける必要がありますこの対策には十分です。αα\alphaαα\alpha

2
科学的に健全なスケール構築に関するアドバイス
組織研究の分野で、20のリッカートアイテム(1〜5、サンプルサイズn = 299)のセットが与えられました。これらのアイテムは、多面的で多面的であり、本質的に異質である潜在的な概念を測定することを目的としています。目標は、さまざまな組織の分析に使用でき、ロジスティック回帰で使用できるスケールを作成することです。アメリカの心理学協会に従って、スケールは(1)一次元、(2)信頼でき、(3)有効でなければなりません。 したがって、それぞれ4/6/6/4アイテムの4つの次元またはサブスケールを選択することにしました。コンセプトを表すと仮定されています。 アイテムは、リフレクトアプローチを使用して構築されました(可能なアイテムの多くを生成し、その後の3つのグループでcronbachのアルファおよび概念表現(有効性)を使用してアイテムを繰り返し削除します)。 利用可能なデータを使用して、ポリコリック相関に基づく予備的な並列説明因子分析とバリマックスローテーションを使用すると、アイテムが予想とは異なる他の因子にロードされていることが明らかになりました。4つの仮説とは異なり、少なくとも7つの潜在要素があります。項目間相関の平均は、正ではありますがかなり低い(r = 0.15)。cronbach-alpha係数も、各スケールで非常に低い(0.4〜0.5)。確認的因子分析が適切なモデルフィットをもたらすとは思えません。 2つの次元が削除された場合、cronbachsアルファは受け入れられます(スケールあたり10アイテムで0.76,0.7、これはcronbachsアルファの通常バージョンを使用することでさらに大きくすることができます)が、スケール自体は依然として多次元です! 私は統計に不慣れで適切な知識が不足しているため、さらに先に進む方法に困っています。スケールを完全に破棄し、説明のみのアプローチに辞任することに消極的であるため、さまざまな質問があります。 I)信頼でき、有効であるが一次元ではないスケールを使用することは間違っていますか? II)その後、概念を形成的であると解釈し、消失四面体テストを使用してモデル仕様を評価し、部分最小二乗(PLS)を使用して可能な解決策に到達するのは適切でしょうか?結局のところ、この概念は反射的なものよりも形成的なもののようです。 III)項目応答モデル(Rasch、GRMなど)を使用することは役に立ちますか?私が読んだように、ラッシュモデルなども一次元性の仮定が必要です IV)7つの要素を新しい「サブスケール」として使用するのが適切でしょうか?古い定義を破棄し、因子負荷に基づいて新しい定義を使用するだけですか? 私はこれについての考えをいただければ幸いです:) 編集:追加された因子負荷と相関 > fa.res$fa Factor Analysis using method = ml Call: fa.poly(x = fl.omit, nfactors = 7, rotate = "oblimin", fm = "ml") 因子パターン行列と因子相互相関行列から計算された因子負荷、0.2を超える値のみが表示されます
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.