タグ付けされた質問 「factor-analysis」

因子分析は、相互相関変数を因子と呼ばれるより少数の連続潜在変数に置き換える次元削減潜在変数手法です。要因は相互相関の原因であると考えられています。[確認要因分析には、タグ 'confirmatory-factor'を使用してください。また、因子分析の「因子」という用語を、回帰/ ANOVAのカテゴリー予測子としての「因子」と混同しないでください。]

1
低ランク線形システムの高速計算/推定
方程式の線形システムは、計算統計に広く使用されています。私が遭遇した1つの特別なシステム(たとえば、因子分析)はシステムです Ax=bAx=bAx=b ここで、 ここでDはであるN × N厳密に正の対角を有する対角行列で、ΩはあるM × M(とM « N対称半正定値行列)であり、Bは任意であり、N × m行列。低ランクの行列によって摂動された対角線形システム(簡単)を解くように求められます。上記の問題を解決する素朴な方法は、Woodburyの式を使用してAを反転させることですA=D+BΩBTA=D+BΩBTA=D+ B \Omega B^TDDDn×nn×nn\times nΩΩ\Omegam×mm×mm\times mm≪nm≪nm\ll nBBBn×mn×mn\times mAAA。ただし、コレスキーおよびQR分解は通常、線形システム(および正規方程式)の解を劇的に高速化できるため、これは正しくありません。私は最近次の論文を思いつきました。これはコレスキーのアプローチを採用しているようで、ウッドベリーの反転の数値的不安定性について言及しています。しかし、論文は草案のようで、数値実験や裏付けとなる研究が見つかりませんでした。私が説明した問題を解決するための最新技術は何ですか?

2
Rによる二分データの因子分析の推奨手順
二分変数(0 =はい、1 =いいえ)で構成されるデータセットに対して因子分析を実行する必要があり、正しい方向に進んでいるかどうかわかりません。 を使用しtetrachoric()て、実行する相関行列を作成しますfa(data,factors=1)。結果はMixFactorを使用したときに受け取る結果に非常に近いですが、同じではありません。 これは大丈夫ですか、それとも別の手順をお勧めしますか? なぜfa()仕事とfactanal()エラーが発生しますか?(Fehler in solve.default(cv) : System ist für den Rechner singulär: reziproke Konditionszahl = 4.22612e-18)

1
行列を正定にする方法は?
次の因子分析モデルにEMアルゴリズムを実装しようとしています。 Wj= μ + B aj+ ejにとってj = 1 、… 、nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n ここで、はp次元のランダムベクトル、は潜在変数のq次元ベクトル、はパラメーターのpxq行列です。a j BWjWjW_jajaja_jBBB モデルに使用される他の仮定の結果として、私が知っている分散共分散行列誤差項のある、 = DIAG(、、...、)。D E J D σ 2 1 σ 2 2 σ 2 PWj〜N(μ 、B B』+ D )Wj∼N(μ,BB′+D)W_j\sim N(\mu, BB'+D)DDDejeje_jDDDσ21σ12\sigma_1^2σ22σ22\sigma_2^2σ2pσp2\sigma_p^2 EMアルゴリズムが機能するために、および行列の推定を含むドーム反復を行っています。これらの反復中に、および新しい推定を使用して、各反復で逆を計算しています。残念ながら、反復の過程では正定性を失います(ただし、これは分散共分散行列であるため、そうするべきではありません)。この状況は、アルゴリズムの収束を台無しにします。私の質問は:D B B ′ + D B D B B …

3
母集団のr二乗変化の信頼区間を取得する方法
簡単な例のために、2つの線形回帰モデルがあると仮定します モデル1は、3つの予測因子を持っているx1a、x2bと、x2c モデル2には、モデル1からの3つの予測子と2つの追加の予測子がx2aあり、x2b 母集団の分散が説明人口回帰式がある モデル1及びρ 2 (2 )増分分散がある集団におけるモデル2によって説明するモデル2についてΔは、ρ 2 = ρ 2 (2 ) - ρ 2 (1 )ρ2(1)ρ(1)2\rho^2_{(1)}ρ2(2)ρ(2)2\rho^2_{(2)}Δρ2=ρ2(2)−ρ2(1)Δρ2=ρ(2)2−ρ(1)2\Delta\rho^2 = \rho^2_{(2)} - \rho^2_{(1)} 私は、の推定のための標準誤差と信頼区間を得ることに興味を持ってい。例にはそれぞれ3および2の予測子が含まれていますが、私の研究対象は、さまざまな数の予測子(たとえば、5および30)に関係しています。私が最初に考えたのは使用していた Δ R 2 、A D J = R 2 のD J (2 ) - R 2 次元J (1 )推定量として、それをブートストラップが、私は確かに、これは適切であるかどうかではなかったです。Δρ2Δρ2\Delta\rho^2Δr2adj=r2adj(2)−r2adj(1)Δradj2=radj(2)2−radj(1)2\Delta r^2_{adj} = r^2_{adj(2)} - r^2_{adj(1)} ご質問 されたの合理的な推定量Δは、ρ …

2
因子分析(またはPCA)では、因子負荷が1を超えるとはどういう意味ですか?
斜め回転(プロマックス)を使用してFAを実行したところ、1つの因子で1.041の因子負荷が発生しました(パターンマトリックスを使用して、他の因子では-.131、-。119および.065の因子負荷)。 。そして、私はそれが何を意味するのかわかりません、私はそれが-1と1の間だけであることができると思っていました。 斜め回転によるものですか?そして、直交因子で負荷が1を超えることはできますか?

1
スケールの信頼性の測定(Cronbachのアルファなど)とコンポーネント/要素の負荷の関係は何ですか?
心理学の研究のように、理論的には少数のスケールで構成されている一連のアンケート項目のスコアを含むデータセットがあるとします。 ここでの一般的なアプローチは、クロンバッハのアルファなどを使用してスケールの信頼性を確認し、スケールの項目を集計してスケールスコアを形成し、そこから分析を続けることです。 しかし、因子分析もあります。これは、すべてのアイテムスコアを入力として受け取り、それらが一貫した因子を形成していることを通知します。負荷や共同性などを調べることにより、これらの要素がどの程度強力であるかを知ることができます。私にはこれは同じようなもののように聞こえますが、はるかに詳細です。 スケールの信頼性がすべて優れていても、EFAはどのアイテムがどのスケールに適しているかを修正することがありますよね?あなたはおそらくクロスローディングを取得するでしょうし、単純なスケール合計よりも派生因子スコアを使用する方が理にかなっているかもしれません。 これらのスケールを後の分析(回帰やANOVAなど)に使用する場合、信頼性が維持される限り、スケールを集計する必要がありますか?または、CFAのようなものです(スケールが適切な要素として保持されるかどうかをテストするテスト。これは、「信頼性」と同じものを測定しているようです)。 私は両方のアプローチを個別に教えられてきたので、それらがどのように一緒に使用できるか、どちらがどのコンテキストに適しているかなど、それらがどのように関連しているかは本当にわかりません。この場合、優れた研究実践のための決定木はありますか?何かのようなもの: 予測されたスケールアイテムに従ってCFAを実行する CFAが適切な適合を示している場合は、因子スコアを計算し、それらを分析に使用します。 CFAの適合性が低い場合は、代わりにEFAを実行し、探索的アプローチ(または何か)を実行します。 因子分析と信頼性テストは、実際には同じことへの別のアプローチですか、それとも私はどこかで誤解していますか?

1
EFAは明らかに1要素をサポートし、測定値は内部的に一貫していますが、CFAは適合性が低いですか?
私は、10項目の自己報告メジャーの心理測定特性を調査しています。2つの独立したサンプルで約400のケースがあります。アイテムは4ポイントリッカートスケールで完成します。EFAは明らかに1要素の解(たとえば、最初の固有値が6を超え、他はすべて1未満)をサポートし、クロンバッハのアルファは優れています(たとえば、.90)。アイテムと合計の相関が低いアイテムはありません。 私はもともとCFAを実行したいと思っていました(EFAはCFAが良くないことを確認した後の単なるフォローアップでした)単要素モデルをテストしました。驚いたことに、モデルへの適合は比較的不十分でした。 CFI=.91 TLI=.88 RMSEA=.13 さらに、各アイテムのロードは非常に良好です(0.65以上)。 奇妙なことにSRMR=.05、これは許容可能/良好です。 修正インデックスは、私がいたるところにエラーを関連付けることを示唆しています。そうすることの明確な合理性があった場合(たとえば、いくつかの項目は非常に類似した文言を持っている)、私はこれを行うでしょう。ただし、すべての測定値は同じように表現されており、すべての誤差項を関連付けることは奇妙で苦痛でしょう。 このようなケースを見たことがありません。指標は内部的に一貫しており、明らかにEFAの1つの要素で構成されていますが、CFAでの適合性は不十分です。結果は両方の独立したサンプル(異なる大陸から)で一致しています。私は2因子CFA(5つのランダムな項目をグループ化)を試してみましたが、適合は同じか、わずかに優れていました。 ここに私の質問があります: EFA / Cronbachアルファ/因子の負荷を考えると、CFI / TLI / RMSEAによる適合はなぜそれほど悪いのですか? なぜSRMRは良いのに他のインデックスはそうでないのですか?私はそれらが異なるものを測定することを知っていますが、私の経験では、ほとんど常に収束します。 エラーのいくつかを関連付ける必要がありますか? アイテムの例: あなたは自分の欠点について考えています あなたは忘れることが難しい考えを持っています あなたはいつも状況を考えています

2
PCAまたは因子分析における歪んだ変数
22の変数に基づいてSPSSの主成分分析(因子分析)を実行したいと考えています。ただし、一部の変数は非常に歪んでいます(SPSSの範囲から計算された歪度は2〜80です)。 だからここに私の質問があります: そのように歪んだ変数を保持する必要がありますか、それとも主成分分析で変数を変換できますか?はいの場合、どのように因子得点を解釈しますか? どのタイプの変換を行う必要がありますか?log10またはln? 元々、私のKMO(Kaiser–Meyer–Olkin)は0.413です。多くの文献では、最低でも0.5を推奨しています。それでも因子分析を行うことはできますか、またはKMOを0.5に上げるために変数を削除する必要がありますか?

2
ダイアディックデータの因子分析
匿名の読者が私のブログに次の質問を投稿しました。 環境: 読者は、アンケートのスケールで因子分析を実行したいと考えていましたが、データは夫婦のペアからのものでした。 質問: ダイアディックデータに対して因子分析を実行できますか?もしそうなら、どうですか? 独立性の仮定は因子分析に当てはまるでしょうか?

3
PCA後の斜めローテーションの使用について
SAS、SPSS、Rなどのいくつかの統計パッケージでは、PCAの後にある種の因子ローテーションを実行できます。 PCAの後にローテーションが必要なのはなぜですか? PCAの目的が直交次元を生成することであるとすると、PCAの後に斜め回転を適用するのはなぜですか?

2
主軸因数分解抽出法を使用する場合、探索的因子分析に非正規データのデータ変換が必要ですか?
私は霊性を構成する4つの要素を測定するためのアンケートを作成しています。次の質問をしたいと思います。 主軸因数分解抽出法を使用する場合、探索的因子分析に非正規データのデータ変換が必要ですか? 昨日、データのスクリーニングを終了しました。20問中3問が正に歪んでいるのに対し、20問中1問が負に歪んでいることがわかりました(質問6 = 4.88、質問9 = 7.22、質問12 = 11.11、質問16 = -6.26)。また、質問の1つ(20問中)はレプトクルト(質問12 = 12.21)であることがわかりました。 主軸因数分解抽出法を選択したのは、「最重要度が通常ではないデータ」で使用され、最尤法が通常のデータで使用されることを読んだためです。 データが「非常に」非正常であるかどうかはどのようにしてわかりますか? 私のデータが「ひどく正常でない」場合、これはデータをそのままにして(変換せずに)主軸因数分解抽出法を使用して分析できることを意味しますか?または、EFAに進む前にデータを変換する必要がありますか? データを変換する必要がある場合、ポジティブスキュー、ネガティブスキュー、およびレプトクールアイテムにどの変換を使用しますか?

1
因子分析でどのマトリックスを解釈する必要がありますか:パターンマトリックスまたは構造マトリックス?
因子分析(たとえば、主軸因数分解による)または主成分分析を因子分析として実行し、負荷の斜め回転を実行した場合、どの行列がどの要素にどのアイテムを負荷するかを理解するために、どの行列を使用するかそして、要因を解釈するために- パターン行列または構造行列? 本を読んだところ、ほとんどの研究者はパターンマトリックスを使用することが多いので、分析しやすいためですが、著者は構造マトリックスの結果と結果を再確認することを提案しました。ただし、私の場合、これら2つのテーブルには多くの違いがあり、因子を指定してラベルを付けるためにどのテーブルを使用するかわかりません。


1
R factanal出力の意味は何ですか?
これはどういう意味ですか?私は因子分析の「初心者」であり、私は本を読んだことがありましたが、明らかにすべてを教えてくれませんでした。 カイ二乗統計が非常に高く、p値が非常に低いため、データは6次元空間内で同一平面(2次元)に近いように見えます。それでも、差異の89.4%しか占めていません(私はこの権利を解釈していますか?) また、因子は互いに直交していると思ったので、両方の因子がすべての変数に対して正の負荷をどのように持つことができますか? そして、一意性はどういう意味ですか? > factanal(charges[3:8],2) Call: factanal(x = charges[3:8], factors = 2) Uniquenesses: APT CHELPG Natural AIM Hirshfeld VDD 0.217 0.250 0.082 0.052 0.005 0.033 Loadings: Factor1 Factor2 APT 0.609 0.642 CHELPG 0.657 0.564 Natural 0.571 0.769 AIM 0.382 0.896 Hirshfeld 0.910 0.408 VDD 0.844 0.504 Factor1 Factor2 SS …

3
探索的要因分析で並列分析を正しく解釈するにはどうすればよいですか?
一部の科学論文では、方法論に対する私の理解と矛盾する方法で主軸因子分析の並列分析の結果を報告しています。何が欠けていますか?私は間違っていますか、それとも彼らですか。 例: データ: 200人の人間のパフォーマンスが10のタスクで観察されました。個人およびタスクごとに、1人にパフォーマンススコアがあります。ここでの問題は、10個のタスクのパフォーマンスの原因となる要因の数を特定することです。 方法:主軸因子分析で保持する因子の数を決定する並列分析。 報告された結果の例:「並列分析は、2.21以上の固有値を持つ因子のみを保持する必要があることを示唆しています」 それはナンセンスですよね? Horn(1965)によるオリジナルの論文と、Haytonらのようなチュートリアルから。(2004)並列分析は、ランダムデータに基づくカイザー基準(固有値> 1)の適応であることを理解しています。ただし、適応は、カットオフ1を別の固定数に置き換えるのではなく、各因子の個別のカットオフ値(およびデータセットのサイズ、つまり10スコアの200倍)に依存します。Horn(1965)とHaytonらの例を見てください。(2004)、R関数の出力はfa.parallelに心理パッケージと平行でnFactorsパッケージでは、並列分析により、実際のデータの固有値と比較するために、スクリープロットに下向きの傾斜曲線が生成されます。「固有値が2.21より大きい場合、最初の因子を保持します。さらに、固有値が1.65より大きい場合は2番目を保持します。…」。 「並行分析では、固有値が2.21以上の要素のみを保持する必要があることを示唆している」という適切な設定、考え方、方法論はありますか? 参照: ヘイトン、JC、アレン、DG、スカルペロ、V。(2004)。探索的因子分析における因子保持の決定:並列分析に関するチュートリアル。組織研究方法、7(2):191-205。 ホーン、JL(1965)。因子分析における因子数の根拠とテスト。Psychometrika、30(2):179-185。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.