確認的要因分析で重みを1に設定するのはなぜですか?


8

:私は、次のドキュメントのp138-142に例を参照しながら、この質問を書くftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf

以下は、図と表です。 CFAの例

潜在変数には自然なメトリックがなく、この問題を解決するために因子負荷を1に設定することを理解しています。ただし、(完全に)理解していないことがいくつかあります。

  1. 因子負荷を1に修正すると、スケールの不確定性の問題がどのように修正されますか?

  2. なぜ他の数値ではなく1に固定するのですか?

  3. 因子->指標の回帰の重みの1つを1に固定することで、その因子に対する他のすべての回帰の重みを相対的に作成することを理解しています。しかし、特定の因子負荷を1に設定した場合、どうなるでしょうか。その場合、因子のスコアが高いほど、問題の観測された変数のスコアが低いことが予測されます。最初に因子負荷を1に設定した後、負の理解された回帰の重み、または負の標準化された回帰の重みに到達できますか?

  4. これに関連して、回帰係数と共分散の両方と呼ばれる因子負荷を見てきました。これらの定義はどちらも完全に正しいですか?

  5. なぜ、spatial-> vispercとverbal-paragrapの両方を1に修正する必要があったのですか?これらのパスの1つを1に固定した場合はどうなりますか?

  6. 標準化された係数を見て、どのようにして単語平均>文>パラグラフの非標準化係数であるのか、標準化された係数パラグラフ>単語平均>文を見ることができるでしょうか。私はパラグラップを1に固定することにより、最初に因子にロードされた他のすべての変数がパラグラップに関連するようになったと思いました。

また、関連する答えがあると想像する質問も追加します。なぜ、一意の項(たとえば、err_v-> visperc)の回帰係数を1に修正するのですか?vispercの予測でerr_vの係数が1になるとはどういう意味ですか?

すべての質問に対応していなくても、大歓迎です。


1
潜在変数のスケール設定に関する2つの興味深い記事を次に示します。Gonzalez&Griffin(2001):SEMでのテストパラメーター:すべての「1」の問題www-personal.umich.edu/~gonzo/papers/sem.pdf)、Little、 Slegers、&カード(2006):SEMとMACSモデルにおける潜在変数の識別およびスケーリングのAの非任意の方法agencylab.ku.edu/~agencylab/manuscripts/...
パトリック・コーロンブを

1つ以上のウェイトを1つに設定するとどうなりますか?結果は同じですか?
Behacad 2014年

回答:


10
  1. これにより、潜在変数と観測変数の関係を使用して、潜在変数の分散を決定できるようになるためです。たとえば、XのYの回帰を考えてみます。たとえば、Xの分散を定数で乗算することで変更できる場合、回帰係数を任意に変更できます。代わりに回帰係数の値を修正すると、Xの分散が決まります。
  2. 慣例により、係数を相互に比較しやすくするため。
  3. その場合、潜在変数は単に逆になります。たとえば、潜在変数が数学能力であり、観測変数がテストのエラー数であり、回帰係数を1に固定するとします。そうすると、潜在変数は数学能力ではなく「数学の難易度」になり、他の観測変数の係数はそれに応じて変化します。
  4. 観測変数と潜在変数の両方が標準化されている(つまり、標準偏差が1に等しい)場合、回帰係数は共分散に等しくなります。
  5. 空間の分散の推定を可能にするために、spatial-> vispercを1に修正しています(上記の(1)の回答を参照)。同様に、口頭->パラグラップを修正すると、口頭の分散を推定できます。これらの制約の1つだけを持つモデルは識別できません。
  6. 標準化されていない係数と標準化された係数の違いは、口頭の分散だけでなく、パラグラフ、文、単語平均の分散にも依存するためです。たとえば、単語平均の標準化された係数は、標準化されていない係数に掛けたものに等しくなります。SDverbalSDwordmean2.234×9.682(2.2342×9.682)+19.925=0.841

visperc=β0+β1spatial+err_v

7
  1. 私は「スケールの不確定性」というフレーズを誤解しているかもしれませんが、識別しやすいように1に設定されていると思います。(つまり、この連立方程式の未知数は、方程式の数を超えてはなりません。)リンクの1つを1に設定しないと、未知数が多すぎます。それはスケールの不確定性と同じですか?

  2. ほとんどのSEMアプリケーションでは、生データではなく共分散行列を使用しています。PLS(Partial Least Squares)と呼ばれる、元のデータを使用する別のアルゴリズムがあります。これは、物事にいくつかの追加の光を当てるかもしれません。


1.ほとんどの記事は、スケールと識別可能性の不確定性を、それらが別個の問題であるかのように扱う傾向があります。区別を支持する1つの議論は、観測された変数を追加すると、既知と未知の比率が上がるが、ロードを1に設定する必要がなくなるわけではないということです。2. PLSに関するヒントをありがとう。
user1205901-モニカを2013年

4
  1. 解釈が単なる回帰であるかのように考えてください。係数は、独立変数の1単位の違いに関連する従属変数の単位の違いを反映します。したがって、IVの1ユニットの変更がDVの1ユニットの変更に関連付けられている場合、ユニットは機能的に同等です。潜在変数の分散を推定するため、潜在変数の単位が必要です。これは単位がないわけではありません。識別問題は関連しています。1つの潜在変数と3つのインジケーターを持つ単純なCFAの場合、制約が作成されない限り、モデルは識別されません。

  2. 任意の数に設定でき、結果の全体的な性質は同じになります(モデルフィットを確認することで簡単に確認できます。これは同一になります)。モデルを1に設定すると、モデルの解釈が簡単になります。

  3. 因子の負荷をどのように修正するかに関係なく、同じ潜在変数に対して正と負の負荷の項目を取得できます。これをテストするには、指標の1つに-1を掛けて、モデルを再度推定します。

  4. 回帰係数が調整されていない場合(つまり、従属変数がそれを指す矢印が1つしかない場合)は、機能的に同じです。この場合、一方を他方から計算することができます。

  5. それを試してみてください!すでに述べた理由により、各潜在変数にはスケールが必要です。

  6. これはスケールの問題であり、標準化された係数を使用する理由です。DVをより大きな数値で除算することにより、任意の回帰係数を任意に大きくすることができます。したがって、IVの1単位の変更は、DVの単位にますます大きな変更を生成します。正規化し、like for likeを比較することで、この問題を回避します。

  7. エラー係数の読み込みを1に修正すると、解釈が簡単になります。これにより、SEMのそれぞれの回帰方程式は、Y = BX + e(またはY = BX + 1 * e)の一般的な形式になります。


共分散を1に固定することについて#5であなたが言っていることについて混乱しています。確かに、共分散ではなく相関を意味しました(両方の変数の分散が1でない限り)、正しいですか?また、相関を1に設定することを意味した場合、2つの変数は常に同じ値を取るので、2つの変数は実質的に1つの変数に削減された(そして単に同じスケールに置かれたのではない)ようです
Patrick Coulombe

2

Stataには、SEMに関する非常に優れたドキュメントがあります。「識別2」セクションを参照してください。すべての質問に対する回答があります。

潜在変数が観察できないため、スケールが存在しません。あなたは幸福の調査で数値の答えを思い付くかもしれませんが、幸福自体は直接測定されません。ここで、1から10などの答えを何らかの方法で幸福にリンクする必要があります。したがって、質問の1つをアンカーとして指定し、その負荷を1に設定します。

1である必要はなく、任意の値を指定できますが、1が便利です。

空間的および口頭の両方は観察可能ではないので、スケールを両方に設定する必要があるため、それぞれにアンカーがあります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.