@Tomの応答は素晴らしいですが、もっとヒューリスティックで、追加の概念を導入したバージョンを提供したいと思います。
ロジスティック回帰
いくつかの二項質問があると想像してください。いずれかの質問に対して「はい」と回答する確率に関心があり、その確率に対するいくつかの独立変数の影響に関心がある場合は、ロジスティック回帰を使用します。
P(y私= 1 )= 11 + e x p (Xβ)= l o g私トン−1 (Xβ)
ここで、iは質問(つまり、項目)にインデックスを付けます。Xは回答者の特性のベクトルであり、は対数オッズ用語でのこれらの各特性の影響です。β
IRT
さて、私はいくつかの二項質問があると言ったことに注意してください。これらの質問はすべて、たとえば言語能力、うつ病のレベル、外向のレベルなど、ある種の潜在的な特徴に直面する可能性があります。多くの場合、潜在的な特性自体のレベルに関心があります。
たとえば、大学院の記録試験では、さまざまな志願者の口頭および数学の能力を特徴づけることに関心があります。私たちは彼らのスコアの良い尺度を求めています。誰かが正解した質問の数を明らかに数えることもできますが、それはすべての質問を同じ量の価値があるものとして扱います-質問の難易度が異なる可能性があるという事実を明示的に説明していません。解決策は、項目応答理論です。繰り返しますが、(今のところ)Xやどちらにも興味はありませんが、その人の口頭能力(と呼びます)にのみ興味があります。すべての質問に対する各人の応答パターンを使用して、を推定します。βθθ
P(y私= 1 )= l o g私トン−1 [ A私(θj− b私)]
ここで、はアイテムiの識別であり、はその困難さです。a私b ib私
したがって、これは通常のロジスティック回帰とIRTの明らかな違いの1つです。前者では、1つのバイナリ従属変数に対する独立変数の影響に関心があります。後者では、バイナリ(またはカテゴリ)変数の束を使用して、潜在的な特性を予測します。元の投稿によると、は私たちの独立変数です。私は敬意を払わないで、私はこれがIRTの従属変数であるようなものだと思います。θ
簡単にするために、バイナリアイテムとロジスティック回帰を使用しましたが、このアプローチは、順序付けられたアイテムと順序付けされたロジスティック回帰に一般化されています。
説明IRT
ただし、潜在的な特性を予測するもの、つまり前述のXと興味がある場合はどうでしょうか。β
前述のように、潜在的な特性を推定するモデルの1つは、正解の数を数えるか、リッカート(つまり、カテゴリ)アイテムのすべての値を合計することです。それには欠点があります。各アイテム(または各アイテムの各レベル)は同じ量の潜在特性の価値があると想定しています。このアプローチは、多くの分野で十分に一般的です。
おそらく、これでどこへ行くのかがわかるでしょう。IRTを使用して潜在的な特性のレベルを予測してから、通常の線形回帰を実行できます。それでも、各人の潜在的な特徴の不確実性は無視されます。
より原則的なアプローチは、説明的なIRTを使用することです。IRTモデルを使用してを同時に推定し、線形回帰を使用しているかのようにに対するXの影響を推定します。このアプローチを拡張して、たとえば生徒が学校に入れ子になっているという事実を表すランダム効果を含めることもできます。θθθ
Phil Chalmersの彼のmirt
パッケージの優れたイントロでさらに読むことができます。IRTの要点を理解している場合は、これらのスライドの Mixed Effects IRTセクションに移動します。Stataは、説明的IRTモデルを適合させることもできます(ただし、前述のように、変量効果説明的IRTモデルを適合させることはできないと思います)。