IRTモデルとロジスティック回帰モデルの類似点と相違点


9

これらの両方のような基本的な類似性にもかかわらず、応答変数を直接モデル化するのではなく、成功の確率をモデル化します。これらのモデル間の相違点と類似点を指摘する、より信頼できる答えがあると思います。

1つの違いは、ロジスティックでは、異なるタイプと異なる数の独立変数を使用できることです。一方、IRTモデルでは、能力である独立変数は1つだけです。

もう1つの類似性:ロジスティックのパラメーターを推定するには、最尤法を使用します。IRTでは、パラメーター推定手法の1つとして限界最尤も使用します。

では、これら2つのモデルの統計的/数学的な違いを誰かに説明していただけますか?


1
IRT(別名潜在特性分析)は、ロジスティック要因分析(を参照)と呼ばれることもあります。LRとIRTの違いは、主に線形回帰と因子分析の違いに対応しています。回帰では、従属変数が、独立したマニフェスト変数と共に与えられます。因子分析およびその他の潜在変数モデルでは、潜在変数は指定されたマニフェスト変数から抽出されます。さらに、マニフェスト変数を「予測」する独立変数と見なされるのは潜在です。
ttnphns 2016

@ttnphns、返信ありがとうございます。変数Yをアイテムへの応答として参照し、それが正しい確率をモデル化している場合、私は間違いを犯していますか?このシナリオでは、従属変数を既に知っていませんか?そしてもう1つの質問、マニフェスト変数はIRTの従属変数を意味しますか?
Artiga 2016

繰り返す。回帰では、マニフェストDV YとマニフェストIV Xがあります。潜在変数モデル(因子分析、IRTなど)では、Xしかありません。潜在因子FはXから抽出されますが、それらを考慮して抽出されますXの予測子として、つまり、DVであるXのIVを提供します。ロジスティック回帰では、カテゴリカルDVは、(通常は連続的な)IVの線形結合のロジスティック関数です。IRTでは、観測されたカテゴリ変数は、連続Fの線形結合のロジスティック関数です。
ttnphns 2016

回答:


11

De Boeck and Wilson(2008)Explanatory Item Response Modelshttp://www.springer.com/de/book/9780387402758)およびFormann、AK(2007)のセクション1.6(「線形回帰の視点」)をご覧ください。、(ほとんど)Raschタイプのいくつかのモデルの条件付き最尤推定値と混合最尤推定値の同等性、M。von Davier &CH Carstensen(編)、多変量および混合分布Raschモデル(pp。177-189)、ニューヨーク:スプリンガー。

つまり、IRTモデルは一般化された非線形混合効果モデルです。

  • スコア学生の 項目に従属変数であり、のp IYpi{0,1}pi
  • ランダムにサンプリングされた学生の特性、たとえばが与えられると、応答は独立したベルヌーイ分布であると想定され、θpN(μ,σ2)
  • 所与、予測 項目特性の線形結合である η P iが = ロジット P YのP iは = 1 η P iは = K Σは K = 0のb K X I K + θ P + ε PをIをθpηpi=logit(P(Ypi=1))
    ηpi=k=0KbkXik+θp+εpi,
  • せて場合、及び従ってラッシュモデル得る- 、そうでない場合を Xik=1,i=kXik=0
    P(Ypi=1θp)=exp(θpbi)1+exp(θpbi);

IRTモデルはさまざまな側面に向けて拡張されていることに注意してください。

  • アイテムの識別力(2PL)と推測比(3PL)に関して
    P(Ypi=1θp)=ci+(1ci)exp(ai(θpbi))1+exp(ai(θpbi))
  • 多項性スコアに関して
    P(Ypi=kθp)=exp(aikθpbik)k=0Kexp(aikθpbik)
  • 母集団を構成する既知の学生の特徴(例:性別、移動状況)
    θpN(Zβ,σ2),
  • 構成次元に関して
    P(Ypi=1θp)=exp(daidθpdbi)1+exp(daidθpdbi),θpNd(μ,Σ)
  • 離散的なスキルクラスに関して(連続的な分布は離散的なものによって簡単に近似できます)
    P(Ypi=1θp(l))=exp(θp(l)bi(l))1+exp(θp(l)bi(l)),θp(l){θp(1),,θp(L)}

(RパッケージTAMuseR!2015スライドから取得


3
このjstatsoft.org/article/view/v039i12に加えて、De Boeckらによる無料で入手可能な論文と彼の配布資料statmath.wu.ac.at/courses/deboeck/materials/handouts.pdf
Tim

0

@Tomの応答は素晴らしいですが、もっとヒューリスティックで、追加の概念を導入したバージョンを提供したいと思います。

ロジスティック回帰

いくつかの二項質問があると想像してください。いずれかの質問に対して「はい」と回答する確率に関心があり、その確率に対するいくつかの独立変数の影響に関心がある場合は、ロジスティック回帰を使用します。

P(yi=1)=11+exp(Xβ)=logit1(Xβ)

ここで、iは質問(つまり、項目)にインデックスを付けます。Xは回答者の特性のベクトルであり、は対数オッズ用語でのこれらの各特性の影響です。β

IRT

さて、私はいくつかの二項質問があると言ったことに注意してください。これらの質問はすべて、たとえば言語能力、うつ病のレベル、外向のレベルなど、ある種の潜在的な特徴に直面する可能性があります。多くの場合、潜在的な特性自体のレベルに関心があります。

たとえば、大学院の記録試験では、さまざまな志願者の口頭および数学の能力を特徴づけることに関心があります。私たちは彼らのスコアの良い尺度を求めています。誰かが正解した質問の数を明らかに数えることもできますが、それはすべての質問を同じ量の価値があるものとして扱います-質問の難易度が異なる可能性があるという事実を明示的に説明していません。解決策は、項目応答理論です。繰り返しますが、(今のところ)Xやどちらにも興味はありませんが、その人の口頭能力(と呼びます)にのみ興味があります。すべての質問に対する各人の応答パターンを使用して、を推定します。βθθ

P(yi=1)=logit1[ai(θjbi)]

ここで、はアイテムiの識別であり、はその困難さです。aib ibi

したがって、これは通常のロジスティック回帰とIRTの明らかな違いの1つです。前者では、1つのバイナリ従属変数に対する独立変数の影響に関心があります。後者では、バイナリ(またはカテゴリ)変数の束を使用して、潜在的な特性を予測します。元の投稿によると、は私たちの独立変数です。私は敬意を払わないで、私はこれがIRTの従属変数であるようなものだと思います。θ

簡単にするために、バイナリアイテムとロジスティック回帰を使用しましたが、このアプローチは、順序付けられたアイテムと順序付けされたロジスティック回帰に一般化されています。

説明IRT

ただし、潜在的な特性を予測するもの、つまり前述のXと興味がある場合はどうでしょうか。β

前述のように、潜在的な特性を推定するモデルの1つは、正解の数を数えるか、リッカート(つまり、カテゴリ)アイテムのすべての値を合計することです。それには欠点があります。各アイテム(または各アイテムの各レベル)は同じ量の潜在特性の価値があると想定しています。このアプローチは、多くの分野で十分に一般的です。

おそらく、これでどこへ行くのかがわかるでしょう。IRTを使用して潜在的な特性のレベルを予測してから、通常の線形回帰を実行できます。それでも、各人の潜在的な特徴の不確実性は無視されます。

より原則的なアプローチは、説明的なIRTを使用することです。IRTモデルを使用してを同時に推定し、線形回帰を使用しているかのようにに対するXの影響を推定します。このアプローチを拡張して、たとえば生徒が学校に入れ子になっているという事実を表すランダム効果を含めることもできます。θθθ

Phil Chalmersの彼のmirtパッケージの優れたイントロでさらに読むことができます。IRTの要点を理解している場合は、これらのスライドの Mixed Effects IRTセクションに移動します。Stataは、説明的IRTモデルを適合させることもできます(ただし、前述のように、変量効果説明的IRTモデルを適合させることはできないと思います)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.