インデックスをコピーする驚くほど膨大な数の回答がありますが、そのメリットについてはほとんど説明されていません:http : //www.bjournal.co.uk/paper/BJASS_01_01_06.pdf。
このような質問に統計的背景を提供する、項目応答理論(IRT)と呼ばれる(教育的)心理学の分野があります。あなたがアメリカ人で、SAT、ACT、またはGREを受験した場合、IRTを念頭に置いて開発されたテストに対処しました。IRTの基本的な仮定は、各学生は能力によって特徴付けられるということです。各質問は、その難易度によって特徴付けられます。そして、質問に正しく答える確率は
ここで、は標準法線の累積分布関数、iaibj
π(ai,bj;c)=Prob[student i answers question j correctly]=Φ(c(ai−bj))
Φ(z)c追加の感度/識別パラメータです(違いを特定するのに十分な情報、つまり十分なテスト受験者がいる場合は、質問固有のになることがあります)。ここに隠された仮定は、生徒の能力が与えられれば、さまざまな質問への答えは独立しているということです。テキストの同じ段落について言うことについて一連の質問がある場合、この仮定に違反しますが、少しの間それから抽象化しましょう。
cji
「はい/いいえ」の質問の場合、これで話は終わりです。3つ以上のカテゴリの質問については、すべての間違った選択が等しく可能性があるという追加の仮定を行うことができます。質問のために持つ選択肢、各間違った選択の確率がある。jkjπ′(ai,bj;c)=[1−π(ai,bj;c)]/(kj−1)
能力および生徒の場合、難易度質問の回答で一致する確率は
必要にこれを正解、および不正解で一致する確率、ただしIRTの概念フレームワークからは、この区別はほとんど重要ではありません。aiakbj
ψ(ai,ak;bj,c)=π(ai,bj;c)π(ak,bj;c)+(k−1)π′(ai,bj;c)π′(ak,bj;c)
ψc(ai,ak;bj,c)=π(ai,bj;c)π(ak,bj;c)ψi(ai,ak;bj,c)=(k−1)π′(ai,bj;c)π′(ak,bj;c)
これで、マッチングの確率を計算できますが、おそらく組み合わせ上非常に小さなものになります。より良い尺度は、応答のペアワイズパターンの情報の比率、
とエントロピー関連付ける
これを生徒のすべてのペアに対して実行し、それらをプロットまたはランク付けして、エントロピーに対する情報の最大の比率を調査できます。
I(i,k)=∑j1{matchj}lnψ(ai,ak;bj,c)+1{non-matchj}ln[1−ψ(ai,ak;bj,c)]
E(i,k)=E[I(i,k)]=∑jψ(ai,ak;bj,c)lnψ(ai,ak;bj,c)+(1−ψ(ai,ak;bj,c))ln[1−ψ(ai,ak;bj,c)]
テストのパラメーターと学生の能力は青空から落ちることはありませんが、Rなどの最新のソフトウェアでは簡単に推定できます。
または同様のパッケージ:{c,bj,j=1,2,…}{ai}lme4
irt <- glmer( answer ~ 1 + (1|student) + (1|question), family = binomial)
またはこれに非常に近いもの。