クラス内相関係数と一元配置分散分析について少し混乱しています。私が理解しているように、どちらも、グループ内の観測値が他のグループの観測値とどの程度類似しているかを示しています。
誰かがこれをもう少しよく説明できますか、そしておそらく各方法がより有利である状況を説明できますか?
クラス内相関係数と一元配置分散分析について少し混乱しています。私が理解しているように、どちらも、グループ内の観測値が他のグループの観測値とどの程度類似しているかを示しています。
誰かがこれをもう少しよく説明できますか、そしておそらく各方法がより有利である状況を説明できますか?
回答:
どちらの方法も、観測された分散をさまざまな部分またはコンポーネントに分解するという同じ考え方に依存しています。ただし、アイテムや評価者を固定効果と見なすか、ランダム効果と見なすかには微妙な違いがあります。全変動のどの部分がbetween因子によって説明されるか(または、between分散が残差分散からどれだけ離れているか)を言うことを除いて、F検定はあまり言いません。少なくともこれは、固定効果を仮定する一元配置分散分析に当てはまります(これは、以下で説明するICC(1,1)に対応します)。一方、ICCは、いくつかの「交換可能な」評価者の信頼性の評価、または分析単位間の均一性を評価するときに、有界の指標を提供します。
通常、異なる種類のICCを次のように区別します。これは、Shrout and Fleiss(1979)の独創的な研究によるものです。
これは、表1のケース1〜3に対応します。観測された評価が複数の評価の平均であると見なすかどうかによって、さらに区別できます(ICC(1、k)、ICC(2、k)、 ICC(3、k))かどうか。
つまり、適切なモデル(一方向か双方向か)を選択する必要があり、これは主にShroutとFleissの論文で説明されています。一元モデルは、双方向モデルよりも値が小さくなる傾向があります。同様に、変量効果モデルは通常、固定効果モデルよりも低い値を生成します。固定効果モデルから導出されたICCは、評価者の一貫性を評価する方法と見なされます(評価者の分散を無視するため)。一方、変量効果モデルでは、評価者の合意の推定について話します(評価者が交換可能かどうかに関係なく)。双方向モデルのみが、評価者と対象者の相互作用を組み込んでいます。これは、非定型の評価パターンを解明しようとするときに興味深いかもしれません。
次の図は、容易に/から、例えばペーストコピーであるICC()
に心理パッケージ(データはShroutとFleiss、1979から来ます)。データは4人の裁判官(J)で構成され、6人の被験者またはターゲット(S)を評価し、以下に要約されます(Rマトリックスという名前で格納されていると仮定しますsf
)
J1 J2 J3 J4
S1 9 2 5 8
S2 6 1 3 2
S3 8 4 6 8
S4 7 1 2 6
S5 10 5 6 9
S6 6 2 4 7
この例は、モデルの選択が結果にどのように影響し、したがって信頼性研究の解釈に影響するかを示しているため、興味深いものです。6つのICCモデルはすべて次のとおりです(これは、ShroutおよびFleissの論文の表4です)。
Intraclass correlation coefficients
type ICC F df1 df2 p lower bound upper bound
Single_raters_absolute ICC1 0.17 1.8 5 18 0.16477 -0.133 0.72
Single_random_raters ICC2 0.29 11.0 5 15 0.00013 0.019 0.76
Single_fixed_raters ICC3 0.71 11.0 5 15 0.00013 0.342 0.95
Average_raters_absolute ICC1k 0.44 1.8 5 18 0.16477 -0.884 0.91
Average_random_raters ICC2k 0.62 11.0 5 15 0.00013 0.071 0.93
Average_fixed_raters ICC3k 0.91 11.0 5 15 0.00013 0.676 0.99
見てわかるように、評価者を固定効果(したがって、評価者のより広いプールに一般化しようとしない)と見なすと、測定の均一性の値がはるかに高くなります。(irrパッケージ(icc()
)でも同様の結果が得られますが、モデルタイプと分析単位については別のオプションを試さなければなりません。)
分散分析アプローチは何を教えてくれますか?関連する平均二乗を取得するには、2つのモデルを近似する必要があります。
ここでは、F検定を見る必要はありません。MSのみが対象です。
library(reshape)
sf.df <- melt(sf, varnames=c("Subject", "Rater"))
anova(lm(value ~ Subject, sf.df))
anova(lm(value ~ Subject*Rater, sf.df))
これで、以下のような拡張された分散分析表でさまざまな部分を組み立てることができます(これは、Shrout and Fleissの論文の表3です)。
(ソース:mathurl.com)
最初の2行は一元モデルからのもので、次の2行は双方向ANOVAからのものです。
ShroutとFleissの記事ですべての式を確認するのは簡単であり、単一の評価の信頼性を推定するために必要なものはすべて揃っています。複数の評価の平均の信頼性はどうですか(これは多くの場合、評価者間研究における関心の量です)?Hays and Revicki(2005)に従い、MSの比率を書き換える必要がある双方向変量効果モデルを除いて、分母で考慮される合計MSを変更するだけで上記の分解から取得できます。
繰り返しますが、評価者を固定効果と見なすと、全体的な信頼性が高くなります。