統計的な用語の逸脱は、少なすぎます。ほとんどの場合、プログラムは逸脱を返します
D(y)=−2log{p(y|θ^)},
どこ θ^ は、モデルフィッティングからの推定パラメーターであり、 y 問題の乱数の潜在的に観測された/観測可能な発生です。
参照するより一般的な逸脱は、上記の逸脱を2つの変数、つまりデータと近似パラメーターの関数として扱います。 D(y,θ^)=−2log{p(y|θ^)}
そして、もしあなたが持っていたら y 値ですが、2つの競合する適合パラメータ値、 θ^1 そして θ^2、それからあなたはあなたが言った逸脱を得るでしょう −2(log{p(y|θ^1)}−log{p(y|θ^2)}).
ここglmfit()
でリンクされている、
言及したMatlab関数について読むことができます。より実りのある、より短いですが、逸脱の議論はここにリンクされています。
逸脱統計量は、暗黙的に2つのモデルを想定しています。最初のモデルは、によって返された近似モデルで、glmfit()
このパラメーターベクトルを呼び出します。θ^1。2つ目は「フルモデル」(「飽和モデル」とも呼ばれます)です。これは、すべてのデータポイントに自由変数があるモデルです。このパラメーターベクトルを呼び出します。θ^s。非常に多くの自由変数を持つことは明らかに愚かなことですが、それによってそのデータに正確に合わせることができます。
したがって、逸脱度統計は、適合モデルで計算された対数尤度と飽和モデルの差として計算されます。しましょうY= {y1、y2、⋯ 、yN}N個のデータポイントのコレクションです。次に:
D EV(θ^1、Y)= − 2 [ログp (Y|θ^1) −ログp (Y|θ^s)]。
上記の用語は、個々のデータポイントの合計に展開されます y私独立性の仮定による。この計算を使用してモデルの対数尤度を計算する場合は、最初に飽和モデルの対数尤度を計算する必要があります。がここにありますこれを計算するためのいくつかのアイデアを説明リンクです...しかし、問題は、いずれの場合でも、データのタイプの対数尤度を計算する関数を書き留める必要があるということです、そしてその場合たまたま、逸脱度計算からバックトラックするよりも、対数尤度を自分で計算する独自の関数を作成する方が良いでしょう。
ベイジアンデータ分析の第6章を参照逸脱の良い議論については。
尤度検定統計量に関する2番目の点については、はい、基本的に正しいことを知っているように思えます。しかし、多くの場合、帰無仮説はエキスパートであり、外部の知識によって事前に推測できるものと見なします(一部の係数がゼロに等しいなど)。これは、必ずしもモデルフィッティングを行った結果として生じるものではありません。