階層ロジスティック回帰のベルヌーイパラメーターにベータ分布を使用する理由
現在、クルシュケの優れた「Doing Bayesian Data Analysis」本を読んでいます。ただし、階層ロジスティック回帰の章(第20章)はやや混乱を招きます。 図20.2は、ベルヌーイパラメーターがシグモイド関数で変換された係数の線形関数として定義されている階層ロジスティック回帰を示しています。これは、他のオンラインソースでも見たほとんどの例で、階層ロジスティック回帰が行われる方法のようです。たとえば、http://polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug ただし、予測子が名義の場合、階層にレイヤーを追加します。ベルヌーイパラメーターは、muおよびkappaによって決定されるパラメーターを持つベータ分布(図20.5)から描画されます。ここで、muは係数の線形関数のS字変換です、およびkappaはガンマ事前分布を使用します。 これは合理的で、第9章のコインフリッピングの例に似ていますが、名目予測子がベータ分布の追加とどう関係するのかわかりません。メトリック予測変数の場合にこれを行わないのはなぜですか。また、公称予測変数にベータ分布が追加されたのはなぜですか 編集:私が言及しているモデルの明確化。まず、メトリック予測子を使用したロジスティック回帰モデル(ベータ事前なし)。これは、上記のバグの例など、階層ロジスティック回帰の他の例に似ています。 yi∼Bernoulli(μi)μi=sig(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ)yi∼Bernoulli(μi)μi=sig(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ) y_i \sim \operatorname{Bernoulli}(\mu_i) \\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\ \beta_0 \sim N(M_0, T_0) \\ \beta_j \sim N(M_\beta, T_\beta) \\ 次に、名目上の予測子を使用した例。ここで、階層の「下位」レベルの役割(ロジスティックな結果を2項式の前にベータに組み込む)の役割と、メトリックの例とは異なる理由をよく理解できません。 z私〜ビン(θ私、N)θ私〜ベータ( aj、 bj)aj= μjκbj= (1 − μj) κκ 〜Γ ( Sκ、 Rκ)μj= sig( β0+∑jβjバツj i)β0〜N(M0、T0)βj〜N(0 、τβ)τβ=1/σ2βσ2β∼folded t(Tt,DF)zi∼Bin(θi,N)θi∼Beta(aj,bj)aj=μjκbj=(1−μj)κκ∼Γ(Sκ,Rκ)μj=sig(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(0,τβ)τβ=1/σβ2σβ2∼folded …