タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

1
Bayesian glmの値の理解を手伝ってください
ここでデータに対してベイジアンロジットを実行しようとしています。Rのパッケージで使用bayesglm()していarmます。コーディングは簡単です。 df = read.csv("http://dl.dropbox.com/u/1791181/bayesglm.csv", header=T) library(arm) model = bayesglm(PASS ~ SEX + HIGH, family=binomial(link="logit"), data=df) summary(model) 次の出力が得られます。 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.10381 0.10240 1.014 0.311 SEXMale 0.02408 0.09363 0.257 0.797 HIGH -0.27503 0.03562 -7.721 1.15e-14 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 …
13 r  bayesian  p-value 

2
サンプルサイズが大きい場合、クラッターの問題はなぜ扱いにくいのですか?
ポイントのセットます。各点y iは、分布p (y i | x )= 1を使用して生成されます y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}yiyiy_ixの 事後を取得するには、p(x|y)∝p(y|x)p(x)=p(x) N ∏ i=1p(yi|x)と書き ます。期待伝播 に関するミンカの論文によれば、事後分布を得るには2Nの計算が必要です。p(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). xxxp(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N p(y_i | x). 2N2N2^Nであるため、大きなサンプルサイズ Nの場合、問題は扱いにくいものになります。ただし、単一の y i尤度の形式は …

1
JAGSの正規化ベイジアンロジスティック回帰
ベイジアンラッソを説明する数学に重点を置いた論文がいくつかありますが、使用できるテスト済みの正しいJAGSコードが必要です。 正規化されたロジスティック回帰を実装するサンプルBUGS / JAGSコードを投稿できますか?任意のスキーム(L1、L2、Elasticnet)が最適ですが、Lassoが推奨されます。また、興味深い代替の実装戦略があるのだろうかと思います。

4
ベイズ確率理論や例によるグラフィカルモデルに関するチュートリアルはありますか?
Rでベイジアン確率理論を学習することへの参照を見てきましたが、おそらくPythonで特にこのようなものがあるのではないかと思っていましたか?ベイズ確率理論、推論、最尤推定、グラフィカルモデル、およびソートの学習を対象としていますか?

5
Rバグの代替のみ[終了]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新して、相互検証のトピックになるようにします。 11か月前に閉鎖されました。 私はBUGSとRを使用してベイジアン統計のコースをフォローしています。今、私はすでにBUGSを知っています。それは素晴らしいですが、Rだけでなく別のプログラムを使用することはあまり好きではありません。 Rには多くの新しいベイジアンパッケージがあることを読みました。ベイジアン統計用のパッケージとその機能に関するリストまたはリファレンスはありますか?そして、バグの柔軟性のためのRパッケージの代替手段はありますか?
13 r  bayesian  bugs 

1
尤度比とベイジアンモデル比較は、帰無仮説検定の優れた十分な代替手段を提供しますか?
科学のための帰無仮説検定(NHT)の累積的な試みとしての有用性を批判する統計学者や研究者の増加に対応して、統計的推論に関する米国心理学会タスクフォースはNHTの全面禁止を回避しましたが、代わりに研究者に提案しましたNHTから導出されたp値に加えて、効果サイズを報告します。 ただし、効果の大きさは研究間で簡単に蓄積されません。メタ分析アプローチは効果サイズの分布を蓄積できますが、通常、効果サイズは生の効果の大きさと特定の実験のデータにおける説明のつかない「ノイズ」の比として計算されます。つまり、効果サイズの分布は研究間での影響の生の大きさのばらつきだけでなく、研究間でのノイズの発現のばらつきもあります。 対照的に、効果の強さ、尤度比の代替尺度は、研究ごとの直感的な解釈の両方を可能にし、メタ分析のために研究全体で簡単に集約することができます。各研究内で、尤度は、効果を含まないモデルに対する特定の効果を含むモデルの証拠の重みを表し、たとえば、「Xの効果の尤度比の計算その効果については、それぞれのヌルよりも8倍以上の証拠を明らかにしました」。さらに、尤度比は、1未満の尤度比がヌルが優先されるシナリオを表し、この値の逆数を取ることが効果に対するヌルの証拠の重みを表す限り、ヌルの結果の強さの直感的な表現も可能にします。特に、尤度比は、2つのモデルの説明されていない分散の比として数学的に表されます。これは、効果によって説明される分散のみが異なり、したがって効果サイズからの概念的な大きな逸脱ではありません。一方、研究全体の効果の証拠の重みを表すメタ分析尤度比の計算は、単に研究全体の尤度比の積をとる問題です。 したがって、効果/モデルに有利な大まかな証拠の程度を確立しようとする科学にとって、尤度比が道であると主張します。 効果の特定のサイズでのみモデルを微分できる微妙なケースがあります。その場合、データが効果パラメーター値と一貫していると思われる区間のある種の表現が好ましい場合があります。実際、APAタスクフォースは、この目的に使用できる信頼区間を報告することも推奨していますが、これも不適切なアプローチだと思います。 信頼区間は嘆かわしいほど誤解されることがよくあります(学生や研究者も同様)。また、CIにゼロを含めることによるNHTでの使用能力が、推論的慣行としてのNHTの絶滅をさらに遅らせるのに役立つことも恐れています。 代わりに、理論が効果のサイズによってのみ微分可能である場合、各効果の事前分布が各モデルによって個別に定義され、結果の事後分布が比較されるベイズのアプローチがより適切であることをお勧めします。 このアプローチは、p値、効果サイズ、信頼区間を尤度比に置き換え、必要に応じてベイジアンモデル比較で十分と思われますか?ここで悪用された代替手段が提供するいくつかの必要な推論機能を逃しますか?

1
MCMC収束診断を半自動化してバーンインの長さを設定できますか?
MCMCチェーンのバーンインの選択を自動化したいと思います。たとえば、収束診断に基づいて最初のn行を削除します。 このステップはどの程度安全に自動化できますか?それでも自己相関、mcmcトレース、pdfをダブルチェックしても、バーンインの長さを自動で選択できると便利です。 私の質問は一般的ですが、R mcmc.objectを処理するための詳細を提供できれば素晴らしいと思います。Rでrjagsおよびcodaパッケージを使用しています。
13 r  bayesian  mcmc 

3
MCMCの理解:代替手段は何でしょうか?
ベイジアン統計を初めて学習します。MCMCを理解するための角度として、私は疑問に思った:それは根本的に別の方法ではできないことをしているのか、それとも代替手段よりもはるかに効率的に何かをしているのか? 例として、反対のを計算するモデルが与えられたデータ与えられた場合、パラメーターの確率を計算しようとしていると仮定します。これをベイズの定理で直接計算するには、ここで指摘した分母が必要です。しかし、次のように、統合によってそれを計算できますか?P (D | x 、y 、z )P (D )P(x 、y、z| D)P(バツ、y、z|D)P(x,y,z|D)P(D | x 、y、z)P(D|バツ、y、z)P(D|x,y,z)P(D )P(D)P(D) p_d = 0. for x in range(xmin,xmax,dx): for y in range(ymin,ymax,dy): for z in range(zmin,zmax,dz): p_d_given_x_y_z = cdf(model(x,y,z),d) p_d += p_d_given_x_y_z * dx * dy * dz それは機能しますか(変数の数が非常に多いにもかかわらず非常に非効率的です)、またはこのアプローチが失敗する原因となる何か他のものがありますか?
13 bayesian  mcmc 

1
単純ベイズ分類器が0-1損失に最適なのはなぜですか?
Naive Bayes分類器は、クラスメンバーシップの事後の最大化に基づいてアイテムバツバツxをクラス割り当て、アイテムの特徴が独立していると仮定する分類器です。P (C | x )CCCP(C| x)P(C|バツ)P(C|x) 0-1の損失は、分類ミスに「1」の損失を割り当て、正しい分類に「0」の損失を割り当てる損失です。 私はよく(1)「単純ベイズ」分類器が0-1の損失に最適であることを読みました。なぜこれが本当ですか? (1)1つの典型的なソース:ベイズ分類器とベイズエラー

1
95%の信頼できる間隔を見つける方法
次の事後分布の95%の信頼できる間隔を計算しようとしています。Rの関数を見つけることができませんでしたが、以下のアプローチは正しいですか? x <- seq(0.4,12,0.4) px <- c(0,0, 0, 0, 0, 0, 0.0002, 0.0037, 0.018, 0.06, 0.22 ,0.43, 0.64,0.7579, 0.7870, 0.72, 0.555, 0.37, 0.24, 0.11, 0.07, 0.02, 0.009, 0.005, 0.0001, 0,0.0002, 0, 0, 0) plot(x,px, type="l") mm <- sum(x*px)/sum(px) var <- (sum((x)^2*px)/sum(px)) - (mm^2) cat("95% credible interval: ", round(mm -1.96*sqrt(var),3), "-", …

2
共分散関数またはカーネル-正確には何ですか?
私はガウス過程の分野と、それらが機械学習にどのように適用されているかについてかなり新しいです。私はこれらの方法の主な魅力である共分散関数について読み続けています。だから誰もがこれらの共分散関数で何が起こっているのか直感的に説明できますか? それ以外の場合、特定のチュートリアルまたはそれらを説明するドキュメントを指摘できる場合。

1
ギブス出力からの限界尤度
のセクション4.2.1の結果を最初から再現しています ギブス出力からの限界尤度 シッダールタチブ Journal of the American Statistics Association、Vol。90、No。432.(1995年12月)、pp。1313-1321。 これは、既知の数と法線モデルの混合だk≥1k≥1k\geq 1成分。 f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) のPr (Z iは = jは| W )= W jは F (X I | Z 、μ 、σ 2)= N(X I | μ Z I、σ 2 Z I)z i(∗ )z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,kPr (z私= j …

2
階層ロジスティック回帰のベルヌーイパラメーターにベータ分布を使用する理由
現在、クルシュケの優れた「Doing Bayesian Data Analysis」本を読んでいます。ただし、階層ロジスティック回帰の章(第20章)はやや混乱を招きます。 図20.2は、ベルヌーイパラメーターがシグモイド関数で変換された係数の線形関数として定義されている階層ロジスティック回帰を示しています。これは、他のオンラインソースでも見たほとんどの例で、階層ロジスティック回帰が行われる方法のようです。たとえば、http://polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug ただし、予測子が名義の場合、階層にレイヤーを追加します。ベルヌーイパラメーターは、muおよびkappaによって決定されるパラメーターを持つベータ分布(図20.5)から描画されます。ここで、muは係数の線形関数のS字変換です、およびkappaはガンマ事前分布を使用します。 これは合理的で、第9章のコインフリッピングの例に似ていますが、名目予測子がベータ分布の追加とどう関係するのかわかりません。メトリック予測変数の場合にこれを行わないのはなぜですか。また、公称予測変数にベータ分布が追加されたのはなぜですか 編集:私が言及しているモデルの明確化。まず、メトリック予測子を使用したロジスティック回帰モデル(ベータ事前なし)。これは、上記のバグの例など、階層ロジスティック回帰の他の例に似ています。 yi∼Bernoulli(μi)μi=sig(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ)yi∼Bernoulli⁡(μi)μi=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ) y_i \sim \operatorname{Bernoulli}(\mu_i) \\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\ \beta_0 \sim N(M_0, T_0) \\ \beta_j \sim N(M_\beta, T_\beta) \\ 次に、名目上の予測子を使用した例。ここで、階層の「下位」レベルの役割(ロジスティックな結果を2項式の前にベータに組み込む)の役割と、メトリックの例とは異なる理由をよく理解できません。 z私〜ビン(θ私、N)θ私〜ベータ( aj、 bj)aj= μjκbj= (1 − μj) κκ 〜Γ ( Sκ、 Rκ)μj= sig( β0+∑jβjバツj i)β0〜N(M0、T0)βj〜N(0 、τβ)τβ=1/σ2βσ2β∼folded t(Tt,DF)zi∼Bin⁡(θi,N)θi∼Beta⁡(aj,bj)aj=μjκbj=(1−μj)κκ∼Γ(Sκ,Rκ)μj=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(0,τβ)τβ=1/σβ2σβ2∼folded …

5
MLEとMAPの推定、どちらを使用するか
MLE =最尤推定 MAP =事後最大 MLEは直感的で素朴です。つまり、パラメーター(つまり、尤度関数)が指定された観測の確率でのみ始まり、観測と最もよく一致するパラメーターを見つけようとします。ただし、事前の知識は考慮されていません。 MAPはベイズの法則による事前の知識を考慮に入れるため、より合理的です。 ここに関連する質問がありますが、答えは完全ではありません。 /signals/13174/differences-using-maximum-likelihood-or-maximum-a-posteriori-for-deconvolution-d したがって、MAPの方がはるかに優れていると思います。そうですか?そして、いつどちらを使用すればよいですか?


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.