タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

1
尤度関数を再パラメーター化する場合、変数の数式を変更する代わりに、変換された変数をプラグインするだけで十分ですか?
指数分布する尤度関数を再パラメーター化しようとしていると仮定します。私の元の尤度関数が: p (y| θ )= θ E- θ Yp(y∣θ)=θe−θy p(y \mid \theta) = \theta e^{-\theta y} そして、私はϕ = 1を使用してそれを再パラメータ化したいと思います、θは確率変数ではなくパラメーターなので、プラグインするだけで十分ですか?ϕ = 1θϕ=1θ\phi = \frac{1}{\theta}θθ\theta 私が明示的に言っているのは: p (y∣ ϕ = 1θ) = 1φe− 1φyp(y∣ϕ=1θ)=1ϕe−1ϕy p\left(y \mid \phi = \frac{1}{\theta}\right) = \frac{1}{\phi} e^{-\frac{1}{\phi} y} もしそうなら、私はこれの背後にある理論が何であるかわかりません。私の理解では、尤度関数はパラメーターの関数であるため、変数の変更式を使用する必要がないのはなぜですか。どんな助けでも本当に感謝します、ありがとう!

1
bayesglm(アーム)とMCMCpack
どちらも、bayesglm()MCMCpackパッケージ内の各種機能(アームRパッケージで)一般化線形モデルのベイズ推定を行うことを目的としているが、私は、彼らが実際には同じことを計算しているかわかりません。MCMCpack関数は、マルコフ連鎖モンテカルロを使用して、モデルパラメーターの後方結合から(依存)サンプルを取得します。bayesglm()一方、生成します。よくわかりません。 bayesglm()完全なベイジアン推定ではなくMAP(最大事後)推定となる点推定を生成するように見えますが、sim()事後描画を取得するために使用できるように見える関数があります。 誰かが2つの使用目的の違いを説明できますか?bayesglm() + sim()真の後部ドローを生成できますか、それとも何らかの近似ですか?

3
MCMCおよびPyMCによる2ガウス混合モデルの推論
問題 単純な2ガウス混合母集団のモデルパラメーターを近似します。ベイジアン手法をめぐる誇大宣伝を踏まえ、この問題についてベイジアン推論が従来のフィッティング手法よりも優れたツールであるかどうかを理解したいと思います。 これまでのところ、MCMCはこのおもちゃの例ではパフォーマンスが非常に低くなっていますが、おそらく見落としているだけかもしれません。コードを見てみましょう。 道具 私はpython(2.7)+ scipyスタック、lmfit 0.8およびPyMC 2.3を使用します。 分析を再現するためのノートはここにあります データを生成する 最初にデータを生成してみましょう: from scipy.stats import distributions # Sample parameters nsamples = 1000 mu1_true = 0.3 mu2_true = 0.55 sig1_true = 0.08 sig2_true = 0.12 a_true = 0.4 # Samples generation np.random.seed(3) # for repeatability s1 = distributions.norm.rvs(mu1_true, sig1_true, size=round(a_true*nsamples)) s2 = …

3
ベイジアンA / Bテストを終了するタイミング
ハッカーの確率的プログラミングとベイジアンA / Bテストのように、ベイジアン方式でA / Bテストを実行しようとしています。どちらの記事は、意思決定者が決定したと仮定し、より良い、単にいくつかの基準の確率に基づいて、例えばれるバリアントのどの、したがって、優れています。この確率は、そこから結論を引き出すのに十分な量のデータがあったかどうかについての情報を提供しません。そのため、いつテストを停止するかは不明です。P(pA>pB)=0.97P(pA>pB)=0.97P(p_A > p_B) = 0.97 AAA そこに2つのバイナリRV車、であると仮定し及び、私はそれがどのように可能性を推定することを、およびの観察に基づいて、および。さらに、および事後者がベータ配布されているとします。AAABBBpA>pBpA>pB p_A > p_B pA−pBpA>5%pA−pBpA>5% \frac{p_A - p_B}{p_A} > 5\% AAABBBpApAp_ApBpBp_B およびのパラメータを見つけることができるので、事後標本をサンプリングして、を推定できます。。Pythonでの例:α,βα,β\alpha, \betapA|datapA|datap_A\,|\,\text{data} pB|datapB|datap_B\,|\,\text{data} P(pA>pB | data)P(pA>pB | data)P(p_A > p_B\ |\ \text{data}) import numpy as np samples = {'A': np.random.beta(alpha1, beta1, 1000), 'B': np.random.beta(alpha2, beta2, 1000)} p = np.mean(samples['A'] …

2
階層ベイジアンモデルの強みを説明するための良いアナロジーは何ですか?
私はベイジアン統計に比較的慣れていないため、最近JAGSを使用してさまざまなデータセットに階層的ベイジアンモデルを構築しています。(標準のglmモデルと比較して)結果には非常に満足していますが、標準の統計モデルとの違いを統計学者以外に説明する必要があります。特に、HBMが単純なモデルよりも優れている理由と時期を説明します。 類推は、特にいくつかの重要な要素を示すものとして役立ちます。 複数のレベルの異質性 モデルにフィットするための追加の計算の必要性 同じデータからより多くの「シグナル」を抽出する機能 答えは、統計情報を持たない人々を啓発する類推であるべきであり、簡単でわかりやすい例ではないことに注意してください。

2
条件付き独立性とそのグラフィック表現に関する
共分散の選択を研究するとき、私は一度以下の例を読みました。次のモデルに関して: その共分散行列と逆共分散行列は次のように与えられます、 ここでと独立性がここで逆共分散によって決定される理由がわかりませんか?xxxyyy この関係の基礎となる数学的ロジックは何ですか? また、次の図の左側のグラフは、と間の独立関係を表すためのものです。どうして?xxxyyy

2
ノンパラメトリッククラスタリングのPyMC:ガウス混合のパラメーターを推定するディリクレプロセスがクラスター化に失敗する
問題のセットアップ 私がPyMCに適用したい最初のおもちゃの問題の1つは、ノンパラメトリッククラスタリングです。いくつかのデータを指定して、ガウス混合としてモデル化し、クラスターの数と各クラスターの平均と共分散を学習します。この方法について私が知っていることのほとんどは、2007年頃のマイケルジョーダンとイーワイテによるビデオ講義(スパースが大流行する前)と、Fonnesbeck博士とE. Chen博士のチュートリアル[fn1]、[ fn2]。しかし、問題はよく研究されており、信頼できる実装がいくつかあります[fn3]。 このおもちゃの問題では、1次元ガウスから10回の描画を生成し、から40回の描画を生成します。以下に見られるように、どのサンプルがどの混合成分からのものであるかを簡単に見分けられるように、ドローをシャッフルしませんでした。N(μ = 4 、σ = 2 )N(μ=0,σ=1)N(μ=0,σ=1)\mathcal{N}(\mu=0, \sigma=1)N(μ=4,σ=2)N(μ=4,σ=2)\mathcal{N}(\mu=4, \sigma=2) 各データサンプルをに対してモデル化しここで、はこの番目のデータポイントのクラスターを示します。。ここでは、使用される切り捨てられたディリクレプロセスの長さです。私にとって、です。iは= 1 、。。。、50 、Z iは I Z I ∈ [ 1 、。。。、N D P ] N D P N D P = 50yi∼N(μzi,σzi)yi∼N(μzi,σzi)y_i \sim \mathcal{N}(\mu_{z_i}, \sigma_{z_i})i=1,...,50i=1,...,50i=1,...,50ziziz_iiiizi∈[1,...,NDP]zi∈[1,...,NDP]z_i \in [1,...,N_{DP}]NDPNDPN_{DP}NDP=50NDP=50N_{DP}=50 ディリクレプロセスインフラストラクチャを拡張すると、各クラスターIDはカテゴリ確率変数からのドローであり、その確率質量関数はスティック破壊コンストラクトによって与えられます: with for a濃度パラメータ。スティックブレイキングは、最初にに依存する iidベータ分布ドローを取得することにより、合計が1になる -longベクトル構築します。[fn1]を参照してください。そして、データに無知であることを知らせたいので、[fn1]に従い、 0.3、100)と仮定します。、Z I〜C A …

3
バグ、JAGSの加重一般化回帰
では、weightsパラメータを使用しRてglm回帰を「事前に重み付け」できます。例えば: glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) JAGSまたはBUGSモデルでこれをどのように達成できますか? これについて議論している論文を見つけましたが、どれも例を示していません。私は主にポアソンとロジスティック回帰の例に興味があります。

3
ロジスティック回帰のベイズの適合度を視覚化する方法
ベイジアンロジスティック回帰問題の場合、私は事後予測分布を作成しました。私は予測分布からサンプリングし、観測ごとに(0,1)の数千のサンプルを受け取ります。適合度を視覚化することは、面白くありません。次に例を示します。 このプロットは、10,000個のサンプル+観測されたデータム点を示しています(左側の方に赤い線が表示されます:観測です)。問題は、このプロットが情報を提供することがほとんどないことであり、データポイントごとに1つずつ、計23を用意します。 23データポイントと後方サンプルを視覚化するより良い方法はありますか? 別の試み: ここの論文に基づく別の試み

2
BUGS / JAGS / STANでプロポーションをモデリングするにはどうすればよいですか?
私は、応答が比例であるモデルを構築しようとしています(これは、実際に党が選挙区で獲得する投票のシェアです)。その分布は正規ではないため、ベータ分布でモデル化することにしました。私はいくつかの予測因子も持っています。 しかし、私はそれをBUGS / JAGS / STANで書く方法がわかりません(JAGSが私の最良の選択でしょうが、それは本当に重要ではありません)。私の問題は、予測子によってパラメーターの合計を作成することですが、それを使って何ができるでしょうか コードは(JAG構文では)このようなものにy_hatなりyますが、およびパラメーターを「リンク」する方法がわかりません。 for (i in 1:n) { y[i] ~ dbeta(alpha, beta) y_hat[i] <- a + b * x[i] } (y_hatは、パラメーターと予測子のクロス積であり、したがって決定論的な関係です。aそしてb、私xが予測しようとする係数であり、予測子です)。 あなたの提案をありがとう!

2
メトロポリス・ヘイスティングスとギブスサンプリングを取り入れた教科書
私はMetropolis-HastingsとGibbsのサンプリングに関してかなり良い実務経験を持っていますが、これらのアルゴリズムについてより良い数学的な理解を得たいと思っています。これらのサンプラーの正確性を証明する優れた教科書や記事は何ですか(より多くのアルゴリズムもすばらしいでしょう)。

3
時変バイアスでバイアスされたコインをモデル化する方法は?
バイアスコインのモデルには、通常、1つのパラメーターます。一連の描画からを推定する1つの方法は、ベータ事前分布を使用し、二項尤度で事後分布を計算することです。θθ = P(頭| θ )θ=P(Head|θ)\theta = P(\text{Head} | \theta)θθ\theta 私の設定では、奇妙な物理的プロセスのために、私のコインのプロパティはゆっくりと変化し、は時間関数になります。私のデータは、順序付けられた描画のセット、つまりです。私は、離散的で通常の時間グリッドでは、ごとに1つのドローしかないと考えることができます。T { H 、T 、H 、H 、H 、T 、。。。} tθθ\thetattt{ H、T、H、H、H、T、。。。}{H,T,H,H,H,T,...}\{H,T,H,H,H,T,...\}ttt これをどのようにモデル化しますか?私は、隠れた変数があるという事実に適応し、二項尤度を維持するカルマンフィルターのようなものを考えています。推論を扱いやすくするために、をモデル化するために何を使用できますか?P (θ (T + 1 )| θ (T ))θθ\thetaP(θ (t + 1 )| θ (t ))P(θ(t+1)|θ(t))P(\theta(t+1)|\theta(t)) 次の回答を編集してください(ありがとう!):HMMまたはカルマンフィルターで行われるように、を次数1のマルコフ連鎖としてモデル化したいと思います。私ができる唯一の仮定は、が滑らかであることです。私はをで小さなガウスノイズ(カルマンフィルターのアイデア)と書くことができますが、これはままにする必要があります。@J Davのアイデアに従って、プロビット関数を使用して実際の線をにマッピングすることができますが、これは非分析的な解決策を与えるという直感があります。平均ベータ分布θ (T )P (θ (T + 1 )| θ (T ))= θ (T …

3
事前情報を引き出す…お金で!
ある変数Xの事前分布を引き出したい「エキスパート」があるとします。リアルマネーでやる気を出してもらいたい。アイデアは、事前変数を引き出し、確率変数Xのn個の実現を観察し、事前変数が証拠とどの程度一致するかに基づいて、所定の「財布」を専門家の間で分配することです。この最後の部分で推奨される方法は何ですか?事前情報と証拠を支払いベクトルにマッピングしますか?kkkバツXXんnnバツXX
10 bayesian  prior 


2
理論と数学に同等のストレスがある良い本
私は、在学中および大学で統計に関する十分なコースを受講しました。CI、p値、統計的有意性の解釈、複数の検定、相関、単純な線形回帰(最小二乗法)(一般的な線形モデル)、および仮説のすべての検定などの概念を十分に理解しています。初期のほとんどは数学的に紹介されていました。そして最近、私は本の直観的な生物統計学の助けを借りて、実際の概念理論に対して前例のない理解を理解しました。 さて、足りないのはモデルのフィッティング(モデルへのパラメータの推定)などの理解が足りないことです。特に、最尤推定、一般化線形モデル、推論統計へのベイジアンアプローチなどの概念は、常に私には異質に思えます。単純な確率モデルやインターネット上の他の(基本的な)トピックに見られるように、十分な例やチュートリアル、あるいは概念的に適切なものはありません。 私はバイオインフォマティシャンで、遺伝子発現(または遺伝子発現の差異)を見つけるための生の読み取りカウントを扱うRNA-Seqデータに取り組んでいます。私のバックグラウンドから、統計モデルに精通していなくても、ポアソン分布の仮定や負の二項式などの理由を理解することができます。しかし、一部の論文では一般化線形モデルを扱い、MLEなどを推定しています。理解するために必要な背景があると思います。 私が求めているのは、あなたの中の一部の専門家が有用だと思うアプローチと、(a)これらの概念をより直感的な方法で理解するのに役立つ本です(厳密な数学だけでなく、数学に裏打ちされた理論)。私はそれらを主に適用するつもりなので、何が何であるかを理解することに満足しているでしょうし、後で、厳密な数学的証明に戻ることができます...誰かに何か推奨はありますか?私が求めたトピックが確かにばらばらになっていて本でカバーされているなら、私は複数の本を買ってもかまわない。 どうもありがとうございました!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.