タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

2
平均分散に関心がある場合、階層型ベイジアンモデルの分散にはどの事前分布を使用できますか?
広く引用されている論文で、階層モデルの分散パラメーターの事前分布 (Google Scholarでのこれまでの916件の引用)Gelmanは、階層型ベイジアンモデルにおける分散の非有益な事前分布は、均一分布と半t分布であると提案しています。私が正しいことを理解していれば、位置パラメータ(例:平均)が主な関心事である場合、これはうまく機能します。ただし、たとえば、タイミングタスクからの人間の応答データを分析する場合、多くの場合、タイミングの変動性が重要な尺度であるという意味で、分散パラメーターが主な関心事です。そのような場合、分析後に参加者レベルとグループレベルの両方で平均分散の信頼性を取得したいので、たとえば均一な分布を使用して階層的にどのように変動性をモデル化できるかはわかりません。 私の質問は次のとおりです。データの分散が主な関心事である場合、階層型ベイジアンモデルを構築する際にどの分布が推奨されますか? 平均とSDで指定されるようにガンマ分布を再パラメーター化できることを知っています。たとえば、以下の階層モデルは、Kruschkeの本Doing Bayesian Data Analysisからのものです。しかし、Gelmanは彼の記事でガンマ分布に関するいくつかの問題を概説しており、代替案、できればBUGS / JAGSでの作業が難しくない代替案の提案に感謝します。

2
glmmのR構造G構造とは何ですか?
MCMCglmm最近このパッケージを使用しています。ドキュメントでR構造およびG構造と呼ばれているものに混乱しています。これらはランダム効果に関連しているようです-特にそれらの事前分布のパラメータを指定していますが、ドキュメントの議論は読者がこれらの用語が何であるかを知っていると仮定しているようです。例えば: 3つの可能な要素を持つ事前仕様のオプションのリスト:R(R構造)G(G構造)およびB(固定効果)............分散構造の事前(RおよびG )は、逆ウィシャートの期待される(共)分散(V)および信念度パラメーター(nu)を含むリストです ... ここから取ります。 編集:ステファンからのコメントに続く質問の残りを書き直したことに注意してください。 線形予測子が でおよび E 0 I J〜N (0 、σ 2 0 E)U 0 J〜N (0 、σ 2 0 U)β0+ e0 i j+ あなた0 jβ0+e0私j+あなたは0j\beta_0 + e_{0ij} + u_{0j} e0 i j〜N(0 、σ20 e)e0私j〜N(0、σ0e2)e_{0ij} \sim N(0,\sigma_{0e}^2)あなたは0 j〜N(0 、σ20 u)あなたは0j〜N(0、σ0あなたは2)u_{0j} \sim N(0,\sigma_{0u}^2) 付属のデータを使用して次の例を作成しました MCMCglmm > require(MCMCglmm) > …

2
MCMCをヒットして実行する
ヒットを実装してMCMCアルゴリズムを実行しようとしていますが、その方法を理解するのに少し苦労しています。一般的な考え方は次のとおりです。 MHで提案ジャンプを生成するには、次のようにします。 単位球Oの表面上の分布から方向を生成するdddOO\mathcal{O} 制約された空間に沿って符号付き距離を生成します。λλ\lambda ただし、これをR(または他の言語)で実装する方法についてはわかりません。 誰かが私を正しい方向に向けるコードのスニペットを持っていますか? ところで、私はこのメソッドを実行するライブラリにあまり興味がありません。自分でそれをコード化してみたいと思います。 どうもありがとう。
16 r  bayesian  mcmc 

1
情報のないベータ事前分布の選択
私は、二項プロセス(ヒット/ミス)で機能するベータ分布の情報価値のない事前分布を探しています。最初は、均一なPDFを生成する、またはJeffrey以前のを使用することを考えました。しかし、事後結果に最小限の影響しか与えない事前分布を実際に探しています。そして、不適切な事前分布を使用することを考えました。ここでの問題は、少なくとも1つのヒットと1つのミスがある場合にのみ、事後分布が機能することです。これを克服するために、ような非常に小さな定数を使用して、後部のおよびがなるようにすることを考えました。α=1,β=1α=1,β=1\alpha=1, \beta=1α=0.5,β=0.5α=0.5,β=0.5\alpha=0.5, \beta=0.5α=0,β=0α=0,β=0\alpha=0, \beta=0α=0.0001,β=0.0001α=0.0001,β=0.0001\alpha=0.0001, \beta=0.0001αα\alphaββ\beta>0>0>0 このアプローチが受け入れられるかどうかは誰にも分かりますか?私はこれらの事前を変更することの数値的効果を見ますが、誰かがこのような小さな定数を事前として置くことの一種の解釈を私に与えることができますか?

3
ベイズのパラメーター推定で事前を選択する方法
パラメーター推定、ML、MAP、ベイズアプローチの3つの方法を知っています。MAPとベイズのアプローチでは、パラメーターの事前分布を選択する必要がありますよね? このモデルを持っているとします。ここではパラメーターであり、MAPまたはBayesを使用して推定を行うために、共役を選択する方が良いと本で読みました。前であり、関節の確率、右?p(x|α,β)p(x|α,β)p(x|\alpha,\beta)α,βα,β\alpha,\betap(α,β)p(α,β)p(\alpha,\beta)α,βα,β\alpha,\beta 2つの質問があります。 この共役のもの以外の事前を選択する他の選択肢がありますか? や、それぞれと事前確率を選択できますか?αα\alphaββ\betap (α )p(α)p(\alpha)p (β)p(β)p(\beta)

5
なぜ
私はそう思う P(A|B)=P(A|B,C)∗P(C)+P(A|B,¬C)∗P(¬C)P(A|B)=P(A|B,C)∗P(C)+P(A|B,¬C)∗P(¬C)P(A|B) = P(A | B,C) * P(C) + P(A|B,\neg C) * P(\neg C) 正しいが、 P(A|B)=P(A|B,C)+P(A|B,¬C)P(A|B)=P(A|B,C)+P(A|B,¬C)P(A|B) = P(A | B,C) + P(A|B,\neg C) 間違っている。 しかし、後者については「直観」があります。つまり、2つのケース(CまたはNot C)を分割することで確率P(A | B)を考慮します。なぜこの直感が間違っているのですか?

2
私たちは頻繁にベイジアンを暗黙的/無意識にしていますか?
与えられた推論問題について、ベイジアンアプローチは通常、形式と結果の両方が周波数論的アプローチと異なることを知っています。頻繁に(通常私を含む)彼らの方法は事前を必要としないため、「判断駆動型」よりも「データ駆動型」であるとしばしば指摘します。もちろん、ベイジアンのものは、情報価値のない事前分布を指すことができます。または、実際的であるため、本当に拡散事前分布を使用することもできます。 私の懸念は、特に私の周波数主義的客観性にうんざりしているように感じた後、おそらく「客観的」と言われる方法が、いくつかの異常な事前モデルとデータモデルであるにもかかわらず、ベイジアンフレームワークで定式化できることです。その場合、私は自分のフリークエンシー主義の手法が暗示する、とんでもない前例とモデルを至福のように知らないのでしょうか? ベイジアンがそのような定式化を指摘した場合、私の最初の反応は「まあ、それはあなたがそれを行うことができるのは素晴らしいことですが、それは私が問題について考える方法ではありません!」しかし、だれが私がそれについてどう考えるか、または私がそれをどのように公式化するかを気にします。私の手順は、統計的/数学的に等価である場合には、いくつかのベイズモデル、そして私は(暗黙的だ無意識のうちにベイズ推定を実行します!)。 以下の実際の質問 この実現は、独善的な誘惑を大幅に弱めました。ただし、ベイジアンのパラダイムがすべての頻繁な手順に対応できるかどうかはわかりません(再度、ベイジアンが適切な事前確率と尤度を選択した場合)。私は逆が間違っていることを知っています。 私が最近条件付き推論に関する質問を投稿したので、私はこれを尋ねます。そして、それは私を次の論文に導きました:ここ(3.9.5、3.9.6を見てください) 彼らは、どの「関連サブセット」が最も関連性があるのか​​という質問を頼み、複数の補助的な統計値が存在する可能性があるというバスの有名な結果を指摘しています。さらに悪いことに、一意の補助統計がある場合でも、他の関連サブセットの存在を排除しない2つの例を示しています。 彼らは、ベイジアンメソッド(またはそれらに相当するメソッド)のみがこの問題を回避でき、問題のない条件推論を可能にすると結論付けています。 それはケースではないかもしれないベイズ統計その Fequentist統計-ここでは、このグループへの私の質問です。しかし、2つのパラダイム間の基本的な選択は、目標よりも哲学にあるようです。高い条件精度または低い無条件エラーが必要ですか。⊃⊃\supset 特異なインスタンスを分析する必要がある場合、高い条件精度が適用されるようです-この方法は次のデータセット(ハイパーコンディショナリティ/特殊化)に適切または正確でないかもしれないという事実にもかかわらず、この特定の推論に対して正しいことを望みます。 長期的なエラーが最小化または制御されている限り、場合によっては条件付きで誤った推論を行う場合は、低無条件エラーが適切です。正直なところ、これを書いた後、私は時間に縛られて、ベイジアン分析を行うことができなかった場合を除き、なぜこれを望むのかわかりません...うーん。 尤度関数からいくつかの(漸近的/近似)条件付けを取得するため、尤度ベースのフェンティクストの推論を好む傾向がありますが、事前に調整する必要はありません-しかし、特にベイジアン推論に慣れてきました私は以前の小さなサンプル推論の正規化用語を参照します。 ごめんなさい。私の主な問題に対する助けをいただければ幸いです。

2
ABCとMCMCのアプリケーションの違いは何ですか?
私の理解では、近似ベイズ計算(ABC)とマルコフ連鎖モンテカルロ(MCMC)の目的は非常に似ています。以下では、これらの方法についての私の理解と、実際のデータに対するそれらのアプリケーションの違いをどのように認識するかについて説明します。 近似ベイズ計算 ABCは、事前にパラメータをサンプリングし、θθ\theta数値シミュレーションを通じて統計xixix_iを計算します。これは、観測されたと比較されxobsxobsx_{obs}ます。拒否アルゴリズムに基づいて、xixix_iは保持または拒否されます。保持されたxixix_iのリストが事後分布を作成しました。 マルコフ連鎖モンテカルロ MCMCは、パラメーター事前分布のサンプリングで構成されますθθ\theta。これは、最初のサンプルかかるθ1θ1\theta_1計算、P(xobs|θ1)P(θ1)P(xobs|θ1)P(θ1)P(x_{obs} | \theta_1)P(\theta_1)新しい値に(いくつかの規則に従って)ジャンプ次いで及びθ2θ2\theta_2のためのP(xobs|θ2)P(θ2)P(xobs|θ2)P(θ2)P(x_{obs} | \theta_2)P(\theta_2)を再度計算されます。比率P(xobs|θ2)P(θ2)P(xobs|θ1)P(θ1)P(xobs|θ2)P(θ2)P(xobs|θ1)P(θ1)\frac{P(x_{obs} | \theta_2)P(\theta_2)}{P(x_{obs} | \theta_1)P(\theta_1)}が計算され、いくつかのしきい値に応じて、次のジャンプが最初または2番目の位置から発生します。値の探索は次々と行われ、最後までに、保持された値の分布は事後分布(理由はまだわかりません)。θθ\thetaθθ\thetaP(θ|x)P(θ|x)P(\theta | x) 私の説明は、これらの各用語の下に存在するさまざまな方法を表すのを逃していることに気付きます(特にMCMCの場合)。 ABC対MCMC(賛否両論) ABCには、を解析的に解く必要がないという利点があります。そのため、ABCはMCMCが作成できない複雑なモデルに便利です。P(x|θ)P(θ)P(x|θ)P(θ)P(x | \theta)P(\theta) MCMCでは、統計的検定(尤度比検定、G検定、...)を行うことができますが、ABCではこれが実現可能ではないと思います。 私は今のところ正しいですか? 質問 ABCとMCMCのアプリケーションの違いは何ですか?どのようにして1つまたは別の方法を使用することを決定しますか?

2
不適切な分布からのサンプリング(MCMCなどを使用)
私の基本的な質問は、不適切な分布からどのようにサンプリングするのですか?不適切な分布からサンプリングすることも理にかなっていますか? ここでの西安のコメントは、この種の問題に対処するものですが、これについての詳細を探していました。 MCMCに固有: MCMCについて話し、論文を読む際に、著者は適切な事後分布を取得したことを強調します。著者が後部が適切かどうかを確認するのを忘れた有名なGeyer(1992)の論文があります(そうでない場合は優れた論文)。 しかし、尤度と事前分布が不適切であり、結果の事後分布も不適切であり、MCMCを使用して分布からサンプリングするとします。この場合、サンプルは何を示していますか?このサンプルに役立つ情報はありますか?ここで、マルコフ連鎖は一時的またはヌル再帰的であることを認識しています。null再発の場合、肯定的なテイクアウェイはありますか?f(x|θ)f(x|θ)f(x|\theta)θθ\theta 最後に、ここでのニールGの回答では、彼は 通常、MCMCを使用して、たとえ不適切であったとしても、後方からサンプリングできます。 彼は、このようなサンプリングはディープラーニングでは一般的だと述べています。これが正しい場合、これはどのように意味がありますか?

2
ベイジアン推論の事後分布がしばしば扱いにくいのはなぜですか?
ベイジアン推論が難解な問題につながる理由を理解するのに問題があります。問題は次のように説明されることがよくあります。 私が理解していないのは、なぜこの積分を最初に評価しなければならないのかということです:積分の結果は単純に正規化定数であるように思われます(データセットDが与えられているため)。右側の分子として事後分布を単純に計算し、事後分布の積分が1でなければならないことを要求してこの正規化定数を推測できないのはなぜですか? 私は何が欠けていますか? ありがとう!

2
BSTSモデル(R)からの予測は完全に失敗しています
ベイジアン構造時系列モデルに関するこのブログ投稿を読んだ後、以前にARIMAを使用していた問題のコンテキストでこれを実装することを検討しました。 私はいくつかの既知の(しかしノイズの多い)季節的要素に関するデータを持っています-これには間違いなく年次、月次、週次の要素があり、特別な日(連邦政府や宗教の祝日など)による影響もあります。 bstsパッケージを使用してこれを実装しましたが、コンポーネントと予測は単に期待どおりに見えませんが、間違ったことは何もしていないと言えます。私の実装が間違っているか、不完全であるか、その他の問題があるかどうかは明確ではありません。 フルタイムシリーズは次のようになります。 データの一部のサブセットでモデルをトレーニングできます。モデルは一般に適合性の点で見栄えがよくなります(プロットは下にあります)。これを行うために使用しているコードは次のとおりです。 library(bsts) predict_length = 90 training_cut_date <- '2015-05-01' test_cut_date <- as.Date(training_cut_date) + predict_length df = read.csv('input.tsv', sep ='\t') df$date <- as.Date(as.character(df$date),format="%Y-%m-%d") df_train = df[df$date < training_cut_date,] yts <- xts(log10(df_train$count), order.by=df_train$date) ss <- AddLocalLinearTrend(list(), yts) ss <- AddSeasonal(ss, yts, nseasons = 7) ss <- AddSeasonal(ss, yts, nseasons …
15 r  time-series  bayesian  mcmc  bsts 

7
ベイズのルールを覚えるために何をしましたか?
式を覚える良い方法は、次のような式を考えることだと思います。 独立したイベントBの結果が与えられた場合、イベントAが特定の結果になる確率=両方の結果が同時に発生する確率/イベントAの望ましい結果の確率は、イベントBの結果がわからない場合になります。 例として、病気の検査を考えてみましょう:病気の検査で陽性の患者がいて、それがわかっている場合:病気の人の40%が検査で陽性を検査しました。すべての人々の60%がこの病気にかかっています。そして、この疾患について検査されたすべての人々の26%; それはそれに従います: 1)サンプリングしたすべての人の24%が陽性であり、病気にかかっていた。つまり、陽性と診断された26人中24人が病気にかかっていた。したがって、2)この特定の患者が病気にかかっている可能性は92.3%です。
15 bayesian  bayes 

1
ベイジアンマルチレベルモデルでp値を要求するレビュー担当者に応答する方法
レビュアーから、ベイジアンマルチレベルモデルのモデル推定値をよりよく理解するためにp値を提供するように依頼されました。このモデルは、実験の参加者ごとに複数の観測を行う典型的なモデルです。Stanを使用してモデルを推定したため、追加の事後統計を簡単に計算できます。現在、平均推定値と0.025および0.975分位数を(視覚的におよび表で)報告しています。 これまでの私の回答は次のとおりです。 P値は、ベイジアンモデルと矛盾します。つまり、P(X| θ)≠P(θ | X)。P(バツ|θ)≠P(θ|バツ)。P(X|\theta) \neq P(\theta|X). 事後分析に基づいて、パラメーターが0よりも大きい(小さい)確率を計算できます。これは、従来のp値に少し似ています。 私の質問は、これがレビュアーを満足させることができる応答なのか、それとも混乱を引き起こすだけなのかということです。 10月10日更新:回答のアドバイスを念頭に置いて論文を書き直しました。論文は受け入れられているので、これは本当に有益なアドバイスであったという以前のコメントを繰り返します!

2
リッジ回帰–ベイジアン解釈
事前分布が適切に選択されていれば、リッジ回帰は事後分布の平均として導出できると聞いています。事前によって回帰係数に設定された制約(たとえば、0付近の標準正規分布)は同一である/係数の二乗サイズに設定されたペナルティを置き換えるという直感はありますか?この等価性が成立するためには、事前分布はガウス分布である必要がありますか?

3
なぜ誰もベイジアン多項式ナイーブベイズ分類器を使用しないのですか?
(教師なし)テキストモデリングでは、潜在ディリクレ割り当て(LDA)は確率的潜在セマンティック分析(PLSA)のベイジアンバージョンです。基本的に、LDA = PLSA + Dirichletはそのパラメーターよりも優先されます。私の理解では、LDAは現在、参照アルゴリズムであり、さまざまなパッケージに実装されていますが、PLSAはもう使用すべきではありません。 ただし、(教師付き)テキスト分類では、多項分布のナイーブベイズ分類器に対してまったく同じことを行い、パラメーターよりも先にディリクレを置くことができます。しかし、私は誰もそれをするのを見たことがないと思います、そして多項式のNaive Bayesの「ポイント推定」バージョンはほとんどのパッケージで実装されたバージョンのようです。その理由はありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.