タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

3
因果的ベイジアンネットワークにおけるd分離理論の理解
因果ベイジアンネットワークのd分離ロジックを理解しようとしています。アルゴリズムがどのように機能するかは知っていますが、アルゴリズムで述べられているように「情報の流れ」が機能する理由を正確には理解していません。 たとえば、上記のグラフでは、Xのみが与えられ、他の変数は観測されていないと考えてみましょう。次に、d分離の規則に従って、XからDへの情報の流れ: Xは、であるAに影響します。AはXを引き起こし、効果Xを知っている場合、これは原因Aの信念に影響を与えるため、これは問題ありません。情報フロー。P(A)≠P(A|X)P(A)≠P(A|X)P(A)\neq P(A|X) XはBに影響を与えます。これはです。これは問題ありません。AはXに関する知識によって変更されているため、Aでの変更は、その原因であるBについての私たちの信念にも影響を与える可能性があります。P(B)≠P(B|X)P(B)≠P(B|X)P(B)\neq P(B|X) XはCに影響を与えます。これはです。これは問題ありません。なぜなら、Bはその間接効果Xに関する知識によってバイアスされていることを知っているからです。CはBの直接的な効果であり、Xに関する知識の影響を受けます。P(C)≠P(C|X)P(C)≠P(C|X)P(C)\neq P(C|X) さて、この時点まで、情報の流れは直感的な因果関係に従って発生するため、すべてが問題ありません。しかし、このスキームでは、いわゆる「V構造」や「コライダー」の特別な動作は得られません。d-Separation理論によれば、BとDは上のグラフのCの一般的な原因であり、Cまたはその子孫を観察しなかった場合、Xからのフロー情報はCでブロックされます。 、しかし私の質問はなぜですか? Xから開始した上記の3つのステップから、CはXに関する知識の影響を受け、情報フローは原因と結果の関係に従って発生することがわかりました。d-分離理論では、Cは観測されないため、CからDに進むことはできないとされています。しかし、私はCが偏っていてDがCの原因であることを知っているので、理論は反対のことを言いながらDも影響を受けるべきだと思います。私の思考パターンには明らかに何かが欠けていますが、それが何であるかを見ることができません。 したがって、Cが観察されない場合、Cで情報の流れがブロックされる理由の説明が必要です。

2
フラット、共役、ハイパープライア。彼らは何ですか?
私は現在、ヤンによる計算分子進化のベイズ法について読んでいます。セクション5.2では、事前情報、具体的には非情報的/平坦/曖昧/拡散、共役、超事前情報について説明しています。 これは単純化を求めているかもしれませんが、誰かがこれらの種類の事前分布の違いを簡単に説明できますか? (私は統計学者ではなく、ベイジアン分析の学習への道を歩み始めたばかりなので、素人の用語であるほど良いです)
15 bayesian  prior 

2
多変量ガウス分布の共分散事後分布の推定
サンプル数の少ない2変量ガウス分布を「学習」する必要がありますが、事前分布に関する仮説は良好なので、ベイジアンアプローチを使用したいと思います。 :私は私の前に定義された P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ 0 & 27 \end{bmatrix} そして、私の分布は、仮説与えられた P(x|μ,Σ)∼N(μ,Σ)P(x|μ,Σ)∼N(μ,Σ) \mathbf{P}(x|\mathbf{\mu},\mathbf{\Sigma}) \sim \mathcal{N}(\mathbf{\mu},\mathbf{\Sigma}) μ=[00] Σ=[180018]μ=[00] Σ=[180018] \mathbf{\mu} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma} = …

2
「メッセージパッシングメソッド」とは何ですか?
私は、メッセージパッシングメソッドとは何かという漠然とした感覚を持っています。他のすべての要因のすべての近似を条件として、分布の各要因の近似を繰り返し構築することにより、分布の近似を構築するアルゴリズムです。 私は両方が変分メッセージの受け渡しと期待の伝播の例であると信じています。メッセージパッシングアルゴリズムとは、より明示的/正確に何ですか?参照は大歓迎です。

2
ベイジアン統計と生成モデリングの関係
誰かがベイジアン統計と生成モデリング技術の関係を説明する良い参考文献を私に紹介できますか?なぜ通常ベイジアン手法で生成モデルを使用するのですか? 完全なデータがない場合でも、ベイジアン統計を使用することが特に魅力的であるのはなぜですか? 私はより機械学習指向の視点から来ており、統計コミュニティからそれについてもっと読むことに興味があることに注意してください。 これらの点を議論する良い参考文献は大歓迎です。ありがとう。

4
回帰パラメータの信頼区間:ベイジアン対クラシック
長さnの2つの配列xとyが与えられた場合、モデルy = a + b * xに適合し、勾配の95%信頼区間を計算します。これは(b-デルタ、b +デルタ)で、bは通常の方法で検出され、 delta = qt(0.975,df=n-2)*se.slope se.slopeは、勾配の標準誤差です。Rから勾配の標準誤差を取得する1つの方法はsummary(lm(y~x))$coef[2,2]です。 ここで、xとyが与えられた勾配の尤度を記述し、これに「フラット」を掛け、MCMC手法を使用して事後分布からサンプルmを描画するとします。定義する lims = quantile(m,c(0.025,0.975)) 私の質問:(lims[[2]]-lims[[1]])/2上記で定義されたデルタとほぼ等しいですか? 以下の補遺は、これら2つが異なるように見える単純なJAGSモデルです。 model { for (i in 1:N) { y[i] ~ dnorm(mu[i], tau) mu[i] <- a + b * x[i] } a ~ dnorm(0, .00001) b ~ dnorm(0, .00001) tau <- pow(sigma, -2) sigma …

2
ギブスのサンプリングでは、完全な条件はどこから来ますか?
Metropolis-HastingsやGibbsサンプリングなどのMCMCアルゴリズムは、共同事後分布からサンプリングする方法です。 私は理解し、メトロポリスを壊すことは非常に簡単に実装できると思います-単に何らかの方法で開始点を選択し、事後密度と提案密度に基づいてランダムに「パラメータ空間を歩く」。Gibbsサンプリングは非常によく似ていますが、一度に1つのパラメータのみを更新し、他のパラメータを一定に保ち、空間を効果的に直交させて歩くため、より効率的です。 これを行うには、分析from *の各パラメーターの完全な条件が必要です。しかし、これらの完全な条件はどこから来るのでしょうか? 分母を取得するには、x1上のジョイントをマージナライズする必要があります。多くのパラメータがある場合、分析的に行うのは非常に多くの作業のように思われます。また、ジョイント分布があまり「素敵」でない場合は扱いにくいかもしれません。モデル全体で共役性を使用する場合、完全な条件は簡単かもしれませんが、より一般的な状況ではより良い方法が必要だと思います。P(x1|x2, …, xn)=P(x1, …, xn)P(x2, …, xn)P(x1|x2, …, xn)=P(x1, …, xn)P(x2, …, xn) P(x_1 | x_2,\ \ldots,\ x_n) = \frac{P(x_1,\ \ldots,\ x_n)}{P(x_2,\ \ldots,\ x_n)} x1x1x_1 私がオンラインで見たギブスのサンプリングのすべての例は、おもちゃの例を使用しています(多変量法線からのサンプリングのように、条件はそれ自体が単なる法線です)、この問題を避けているようです。 *または、分析形式の完全な条件が必要ですか?winBUGSのようなプログラムはどのようにそれを行いますか?
15 bayesian  mcmc  gibbs 

2
混合モデルのMCMC推定でラベルスイッチングの問題に対処する標準的な方法はありますか?
MCMCを使用して混合モデルを推定する場合、ラベルスイッチング(つまり、事後分布はコンポーネントラベルのスイッチングに対して不変です)が問題です。 問題を処理するための標準的な方法(広く受け入れられている方法)はありますか? 標準的なアプローチがない場合、ラベルスイッチングの問題を解決するための主要なアプローチの長所と短所は何ですか?
15 bayesian  mcmc  mixture 

2
ベイズ定理の正規化定数
私は、ベイズルール、分母にこれを読んでPr (データ)Pr(データ)\Pr(\textrm{data})の Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} は正規化定数と呼ばれます。正確には何ですか?その目的は何ですか?なぜように見えるのですか?なぜパラメーターに依存しないのですか?Pr(data)Pr(data)\Pr(data)

5
ベイジアン主義以上の確率がありますか?
物理学の学生として、「なぜ私はベイジアンなのか」という講義を6回ほど経験しました。それは常に同じです-プレゼンターは、ベイズの解釈が、大衆によって採用されているとされる頻度の高い解釈よりも優れている方法を説明しています。彼らは、ベイズ規則、周辺化、事前分布、事後分布について言及しています。 本当の話は何ですか? 頻繁な統計の適用の正当なドメインはありますか?(確かに、ダイのサンプリングまたはローリングで何度も適用する必要がありますか?) 「ベイジアン」と「頻度論」を超えた有用な確率論的哲学はありますか?

1
lmerモデルに使用する多重比較方法:lsmeansまたはglht?
1つの固定効果(条件)と2つのランダム効果(被験者内のデザインとペアによる参加者)を含む混合効果モデルを使用して、データセットを分析しています。モデルはlme4パッケージで生成されました:exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)。 次に、固定効果(条件)のないモデルに対してこのモデルの尤度比検定を実行しましたが、有意差があります。データセットには3つの条件があるため、多重比較を行いたいのですが、どの方法を使用すればよいかわかりません。CrossValidatedや他のフォーラムで同様の質問をいくつか見つけましたが、それでもかなり混乱しています。 私が見たものから、人々は使用することを提案しました 1.lsmeansパッケージ- lsmeans(exp.model,pairwise~condition)私に次のような出力が得られます。 condition lsmean SE df lower.CL upper.CL Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089 Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443 Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552 Confidence level used: 0.95 $contrasts contrast estimate SE df t.ratio p.value Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099 Condition1 - …

3
いつ信頼区間が「意味をなす」が、対応する信頼区間はそうではないのか?
多くの場合、95%のカバレッジの信頼区間は、95%の事後密度を含む信頼区間と非常によく似ています。これは、前者が均一であるか、後者の場合にほぼ均一であるときに起こります。したがって、信頼区間を近似するために信頼区間を使用することがよくあります。重要なことは、これから、信頼区間としての信頼区間のひどく間違った誤解は、多くの単純なユースケースにとって実際的重要性がほとんどないか、まったくないということを結論付けることができます。 これが起こらない場合の例はたくさんありますが、それらはすべて、頻繁なアプローチに何か問題があることを証明しようとして、ベイジアン統計の支持者によって厳選されているようです。これらの例では、信頼区間に不可能な値などが含まれており、それらがナンセンスであることを示しています。 これらの例や、ベイジアン対フリークエンティストの哲学的議論に戻りたくありません。 私はちょうど反対の例を探しています。信頼区間と信頼区間が大幅に異なり、信頼手順によって提供される区間が明らかに優れている場合はありますか? 明確にするために:これは、信頼できる区間が通常、対応する信頼区間と一致すると予想される状況、つまり、フラット、均一などの事前分布を使用する状況についてです。誰かが勝手に悪い事前を選択する場合には興味がありません。 編集: 以下の@JaeHyeok Shinの回答に応じて、彼の例が正しい尤度を使用していることに同意しなければなりません。近似ベイズ計算を使用して、以下のRのシータの正しい事後分布を推定しました。 ### Methods ### # Packages require(HDInterval) # Define the likelihood like <- function(k = 1.2, theta = 0, n_print = 1e5){ x = NULL rule = FALSE while(!rule){ x = c(x, rnorm(1, theta, 1)) n = length(x) x_bar = mean(x) rule = …

1
ダミーのためのハミルトニアンモンテカルロ
ハミルトニアンモンテカルロがどのように機能するかについて、ダミーの説明に段階的に説明していただけますか? PS:私はすでに、ここで答えを読んだハミルトニアンモンテカルロ、そしてここで、逐次モンテカルロ対ハミルトニアンモンテカルロ、そしてここで、メトロポリス・ヘイスティングスの提案の意味を理解する方法:ハミルトニアンモンテカルロ?そして、彼らはそれに段階的に対処しません。
14 bayesian  hmc 

4
帰無仮説が真である確率
したがって、これはよくある質問かもしれませんが、満足のいく答えを見つけたことがありません。 帰無仮説が真(または偽)である確率をどのように決定しますか? 学生にテストの2つの異なるバージョンを与え、それらのバージョンが同等かどうかを確認したいとします。t検定を実行すると、p値が.02になります。なんて素敵なp値でしょう!つまり、テストが同等である可能性は低いということです。いいえ。残念ながら、P(results | null)はP(null | results)を伝えないようです。通常行うべきことは、低いp値に遭遇したときに帰無仮説を棄却することですが、どのようにして、真である可能性が高い帰無仮説を棄却していないことを知ることができますか?馬鹿げた例を挙げると、偽陽性率が.02のエボラのテストを設計できます。50個のボールをバケツに入れて、1個の「エボラ」を書き込みます。私がこれを使って誰かをテストし、彼らが「エボラ」ボールを選んだ場合、p値(P(ボールを選ぶ|エボラがない))は0.02です。 私がこれまで考えてきたこと: P(null | results)〜= P(results | null)と仮定すると、いくつかの重要なアプリケーションでは明らかにfalseです。 P(null | results)を知らずに仮説を受け入れるか拒否する–なぜそれらを受け入れるか拒否するのか?私たちが考えていることを偽りのように間違って拒否し、本当のことを本当に受け入れているという点ではありませんか? ベイズの定理を使用する-しかし、どのようにして事前分布を取得しますか?それらを実験的に決定しようとして同じ場所に戻ってしまいませんか?そして、それらをアプリオリに選ぶことは非常にarbitrary意的です。 stats.stackexchange.com/questions/231580/という非常に似た質問を見つけました。ここでの1つの答えは、基本的に、ベイズの質問であるため、帰無仮説が真である確率について尋ねるのは意味がないと言っているようです。たぶん私はベイジアンですから、その質問をしないのは想像できません。実際、p値の最も一般的な誤解は、それらが真の帰無仮説の確率であるということです。この質問を頻繁に行う人として本当に質問できない場合、私の主な質問は#3です。ループに巻き込まれずに、どのようにして優先順位を取得しますか。 編集:思慮深い返信をありがとうございます。いくつかの一般的なテーマに対処したいと思います。 確率の定義:これに関する多くの文献があると確信していますが、私の素朴な概念は、「完全に合理的な存在が情報を与えたという信念」や「状況が利益を最大化する賭けのオッズ」のようなものです繰り返され、未知のものは変化することを許された」。 P(H0 |結果)を知ることはできますか?確かに、これは難しい質問のようです。しかし、確率は常に与えられた情報を条件としているため、すべての確率は理論的には知っていると信じています。すべてのイベントは発生するか発生しないため、完全な情報では確率は存在しません。情報が不十分な場合にのみ存在するため、知っておく必要があります。たとえば、誰かがコインを持っていると言われ、ヘッドの確率を尋ねられたら、50%と言います。コインの頭に70%の重みが付けられている場合がありますが、その情報が与えられなかったので、私が持っていた情報の確率は50%でした。私がそれを学んだときに頭に。確率は常に(不十分な)データのセットを条件としているため、 編集:「常に」は少し強すぎるかもしれません。確率を決定できない哲学的な質問があるかもしれません。それでも、実際の状況では、「ほぼ決して」絶対的な確実性を持つことはできませんが、「ほぼ常に」最良の推定値があるはずです。

2
ハミルトニアンモンテカルロ
誰かがハミルトニアンモンテカルロ法の背後にある主要なアイデアを説明できますか。その場合、マルコフ連鎖モンテカルロ法よりも良い結果が得られますか?
14 bayesian  mcmc  hmc 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.