タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

2
紙からの期待の最大化に役立つ:事前配布を含める方法?
質問は、「放射輸送-拡散結合モデルを使用した拡散光トモグラフィーにおける画像再構成」というタイトルの論文に基づいています。 リンクをダウンロード 著者は、未知のベクトルスパース正則化を使用してEMアルゴリズムを適用し、画像のピクセルを推定します。モデルは、l1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} 推定はEq(8)で次のように与えられます μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) + \gamma \ln p(\mu)} \tag{2} 私の場合、私はを長さフィルターと見なし、はフィルターを表すベクトルです。そう、μμ\muLLLμμ\mathbf{\mu}L×1L×1L \times 1 モデルはように書き直すことができますy(n)=μTa(n)+v(n)(3)(3)y(n)=μTa(n)+v(n)y(n) = \mathbf{\mu^T}a(n) + v(n) \tag{3} 質問:問題の定式化:(n by 1)は観測されていない入力であり、は未知の分散付加ノイズを伴うゼロ平均です。MLEソリューションは期待値最大化(EM)に基づいています。μ(n)μ(n){\mu(n)}{e(n)}{e(n)}\{e(n)\}σ2eσe2\sigma^2_e 論文ではEq(19)は関数です-完全な対数尤度ですが、私の場合、完全な対数尤度式に分布を含める方法を理解できません。 AAAA,μA,μA, \mu 以前の分布を含め、 EMを使用した完全な対数尤度はどうなりますか?yyy

1
事前確率分布をどのように形式化しますか?経験則や使用すべきヒントはありますか?
ベイジアン統計分析と意思決定における事前情報の概念をよく理解していると思いたいのですが、そのアプリケーションに頭を悩ませるのに苦労することがよくあります。私は自分の闘争を例証するいくつかの状況を念頭に置いており、これまでに読んだベイジアン統計教科書ではそれらが適切に扱われていないと感じています。 数年前に私が実施した調査で、68%の人がACME製品の購入に関心があると言ったとします。再度調査を行うことにしました。前回と同じサンプルサイズ(たとえば、n = 400)を使用しますが、それ以降、人々の意見は変わった可能性があります。ただし、以前のバージョンとして、400人中272人が「はい」と回答したベータ版の分布を使用する場合、数年前に行った調査と現在実施している調査に同じ重みを与えます。そのデータが数年前のものであるという理由で、以前に置いておきたいより大きな不確実性を確立するための経験則はありますか?以前のものを272/400から例えば136/200に減らすことができると理解していますが、これは非常に恣意的であり、おそらく文献に何らかの形で正当化があるのだろうかと思います。 別の例として、臨床試験を実行しようとしているとしましょう。試験を開始する前に、専門家の意見、以前の臨床試験(関連性の異なる)の結果、その他の基本的な科学的事実など、予備情報として使用できるいくつかの二次調査を実行します。 (そのうちのいくつかは本質的に非定量的です)事前の確率分布?データに圧倒されることを確実にするためにどの家族を選び、それを普及させるかを決定するだけのケースですか、それともかなり有益な事前配布を確立するために行われる多くの作業がありますか?

1
ダイにはいくつの面がありますか?JAGSのベイズ推定
問題 辺の数が不明で死ぬのに類似したシステムについて、いくつかの推論をしたいと思います。サイコロを数回振り、その後、サイコロの側面の数θに対応するパラメーターの確率分布を推測します。 直感 40回ロールした後、10個の赤、10個の青、10個の緑、10個の黄を観察した場合、θは4でピークになり、各側のロールのバイアスは1/4を中心とした分布になります。 θには自明な下限があり、これはデータで観測されたさまざまな辺の数です。 上限はまだ不明です。おそらくバイアスが低い5番目のサイドが存在する可能性があります。5番目のカテゴリがないことを示すデータが多いほど、θ= 4の事後確率が高くなります。 アプローチ ここでは適切と思われる同様の問題(Rおよびrjagsを介して)にJAGSを使用しました。 データに関してobs <- c(10, 10, 10, 10)、上の例の観測に対応するとします。 私は観測が多項分布でモデル化されるべきだと思うobs ~ dmulti(p, n)、p ~ ddirch(alpha)とn <- length(obs)。 θはによって暗示されるカテゴリの数にリンクされているalphaのでalpha、さまざまな数のカテゴリを含むようにモデル化するにはどうすればよいですか? 代替案? 私はベイジアン分析にかなり新しいので、間違ったツリーを完全に見つけ出すかもしれませんが、この問題について異なる洞察を提供するかもしれない代替モデルはありますか? どうもありがとう!デビッド

1
MCMC / EMの制限?MCMC over EM?
私は現在、RからJAGSを使用して階層ベイジアンモデルを学習しており、Python(「ベイカーのハッカー手法」)を使用してpymcも学習しています。 私はこの投稿から直感を得ることができます。「結局、あなたが知りたいと思った複雑な分布から独立したサンプルをなんとかしてなんとかして管理できたかのように見える数の山になってしまいます。」それは私が条件付き確率を与えることができるようなものであり、それから私は条件付き確率に基づいて無記憶プロセスを生成することができます。プロセスを十分に長く生成すると、同時確率が収束し、生成されたシーケンスの最後に山の数をとることができます。複雑な共同分布から独立したサンプルを取得するのと同じです。たとえば、ヒストグラムを作成して、分布関数を近似することができます。 それから私の問題は、MCMCが特定のモデルに収束するかどうかを証明する必要がありますか?私は以前にGMMとLDA(グラフィカルモデル)のEMアルゴリズムを学んだので、これを知ってやる気があります。収束するかどうかを証明せずにMCMCアルゴリズムのみを使用できる場合、EMよりもはるかに多くの時間を節約できます。予想対数尤度関数を計算する必要があるため(事後確率を計算する必要があります)、次に予想対数尤度を最大化します。これは、MCMCよりも明らかに厄介です(条件付き確率を定式化する必要があるだけです)。 また、尤度関数と事前分布が共役であるかどうかも疑問に思っています。それは、MCMCが収束する必要があることを意味しますか?MCMCとEMの制限について疑問に思っています。

1
「以前のフラット」のベイジアン推定は、最尤推定と同じですか?
系統学では、系統樹はMLEまたはベイズ分析を使用して構築されることがよくあります。多くの場合、ベイジアン推定ではフラット事前分布が使用されます。私が理解しているように、ベイズ推定は事前分布を組み込んだ尤度推定です。私の質問は、フラット事前分布を使用する場合、単純に尤度分析を行うことと何が違うのですか?

1
測定誤差に基づく事前分布の選択
機器の測定誤差がある場合、どのように適切な事前計算を行いますか?この段落は、Cressieの本「時空間データの統計」からのものです。 多くの場合、測定誤差の分散に関するいくつかの事前情報が利用可能であり、かなり有益なパラメータモデルを指定できます。我々は条件付き独立した測定誤差を想定している場合、例えば、IIDされる 、我々はのために有益前指定する必要があり。周囲の気温に関心があり、計器メーカーの仕様に±0.1℃の「誤差」が示されていることがわかりました。この「エラー」が2つの標準偏差(チェックする必要があるという仮定)に対応していると仮定すると、\ sigma _ {\ epsilon} ^ {2}を指定して、以前の平均が(0.1 / 2)^ 2 = 0.0025になるようにします。Gau(0,σ2ϵ)Gau(0,σϵ2)Gau(0, \sigma_{\epsilon}^2)σ2ϵσϵ2\sigma_{\epsilon}^2±0.1°C±0.1°C±0.1°Cσ2ϵσϵ2\sigma_{\epsilon}^{2}(0.1/2)2=0.0025(0.1/2)2=0.0025(0.1/2)^2 = 0.0025。機器メーカーの仕様により、0.0025に明確に定義されたかなり狭いピーク(たとえば、逆ガンマ)を持つ分布を想定します。実際、0.0025に修正するだけで済みます。ただし、データモデルエラーには、他にも不確実性の要素がある場合があります(セクション7.1)。プロセスモデルのエラーによる識別可能性の問題の可能性を回避するには、データを複製するように設計されたサイドスタディを行うことを含め、モデル作成者がサイエンスの許す限り不確実性を減らすことが非常に重要です。 上記のように事前の値を取得するための一般的な手順は何か知っていますか(段落では事前の平均を取得することのみを参照していますが)。

4
「厳密に正の分布」とは何ですか?
私はジュデアパールの「因果関係」(2009年第2版)を読んでおり、セクション1.1.5条件付き独立性とグラフォイドで、彼は次のように述べています。 以下は、条件付き独立関係(X_ || _Y | Z)によって満たされるプロパティの(部分的な)リストです。 対称性:(X_ || _ Y | Z)==>(Y_ || _X | Z)。 分解:(X_ || _ YW | Z)==>(X_ || _Y | Z)。 弱い和集合:(X_ || _ YW | Z)==>(X_ || _Y | ZW)。 収縮:(X_ || _ Y | Z)&(X_ || _ W | ZY)==>(X_ || _ YW …

2
分割表のベイジアン分析:効果サイズの記述方法
私は、KruschkeのDoing Bayesian Data Analysisの例、特にch。のポアソン指数ANOVAに取り組んでいます。22、彼は分割表の独立性の頻出カイ二乗検定の代替として提示します。 変数が独立している場合(つまり、HDIがゼロを除外する場合)に予想されるよりも多かれ少なかれ頻繁に発生する相互作用に関する情報を取得する方法を確認できます。 私の質問は、このフレームワークでエフェクトサイズをどのように計算または解釈できるかです。たとえば、クルシュケは「青い目と黒い髪の組み合わせは、目の色と髪の色が独立している場合に予想されるよりも頻度が低い」と書いていますが、その関連付けの強さをどのように説明できますか?どの相互作用が他の相互作用よりも極端かを知るにはどうすればよいですか?これらのデータのカイ2乗検定を行った場合、全体的な効果の大きさの尺度としてCramérのVを計算できます。このベイジアンコンテキストでエフェクトサイズを表現するにはどうすればよいですか? これは、本からの自己完結型の例です(でコード化R)。答えがはっきり見えて私から隠されている場合に備えて... df <- structure(c(20, 94, 84, 17, 68, 7, 119, 26, 5, 16, 29, 14, 15, 10, 54, 14), .Dim = c(4L, 4L), .Dimnames = list(c("Black", "Blond", "Brunette", "Red"), c("Blue", "Brown", "Green", "Hazel"))) df Blue Brown Green Hazel Black 20 68 5 15 Blond …

3
ベイジアン予測分布について
ベイズ入門コースを受講していますが、予測分布を理解するのが困難です。なぜそれらが役立つのか理解していて、その定義に精通していますが、よくわからないことがいくつかあります。 1)新しい観測のベクトルの正しい予測分布を取得する方法 データのサンプリングモデルと以前の作成したと仮定します。与えられた場合、観測は条件付きで独立していると仮定します。p(yi|θ)p(yi|θ)p(y_i | \theta)p(θ)p(θ)p(\theta)yiyiy_iθθ\theta いくつかのデータ、以前のを後部に更新します。D={y1,y2,...,yk}D={y1,y2,...,yk}\mathcal{D} = \{y_1, y_2, \, ... \, , y_k\}p(θ)p(θ)p(\theta)p(θ|D)p(θ|D)p(\theta | \mathcal{D}) 新しい観測のベクトルを予測したい場合、、Iこの式 これはと等しくありません なので、予測された観測は独立していませんよね?N={y~1,y~2,...,y~n}N={y~1,y~2,...,y~n}\mathcal{N} = \{\tilde{y}_1, \tilde{y}_2, \, ... \, , \tilde{y}_n\}p(N|D)=∫p(θ|D)p(N|θ)dθ=∫p(θ|D)∏i=1np(y~i|θ)dθ,p(N|D)=∫p(θ|D)p(N|θ)dθ=∫p(θ|D)∏i=1np(y~i|θ)dθ, p(\mathcal{N} | \mathcal{D}) = \int p(\theta | \mathcal{D}) p ( \mathcal{N} | \theta) \, \mathrm{d} \theta = \int p(\theta | \mathcal{D}) \prod_{i=1}^n p(\tilde{y}_i …

3
ベイズの定理がグラフィカルに機能するのはなぜですか?
数学的な観点からは、ベイズの定理は完全に理にかなっています(つまり、導出と証明)が、ベイズの定理を説明するために示すことができる素晴らしい幾何学的またはグラフィカルな引数があるかどうかはわかりません。私はこれに対する答えを探してグーグルで試しましたが、驚くべきことに、何も見つけることができませんでした。

2
均一な事前分布は、最大尤度と事後モードから同じ推定にどのようにつながりますか?
私はさまざまなポイント推定方法を研究していて、MAPとMLの推定を使用する場合、「均一な事前分布」を使用する場合、推定は同一であることを読みました。誰かが「均一」事前分布とは何かを説明し、MAP推定値とML推定値が同じになる場合のいくつかの(単純な)例を示すことができますか?

1
メタアナリシスを伴うフリークエンティストアプローチとベイジアンアプローチの違いは何ですか?
特定の健康指標を調べて分析しているとしましょう。患者と対照の測定値の違い、およびその差が0と異なるかどうかに興味があります。過去に同じ研究課題と健康測定値を調べた研究がありましたが、患者のサンプルが異なっていました。 ベイジアン分析では、平均差と標準誤差を組み込んだ以前の研究に基づいて、事前分布を作成します。 ベイジアン統計を新しく学習しているため、これが初心者の質問である場合は許してください。ただし、ベイジアン分析の結果は、逆分散加重メタ分析を使用して得られる結果とどのように異なるのでしょうか。現在のデータを使用した以前の研究?

1
ディリクレプロセスの濃度パラメーターに事前計算を行う
これのほとんどはバックグラウンドです。ディリクレプロセスの混合物についてすでに十分に知っている場合は、最後までスキップしてください。すなわち聞かせて、私はディリクレ過程の混合物から来ていくつかのデータをモデル化していたととの条件付きF前提とY I I I D 〜 ∫ F (Y | θ )F (Dのθを)。F〜D(α H)F∼D(αH)F \sim \mathcal D(\alpha H)FFFY私〜I I D∫f(y| θ)F(dθ )。Yi∼iid∫f(y|θ)F(dθ).Y_i \stackrel {iid}{\sim} \int f(y | \theta) F(d\theta). ここでおよびα Hは、前のベース尺度です。それは、各観察のためかのことが判明Yを、私、私が知っている場合、関連する潜在θ I、の可能性α、このモデルではL (α | T )α α T Γ (α )α > 0α>0\alpha > 0α HαH\alpha HY私YiY_iθ私θi\theta_iαα\alpha Tは、別個の値の数であり、θI(ランダム測度Fは、ほぼ確実に離散的です)。EscobarとWestは、ガンマ事前分布を使用してαをサンプリングする次のスキームを開発しました。まず、彼らが書くπ(α|T)απ(α)αTΓ(α)L(α|t)∝αtΓ(α)Γ(α+n)L(α|t)∝αtΓ(α)Γ(α+n)L(\alpha | t) …

2
ノンパラメトリックベイジアンモデルの入門テキスト?
私はこのトピックに頭を抱えたいのですが、ホワイトペーパーやチュートリアルから学ぶことは、通常は教科書で埋められる多くのギャップがあるため、困難です。 もしそれが重要であれば、私は博士号を取得したときと同様に、比較的強い数学的背景を持っています。応用数学(より正確にはCFD)。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.