タグ付けされた質問 「prior」

ベイジアン統計では、事前分布は、サンプルが見られる前に利用できる情報または知識(多くの場合、主観的)を確率分布の形で形式化します。大きな分散の分布は、パラメータについてほとんど知られていない場合に使用されますが、より狭い事前分布はより多くの情報を表します。

1
情報のないベータ事前分布の選択
私は、二項プロセス(ヒット/ミス)で機能するベータ分布の情報価値のない事前分布を探しています。最初は、均一なPDFを生成する、またはJeffrey以前のを使用することを考えました。しかし、事後結果に最小限の影響しか与えない事前分布を実際に探しています。そして、不適切な事前分布を使用することを考えました。ここでの問題は、少なくとも1つのヒットと1つのミスがある場合にのみ、事後分布が機能することです。これを克服するために、ような非常に小さな定数を使用して、後部のおよびがなるようにすることを考えました。α=1,β=1α=1,β=1\alpha=1, \beta=1α=0.5,β=0.5α=0.5,β=0.5\alpha=0.5, \beta=0.5α=0,β=0α=0,β=0\alpha=0, \beta=0α=0.0001,β=0.0001α=0.0001,β=0.0001\alpha=0.0001, \beta=0.0001αα\alphaββ\beta>0>0>0 このアプローチが受け入れられるかどうかは誰にも分かりますか?私はこれらの事前を変更することの数値的効果を見ますが、誰かがこのような小さな定数を事前として置くことの一種の解釈を私に与えることができますか?

3
ベイズのパラメーター推定で事前を選択する方法
パラメーター推定、ML、MAP、ベイズアプローチの3つの方法を知っています。MAPとベイズのアプローチでは、パラメーターの事前分布を選択する必要がありますよね? このモデルを持っているとします。ここではパラメーターであり、MAPまたはBayesを使用して推定を行うために、共役を選択する方が良いと本で読みました。前であり、関節の確率、右?p(x|α,β)p(x|α,β)p(x|\alpha,\beta)α,βα,β\alpha,\betap(α,β)p(α,β)p(\alpha,\beta)α,βα,β\alpha,\beta 2つの質問があります。 この共役のもの以外の事前を選択する他の選択肢がありますか? や、それぞれと事前確率を選択できますか?αα\alphaββ\betap (α )p(α)p(\alpha)p (β)p(β)p(\beta)

2
リッジ回帰–ベイジアン解釈
事前分布が適切に選択されていれば、リッジ回帰は事後分布の平均として導出できると聞いています。事前によって回帰係数に設定された制約(たとえば、0付近の標準正規分布)は同一である/係数の二乗サイズに設定されたペナルティを置き換えるという直感はありますか?この等価性が成立するためには、事前分布はガウス分布である必要がありますか?

3
なぜ誰もベイジアン多項式ナイーブベイズ分類器を使用しないのですか?
(教師なし)テキストモデリングでは、潜在ディリクレ割り当て(LDA)は確率的潜在セマンティック分析(PLSA)のベイジアンバージョンです。基本的に、LDA = PLSA + Dirichletはそのパラメーターよりも優先されます。私の理解では、LDAは現在、参照アルゴリズムであり、さまざまなパッケージに実装されていますが、PLSAはもう使用すべきではありません。 ただし、(教師付き)テキスト分類では、多項分布のナイーブベイズ分類器に対してまったく同じことを行い、パラメーターよりも先にディリクレを置くことができます。しかし、私は誰もそれをするのを見たことがないと思います、そして多項式のNaive Bayesの「ポイント推定」バージョンはほとんどのパッケージで実装されたバージョンのようです。その理由はありますか?

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
フラット、共役、ハイパープライア。彼らは何ですか?
私は現在、ヤンによる計算分子進化のベイズ法について読んでいます。セクション5.2では、事前情報、具体的には非情報的/平坦/曖昧/拡散、共役、超事前情報について説明しています。 これは単純化を求めているかもしれませんが、誰かがこれらの種類の事前分布の違いを簡単に説明できますか? (私は統計学者ではなく、ベイジアン分析の学習への道を歩み始めたばかりなので、素人の用語であるほど良いです)
15 bayesian  prior 

1
複数のパラメーターのジェフリーズ事前
特定のケースでは、完全な多次元モデルのジェフリーズ事前分布は一般に不適切と見なされます。これは、たとえば、、、 (ここで、および不明)、次の事前分布が優先されます(ジェフリーズの事前の完全な): ここでは、固定したときに取得したジェフリーズ事前分布です(同様に)。この事前分布は、処理するときの参照事前分布と一致します。p (σ )σy私= μ + ε私、y私=μ+ε私、 y_i=\mu + \varepsilon_i \, , ε 〜N(0 、σ2)ε〜N(0、σ2)\varepsilon \sim N(0,\sigma^2)μμ\muσσ\sigmaπ(μ 、σ)α σ− 2π(μ、σ)∝σ−2\pi(\mu,\sigma)\propto \sigma^{-2}p (μ 、σ)= π(μ )⋅ π(σ)α σ− 1、p(μ、σ)=π(μ)⋅π(σ)∝σ−1、 p(\mu,\sigma) = \pi(\mu) \cdot \pi(\sigma) \propto \sigma^{-1}\, , π(μ )π(μ) \pi(\mu)σσ\sigmap (σ)p(σ)p(\sigma)σσ\sigmaおよびは別々のグループになります。μμ\mu 質問1:なぜそれらを別々のグループとして扱うのが同じグループで扱うよりも理にかなっているのか(私が正しい場合(?)、以前の完全な次元のジェフリーズでは[1]を参照)。 次に、次の状況を考えます: ここでは不明、、は未知であり、は既知の非線形関数です。そのような場合、魅力的であり、私の経験から、次の分解を考慮することは時々有益です: ここでとは、前の縮尺位置の例と同様に、2つのサブモデルのジェフリーズです。θ ∈ R N ε I〜N …

2
スタンで定義された事前分布のないパラメーター
スタンとを使うことを学び始めたところrstanです。JAGS / BUGSがどのように機能するかについていつも混乱していない限り、描画するモデルのすべてのパラメーターに対して何らかの事前分布を常に定義する必要があると考えました。ただし、Stanのドキュメントに基づいてこれを行う必要はないようです。ここに彼らが提供するサンプルモデルがあります。 data { int<lower=0> J; // number of schools real y[J]; // estimated treatment effects real<lower=0> sigma[J]; // s.e. of effect estimates } parameters { real theta[J]; real mu; real<lower=0> tau; } model { theta ~ normal(mu, tau); y ~ normal(theta, sigma); } 事前定義muもされtauていません。JAGSモデルの一部をStanに変換する際に、事前定義されていない多くのパラメーターまたはほとんどのパラメーターを残しておけば、機能することがわかりました。 問題は、事前定義が定義されていないパラメーターがある場合、スタンが何をしているのか理解できないことです。デフォルトは均一分布のようなものですか?これはHMCの特別なプロパティの1つですか?すべてのパラメーターに事前定義済みの定義を必要としませんか?

2
頻繁な結果からベイジアンを事前にする
頻繁な結果をベイジアン事前に変換するにはどうすればよいですか? 次はかなり一般的なシナリオを考えてみましょう:実験は、過去に行われた、いくつかのパラメータの結果測定しました。分析は、頻繁な方法論で行われました。ϕの信頼区間が結果に示されています。ϕϕ\phiϕϕ\phi 私は今、私は、いくつかの他のパラメータを測定し、両方の言いたいいくつかの新しい実験行ってるとφを。私の実験は以前の研究とは異なります---それは同じ方法論では実行されません。私は、ベイジアン解析を行いたい、と私は上の場所の事前分布にする必要がありますθとφ。θθ\thetaϕϕ\phiθθ\thetaϕϕ\phi 以前の測定は実行されていないので、情報のない(たとえばその均一な)をその前に配置します。 θθ\theta 上述したように、のために前の結果がある信頼区間として与えられるが、。現在の分析でその結果を使用するには、分析の前に、以前の頻度の高い結果を有益な情報に変換する必要があります。 ϕϕ\phi この構成されたシナリオでは利用できない1つのオプションは、ベイジアン方式で測定に至る前の分析を繰り返すことです。 私はこれを行うことができれば、φは、私はその後、私の前として使用することを前の実験から後部を持っているでしょうし、何の問題もないでしょう。ϕϕ\phi ϕϕ\phi 分析のために、頻度の高いCIをベイジアン事前分布に変換するにはどうすればよいですか?換言すれば、どのように私は彼らにfrequentest結果を翻訳でき上の後部にφ私はその後、私の分析では前のように使用すること?ϕϕ\phiϕϕ\phi この種の問題について議論する洞察や参考文献は歓迎します。

2
n回のトスからk個のヘッドを観察します。コインは公正ですか?
私はインタビューでこの質問をされました。「正しい」答えはありますか?(n,k)=(400,220)(n,k)=(400,220)(n, k) = (400, 220) トスがiidで、ヘッドの確率がと仮定します。その場合、400回のトスでの頭の数の分布はNormal(200、10 ^ 2)に近く、220頭は平均から2標準偏差離れています。そのような結果を観察する確率(つまり、どちらの方向でも平均から2 SD離れている)は、5%未満です。p=0.5p=0.5p=0.5 インタビュアーは、本質的に、「平均値から2 SD以上を観察した場合、何か他のことが起こっていると結論付けます。コインが公正であることに賭けます」と言った。それは理にかなっています-結局のところ、それはほとんどの仮説テストが行​​うことです。しかし、それで話は終わりですか?「正解」と思われるインタビュアーにとって。ここで質問しているのは、ニュアンスが正当化されるかどうかです。 このコイン投げの文脈では、コインが公平ではないと判断することは奇妙な結論であると指摘するしかありませんでした。私はそれを言う権利がありますか?以下で説明します。 まず第一に、私は-そして私はほとんどの人も-コインについて強い優先順位を持っていると思います:彼らは公平である可能性が非常に高いです。もちろん、それは公正という意味によって異なります。1つの可能性は、「公正」を「頭が0.5に「近い」、たとえば0.49から0.51の確率を持つ」と定義することです。 (また、完全に公正なコインは今むしろ思われる場合持つには、ヘッドの確率は正確に0.50であることを意味するものとして「公正」を定義することができ、未そう。) 事前の判断は、コインに関する一般的な信念だけでなく、コンテキストにも依存する可能性があります。自分のポケットからコインを引き出した場合、それが公正であることを事実上確信するかもしれません。あなたの魔術師の友人が彼からそれを引き出した場合、あなたの先輩は双頭コインにもっと重みを置くかもしれません。 いずれにせよ、(i)コインが公正である可能性を高くし、(ii)220の頭部を観察した後でも、後部を非常によく似たものにする合理的な優先順位を簡単に思い付きます。次に、平均から2 SDの結果を観察したにもかかわらず、コインは非常に公平である可能性が高いと結論付けます。 実際、たとえば、すべての不公平なコインがある可能性がある場合、400回のトスで220のヘッドを観察することで、後部がより公平なコインに重みを置く例を構築することもできます。{0,1}{0,1}\{0, 1\} 誰かが私のためにこれにいくらか光を当てることができますか? この質問を書いた後、私は以前にこの一般的な状況について聞いたことがあることを思い出しました-それはリンドリーの「パラドックス」ではありませんか? Whuberはコメントに非常に興味深いリンクを追加しました。ダイをロードできますが、コインをバイアスできません。3ページ目から: コインが頭の確率pを持っていると言うのは意味がありません。なぜなら、コインは投げられる方法によって完全に決定できるからです。バウンスなし。この場合、p = 1/2。 かなりクール!これは興味深い方法で私の質問と結びついています。コインが「空中に素早く回転して投げ込まれ、跳ね返ることなく空中に閉じ込められている」ことがわかっているとします。それから、コインが公正であるという仮説を絶対に拒否すべきではありません(ここで、「公正」とは、上記の方法で投げたときにp = 1/2を意味することを意味します)。コインは公平です。220のヘッドが観察された後、nullを拒否するのが不快な理由はある程度正当化されるかもしれません。

1
ベイジアンモデルの選択におけるジェフリーズ-リンドリーのパラドックスをいつ心配する必要がありますか?
RJMCMCを使用して探索する、さまざまな複雑さのモデルの大きな(ただし有限の)スペースを検討しています。各モデルのパラメーターベクトルの事前分布は非常に有益です。 どのような場合(もしあれば)、より複雑なモデルの1つがより適している場合、ジェフリーズ-リンドリーのパラドックスがより単純なモデルを好むかについて心配する必要がありますか? ベイジアンモデルの選択におけるパラドックスの問題を浮き彫りにする簡単な例はありますか? 私はいくつかの記事、すなわち西安のブログとアンドリュー・ゲルマンのブログを読んだことがありますが、私はまだ問題をよく理解していません。

1
分布の自由度の良い事前分布とは何ですか?
分布で使用して、ベイジアンモデルで短い間隔の資産収益をモデル化します。分布の両方の自由度(モデル内の他のパラメーターと共に)を推定したいと思います。資産のリターンが非常に異常であることは知っていますが、それ以上のことはあまり知りません。 そのようなモデルの自由度の適切な、やや有益な事前分布とは何ですか?

3
平均と分散が不明な正規分布のJeffreys Prior
私は以前の分布を調べており、平均と未知の分散が不明な正規分布確率変数のサンプルについて、ジェフリーズを事前に計算しました。私の計算によると、以前のジェフリーズは次のようになっています: ここで、はフィッシャーの情報行列です。p(μ,σ2)=det(I)−−−−−√=det(1/σ2001/(2σ4))−−−−−−−−−−−−−−−−−−√=12σ6−−−−√∝1σ3.p(μ,σ2)=det(I)=det(1/σ2001/(2σ4))=12σ6∝1σ3. p(\mu,\sigma^2)=\sqrt{det(I)}=\sqrt{det\begin{pmatrix}1/\sigma^2 & 0 \\ 0 & 1/(2\sigma^4)\end{pmatrix}}=\sqrt{\frac{1}{2\sigma^6}}\propto\frac{1}{\sigma^3}.III しかし、私は出版物や、 p(μ,σ2)∝1/σ2p(μ,σ2)∝1/σ2p(\mu,\sigma^2)\propto 1/\sigma^2 Kass and Wassermann(1996)のセクション2.2を参照してください。 p(μ,σ2)∝1/σ4p(μ,σ2)∝1/σ4p(\mu,\sigma^2)\propto 1/\sigma^4 Yang and Berger(1998)の 25ページを参照 未知の平均と分散を持つ正規分布の場合のJeffreys事前として。以前の「実際の」ジェフリーズとは何ですか?

2
適切な事前および指数化された可能性は、不適切な事後につながる可能性がありますか?
(この質問は西安からのこのコメントに触発されています。) 事前分布が適切で、尤度が明確である場合、事後分布はほぼ確実に適切です。π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) 場合によっては、代わりに、調整された、または指数化された尤度を使用して、疑似事後 π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) L(\theta|x)^\alpha for(たとえば、これには計算上の利点があります)。α>0α>0\alpha>0 この設定では、適切な事前確率を持つことは可能ですが、疑似事後は不適切ですか?

1
統計学者は実際の応用研究でジェフリーズの事前を使用しますか?
大学院の統計推論クラスでジェフリーズの以前のことを知ったとき、私の教授たちは、誰もがそれを使用するというよりも、歴史的な理由から、それが興味深いものであるように思わせました。次に、ベイジアンデータ分析を行ったときに、ジェフリーズの事前分布を使用するように求められることはありませんでした。実際にこれらを実際に使用する人はいますか?その場合(またはそうでない場合)、その理由または理由は何ですか?なぜ一部の統計学者はそれを真剣に受け止めないのですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.