タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。

2
MCMCを使用して事後を近似するとき、事後確率を保存して、後でパラメーター値の頻度を使用しないのはなぜですか?
現在、いくつかの常微分方程式(ODE)で定義されたモデルのパラメーターを推定しています。マルコフ連鎖モンテカルロ(MCMC)を使用していくつかのデータを与えられたパラメーターの事後分布を近似することにより、ベイジアンアプローチでこれを試します。 MCMCサンプラーはパラメーター値のチェーンを生成し、特定のパラメーター値の(非正規化)事後確率を使用して、その値をチェーンに追加するか、以前の値を再度追加するかを(確率論的に)決定します。しかし、実際の事後確率を保存する必要はなく、生成された結果のパラメーター値のn次元ヒストグラムであり、パラメーター事後分布の最高密度領域(HDR)のような要約統計量が計算されるのが慣習のようですこのヒストグラムから。少なくとも私は、ベイジアン推論に関するクルシュケスのチュートリアルブックから学んだと思います。 私の質問:サンプリングされたパラメーター値の事後確率をこれらと共に保存し、MCMCチェーンのパラメーター値の頻度からではなく、これらの値から事後分布を概算する方が簡単ではないでしょうか?サンプラーは最初に低確率領域を事後確率で「ふさわしい」よりも頻繁にサンプリングするため、バーンインフェーズの問題は発生しませんが、これらに過度に高い確率値を与える問題はもはやありません。

3
ハミルトニアン/ハイブリッドMCMCの「質量行列」の用語
非対角質量行列を使用してHMCを実装しようとしていますが、いくつかの用語につまずかれています。 BDA3とNealのレビューによると、運動エネルギーの項(便宜上、常に使用されていると思います)は K( p )= pTM− 1p2。K(p)=pTM−1p2. K(p) = \frac{p^T M^{-1} p}{2} \,. これは、ゼロ平均と共分散行列をもつ多変量正規と呼ばれることでも認識できます。BDA3(pg 301)は言うMMM 単純にするために、通常、対角質量行列Mを使用します。その場合、φの成分は独立しており、各次元j = 1、。についてφj〜N(0、Mjj)です。。。、d。Mは、事後分布の逆共分散行列(var(θ| y))^-1で大まかにスケーリングすると便利です。 (私はN(0、M))を平均ゼロと共分散Mの多変量正規として読み取っています。) 私をつまずかせる部分は、「が事後分布の逆共分散行列で大まかにスケーリングすることは有用であるかもしれない...」と言っているところです。 MMM そして、その直前にも、跳躍ステップ()を開始する運動量サンプルが、共分散行列をもつ多変量標準から抽出されます。 Mφϕ\phiMMM どっち?HMCに適したMを構築するには、事後の共分散または精度行列を推定しますか?にもかかわらず、である共分散行列の運動エネルギーを用いて、の推定値である精度マトリックスより効率的なアルゴリズムをもたらす後方のか?MMMMMMM 第二の質問:ここで私を導くことができる直感は何ですか? 運動量がポテンシャル/事後に対して直角に押し出されて混合を改善するように、精度行列を使用しますか? または、勢いが後部の高確率の質量部分に向かってプッシュするようにしますか(そのため、そこからほとんどのサンプルを引き出します)。 psの単位行列を使用していない理由は、私の問題で、かなり高い次元(約1000)の事後の共分散行列の適切な推定値を事前に取得できるためです。MMM

1
この質問を統計的に言い換える方法
ゲームのプレイヤーによるn回の試行からの観測を含むデータセットを分析しています。各プレーヤーの試行に関して1つ以上の記述子を指定して各試行の結果を予測する回帰モデルを構築している場合、データセットが与えられた特定の記述子が「意味のある」または「重要な」になる前にプレーヤーが何回試行する必要があるかを測定するにはどうすればよいですか? 良い例はダーツをする人々のグループでしょう。絶対的な初心者は目を閉じ、ダーツを投げ、雄牛の目を打つかもしれません。明らかに、それは純粋なチャンスであり、彼はこれまでにプレーしたことがなく、酔っ払っている可能性さえあることがわかっています。しかし、彼がさらに5本の投げ矢を投げ、その中からさらに3回ブルズアイに当たったとしましょう。彼は6本の投げ矢を投げて、50%の確率でブルズアイに当たりました。今、物事は疑わしくなっています... この真の初心者はどの時点で十分なブルズアイダーツを投げますか、そして彼が他のより経験豊富なプレーヤーよりも真面目な才能を持っていると言えるまでに何回の試行が必要ですか?統計でこの用語は何ですか、それについてどこでもっと知ることができますか? 免責事項:「有意性」や「観察」などの読み込まれた統計用語をできるだけ使用しないようにしましたが、ここでは特定の場所で適切であると感じました。 誰かが私を正しい方向に向けることができれば、それは素晴らしいことです。ありがとう!!

3
SVDを実行して欠損値を代入する方法、具体例
SVDを適用する前に欠損値を処理する方法に関する素晴らしいコメントを読みましたが、簡単な例でどのように機能するか知りたいです。 Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 上記のマトリックスを考えると、NAの値を削除すると、User2とUser5しかなくなります。これは、私のUが2×kになることを意味します。しかし、欠損値を予測する場合、Uは5×kである必要があります。これは、特異値とVで乗算できます。 上記のマトリックスで、最初に欠損値のあるユーザーを削除してからSVDを適用して、欠損値を記入する人はいますか?数学記号を使いすぎずに、適用した手順の非常に簡単な説明を提供し、答えを実用的なものにしてください(つまり、数値に別の数値を掛けると答えが得られます)。 次のリンクを読みました。 stats.stackexchange.com/q/33142 stats.stackexchange.com/q/31096 stats.stackexchange.com/q/33103
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
高校でのベイズモデルの比較
私は高校生に物理学を教えています。生徒たちに、実験のデータについて初歩的なベイズモデル比較を行ってもらいたいと思います。私は彼らがそうする方法を考え出しました(以下を参照)が、それが正しいかどうかはわかりません。私はそれについてのフィードバック(特に否定的なフィードバック!)、またはそれをより良くする方法についての提案をいただければ幸いです。 勾配aaaと切片パラメーターを持つ線形理論bbbを、定数の帰無仮説、つまり勾配aaa = 0 と比較します。どちらの場合も、ガウス対称ノイズを想定しています。 学生は、Excel、勾配と切片のための最尤推定値(使用して、導き出すことができ、およびBを)、およびそのエラーがdのとD Bを。a^a^\hat{a}b^b^\hat{b}dadadadbdbdb 斜面上の前のため、私は、広いガウス分布を考慮し、最大=尤推定(を中心)とその10倍の標準偏差。私の推論は、現実的には「正しい」ラインパラメータを少なくとも1マグニチュード内に見つけることを期待しており、実際にはより近いものを見つけるため、「正しい」スロープをMLEに置き換えても変更しません数が多すぎます。a^a^\hat{a} いずれかの特定の線形理論与えられた証拠の可能性のために、私は、標準偏差(と、標準の多変量ガウス分布を考慮しての二乗残差和に関連します)。σeσe\sigma_e したがって、一般的に線形理論の証拠の尤度、つまり上記の事前確率と尤度の積分は、MLEポイントでの事前尤度と尤度に勾配誤差を掛けたものと推定されます。dadada 帰無仮説所与の証拠の可能性について(全標準偏差を用いて、他の多変量ガウス分布であると仮定される平均-Yとの差に基づいて、)。σTσT\sigma_T これは、私が確信が持てない部分です。ベイズ係数を上記の2つの尤度(上記の3と4)の比率であると推定します。これにより、次の式を考え出すことができます。 B10= da(10 | a^| ⋅ 2 π√)(σT/ σe)N⋅ E√B10=da(10|a^|⋅2π)(σT/σe)N⋅eB_{10}=\frac{da}{(10 |\hat{a}| \cdot \sqrt{2 \pi})}(\sigma_T/\sigma_e)^N\cdot \sqrt{e} これにより、ベイズ因子の合理的な推定が得られますか?どんなフィードバックでも大歓迎です。

2
純粋なベイジアンフレームワークの下で、事前知識はどのようにして可能ですか?
これはより哲学的な質問ですが、純粋なベイズの観点から、実際にどのようにして事前知識を形成するのでしょうか。有効な推論を実行するために事前情報が必要な場合、今日の事前情報を正当化する際に過去の経験に訴える必要がある場合、問題があるようです。昨日の結論がどのように有効であったかについては、同じ質問が残っているようです。知識が必要ないところでは、一種の無限回帰が続いているようです。これは、最終的に以前の情報が任意の方法で、またはおそらく「より頻繁な」推論のスタイルに基づいて仮定されなければならないことを意味しますか?

1
ベイジアンよりも優れた頻度主義的アプローチの具体例[終了]
休業。この質問には、より焦点を当てる必要があります。現在、回答を受け付けていません。 この質問を改善してみませんか?質問を更新して、この投稿を編集するだけで1つの問題に焦点を当てます。 4年前休業。 ベイジアン対頻度主義論争における頻度主義的視点を理解するのを手伝ってくれませんか?私はたくさん読んだことがあり、見つけたすべてのソースは複雑な方程式で満たされているか、ベイズの観点から書かれているか、またはその両方です。私は、頻度主義的アプローチがベイズ的アプローチよりも有用な出力を生成する単一のサンプル問題を発見していません。私はこの議論の片側だけを理解しているように感じ、反対側も理解したいと思います。私は統計の背景がないので、頻度主義の方法がベイズの方法よりも多くの価値を生み出すケースの簡単な例をいただければ幸いです。 良い例は、将来のある結果について、常連客とベイジアンがお互いに賭けて、常連客が正の期待値を持っている賭けシナリオです。


1
BICは仮説検定に使用できますか
ベイズ情報基準をとして定義し (私はドロップしません定数、、限界尤度と同等の場合の問題を回避するため) - LN (2 π )B I C = - 2 ⋅ LNL^+ K ⋅ (LN(n )− ln(2 π))B私C=−2⋅ln⁡L^+k⋅(ln⁡(ん)−ln⁡(2π)) \mathrm{BIC} = {-2 \cdot \ln{\hat L} + k \cdot (\ln(n) - \ln(2 \pi))} − ln(2 π)−ln⁡(2π) - \ln(2 \pi) 与えられたデータとモデル、周辺尤度の間のおおよその関係と ISれますを暗示するようです H I P (Y | H I)B I C …

1
MCMCによってサンプリングされた共分散行列の自己相関を計算できますか?
MCMCがWishart分布から共分散行列をサンプリングするとします。 すべての反復で、Wishart分布から新しいサンプル行列を取得します。SiSiS_i 質問:すべてのサンプルを含むトレースがある場合、これらのサンプルの自己相関をプロットできますか?S1,...SnS1,...SnS_1,...S_n の自己相関を使用している人を見たことがありが、正当な理由は見つかりませんでした。log(det(S))log⁡(det(S))\log(\det(S))

1
単数ベイジアン回帰-事後は明確に定義されていますか?
SEコミュニティ、次の問題についていくつかの洞察を得たいと思います。単純な線形回帰モデル与えられた場合 等分散誤差項を持つガウス尤度関数の下では、従属変数の条件付き分布はの形式をとります および 前に条件付き(有益でない)共役を割り当てます は。周辺事後分布が多変量tであるのは 標準的な結果ですY | β 、H 〜N (Xのβ 、H - 1つの I )。β 時間β | H 〜N (0 、C I )、H 〜G (S - 2、V )Y= Xβ+ ϵ 、ここで Y∈ RT、X∈ RT× N。Y=Xβ+ϵ , where Y∈RT,X∈RT×N.Y=X\beta+\epsilon\text{ , where } Y\in\mathbb{R}^T,X\in\mathbb{R}^{T \times N}.Y| β、H 〜N(Xβ、h− 1私)。Y|β,h∼N(Xβ,h−1I).Y|\beta,h \sim N(X\beta,h^{-1}I).ββ\betahhh …

2
連続事前分布でベイズの定理をどのように使用しますか?
事前確率が連続確率分布としてモデル化されている場合、たとえば、特定のモデルへのバイアスを反映するためにベータ分布が歪んでいる場合、事後確率を計算するにはどうすればよいですか? 連続分布では間隔の推定値しか得られないため、私にとっての課題は、特定のモデルの確率を計算することです。 質問の素朴さを許してください、私は最近ベイズ統計学を勉強し始めたばかりです。
8 bayesian  prior 

2
ベイジアン統計を学ぶ前に知っておくべき頻出統計のトピックは何ですか?
ベイジアン統計の学習を始める前に知っておくべき頻度統計のトピックのサブセットがあるかどうか疑問に思っていました。私がそれを読んだら、2つの傾向は互いに拮抗しているようです。たとえば、頻度分析は、観測されたデータに対して行われた仮定(仮説)に大きく基づいています。一方、ベイジアン統計は、それに関する事後情報を推測するために、以前のモデルの構築により依存しています。 いずれにせよ、ベイジアン統計に着手する前に、どの頻度論的または一般的な統計のトピックを知っておくべきですか?

1
データテーブルのレコードの正誤を検証するためのサンプルサイズを計算する方法
CrossValidatedで既存の回答を読みましたが(オンラインで他の場所でも)、探しているものが見つかりませんが、見逃した場合は既存のソースを参照してください。 N = 1000レコードのデータセットがあるとします。各レコードは手動でサンプリングし、「有効」または「無効」(または真/偽、右/間違っなど)としてラベル付けできます。 データセット内のすべてのレコードが有効であるという一定のレベルの信頼を実現したいと考えています。レコードをサンプリングするときに、無効なレコードが1つ見つかった場合は、戻ってデータセットの作成方法を修正し、その問題と同様の問題を修正します。 したがって、無効なものを特定し、データセットを修正して再作成した後、有効なレコードのみを含むサンプリングを行います。すべてのレコードが有効であることを(たとえば)99%または95%確認したい場合、サンプルはどのくらいの大きさでなければなりませんか?(理想的にはNの関数として。) 私は超幾何テスト(http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test)をいじってみました-そのコンテキストではkが何であるか知りたいのですが、Kの固定値を持っていません。むしろ、KがNに等しくなるようにkを選択したいのですが、K = Nを設定すると、明らかに1の確率になります。ベイジアンアプローチを使用する必要があるかどうかも疑問に思っていますが、ベイジアン統計を十分に理解していません。

1
Gibbs Samplerトランジションカーネル
ましょう上のターゲット分布である絶対連続的にWRTされる次元ルベーグ測度、すなわち:ππ\pi(Rd,B(Rd))(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))ddd ππ\pi、密度をに π(x1,...,xd)π(x1,...,xd)\pi(x_1,...,x_d)λdλd\lambda^dλd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)λd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)\lambda^d(dx_1,...,dx_d) = \lambda(dx_1) \cdot \cdot \cdot \lambda (dx_d) からの完全な条件がわかっていると仮定します。したがって、Gibbs-Samplerの遷移カーネルはからの完全な条件文の積です。πi(xi|x−i)πi(xi|x−i)\pi_i(x_i|x_{-i})ππ\piππ\pi 遷移カーネルも、次元ルベーグ測度に対して絶対的に継続的に処理されますか?ddd

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.