タグ付けされた質問 「empirical-bayes」

1
経験的ベイズはどのように有効ですか?
だから私はちょうど素晴らしい本入門の経験的ベイズを読み終えました。この本は素晴らしいと思いましたが、データからの事前作成は間違っていると感じました。分析計画を立て、データを収集し、分析計画で以前に決定した仮説をテストするように訓練されました。すでに収集したデータを分析すると、選択後の推論が行われ、「重要」と呼ばれるものをより厳しくする必要があります。こちらを参照してください。機械学習には、テストとトレーニングセットを設定する前に予測子を選択することを意味する「チェリーピッキング」と呼ばれる類似したものがあると思います(統計学習の概要)。 私が以前に学んだことを考えると、経験的なベイズは弱い基盤に基づいているように思えます。データが受動的に生成された設定でのみ使用されますか?もしそうなら、これは正当かもしれませんが、厳密な実験計画を行うときにそれを使用するのは正しくないようですが、ブラッド・エフロンは一般に非常にNHST分野である生物統計学のために経験的ベイズを使用することを知っています。 私の質問は: 経験的ベイズはどのように有効ですか? どのような状況で使用されますか? どのような状況で経験的ベイズアプローチの使用を避ける必要がありますか?その理由は? 人々は生物統計学以外の分野でそれを使用していますか?もしそうなら、どのような状況でそれを使用していますか?

2
ハイパーパラメーターを推定するためのクロス検証と経験的ベイズ
階層モデル与えられた場合、モデルに適合する2段階のプロセスが必要です。最初に、少数のハイパーパラメーターθを修正してから、残りのパラメーターBayでベイジアン推論を行います。ハイパーパラメーターを修正するために、2つのオプションを検討しています。p (x | ϕ 、θ )p(x|ϕ,θ)p(x|\phi,\theta)θθ\thetaϕϕ\phi 使用経験的ベイズ(EB)と周辺尤度の最大化(高次元のパラメータを含むモデルの残りの部分を統合します)。p (すべてのデータ| θ )p(all data|θ)p(\mbox{all data}|\theta) k- fold cross validation などの相互検証(CV)手法を使用して、尤度p (テストデータ| トレーニングデータ、θ )を最大化するθを選択します。kkkθθ\thetap (テストデータ| トレーニングデータ、θ )p(テストデータ|トレーニングデータ、θ)p(\mbox{test data}|\mbox{training data}, \theta) EBの利点は、すべてのデータを一度に使用できることです。一方、CVの場合、(可能性として)モデル尤度を複数回計算し、を検索する必要があります。EBとCVのパフォーマンスは多くの場合同等であり(*)、多くの場合、EBは推定が高速です。θθ\theta 質問:2つをリンクする理論的基盤はありますか(たとえば、EBとCVは大きなデータの制限で同じです)。または、EBを経験的リスクなどの一般化可能性の基準にリンクしていますか?誰かが良い参考資料を指すことができますか? (*)例として、ここにマーフィーの機械学習、セクション7.6.4からの図があります。そこで彼は、リッジ回帰については両方の手順が非常に類似した結果をもたらすと言います。 マーフィーはまた、CVに対する経験的ベイズの基本的な実際的な利点(「証拠手順」と呼びます)は、が多数のハイパーパラメーターで構成される場合(たとえば、自動関連性決定またはARDのように、各機能の個別のペナルティ)であると言います。そこでは、CVを使用することはまったくできません。θθ\theta

1
階層型ベイジアンモデルと経験的ベイズ
HBM対EBは、ハイパーパラメーターがサンプリング/推定/などの「ゲーム内」にある2つの選択肢であると考えますか?これら2つの間に明確な関係があります。 HBMはEBよりも「完全にベイジアン」だと思いますか?「完全にベイジアン」であることと他の選択肢との違いを理解できる場所はありますか? ありがとう。

1
経験的ベイズとランダム効果の間には関係がありますか?
私は最近、経験的ベイズについて偶然読んで(Casella、1985、経験的ベイズデータ分析の紹介)、ランダム効果モデルによく似ていました。両方ともグローバル平均に縮小した推定値を持っているという点で。しかし、私はそれを完全に読んでいません... 誰もがそれらの類似点と相違点について何か洞察を持っていますか?

3
ベイジアンの信頼できる区間は、推定されたパラメーターを確率変数として扱いますか?
私は最近ウィキペディアの次の段落を読みました: ベイジアン区間では、境界が固定され、推定パラメーターが確率変数として扱われます。一方、頻度主義信頼区間では、境界が確率変数として扱われ、パラメーターが固定値として扱われます。 しかし、これが本当かどうかはわかりません。信頼できる区間の私の解釈は、推定されたパラメーターの真の値についての私たち自身の不確実性をカプセル化したが、推定されたパラメーター自体はある種の「真の」値を持っていたというものでした。 これは、推定されたパラメーターが「ランダム変数」であると言うこととは少し異なります。私が間違っている?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.