タグ付けされた質問 「abc」

2
難易度の高い本当に単純なモデルの例は何でしょうか?
近似ベイズ計算は、基本的に任意の確率モデルをフィッティングするための本当にクールな手法です。尤度が手に負えないモデルを対象としています(たとえば、パラメーターを修正してもモデルからサンプリングできますが、数値的、アルゴリズム的、または分析的に尤度を計算することはできません)。聴衆におおよそのベイズ計算(ABC)を導入すると、本当に簡単ではあるがまだ多少面白いですいくつかの例のモデルを使用していいですし、それが難治可能性があります。 まだ手に負えない可能性がある本当に単純なモデルの良い例は何でしょうか?

4
尤度のない推論-それはどういう意味ですか?
最近、私は「可能性のない」方法が文学で取り残されていることに気づきました。ただし、推論または最適化の方法が尤度フリーであることの意味は明確ではありません。 機械学習の目的は、通常、一部のパラメーターがニューラルネットワークの重みなどの関数に適合する可能性を最大にすることです。 では、正確に尤度フリーのアプローチの哲学は何であり、なぜGANsのような敵対的なネットワークがこのカテゴリーに該当するのでしょうか?

1
ABCモデルの選択
要約統計量の使用に起因するエラーが存在するため、ベイズ因子を使用したABCモデルの選択は推奨されないことが示されています。このホワイトペーパーの結論は、ベイズ因子を近似する一般的な方法(アルゴリズム2)の動作の研究に依存しています。 ベイズ因子がモデル選択を行う唯一の方法ではないことはよく知られています。モデルの予測パフォーマンスなど、関心のある他の機能があります(スコアリングルールなど)。 私の質問は、複雑な尤度のコンテキストで予測パフォーマンスの観点からモデル選択を行うために使用できるいくつかのスコアリングルールまたは他の量を近似するためのアルゴリズム2に類似した方法はありますか?

1
複数のパラメーターのABC推論に続く事後予測チェック
私はベイジアン統計に比較的新しいので、穏やかにしてください。 マルチパラメータモデルの推論のために、近似ベイズ計算(ABC)を実行しました。現在、推論されたパラメーターに対して事後予測チェックを実行しようとしています。 私が知りたいのは、事後予測チェックの要約統計を生成するために事後からサンプリングするとき、各パラメーターの周辺事後から独立してサンプリングするか、またはパラメーター値を一緒にサンプリングすることになっている(つまり、サンプル受け入れられた要約統計量をもたらした正確なパラメーターの組み合わせから)。 モデルには多くのパラメーター(6を超える)が含まれており、各パラメーターの限界後任に興味があります。この質問が理にかなっているといいのですが。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.