私はベイジアン統計を再学習しようとしていました(私が最終的にそれを得たと思うたびに、以前に考慮しなかった何かがポップアウトします...)。しかし、データ生成プロセスが(私にとって)明確ではありませんでした。ベイジアンフレームワークでは実際にそうです。
頻出主義の枠組みは私には明らかです。いくつかの「真の」パラメータあり、そのパラメータは、パラメータ化する分布に従ってデータを生成します。
ただし、ベイジアン設定では、パラメーターを確率変数としてモデル化します。その部分は私を混乱させません。ベイジアンはこの確率をそれ自体の信念の不確実性として解釈するので、それは理にかなっています。彼らは確率を繰り返し不可能なイベントに割り当てても大丈夫です。だから私が「ベイズ主義」を解釈した方法は、データを生成するいくつかのパラメータがあると信じているということでした、それは決定的には不明ですが、それでも「自然」によって決定されたら修正されましたすることが)。それにもかかわらず、それは修正され、それゆえ、それは「再現不可能な出来事」でした。再現性はありませんでしたが、信念を更新することのみを試みています与えられたデータ。したがって、データは、確率分布によって考慮されている(以前の)パラメーターのいずれかによって生成された可能性がありますが、それでもパラメーターは固定されており、不明です。確率値を付けているだけです。
この見解では、データ生成プロセスが常連客のプロセスとほぼ同じであると想定することは私にとって理にかなっています。「自然」は、「真の」「前の」分布を使用してパラメーターを選択し、確率変数がその「真の」(しかし固定された)実現を実現すると、観測したデータの生成を開始します。
これは、ベイジアンフレームワークでのデータ生成プロセスを解釈する標準的な方法ですか?
私の見解の主なものは、パラメーターが決定的に固定され(rvの実現として見られる)、に従ってデータを生成することです。したがって、私の見解のもう1つの非常に重要な点は、私にとって、以前のものは、パラメータを作成する固定された(反復不可能な)イベントに対する不確実性を表現する定量化可能な方法にすぎないということです。それは人々が以前のをどのように解釈するのですか?
ユーモラスなメモ:
彼女がどうやってそれをやっているのかを「自然」に尋ねて、これを一度に解決することができればいいのに...