確率に対するベイジアンアプローチと頻度主義的アプローチの違いを誰かが適切に要約できますか?
私が理解していることから:
専門家の見解では、データは特定の頻度/確率(試行回数が無限に近づくにつれて発生するイベントの相対頻度として定義されます)を持つ反復可能なランダムサンプル(ランダム変数)です。基礎となるパラメータと確率は、この反復プロセス中、変動がの変動によるものであることが一定のままとしない(特定のイベント/プロセスのために固定されている)の確率分布。
ベイジアンビューでは、データは固定されますが、特定のイベントの頻度/確率は変化する可能性があるため、分布のパラメーターが変化します。実際、取得するデータは、データの各セットに対して更新されるパラメーターの事前分布を変更します。
私には、イベントに特定の確率があり、変動がサンプリングにあることが合理的であると思われるため、頻度主義的アプローチがより実用的/論理的であると思われます。
さらに、研究からのほとんどのデータ分析は、容易に理解できるので、通常、頻繁なアプローチ(すなわち、信頼区間、p値を使用した仮説検定など)を使用して行われます。
頻度のp値と信頼区間のベイジアン統計的同等物を含む、頻度対ベイジアンのアプローチの解釈の簡単な要約を誰かが私に与えることができるかどうか疑問に思っていました。さらに、1つの方法が他の方法よりも好ましい特定の例が評価されます。