(もしあれば)頻繁なアプローチがベイジアンよりも実質的に優れているのはいつですか?


72

背景:私はベイジアン統計の正式なトレーニングは受けていませんが(詳細については非常に興味がありますが)、多くの人がフリークエンティスト統計よりも好ましいと感じる理由の要点を理解するのに十分なことを知っています。私が教えている導入統計(社会科学)クラスの大学生でさえ、ベイジアンのアプローチが魅力的であることがわかります。「なぜnullが与えられた場合、データの確率を計算することに関心があるのでしょうか? ??帰無仮説または代替仮説と私も読んだのようなこれらのほかベイズ統計の経験的な利点を証明する、しかし、私はブラスコによって、この引用に出くわした(2001;強調を追加します)。:

動物の飼育者が帰納に関連する哲学的問題に興味がなく、問題を解決するためのツールに興味がある場合、ベイジアンと頻繁な推論の両方の学校が確立されており、どちらの学校が好まれるのかを正当化する必要はありません。一部の複雑なケースを除き、どちらにも運用上の問題はありません... どちらの学校を選択するかは、一方の学校に他の学校が提供していない解決策があるかどうか、問題がどれだけ簡単に解決できるかに関連する必要があります、そして科学者が表現結果の特定の方法でどれほど快適に感じるか。

質問:Blascoの引用は、Frequentistのアプローチが実際にベイジアンのアプローチよりも好ましい場合があることを示唆しているようです。それで、私は好奇心が強いです:ベイジアンのアプローチよりも頻繁なアプローチがいつ望ましいか?私は、概念的に(つまり、帰無仮説に基づいたデータの確率が特に有用かどうかを知っているのはいつか)、そして経験的に(つまり、どのような条件下で頻度論的手法が優れているか、ベイジアンか)の両方の問題に取り組む回答に興味があります

また、回答ができるだけアクセスしやすいものになっている場合も望ましいでしょう-クラスに回答を返して生徒と共有するのは良いことです(ある程度の専門性が必要であることは理解していますが)。

最後に、Frequentist統計の通常のユーザーであるにもかかわらず、私は実際にBayesianが全面的に勝つ可能性にオープンです。


10
客観的な確率、つまり自然に確率的なプロセスを扱うとき。たとえば、放射性崩壊は、あなたの主観的な信念や未知の情報、その他ほとんど何とも関係がありません。それはちょうどそれ自身のペースで進み、原子は本当にランダムに分裂します。
アクサカル

6
:残念ながら広すぎるように閉じてしまった今回の質問(私は再開を投票したが、それは決してなかった)を参照してくださいstats.stackexchange.com/questions/192572を。あなたはほとんど同じことを求めています。答えを確認してください。
アメーバは、モニカを

5
@Aksakal:私はこの議論をしたいと思いますが、それは話題外であり、私たちは黙って(そして計算して)言われます。
アメーバは、モニカーを復活

12
「Bayesiansはfrequentistsは誰に興味がないの問題に対処するために非の打ちどころのないロジックを使用しながら、質問の誰もが、誰が考えていない仮定を使用してに興味がある対処」 -ルイ・リヨン
ルッジェーロトゥッラ

4
@jsakaluk、ベイジアンの拠点は、十分なデータがない、またはプロセスが不安定な領域、つまり社会科学、疑似科学、生命科学などであることに注意してください。量子力学やほとんどの物理学でベイジアンである必要はありません。確かに、あなたもそこにベイジアンになることができます、それはあなたの推論が頻度主義者のそれと変わらないということです
-Aksakal

回答:


54

頻度の高いメソッドが好まれる5つの理由を次に示します。

  • もっと早く。ベイジアン統計が頻繁に回答とほぼ同一の回答を与えることが多いことを考えると(そうでない場合、ベイジアンが100%明確ではない常に進むべき道であることません)、頻繁な統計がしばしば何桁も速く得られるという事実は強い議論。同様に、頻繁なメソッドは、結果を保存するためにそれほど多くのメモリを必要としません。特に小さなデータセットでは、これらのことはやや些細に思えるかもしれませんが、ベイジアンとフリークエンティストが結果に通常同意するという事実(特に多くの有益なデータがある場合)は、気にするつもりなら、重要性が低いことを気にし始める可能性があることを意味しますもの。そしてもちろん、ビッグデータの世界に住んでいるのなら、これらは決して些細なことではありません。

  • ノンパラメトリック統計。ベイジアン統計にはノンパラメトリック統計があることを認識していますが、経験豊富な分布関数など、頻度の高い分野には間違いなく実用的なツールがあると主張します。世界のどの方法もEDFやカプラン・マイヤー曲線などに取って代わることはありません(明らかに、これらの方法が分析の終わりであることは言うまでもありません)。

  • 少ない診断。MCMCメソッドは、ベイジアンモデルをフィッティングするための最も一般的な方法であり、通常、頻度の高いカウンターパートよりもユーザーの作業が多く必要です。通常、MLE推定値の診断は非常に単純なので、適切なアルゴリズムの実装で自動的に実行されます(ただし、利用可能なすべての実装が適切であるとは限りません...)。そのため、頻繁なアルゴリズムによる診断は通常、「モデルをフィッティングするときに赤いテキストがないことを確認する」ことです。すべての統計学者の帯域幅が限られていることを考えると、これにより、「私のデータは本当にほぼ正常ですか?」または「これらのハザードは本当に比例していますか?」など

  • モデルの仕様ミスの下での有効な推論。「すべてのモデルが間違っているが、一部は有用である」と聞いたことがありますが、さまざまな研究分野がこれを多かれ少なかれ真剣に受け止めています。Frequentistの文献には、モデルが誤って指定されている場合に推論を修正する方法がたくさんあります:ブートストラップ推定器、交差検証、サンドイッチ推定器(リンクはモデルの誤仕様の下での一般的なMLE推論についても説明します)、一般化推定方程式(GEE)、準尤度法、など私が知る限り、ベイズの文献には、モデルの誤った指定の下での推論に関するものはほとんどありません(ただし、モデルチェック、つまり事後予測チェックについては多くの議論があります)。私はこれを偶然とは思いません。推定器が繰り返される試行に対してどのように動作するかを評価するには、推定器が「真の」モデルに基づいている必要はありませんが、ベイズの定理を使用することは必要です!

  • 以前のものからの自由(これはおそらく、人々がすべてにベイジアン手法を使用しない理由の最も一般的な理由です)。ベイジアンの立場の強さは、多くの場合、事前分布の使用として宣伝されています。ただし、私が取り組んできたすべての応用分野では、分析における情報の事前の考え方は考慮されていません。統計的ではない専門家から事前知識を引き出す方法に関する文献を読むことは、このための正当な理由を与えます。「残酷なストローマンは自分の言い回しのようなもの」のようなことを言う論文を読みました。通常、この範囲は狭すぎるので、arbitrarily意的に少し広げてみてください。彼らの信念がガンマ分布のように見えるかどうかを尋ねます。おそらく、それらのガンマ分布を描画し、形状パラメーターが小さい場合にどのように太い尾を持つことができるかを示す必要があります。これにはPDFが何であるかを説明することも含まれます。」(注:統計学者でさえ正確に言うことができるとは思わない効果の大きさが範囲内にあるかどうかが先験的に 90%か95%であるか、そしてこの違いが分析に大きな影響を与える可能性があります!)正直言って、私は非常に不親切であり、優先順位を引き出すことがもう少し簡単かもしれない状況があるかもしれません。しかし、これがワームの缶であることがわかります。情報のない事前分布に切り替えたとしても、問題になる可能性があります。パラメータを変換するとき、情報価値のない事前確率と簡単に間違えられるものは、非常に有益であると見なすことができます!これの別の例は、私が断固としてしないいくつかの研究者と話したことです経験的に、他の専門家は自信過剰になりがちであるため、他の専門家のデータの解釈を聞きたい。むしろ、他の専門家のデータから何を推測できるかを知ってから、自分の結論に至ります。どこで聞いたのか思い出せませんが、どこかで「あなたがベイジアンなら、みんなにフリークエンティストになってほしい」というフレーズを読みました。理論的には、あなたがベイジアンであり、誰かがその分析結果を説明している場合、最初にそれらの前の影響を削除してから、自分が使用した場合の影響を把握する必要があることを意味すると解釈します。信頼できる間隔ではなく信頼間隔を与えてくれた場合、この小さな練習は簡単になります!

もちろん、有益な優先順位を放棄しても、ベイジアン分析にはまだ有用性があります。個人的には、これが彼らの最高の効用があると信じています。MLEメソッドを使用して答えを得るのは非常に難しい、MCMCで非常に簡単に解決できる問題がいくつかあります。しかし、これがベイジアンの最高の効用であるという私の見解は、私の側の強い先入観によるものです。


1
(+1)いい答えです。結果を保存するのにそれほど多くのメモリを必要としないと思いますか?
-jsakaluk

1
事前問題からの自由という点では、問題について考えて理解する必要が少ないほど良いと言っていますか?私はあなたと話をしたいいくつかのソフトウェアベンダーを知っているので、あなたはポイント・アンド・クリック、あるいはもっと良いのはワンクリックで、あなたが想像できるどんな問題にも答えることができます!ちなみに、あなたは問題さえ必要とせず、あなたのデータを彼らのウェブサイトにフィードするだけで、彼らはすべての可能な問題を見つけて解決します。(申し訳ありませんが、残酷なストローマンのようなコメントで答えることに抵抗できませんでした。)
ウェイン

1
@ウェイン:あなたが冗談を言っていることは知っていますが、それは100%正しいです。統計は、現実世界の問題に答えるためのツールです。最終製品ではなく、ツールであることを強調したいと思います。徹底的にハッシュ化された「フリークエンティスト対ベイジアン」引数のどちら側(「私の質問に対する最良の答えを与える方」側に座っている、つまり異なる問題で両方が好きだという意味)に関係なく、使いやすさは議論の余地がないあらゆるツールのための非常に現実的なユーティリティ。
クリフAB

もちろん、ツールがひどい製品を頻繁に生産している場合、それは問題です。そして、もし私が頻繁な方法がこれをしていると確信していたが、ベイジアンの方法はそうではなかったなら、私はすぐにベイジアンの方法を支持するでしょう。
クリフAB

1
@CliffAB:使いやすさが重要であり、あなたが言うように、結果が同等の品質である場合、なぜ使いにくいかを選択しますか?同時に、優先順位を考え、明示し、理解すること(ベイジアンではなく、文字通り、すべての科学者、あらゆる分野、すべての研究が持つ優先順位を意味する)は、優れた科学にとって重要です。ベイジアン統計は明示的であり、これらの問題のいくつかについて考え、理解させる必要があります。これが単なる面倒な不便さではない限り、それは間違いなく良いことであり、その反対もスラムダンクではありません。
ウェイン

23

頻度統計のいくつかの具体的な利点:

  • ベイジアンアナログで閉形式の解を得る前に共役が必要になるのに対し、頻繁に問題を解決する閉形式の解があります。これはいくつかの理由で役立ちます-その1つは計算時間です。
  • うまくいけば、最終的にはなくなる理由:素人は、頻繁な統計を教えられています。多くの人に理解されたいなら、頻繁に話す必要があります。
  • 「有罪になるまで罪のない」帰無仮説有意性検定(NHST)アプローチは、誰かが間違っていることを証明する場合に役立ちます(私はあなたの権利を仮定し、圧倒的なデータがあなたが間違っていることを示唆します)。はい、ベイジアンにはNHSTアナログがありますが、頻度の高いバージョンの方がはるかに簡単でわかりやすいと思います。
  • ありませんなものとして、本当に一部の人が不快になる情報価値前に。

1
(+1)ありがとう-最初の点を少し明確にしていただけますか?ベイジアンに精通していない誰かとして、あなたは「共役事前」の必要性について述べている点(?)が少し失われます
...-jsakaluk

5
私はあなたが頻繁な仮説検定を正しく解釈しているとは思わない。あなただけ与えたが、p値が実際にある。p値の正しい解釈:nullが与えられた場合、観測された結果よりも極端な、またはより極端な結果が得られる可能性は%のみです。この誤解は、ベイジアンアプローチを主張する際に頻繁に発生します。それ以外はあなたの答えが好きです。P D a t aP(H0|Data)αP(Data|H0)α
ザカリーブルーメンフェルド

@ZacharyBlumenfeldそれを指摘してくれてありがとう、私は頭の中でベイジアンを持っていました。今すぐ修正します。
-TrynnaDoStat

1
@jsakaluk事後と事前が同じ分布である場合、事前は共役であると言われます-閉じた形の事後を保証します。たとえば、データがベルヌーイであり、事前にBeta(、)を選択した場合、事後はBeta(、)シミュレーション、サンプリング、または強力な計算を行う必要はありません。βのα + Σ N I = 1 xがiが β + nは- Σ N I = 1、X Iαβα+i=1nxiβ+ni=1nxi
TrynnaDoStat

16

驚くべきことにまだ言及されていない頻度の高いアプローチを使用する最も重要な理由は、エラー制御です。非常に多くの場合、研究は二分法の解釈につながります(これに基づいて研究を行うべきかどうか?介入を実施すべきかどうか?)。頻繁なアプローチにより、タイプ1のエラー率を厳密に制御できます。ベイズのアプローチはそうではありません(ただし、尤度アプローチから普遍的な限界を継承するものもありますが、それでも小さなサンプルで比較的低い証拠のしきい値(たとえば、BF> 3)でエラー率が非常に高くなる場合があります。ベイズ因子(例:http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2604513を参照))しかし、それはまだ頻繁なアプローチです。私は非常に頻繁に、研究者はエビデンス自体の定量化よりもエラー制御を重視します(特定の仮説と比較して)。少なくとも、誰もがエラー制御をある程度気にするので、2つのアプローチを使用する必要があります補足的に。


いい視点ね。また、グループシーケンシャル法や他の形式の複数のテストについても考えています。これは、(文学のかなりの部分を見落としているかもしれない私の狭い視点から)ベイジアン側の関心が欠如しているようです遠い)何らかのエラー制御の取得という点で。もちろん、多くの状況でベイジアン手法-特に幾分懐疑的な事前決定または階層モデルによる何らかの収縮により、エラーをある程度定量化できない程度に制御しますが、そこではより多くの思考が頻繁に行われています。
ビョルン

3
(+1)私はこの点が本当に好きです...それが私が哲学的に頻度が高い理由であるからです....推論を助けるために統計を行うとき、私たちは推論をより正確にしたい(すなわち、より少ないエラー)ブラインド推測よりも。実際、推論が実際に真であるか偽であるか(後続の研究で検証されているという意味で)を気にする場合、エラー率は非常に重要です。ベイジアン確率に不安を感じるだけではありません(ただし、メソッド自体は、サンプルサイズが小さい場合の量に対する賢明な「正規化された推定量」として非常に有用です... Agresit-Coullを考えてください)

これは、ベイズ/フリークエンティストの比較というよりも、決定理論に似ています。また、ベイジアンアプローチとルールを停止することを心配する必要はありません....私も....ベイズは、1型および2型エラー率との間に優れた「バランス」を達成することができることを理解
probabilityislogic

8

統計学者として、あなたが自問しなければならない最大の質問の1つは、尤度の原則を信じているか、それを守りたいかどうかだと思います。尤度の原理を信じていないなら、私は統計学への頻繁なパラダイムは非常に強力であると思うが、尤度の原理を信じているなら、(間違いなく)あなたは最も確かにベイジアンのパラダイムを支持しなければならないそれに違反しないように。


あなたがそれに慣れていない場合、尤度の原則が私たちに言うことは次のとおりです。

θx

(θ;x)=p(x|θ)
x

xy(θ;x)(θ;y)C(x,y)

(θ;x)=C(x,y)(θ;y)for all θ,

xy

C(x,y)(x,y)C(x,y)θ

C(x,y)=1θθ


今、ベイジアン統計の利点の1つは、適切な事前分布の下では、ベイジアンパラダイムが尤度原理に決して違反しないことです。ただし、頻繁なパラダイムが尤度の原則に違反する非常に単純なシナリオがあります。

仮説検定に基づいた非常に簡単な例を次に示します。以下を考慮してください。

12のベルヌーイ試行が実行され、3つの成功が観察された実験を考えてください。停止ルールに応じて、データを次のように特徴付けることができます。

  • X|θBin(n=12,θ)x=3
  • Y|θNegBin(k=3,θ)y=12

したがって、次の尤度関数を取得します。 これは、 したがって、尤度の原理により、どちらの尤度からもについて同じ推論を得る必要があります。

1(θ;x=3)=(123)θ3(1θ)92(θ;y=12)=(112)θ3(1θ)9
1(θ;x)=C(x,y)2(θ,y)
θ

ここで、頻度パラダイム

Ho:θ12versusHa:θ<12

二項モデルの場合、次のようになります。

p-value=P(X3|θ=12)=(120)(12)12+(121)(12)12+(122)(12)12+(123)(12)12=0.0723

ことに注意してくださいが、他の用語が行います尤度原理を満たさない。(123)(12)12=1(12;x=3)

負の二項モデルの場合、次のようになります。

p-value=P(Y12|θ12)=(112)(12)12+(122)(12)12+(132)(12)12+...=0.0375

上記のp値の計算から、二項モデルではを拒否できませんが、負の二項モデルを使用するとが拒否されることがます。したがって、たとえにp値があり、これらのp値に基づく決定は一致しません。このp値の引数は、ベイジアンが頻繁に使用するp値の使用に反対する引数です。HoHo1(θ;x)2(θ;y)

次の仮説をもう一度テストすることを検討してください。ただし、ベイジアンパラダイム

Ho:θ12versusHa:θ<12

二項モデルの場合、次のようになります。

P(θ12|x)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

同様に、負の二項モデルの場合、次のようになります。

P(θ12|y)=1/21π(θ|x)dx=1/21θ3(1θ)9π(θ)dθ/01θ3(1θ)9π(θ)dθ

今ベイジアン決定ルールを使用して、(または他のしきい値)の場合選択し、について同様に繰り返します。Ho YP(θ12|x)>12y

ただし、であるため、同じ結論、したがってこのアプローチは、尤度原理を満たします。P(θ12|x)=P(θ12|y)


ですから、私のとりとめを締めくくるために、もしあなたが尤度の原則を気にしないのであれば、頻度主義者であることは素晴らしいことです!(わからない場合、私はベイジアンです:))


1
私は明らかに思慮深い(そしておそらく時間のかかる)回答に感謝しますが、この回答は、質問の「回答...可能な限りアクセスしやすいように伝えられる...」命令からは少し離れているように感じます。
-jsakaluk

1
@jsakaluk私が目指していたのは、多くの応用統計学者が常に当然のことと思っている特定の事柄、つまり尤度の原則を見落としたいなら頻度主義のパラダイムは、ベイジアンのパラダイムよりもはるかに単純な代替手段となります。ただし、それができない場合は、おそらく代替手段を見つける必要があります。
-RustyStatistician

4
@RustyStatistician尤度の原理は、尤度主義者の中心的な教義です。尤度主義者はベイジアンはない。回答にリンクを掲載しました。「可能性の原則を信じるなら、(間違いなく)あなたは最も確実にベイジアンのパラダイムを支持しなければならない」というあなたの主張は間違っています。
スタン

@Stanはい、可能性主義者は確かに可能性の原則を信じているというあなたの意見に同意します。しかし、もしあなたがベイジアンに、彼らはノーと言う可能性の原則を固守することを信じるかどうか尋ねると、それは信じられないでしょう(それはあなたが同意する必要がない私の意見です)。
RustyStatistician

2
推論における尤度原理(LP)、コンディショナリティーの原則(CP)と自給の原則(SP)の役割は、これらの原則はに関連しているためではありませんsimple..thisある証拠推論が含まれるのに対し、(データが提示される)を超えて行くの証拠。これは常にリスクを伴いますが、進歩を遂げるために必要です。Birnbaumsの定理(ここで説明します...論文の残りの部分には必ずしも同意しません)を参照してください:arxiv.org/abs/1302.5468

6

あなたと私は両方とも科学者であり、科学者として、主に証拠の質問に興味があります。そのため、可能であれば、ベイジアンアプローチが好ましいと思います。

ベイジアンのアプローチは私たちの質問に答えます:ある仮説が別の仮説を上回る証拠の強さは何ですか?一方、フリークエンティストのアプローチはそうではありません。1つの仮説が与えられた場合、データが奇妙であるかどうかのみを報告します。

とはいえ、著名なベイジアンのAndrew Gelmanは、モデル仕様のエラーのチェックとしてp値(またはp値のようなグラフィカルチェック)の使用を支持しているようです。このブログ投稿で、このアプローチの暗示を見ることができます。

私が理解しているように、彼のアプローチは2段階のプロセスのようなものです。最初に、彼はベイジアンに、あるモデルが他のモデルよりも優れている証拠について質問します。第二に、彼は、優先モデルがデータが与えられたすべてのもっともらしいものを実際に見るかどうかという質問に頻繁に質問します。私には合理的なハイブリッドアプローチのようです。


1
Gelmanブログへのリンクは引き続き有効ですが、深夜以降は「今日のもの」にはなりません。それに応じて編集。
ニックコックス

8
私は、頻繁なアプローチは証拠を測定せず、これはもっぱらベイジアン世界にあるという表記に強く反対します。LR検定などの仮説検定の起源を除外し、ある仮説の証拠を他の仮説の証拠と比較して測定します。
クリフAB

1
(+1)to @CliffAB-"frequentist"統計について考えている方は、 "likelihood ratio"、 "Birnbaum's Theorem"を調べてください。そして、Royallを少し読んでください。 NHSTを含む人間の議論-ちなみに、その破局的な欠陥にもかかわらず、科学の進歩を弱めるようには見えなかった....それは、統計学者が炭素ベースのMINITABプログラムではないからです...彼らは考えます[はい、統計は実際には、医学、経済学、またはオートメカニクスのような職業です...本を読んで、式を試して、真実があなたの膝に着くと期待することはできません]。

2
@Bey:個人的に、私は(生物学者は、パートタイムの統計学者は、彼らが生物学者であることを取得する時間を短縮し、論文を公開することになることを余儀なくされているという点で)p値は、科学的なプロセスにはいくつかの減衰を行っていると信じています、しかし、私はしないでくださいp値に代わるものがこの問題を減らすとは思わないでください!p値の問題は理論的な背景ではなく、非統計学者による使いやすさだと思います。事後確率(たとえば)その特定の問題を改善するのではなく悪化させると思います。
クリフAB

2
@CliffABはこれ以上同意できませんでした...その側面からそれを考えていませんでした..それは私が推測する出版の性質です... 統計ツールは、使い方に

6

個人的には、ベイジアンの回答よりも頻繁な回答の方が好まれる状況を考えるのに苦労しています。私の考えは、p値と帰無仮説検定に関する問題について、こことfharrell.comの他のブログ記事で詳しく説明されています。頻度の高い人は、いくつかの基本的な問題を無視する傾向があります。以下にサンプルを示します。

  • 一定の分散といくつかの他のケースを持つガウス線形モデルの外側では、計算されるp値はデータセットとモデルの精度が不明です
  • 実験が連続的または適応的である場合、p値を計算することさえできず、達成するために全体のレベルしか設定できない場合がよくありますα
  • フリークエンシーは、サンプルサイズが大きくなっても、タイプIのエラーを0.05未満にしないことを喜んでいます。
  • 多重度補正がどのように形成されるかについての頻繁な処方箋はなく、メソッドのアドホックな寄せ集めにつながります

最初の点に関して、一般的に使用されるモデルの1つはバイナリロジスティックモデルです。その対数尤度は非常に2次的ではなく、そのようなモデルに対して計算される信頼限界とp値の大部分はあまり正確ではありません。正確な推論を提供するベイジアンロジスティックモデルとは対照的です。

他の人は、頻繁な推論を使用する理由としてエラー制御に言及しています。私はので、これは、論理的であるとは思わないエラー彼らが参照するが、統計的検定の何千人もが実行されるプロセスを想定し、長期的なエラーです。「私の法廷での長期的な誤った有罪判決の確率はわずか0.03である」と言った裁判官は却下されるべきです。彼女は現在の被告に対して正しい決定をする可能性が最も高いと告発されています。一方、効果の事後確率から1を引いたものは、ゼロまたは逆効果の確率であり、実際に必要なエラー確率です。


2
「多重度補正がどのように形成されるかについての頻繁な処方箋はなく、メソッドのアドホックな寄せ集めにつながります。」一方、ベイジアンが多重度補正を行うことはまったくありません。アンドリュー・ゲルマンは誇らしげに、決して使っていないことを宣言しています。たとえば、信頼できる間隔が95%であると報告する人がいますが、間隔の共同の信頼性は95%ではありません。また、これにどのように対処するのが最善かは明らかではありません。アドバイスや例はありますか? k個θ1,,θkk
シビルスタット

5

多くの人は、3番目の哲学的学校である尤度主義に気付いていないようです。AWF Edwardsの本「Likelihood」は、おそらくこの本を読むのに最適な場所です。ここに彼が書いた短い記事があります。
尤度は、ベイジアン主義のようにp値を避けますが、ベイジアンのしばしば疑わしい事前確率も避けます。ここにもイントロトリートメントがあります。


5
コルモゴロフのアイデアから開発された、Vovkによるアルゴリズムによる確率アプローチがあります。
アクサカル

2
「多くの人が第三の哲学学校を認識していないようです:likelihoodismは、」私はこの文は、2016年に真であるとは思わない...
ティムは

4
私が知っている誰もがfrequentismとBayesianismに精通しているものの@Timは、私は会ったことがない、誰 likelihoodismのことを聞いていました。元の質問者は、頻繁に訓練され、ベイジアン主義にますます興味を持ち始めている私の同僚のようです。おそらく上記の私の答えを読んだほとんどの人は、私が最尤推定に言及している、または尤度比を使用して仮説をテストしていると思います。いや!ユディ・パウィタンこの講義
スタン

7
これらのアプローチのいずれの宗教ですので、信じ多くはありません、彼らは問題の特定の種類のためだけに有用である、とのアプローチのいくつかは他の人のためのより良いいくつかの問題に適しおよびその他のです:)
ティム

1
(+1)可能性のある学校について言及し、パウィタンに関するコメントについて。パウィタンの著書「In All Likelihood」は、統計的実践によって劇的に拡大および強化されました...私はまた、ベイズ対頻度論のみを知っていました。彼は、ベイズの哲学的および方法論的な側面、「古典的」頻度、およびもちろん、純粋な可能性のある学校を扱っています。あなたの哲学的傾向に関わらず、統計のより洗練されたユーザーになるための素晴らしい本です。

4

TrynnaDoStatsが最初のポイントで指摘しているように、モデル構築への頻繁なアプローチの最大の欠点の 1つは、大きな閉じた形式のソリューションの反転に伴う課題です。クローズド形式のマトリックス反転では、マトリックス全体がRAMに常駐する必要があります。これは、大量のデータまたは大規模なカテゴリ機能を備えたシングルCPUプラットフォームの大きな制限です。ベイジアン手法は、指定された事前分布からのランダムな抽選をシミュレートすることにより、この課題を回避することができました。これは常にベイジアンソリューションの最大のセールスポイントの1つでしたが、答えはCPUのかなりのコストでしか得られませんでした。

アンドリュー・エインズリーとケン・トレイン、私が言及を失った約10年前の論文で、有限混合(頻繁な形式または閉じた形式)とモデル構築へのベイジアンのアプローチを比較し、幅広い機能的な形式にわたってパフォーマンスメトリック、2つの方法は本質的に同等の結果を提供しました。ベイジアンソリューションが優位であるか、柔軟性が高いのは、情報がまばらで非常に高次元である場合です。

ただし、その論文は、超並列プラットフォームを活用する「分割統治」アルゴリズムが開発される前に作成されました。たとえば、このhttp://dimacs.rutgers.edu/TechnicalReports/TechReports/2012/2012-の詳細については、ChenとMingeの論文を参照してください。 01.pdf

D&Cアプローチの出現により、最も複雑で、最もスパースで、最も高次元の問題であっても、ベイジアンアプローチは、頻繁な方法よりも優位性を持たなくなりました。2つの方法は同等です。

この比較的最近の開発は、どちらの方法の実際の利点または制限についての議論でも注目に値します。


これは議論への素晴らしい追加だと思いますが(+1)、従うのは難しいと思います。それは本当に、本当に、本当にそのパンチラインを延期します...たぶん、あなたはそれを少し再編成することができましたか?:)
usεr11852は回復モニック言う

@ user11852投稿が有用な何かを伝えることに失敗したとは言いませんが、ジャーナリスティックな基準に達していないロジックの開発を見つけます。このスレッドは「コミュニティ」になっているので、私はあなたの提案に基づいてそれを再編成することにあまり傾倒していません。そのまま立つことができます。とにかく、賛成票とコメントをありがとう。
マイクハンター

1.)マトリックス反転は、MLE推定(多くの頻度分析法の1つにすぎません)によく使用されますが、常にではありません。MLE推定での私の仕事には、多くの場合最大パラメーターの最適化が含まれます(つまり、パラメーター空間はサンプルサイズに比例して増加します)。マトリックスの反転は絶対に選択肢ではありません。2.)ブロックアップデータサンプラーなど、ベイジアン統計では常にマトリックスの反転が発生します。n
クリフAB

@CliffAB私は、クロスプロダクトのマトリックスのANOVAタイプの反転を考えていました。
マイクハンター

@DJohnson:なるほど。しかし、私のポイントは、行列の反転が頻度主義対ベイジアン法に直交するということでした。どちらの陣営も、多くの方法で非常によく似た(少なくとも計算コストの点で)ことを行うツールを使用しています。
クリフAB

3

頻繁なテストは、帰無仮説の偽造に焦点を当てています。ただし、すべての場合でNHSTは単純にP(観測された効果|効果= 0)の計算であるため、帰無仮説有意性検定(NHST)もベイジアンの観点から行うことができます。そのため、NHSTを頻繁に行う必要がある時期を特定するのは困難です。

そうは言っても、頻繁なアプローチを使用してNHSTを実施するための最良の議論は、使いやすさとアクセシビリティです。人々は、頻繁な統計を教えられます。そのため、頻繁にNHSTを実行する方が簡単です。これを行うのを簡単にする統計パッケージがもっとたくさんあるからです。同様に、人々はこの形式のNHSTに精通しているため、頻繁なNHSTの結果を伝える方が簡単です。ですから、頻繁なアプローチの最良の議論として、それを実行する統計プログラムへのアクセス可能性と同僚との結果のコミュニケーションの容易さを考えています。ただし、これは文化的なものであるため、頻繁なアプローチが覇権を失うと、この議論は変わる可能性があります。


5
フィッシャーの考えについてのコメントは、正確な引用を提供できない限り、ここでは書き直されているように見えます。帰無仮説は、科学者が小さなサンプルからの結果を過度に解釈することを阻止しようとする有意性テストの一部としてのデバイスです。フィッシャーは、科学者が優れた科学を行うために統計を使用すべきだという他の誰よりも熱心でした。彼は彼自身が遺伝学に非常に深刻な貢献者でした。
ニックコックス

4
私は完全に同意したので、フィッシャーの精神状態に関する憶測を取り除くために答えを編集しました。
リズページ-グールド

3

いくつかのコメント:

  • ベイジアン統計とフリークエンティスト統計学の根本的な違いは、ベイジアンがフリークエンシーがそうでない状況に確率のツールを拡張することをいとわないということです。

    • より具体的には、ベイジアンは確率を使用し、さまざまなパラメーターについて、自分の心の不確実性モデル化します。頻繁に見ると、これらのパラメーターはスカラーです(統計学者が真の値を知らないスカラーではありますが)。ベイジアンにとって、さまざまなパラメーターはランダム変数として表されます!これは非常に異なります。パラメーターvaleusに対するベイジアンの不確実性は、事前分布で表されます。
  • ベイジアン統計では、データを観察した後、事後確率が事前確率を圧倒し、事前確率は重要ではないという希望があります。しかし、これはしばしばそうではありません:結果は事前の選択に敏感かもしれません!異なる事前分布を持つ異なるベイジアンは、事後的に同意する必要はありません。

留意すべき重要な点は、頻繁な統計学者の声明は、以前の信念に関係なく、2人のベイジアンが同意できる声明であるということです!

頻度論者は前者や事後についてコメントするのではなく、単に可能性についてコメントするだけです。

ある意味での頻繁な統計学者の声明は野心的ではありませんが、ベイジアンのより大胆な声明は事前確率の割り当てに大きく依存できます。事前事項が重要であり、事前事項に意見の相違がある状況では、より限定的な頻度の高い統計の条件付きステートメントがより強固な根拠に立つ可能性があります。


2

多くの研究の目標は、最終的な結論に到達することではなく、コミュニティの質問の感覚を一方向に段階的に押し進めるためのもう少しの証拠を得ることです。

ベイジアン統計は、利用可能な証拠に照らして決定または結論を評価する必要がある場合に不可欠です。品質管理は、ベイジアン統計なしでは不可能です。いくつかのデータを取得して、それに基づいて行動する必要のある手順(ロボット工学、機械学習、ビジネス上の意思決定)は、ベイジアン統計の恩恵を受けます。

しかし、多くの研究者はそうしていません。彼らは本当にそれはだかどうかについてはあまり気にせず、「データポイントをこのように」と言って、その後いくつかのデータを収集し、いくつかの実験を実行されており、最高の与えられた結論すべての証拠を他の人がこれまでに集まりました。科学は時間のかかるプロセスであり、「このモデルが正しい確率は72%です!」多くの場合、時期尚早または不要です。

頻度の高い統計は、ベイジアン統計の更新ステップと数学的に同じであることが多いため、これは単純な数学的な方法でも適切です。言い換えれば、ベイジアン統計は(前モデル、エビデンス)→新しいモデルですが、頻度主義統計は単なるエビデンスであり、他の2つの部分を埋めるために他の人に残します。


この投稿の多くは興味深いものですが、多くの支持されていない意見で構成されています。このサイトでどのような回答が期待されるかについては、ヘルプセンターをご覧ください。
whuber

@whuberなるほど。頭上で覚えられる引用を1つ追加しましたが、引用がないので、サポートされていないようであれば、削除できます。
オーウェン

5
あなたが品質管理に言及したのは驚きです。なぜなら、確率の頻繁な解釈(多くの試行にわたる相対頻度)が非常に自然な領域のようだからです:工場が正常に機能していることを考えると、この多くを見る可能性はどれくらいありますか(またはそれ以上)壊れたウィジェット?ベイジアン統計がQCに特に役立つ理由について詳しく説明してもらえますか?
マットクラウス

@MattKrause目標が1%未満の不良ウィジェットを出荷することだとします。工場は10%の割合で欠陥のあるウィジェットを生成し、Type-IおよびType-IIのエラー率がsおよび1 /(sqrt(4-1 / s ^ 2))であるテストがあります。厳密性パラメーター。厳密さのために何を使うべきですか?
オーウェン

2
頻繁な統計は連続した研究からの情報を結合できないという考えは、メタ分析の分野を無視しているようです。
クリフAB

2

ベイジアン手法の実際の実行は、頻度主義者の実行よりも技術的です。「より技術的な」とは、1)事前値の選択、2)BUGS / JAGS / STANでのモデルのプログラミング、3)サンプリングと収束の検討などを意味します。

明らかに、ベイジアンの定義により、#1はほとんどオプションではありません。いくつかの問題と手順がありますが、合理的なデフォルトが存在する可能性があり、ユーザーから問題をいくらか隠しています。(これも問題を引き起こす可能性があります!)

#2が問題かどうかは、使用するソフトウェアによって異なります。ベイジアン統計は、頻度の高い統計手法よりも一般的な解決策に傾いており、BUGS、JAGS、STANなどのツールはこれを自然に表現しています。ただし、さまざまなソフトウェアパッケージには、典型的な頻繁な手順のように動作するように見えるベイジアン関数があるため、これは常に問題とは限りません。(そして、最近のRパッケージのようなソリューションrstanarmbrms、このギャップを埋めるされている。)それでも、これらのツールを使用すると、新しい言語でのプログラミングに非常によく似ています。

実際のベイジアンアプリケーションの大部分はMCMCサンプリングを使用するため、項目#3が通常適用されます。(一方で、頻繁なMLEベースの手順は、ローカルミニマムに収束するか、まったく収束しない可能性がある最適化を使用しますが、これをチェックする必要があるユーザーがいるかどうかは疑問です。)

コメントで述べたように、事前からの自由が実際に科学的利益であるかどうかはわかりません。確かにいくつかの点で、また出版プロセスのいくつかの点で便利ですが、実際にそれがより良い科学に役立つかどうかはわかりません。(そして、全体像として、私たちは科学者としての自分の事前知識を認識しなければなりません。さもなければ、どの統計的手法を使用するかに関係なく、調査のあらゆる種類のバイアスに苦しむことになります。)


(3)に関して、多くの古典的な統計モデル(すなわちglm)は凹対数尤度を持っているため、極端なコーナーケース以外では標準アルゴリズムが失敗することは非常にまれです。非凹面問題(つまりNN)に関しては、これらは不適切な収束(通常はユーザーによって理解される)について大きな懸念を必要としますが、これらは(偶然ではなく)古典的なMCMCアルゴリズムが、たとえば、ある人間の生涯。ただし、一般にMCMCを修正するのは、最適化アルゴリズムよりも簡単です!
クリフAB

2

概念的には:わかりません。ベイジアン統計は最も論理的な考え方だと思いますが、その理由を正当化することはできません。

フリークエンシーの利点は、ほとんどの初級レベルの人にとって簡単だということです。しかし、私にとっては奇妙でした。信頼区間が何であるかを知的に明確にできるようになるまでには何年もかかりました。しかし、私が実際的な状況に直面し始めたとき、頻繁なアイデアはシンプルで関連性が高いように見えました。

経験的に

私が最近焦点を当てようとしている最も重要な質問は、実際的な効率についてです。個人的な作業時間、精度、計算速度です。

個人的な作業時間:基本的な質問については、実際にベイジアン手法を使用することはほとんどありません:基本的な頻度ツールを使用し、頭痛をもたらすベイジアン同等物よりも常にt検定を好みます。私がガールフレンドよりもチクタクトーがかなり上手かどうかを知りたいときは、カイ二乗をします:-)。実際、コンピューター科学者としての真面目な仕事であっても、問題を調査し、ランダムによる誤った結論を回避するために、頻繁な基本ツールは非常に貴重です。

精度:予測が分析よりも重要な機械学習では、ベイジアンとフリークエンティストの間に絶対的な境界はありません。MLEは頻繁なアププロカであり、単なる見積もりです。しかし、正規化されたMLE(MAP)は部分的にベイジアンのアプローチです。後部のモードを見つけ、後部の残りの部分は気にしません。正規化を使用する理由を頻繁に正当化する理由はわかりません。実際には、生のMLE推定値が過剰に適合しているため、0がより良い予測子になるため、正則化は避けられない場合があります。正則化が真のベイジアン手法であることに同意する場合、これだけで、ベイズがより少ないデータで学習できることを正当化できます。

計算速度:頻繁な手法は、ほとんどの場合、計算が速く、実装が簡単です。そして、どういうわけか正則化は、それらに少しのベイズを導入する安価な方法を提供します。ベイジアン法がまだ最適化されていないためかもしれません。たとえば、最近では一部のLDA実装が高速になっています。しかし、彼らは大変な努力を必要としました。エントロピー推定では、最初の高度な方法はベイジアン法でした。彼らは素晴らしい働きをしましたが、すぐに頻度の高いメソッドが発見され、計算時間が大幅に短縮されました... あなたがベイジアンなら、頻繁な方法をベイジアン法の近似と考えるのは不合理ではありません。


2
「正則化を使用する理由を頻繁に正当化する理由はわかりません」。簡単だ; 繰り返し試行された結果、サンプル外エラーが減少することが示されました。
クリフAB

2

特定のフリークエンティストベースのアプローチが本質的にベイジアンを支配している問題の1つのタイプは、M-openケースでの予測の問題です。

M-openはどういう意味ですか?

M-openは、データを生成する真のモデルが、検討中のモデルのセットに表示されないことを意味します。たとえば、の真の平均が関数として2次であるのに、平均が線形関数であるモデルのみを考慮する場合、M-openの場合になります。言い換えれば、モデルのミス仕様はM-openケースになります。yxx

ほとんどの場合、これはベイズ分析にとって大きな問題です。私が知っているほとんどすべての理論は、正しく指定されているモデルに依存しています。もちろん、批判的な統計学者として、我々のモデルは常に誤って指定されていると考えるべきです。これは非常に問題です。私たちの理論のほとんどは、モデルが正しいことに基づいていますが、決してそうではないことを知っています。基本的に、私達はちょうど私たちのモデルがないことを願って、私たちの指を交差している、あまりにも間違いました。

Frequentistのメソッドがこれをうまく処理するのはなぜですか?

すべてではありません。たとえば、標準エラーの作成や予測間隔の構築に標準のMLEツールを使用する場合、ベイジアン法を使用するよりも良い結果は得られません。

ただし、まさにこの目的のために非常に明確に意図された特定のフリークエンティストツールが1つあります。それはクロス検証です。ここでは、新しいデータでモデルがどれだけうまく予測できるかを推定するために、モデルを近似するときにデータの一部を残し、モデルが見えないデータをどれだけうまく予測できるかを測定します。

この方法は、モデルのミス仕様とは完全に相反することに注意してください。モデルが「正しい」かどうかに関係なく、モデルが新しいデータを予測する方法を推定する方法を提供するだけです。

私はそれが、これは本当にベイズの観点から正当化するのは難しい予測モデリングへのアプローチ(前のデータを見る前に予備知識を表現することになっている、尤度関数が変化することを主張するのはそれほど難しくはないと思うものにするなど、モデル)これは、周波数主義の観点から正当化するのは非常に簡単です(繰り返しサンプリングを行うと、サンプルエラーから最良の結果が得られるモデル+正則化パラメーターを選択しました)。

これにより、予測推論の実行方法が完全に変わりました。統計学者は、クロス検証を使用して構築またはチェックされていない予測モデルを真剣に検討する(または少なくともすべきではない)とは思わない(つまり、観測は独立しており、説明しようとしないサンプリングバイアスなど)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.