なぜ確率分布はここで増加するのですか?


9

ましょX例えば、ライブに残り日数のあなたの番号です。医者1件の評価さの分布Xガウシアンとして:P(X)N(μ1,σ1)。別の独立した医師2件の評価さP(X)N(μ2,σ2)。どちらの医師も同等に信頼できます。両方の情報を組み合わせる方法は?

、このブログの記事で、著者はと言います

2つの確率があり、両方が真である可能性を知りたい場合は、それらを乗算します。したがって、2つのガウスblobを取得して乗算します。 ここに画像の説明を入力してください

編集ほとんどの人は(私が最初math.SEにこの質問をした)、これは些細な独立の関係であると答えているが、私はまだ難し何だろう理解が午前ABをこの状況にあること:おそらく「サイコロは3を与える」または「患者は病気です」などのイベントではありません。2つの密度の積は、一般的にので、確率密度はないので、また、より多くの何かが、おそらくあるR P X 21P(AB)=P(A)P(B)ABRP(x)21。したがって、それはおそらくそれほど単純ではありません。

別の例を見てみましょう。エキスパート1は、サイコロが完全にバランスが取れていると言います。別の専門家2は、独立して同じようにあなたに言います。次いで3を与えるサイコロの確率は確かではない1/62

回答:


8

これらの操作は、確率ではなく尤度に対して実行されています。 区別は微妙かもしれませんが、2つの密度の積が密度になることは決してないという重要な側面を特定しました。

ブログの言語はこれを示唆していますが、同時に微妙に間違っています-それを分析しましょう:

この分布の平均は、両方の推定が最も可能性が高い構成であり、したがって、私たちが持っているすべての情報が与えられた場合の真の構成の最良の推測です。

  1. 製品がディストリビューションではないことはすでに確認しています。(適切な数を乗算することで1に変換することもできますが、ここではそうではありません。)

  2. 「推定する」および「最良の推定」という言葉は、この機構がパラメーター推定するために使用さていることを示しています-この場合、「真の構成」(x、y座標)。

  3. 残念ながら、平均は最良の推測ではありませんモードがあります。これが最尤(ML)原理です。

ブログの説明が意味をなすためには、次のことを想定する必要があります。まず、本当の明確な場所があります。抽象的にと呼びましょう。第二に、各「センサー」はμを報告していません。代わりに、μに近いと思われる値X iを報告します。センサーの「ガウス」は、X iの分布の確率密度を示します。非常に明確にするために、センサーiの密度はμに応じて関数f iであり、任意の領域R(平面内)について、センサーがRの値を報告する可能性はμμXiμXiifiμRR

Pr(XiR)=Rfi(x;μ)dx.

第3に、2つのセンサーは物理的に独立して動作していると想定されており、統計的に独立していると見なされます。

定義により、可能性の2つの観察の確率である密度、それらはこの結合分布の下でなければならない与えられた真の位置ですμ。独立性の仮定は、それが密度の積であることを意味します。微妙な点を明確にするために、x1,x2μ

  1. を観測値xに割り当てる積関数は、xの確率密度ではありません。しかしながら、f1(x;μ)f2(x;μ)xx

  2. は、順序付けられたペアx 1x 2結合密度です。f1(x1;μ)f2(x2;μ)(x1,x2)

投稿された図では、は1つのblobの中心であり、x 2は別のblob の中心であり、その空間内の点はμの可能な値を表します。μ1の確率もμ2の確率についても、f 1f 2もまったく何も言わないことに注意してください。μは単なる未知の固定値です。それは確率変数ではありません。x1x2μf1f2μμ

次に微妙なひねりを加えます。尤度は関数と見なされます。データがあります-私たちはμが何である可能性が高いかを理解しようとしています。したがって、プロットする必要があるのは尤度関数ですμμ

Λ(μ)=f1(x1;μ)f2(x2;μ).

これもたまたまガウス型であるのは、たまたまの偶然です! デモは明らかにしています。(2つ以上ではなく)1次元だけで数学を実行して、パターンを確認しましょう。すべてがより多くの次元に一般化されます。ガウスの対数の形式は

logfi(xi;μ)=AiBi(xiμ)2

定数およびB iの場合。したがって、対数尤度はAiBi

logΛ(μ)=A1B1(x1μ)2+A2B2(x2μ)2=C(B1+B2)(μB1x1+B2x2B1+B2)2

ここで、μに依存しません。これは、x iの役割が分数で示された加重平均に置き換えられたガウスの対数です。Cμxi

メインスレッドに戻りましょう。のML推定値は、可能性を最大化する値です。同様に、ガウシアンの積から導出したガウシアンを最大化します。 定義により、最大はモードです モードが偶然に平均と一致するのは、偶然(各ガウスの中心の点対称性に起因)です。μ


この分析により、特定の状況でのいくつかの偶然の一致が根底にある概念を覆い隠していることが明らかになりました。

  • 多変量(結合)分布は、単変量分布(そうではありません)と簡単に混同されました。

  • 可能性は確率分布のように見えました(そうではありません)。

  • ガウスの積がガウスである(センサーがガウス以外の方法で変化する場合、一般に当てはまらない規則性);

  • そして、それらのモードは偶然にもそれらの平均と一致します(これは、真の値の周りに対称的な応答を持つセンサーに対してのみ保証されます)。

これらの概念に焦点を合わせ、偶然の行動を取り除くことによってのみ、実際に何が起こっているのかを知ることができます。


1
この素晴らしい答えを本当にありがとう。問題は見かけほど単純ではないようです。自分がよく知っていると思っていた自立の概念を理解するのがなぜ難しいのかと、本当に思っていました。すべてのポイントが明確になるように時間をかけます。
アンデルスタンド

2
[0,1]

1
あなたが正しいです。私は、密度のすべての値がゼロ、1、または無限大の場合に、等しくなる可能性がある不平等を念頭に置いていました。あなたの反例はすべてそのタイプです。
whuber

6

私はすでにすばらしい答えを見つけましたが、私はすでにそれを書き始めたので、私は私のものを投稿しています。

d1N(μ1,σ1)

d2N(μ2,σ2)

P(d1,d2)=P(d1|d2)P(d2)P(d1)P(d2)P(d1|d2)=P(d1)


2
きちんとした詳細のための仮想+1。システムが本当の+1を提供できないのは残念です。
ラック、

d1d1xd1

d1d1P(d1,d2)[0,1]d1d2

2
ガウスは確率密度であり、確率でないため、この説明は不完全です。
whuber
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.