タグ付けされた質問 「conditional-probability」

別のイベントBが発生した、または発生したことがわかっているときに、イベントAが発生する確率。通常、P(A | B)で表されます。

4
エッジケースの精度と再現率の正しい値は何ですか?
精度は次のように定義されます: p = true positives / (true positives + false positives) それは、それを修正しているtrue positivesとfalse positives、精度が1に近づくアプローチ0? リコールに関する同じ質問: r = true positives / (true positives + false negatives) 現在、これらの値を計算する必要がある統計テストを実装していますが、分母が0である場合があり、この場合にどの値を返すのか迷っています。 PS:不適切なタグをすみません、、およびを使用したいのですがrecall、新しいタグをまだ作成できません。precisionlimit
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
ベイズの定理に正規化因子が必要な理由
ベイズの定理 P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} これはすべて大丈夫です。しかし、私はどこかで読んだことがあります: 基本的に、P(data)は正規化定数、つまり事後密度を1に統合する定数に他なりません。 およびことがわかります。 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 10≤P(data|model)≤10≤P(data|model)≤1 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 したがって、も0から1の間でなければなりません。このような場合、後部を1つに統合するために正規化定数が必要なのはなぜですか?P(model)×P(data|model)P(model)×P(data|model)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

3
代数の条件付き期待の直観
ましょう確率変数与え、確率空間であると -代数条件付き期待値である新しいランダム変数を構築できます。(Ω 、F、μ )(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ :Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R}σ 、G ⊆ F E [ ξ | G ]σ\sigmaG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[\xi|\mathscr{G}] について考える直観は何ですか?以下の直感を理解しています。E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] (i) ここで、はイベント(正の確率)です。E [ ξ | A ] E[ξ|A]E[\xi|A]AAA (ii) ここで、は離散確率変数です。E [ ξ | η ] E[ξ|η]E[\xi|\eta]ηη\eta しかし、視覚化することはできません。私はそれの数学を理解しており、視覚化できるより単純なケースを一般化するような方法で定義されていることを理解しています。しかし、それでも私はこの考え方が役に立つとは思いません。それは私にとって不思議なオブジェクトのままです。E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] たとえば、をイベントとし。形成 -代数、によって生成された1。次いで、に等しくなるなら、そして等しいなら。換言すれば、であれば、及び if。μ …

4
最良の予測子としての条件付き期待値の証明に関する問題
の証明に問題がある E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 期待と条件付き期待のより深い誤解を明らかにする可能性が非常に高い。 私が知っている証明は次のとおりです(この証明の別のバージョンはここにあります) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E \Big[ \big(Y - E(Y|X)\big)^2 + 2 \big(Y - E(Y|X)\big) \big(E(Y|X) - g(X)\big) + \big(E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E …

3
複数のイベントの条件付き確率を計算するにはどうすればよいですか?
いくつかのイベントの条件付き確率を計算する方法を教えてください。 例えば: P(A | B、C、D)-? そんなこと知ってる: P(A | B)= P(A B)/ P(B)∩∩\cap しかし、残念なことに、イベントAがいくつかの変数に依存している場合、式を見つけることができません。前もって感謝します。

3
事後確率は1を超えることができますか?
ベイズの公式では: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} 事後確率 1を超えることができますか?P(x|a)P(x|a)P(x|a) たとえば、で、で、と仮定すると可能だと思います。しかし、私はこれについて確信がありません。なぜなら、確率が1よりも大きいとはどういう意味でしょうか?0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < P(a|x) < 1

1
ボレルのパラドックスにどのように対処すればよいですか?
ボレルのパラドックスや条件付き確率を扱う他の関連する「パラドックス」を精神的にどのように扱ったかについて、少し不安を感じています。これをよく読んでいない人は、このリンクを参照してください。これまでの私の精神的な反応は、ほとんど誰もそれについて語っていないようだから、それを無視することでしたが、私はこれを修正すべきだと感じています。 このパラドックスが存在することはわかっていますが、実際には(極端な例としてベイジアン分析として)メジャーイベントの条件付けは完全にうまくいくようです。場合上の私のデータは、我々の条件であるこれは測定のイベントであっても、すべての時間連続しています。そして、少なくとも明示的にではなく、パラドックスを解決するために観察したイベントに収束するイベントのシーケンスを構築するための努力は確かに行いません。000X = x 0 XバツXXバツ= xX=xX = x000バツXX 私が考えて、我々は本質的にランダム変数固定しているので、これは大丈夫です実験の前に(原則として)、そして我々は上のコンディショニングされているので。つまり、自然である上の条件に-代数の情報なぜならを通じて使用することがきである -それは他のいくつかの方法で私たちに来ていたならば、我々は異なるに関する条件でしょう -代数。Borelのパラドックスは、適切な代数が条件付けられるのは明らかではないが、ベイジアンは指定しているためです。事前に情報を指定しているためσ (X )σ (X )σ X = X X σバツXXσ(X)σ(X)\sigma(X)σ(X)σ(X)\sigma(X)σσ\sigmaバツ= xX=xX = xバツXXσσ\sigmaσ (X )X = Xσσ\sigmaσ(X)σ(X)\sigma(X)バツ= xX=xX = xは、を測定することでバツXX明らかになりました。 -algebra を指定したら、すべて問題ありません。Radon-Nikodymを使用して条件付き期待値を構築します。すべてが一意のヌルセットです。σσ\sigma これは本質的に正しいですか、それとも私は道を進んでいますか?私は遠く離れてる場合は、何で私たちがそうであるように振る舞うための正当化は?[このサイトのQ&Aの性質を考えると、これを私の質問と見なしてください。]測定理論の確率をとったとき、何らかの理由で、条件付きの期待にさえ触れませんでした。その結果、私の考えが非常に混乱しているのではないかと心配しています。

1
与えられたMLEでランダムサンプルをシミュレートする
一定の金額を持っていることを条件とするサンプルのシミュレーションについて尋ねるこの相互検証された質問は、ジョージ・カセラによって私に設定された問題を思い出させました。 パラメトリックモデルとこのモデルのiid​​サンプル が与えられると、のMLEは与えられます 指定された値の\ thetaに対して、iidサンプル(X_1、\ ldots、X_n)をシミュレートする一般的な方法がありますMLE \ hat {\ theta}(X_1、\ ldots、X_n)の値を条件としていますか?f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) たとえば、位置パラメーター\ muでT5T5\mathfrak{T}_5分布を取り、その密度はf(x | \ mu)= \ dfrac {\ Gamma(3)} {\ Gamma(1/2)\ Gamma( 5/2)} \、\ left [1+(x- \ mu)^ 2/5 \ right] ^ {-3} If (X_1、\ ldots、X_n)\ stackrel {\ text {iid}} {\ sim} f(x | \ mu)\ …

1
2つの正規分布確率変数の合計への寄与の直感的な説明
平均およびおよび標準偏差および 2つの正規分布独立ランダム変数およびがあり、であることがわかった場合(エラーが発生していないと仮定して)及び所与また、通常の手段で配布されている および標準偏差 Y μ X μ Y σ X σ Y、X + Y = C X Y C μ X | C = μ X + (C - μ X - μ Y)σ 2 XXXXYYYμXμX\mu_XμYμY\mu_YσXσX\sigma_XσYσY\sigma_YX+Y=cX+Y=cX+Y=cXXXYYYccc μY| C=μY+(C-μX-μY)σ 2 YμX|c=μX+(c−μX−μY)σ2Xσ2X+σ2YμX|c=μX+(c−μX−μY)σX2σX2+σY2\mu_{X|c} = \mu_X + (c - \mu_X - \mu_Y)\frac{ \sigma_X^2}{\sigma_X^2+\sigma_Y^2} μY| …

4
なぜP(A、B | C)/ P(B | C)= P(A | B、C)ですか?
を理解しています。条件は、AとBの交差をBの全領域で割ったものです。P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) しかし、なぜですか?P(A∩B|C)/P(B|C)=P(A|B∩C)P(A∩B|C)/P(B|C)=P(A|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) 直感を教えてください。 すべきではない:?P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A∩B∩C)/P(B,C)=P(A|B∩C)P(A\cap B \cap C)/P(B,C) = P(A|B \cap C)

4
条件付き確率の直観をどのように開発しますか?
iTunesとYouTubeにあるハーバードの統計110:確率コースのビデオ講義で、この問題に遭遇しました。 ここに要約しようとしました: 標準のデッキからランダムな2枚のカードのハンドが与えられたとします。 少なくとも1つのエースがある場合、両方のカードがエースである確率はどのくらいですか? P(both aces|have ace)=P(both aces,have ace)P(have ace)P(both aces|have ace)=P(both aces,have ace)P(have ace) P(both\ aces | have\ ace) = \frac{P(both\ aces, have\ ace)}{P(have\ ace)} 両方のエースを持っている場合、少なくとも1つのエースを持っていることが暗示されるので、交差点はP(both aces)P(both aces)P(both\ aces) P(both aces|have ace)=P(both aces)P(have ace)P(both aces|have ace)=P(both aces)P(have ace) P(both\ aces | have\ ace) = \frac{P(both\ aces)}{P(have\ ace)} これはまさに P(both …

3
もし IIDであり、その後、計算、ここで、
質問 場合 IID、次いで計算され、ここで、。X 1、⋯ 、X N〜N(μ 、1 )X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E (X 1 | T )E(X1∣T)\mathbb{E}\left( X_1 \mid T \right) T = Σ I X IT=∑iXiT = \sum_i X_i 試行:以下が正しいかどうかを確認してください。 たとえば、 これは、X_1、\ ldots、X_nがIIDである、各ことを意味します。Σ I E(X I |T) =E(Σ I X I |T) =T。∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = …

6
より重要な統計:「すべての女性の90パーセントが生き残った」または「生き残ったすべての人々の90パーセントは女性でしたか?」
タイタニックに関する次のステートメントを検討してください。 仮定1:男性と女性のみが船に乗っていた 仮定2:女性だけでなく男性も多数いた ステートメント1:すべての女性の90%が生き残った 声明2:生き残った人の90%は女性でした 最初は、女性を救うことはおそらく優先度が高いことを示しています(男性を救うかどうかに関係なく) 2番目の統計はいつ有用ですか? そのうちの1つは、ほとんどの場合、もう1つよりも有用であると言えますか?

1
複数の条件を持つベイズ定理
この方程式がどのように導き出されたのか理解できません。 P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} この方程式は、OJ Simpsonの事例が問題例として与えられた論文「Trial by Probability」からのものでした。被告は二重殺人の裁判を受けており、2つの証拠が彼に対して導入されています。 M1M1M_{1}は、被告の血液が犯罪現場で見つかった一滴の血液と一致するイベントです。M2M2M_{2}は、被害者の血液が被告に属する靴下の血液と一致するイベントです。罪悪感を仮定すると、1つの証拠が発生すると、他の証拠の確率が高くなります。 III一方で被告が無実であるイベントでI′I′I'彼が有罪であるときです。 私たちは、2つの証拠を与えられた被告が無実である確率の上限を取得しようとしています。 いくつかの変数の値が与えられましたが、私が興味を持っているのは方程式がどのように導出されたかです。試しましたが、どこにも行きませんでした。 はい、私はすでに「すでに答えがあるかもしれない質問」をチェックしました。

3
連続変数の条件付き確率
その確率変数を仮定うんうんUパラメータ0と10と連続し均一な分布に従う(すなわち、うん〜U(0 、10 )うん〜うん(0、10)U \sim \rm{U}(0,10)) ここで、AをうんうんU = 5のイベント、BをうんうんUが555または6のいずれかであるイベントとすることにします。私の理解によると、両方のイベントの発生確率はゼロです。 我々は計算に考慮すれば、今、P(A | B )P(A|B)P(A|B)、我々は条件付きの法則を使用することはできません P(A | B) = P(A∩B)P(B)P(A|B)=P(A∩B)P(B)P\left( {A|B} \right) = \frac{{P\left( {A \cap B} \right)}}{{P\left( B \right)}}は、P(B)P(B)P(B)がゼロに等しいためです。しかし、私の直感ではと言われますP(A|B)=1/2P(A|B)=1/2P(A|B) = 1/2。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.