タグ付けされた質問 「bayes」

特に条件付き推論に使用される確率とベイズの定理を組み合わせる。

12
ベイジアンとは?
統計に興味を持つようになると、「フリークエンティスト」と「ベイジアン」の二分法がすぐに一般的になります(とにかく、ネイトシルバーの「シグナルとノイズ」を読んでいない人はいますか?)。講演と入門コースでは、視点は圧倒的に頻繁(MLE、値)ですが、ベイズの公式を賞賛し、通常は接線で事前分布の概念に触れることに専念する時間はごくわずかである傾向があります。ppp ベイジアン統計を議論するために採用されたトーンは、その概念的基盤の尊重と、高尚な目標間の溝に関する懐疑主義のヒントと、事前分布の選択における意性、または結局は頻繁な数学の最終的な使用との間で振動します。 「もしあなたがハードコアベイジアンなら...」などの文はたくさんあります。 問題は、今日のベイジアンは誰ですか?彼らは、あなたがそこに行けば、あなたがベイジアンになることを知っているいくつかの学術機関ですか?もしそうなら、彼らは特別に求められていますか?尊敬されている統計学者や数学者だけに言及していますか? それらは、これらの純粋な「ベイジアン」としても存在しますか?彼らはラベルを喜んで受け入れますか?それはいつもお世辞の区別ですか?彼らは、会議で特異なスライドを持ち、値と信頼区間を奪われ、パンフレットで簡単に見つけられる数学者ですか?ppp どのくらいのニッチが「ベイジアン」であるか?私たちは少数の統計学者に言及していますか? または、現在のベイジアン主義は機械学習アプリケーションと同一視されていますか? ...またはもっと可能性が高いのは、ベイジアン統計は統計の枝ではなく、むしろ確率計算の範囲を超えて科学哲学へと向かう認識論的運動でしょうか?この点で、すべての科学者は本質的にベイジアンになります...しかし、頻繁なテクニック(または矛盾)に不浸透性の純粋なベイジアン統計学者のようなものはありません。

3
R:データセットにNaNがないにもかかわらず、「Forest function call」エラーでNaN / Infをスローするランダムフォレスト[非公開]
キャレットを使用して、データセットに対してクロス検証されたランダムフォレストを実行しています。Y変数は要因です。データセットにNaN、Inf、またはNAはありません。ただし、ランダムフォレストを実行すると、 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

3
ベイズの定理に正規化因子が必要な理由
ベイズの定理 P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} これはすべて大丈夫です。しかし、私はどこかで読んだことがあります: 基本的に、P(data)は正規化定数、つまり事後密度を1に統合する定数に他なりません。 およびことがわかります。 0≤P(model)≤10≤P(model)≤10 \leq P(\textrm{model}) \leq 10≤P(data|model)≤10≤P(data|model)≤1 0 \leq P(\textrm{data}|\textrm{model}) \leq 1 したがって、も0から1の間でなければなりません。このような場合、後部を1つに統合するために正規化定数が必要なのはなぜですか?P(model)×P(data|model)P(model)×P(data|model)P(\textrm{model}) \times P(\textrm{data}|\textrm{model})

2
海で失われた漁師の探索にベイズの定理を適用する方法
The Odds、Continually Updatedの記事では、文字通りベイジアン統計に人生を負っているロングアイランドの漁師の話に言及しています。これが短いバージョンです: 夜中にボートに乗っている2人の漁師がいます。一方が眠っている間に、もう一方は海に落ちます。ボートは、最初の男が目を覚まして沿岸警備隊に通知するまで、オートパイロットで夜中ずっと動き回っています。沿岸警備隊は、SAROPS(Search and Rescue Optimal Planning System)と呼ばれるソフトウェアを使用して、体温が低く、浮かんでいるエネルギーがほとんどないので、適時に彼を見つけました。 ここに長いバージョンがあります:海のスペック ここで、ベイズの定理が実際にどのように適用されているかをもっと知りたいと思いました。グーグルで調べただけで、SAROPSソフトウェアについてかなりのことがわかりました。 SAROPSシミュレーター シミュレータコンポーネントは、海流、風などのタイムリーなデータを考慮に入れ、数千の可能なドリフトパスをシミュレートします。これらのドリフトパスから、確率分布マップが作成されます。 次の図は、上記の行方不明の漁師の場合を示しているのではなく、このプレゼンテーションから取ったおもちゃの例です 確率マップ1(赤は最も高い確率を示し、青は最も低い確率を示します) 開始位置である円に注意してください。 確率マップ2-さらに時間が経過しました 確率マップがマルチモーダルになっていることに注意してください。これは、この例では、複数のシナリオが考慮されているためです。 人は水に浮かんでいます-トップミドルモード 人は救命いかだに乗っています(北からの風の影響がより大きくなります)-下2つのモード(「ジャイブ効果」のために分割されます) 確率マップ3-赤の長方形のパスに沿って検索が行われました。 この画像は、プランナー(SAROPSの別のコンポーネント)によって生成された最適なパスを示しています。ご覧のとおり、これらのパスが検索され、シミュレータによって確率マップが更新されています。 検索されたエリアがゼロ確率に減らされていないのはなぜだろうと思うかもしれません。これは、失敗の可能性が考慮されているためです。つまり、検索者が水中の人を見落とす可能性が無視できないことです。当然、失敗の確率は、救命いかだにいる人よりも浮いている孤独な人の方がはるかに高く(見やすい)、そのため、上部の領域の確率はあまり下がっていません。p(fail)p(fail)p(\text{fail}) 失敗した検索の影響 これが、ベイズの定理が登場する場所です。検索が実行されると、それに応じて確率マップが更新されるため、別の検索を最適に計画できます。 ベイズ確認した後の定理をウィキペディアにして記事のアン直感的(ショート)ベイズの説明定理にBetterExplained.com ベイズの方程式を取りました。 P(A∣X)=P(X∣A)×P(A)P(X)P(A∣X)=P(X∣A)×P(A)P(X) P(\text{A}\mid\text{X}) = \frac{P(\text{X}\mid\text{A}) \times P(\text{A})}{P(\text{X})} そして、次のようにAとXを定義しました... イベントA:このエリアにいる人(グリッドセル) テストX:そのエリア(グリッドセル)での検索の失敗、つまりそのエリアを検索しても何も表示されなかった 降伏、 P(そこにいる人∣ 不成功)= P(失敗∣ そこに人)× P(人がいる)P(失敗)P(person there∣unsuccessful)=P(unsuccessful∣person there)×P(person there)P(unsuccessful) P(\text{person there}\mid\text{unsuccessful}) = \frac{P(\text{unsuccessful}\mid\text{person there}) …

7
ベイズのルールを覚えるために何をしましたか?
式を覚える良い方法は、次のような式を考えることだと思います。 独立したイベントBの結果が与えられた場合、イベントAが特定の結果になる確率=両方の結果が同時に発生する確率/イベントAの望ましい結果の確率は、イベントBの結果がわからない場合になります。 例として、病気の検査を考えてみましょう:病気の検査で陽性の患者がいて、それがわかっている場合:病気の人の40%が検査で陽性を検査しました。すべての人々の60%がこの病気にかかっています。そして、この疾患について検査されたすべての人々の26%; それはそれに従います: 1)サンプリングしたすべての人の24%が陽性であり、病気にかかっていた。つまり、陽性と診断された26人中24人が病気にかかっていた。したがって、2)この特定の患者が病気にかかっている可能性は92.3%です。
15 bayesian  bayes 

1
複数の条件を持つベイズ定理
この方程式がどのように導き出されたのか理解できません。 P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} この方程式は、OJ Simpsonの事例が問題例として与えられた論文「Trial by Probability」からのものでした。被告は二重殺人の裁判を受けており、2つの証拠が彼に対して導入されています。 M1M1M_{1}は、被告の血液が犯罪現場で見つかった一滴の血液と一致するイベントです。M2M2M_{2}は、被害者の血液が被告に属する靴下の血液と一致するイベントです。罪悪感を仮定すると、1つの証拠が発生すると、他の証拠の確率が高くなります。 III一方で被告が無実であるイベントでI′I′I'彼が有罪であるときです。 私たちは、2つの証拠を与えられた被告が無実である確率の上限を取得しようとしています。 いくつかの変数の値が与えられましたが、私が興味を持っているのは方程式がどのように導出されたかです。試しましたが、どこにも行きませんでした。 はい、私はすでに「すでに答えがあるかもしれない質問」をチェックしました。


2
トーマス・ベイズがベイズの定理をそれほど難しいと思ったのはなぜですか?
これは科学の歴史の問題の詳細ですが、ここで話題になっているといいのですが。 トーマスベイズは、以前のユニフォームの特別な場合のベイズの定理しか見つけられなかったと私は読んだことがあり、それでも彼はそれに苦労していたようです。 一般的なベイズの定理が現代の扱いでどれほど些細なことかを考えると、なぜそれが当時ベイズや他の数学者に挑戦をもたらしたのでしょうか?比較のために、アイザックニュートンのフィロソフィアナチュラリスプリンシピアマテマチカは、ベイズの主要な作品の36年前に出版されました。

2
ベイズ分類器が理想的な分類器であるのはなぜですか?
これは、カテゴリーの基礎となる確率構造が完全にわかっている理想的なケースと見なされます。 なぜベイズ分類器を使用すると、達成可能な最高のパフォーマンスが得られるのですか? これの正式な証明/説明は何ですか?常にベイズ分類器をベンチマークとして使用して、他のすべての分類器のパフォーマンスを比較します。

2
「ユニット情報事前」とは何ですか?
私はWagenmakers(2007)を読んでいます。p値の一般的な問題に対する実用的な解決策です。BIC値をベイズ因子と確率に変換することに興味をそそられます。しかし、これまでのところ、以前の単位情報が正確に何であるかをよく理解していません。この特定の以前の写真、または写真を生成するためのRコードの説明に感謝します。

5
マンモグラフィーの陽性結果に適用されたベイズの定理の解釈
私は、古典的なマンモグラムの例に適用されたベイズの定理の結果に頭を回そうとしています。マンモグラムのねじれは完璧です。 あれは、 がんの発生率:.01.01.01 患者にがんがある場合のマンモグラム陽性の確率:111 患者にがんがない場合のマンモグラム陽性の確率:.01.01.01 ベイズ: P(がん|マンモグラム+)=1 ⋅ 0.01(1 ⋅ 0.01 )+ (0.091 ⋅ 0.99 )1⋅.01(1⋅.01)+(.091⋅.99)\dfrac {1 \cdot .01}{(1 \cdot .01) + (.091 \cdot .99)} = .5025=.5025 = .5025 それで、母集団から無作為に抽出した人がマンモグラムを撮り、肯定的な結果が得られた場合、50%の確率で癌に罹患しているのでしょうか。人口の1%で誤検知が発生する可能性が非常に低い1%の確率が50%の結果を引き起こす方法を直感的に理解できていません。論理的には、小さな偽陽性率の完全に真陽性のマンモグラムの方がはるかに正確だと思います。

1
確率とファジーロジックの違いは何ですか?
私は何年もファジーロジック(FL)を扱ってきましたが、FLと確率の間には、FLが不確実性を処理する方法に関して特に違いがあることを知っています。しかし、FLと確率の違いは何ですか? つまり、確率(情報の融合、知識の集約)を扱う場合、FLでも同じことができますか?
10 bayes  fuzzy 

1
ベイズ因子の更新
ベイズ因子は、仮説のベイズ検定とベイジアンモデルの選択で、2つの周辺尤度の比によって定義されます:iidサンプルとそれぞれのサンプリング密度と、対応するおよび場合、2つのモデルを比較するためのベイズ係数は 本私は現在検討していますが、その奇妙な文がベイズ因子上記(x1,…,xn)(x1,…,xn)(x_1,\ldots,x_n)f1(x|θ)f1(x|θ)f_1(x|\theta)f2(x|η)f2(x|η)f_2(x|\eta)π1π1\pi_1π2π2\pi_2B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏ni=1f1(xi|θ)π1(dθ)∫∏ni=1f2(xi|η)π2(dη)B12(x1,…,xn)=defm1(x1,…,xn)m2(x1,…,xn)=def∫∏i=1nf1(xi|θ)π1(dθ)∫∏i=1nf2(xi|η)π2(dη)\mathfrak{B}_{12}(x_1,\ldots,x_n)\stackrel{\text{def}}{=}\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\stackrel{\text{def}}{=}\frac{\int \prod_{i=1}^n f_1(x_i|\theta)\pi_1(\text{d}\theta)}{\int \prod_{i=1}^n f_2(x_i|\eta)\pi_2(\text{d}\eta)}B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)は、「個々のもの[ベイズ係数]を掛け合わせることによって形成されます」(p.118)。これは分解 が、による更新として、この分解には計算上の利点がないようですは、元の計算と同じ計算量を必要としますB12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)B12(x1,…,xn)=m1(x1,…,xn)m2(x1,…,xn)=m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)×m1(xn−1|xn−2,…,x1)m2(xn−1|xn−2,…,x1)×⋯⋯×m1(x1)m2(x1)\begin{align*}\mathfrak{B}_{12}(x_1,\ldots,x_n)&=\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}\\&=\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}\times \frac{m_1(x_{n-1}|x_{n-2},\ldots,x_1)}{m_2(x_{n-1}|x_{n-2},\ldots,x_1)}\times\cdots\\&\qquad\cdots\times\frac{m_1(x_1)}{m_2(x_1)}\end{align*}m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)m1(xn|x1,…,xn−1)m2(xn|x1,…,xn−1)\frac{m_1(x_n|x_1,\ldots,x_{n-1})}{m_2(x_n|x_1,\ldots,x_{n-1})}m1(x1,…,xn)m2(x1,…,xn)m1(x1,…,xn)m2(x1,…,xn)\frac{m_1(x_1,\ldots,x_n)}{m_2(x_1,\ldots,x_n)}外の人工おもちゃの例。 質問:ベイズ係数をからに 更新する一般的で計算効率の高い方法はありますか辺縁全体および 再計算する必要はありませんか?B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)B12(x1,…,xn+1)B12(x1,…,xn+1)\mathfrak{B}_{12}(x_1,\ldots,x_{n+1})m1(x1,…,xn)m1(x1,…,xn)m_1(x_1,\ldots,x_n)m2(x1,…,xn)m2(x1,…,xn)m_2(x_1,\ldots,x_n) 私の直感は、ベイズ係数一度に1つずつ新しい観測値に推定することに沿って進むパーティクルフィルター以外に、この質問に答える自然な方法はないということです。B12(x1,…,xn)B12(x1,…,xn)\mathfrak{B}_{12}(x_1,\ldots,x_n)

1
L2が事後損失を計算するための優れた損失関数である場合の例は何ですか?
L2損失は、L0およびL1損失とともに、事後を最小事後予測損失で要約するときに使用される非常に一般的な「デフォルト」損失関数の3つです。この理由の1つは、それらが比較的簡単に計算できることです(少なくとも1d分布の場合)。L0は最頻値、L1は中央値、L2は平均値になります。教えるとき、L0とL1が合理的な損失関数である(そして単に「デフォルト」ではない)シナリオを思い付くことができますが、L2が合理的な損失関数であるシナリオに苦労しています。だから私の質問: 教育目的で、L2が最小事後損失を計算するための優れた損失関数である場合の例は何でしょうか? L0の場合、賭けのシナリオを思いつくのは簡単です。今度のサッカーゲームのゴールの合計数に対して事後を計算し、ゴールの数を正しく推測し、それ以外の場合は負けた場合、$$$に勝つ賭けをするとします。その場合、L0は妥当な損失関数です。 私のL1の例は少し不自然です。あなたは多くの空港の1つに到着し、それから車であなたのところへ行く友人に会っています。問題はあなたがどの空港か分からないことです(そして彼女は空中にいるのであなたの友人に電話をかけることができません)。彼女が着陸する可能性のある空港の後方を考えると、彼女が到着したときに彼女とあなたの間の距離が短くなるように自分を配置するのに適した場所はどこですか?ここで、予想されるL1損失を最小化するポイントは、彼女の車が一定の速度であなたの場所に直接移動するという単純な仮定をすると、合理的に思えます。つまり、1時間の待機時間は、30分の待機時間の2倍です。

3
ベイズの定理がグラフィカルに機能するのはなぜですか?
数学的な観点からは、ベイズの定理は完全に理にかなっています(つまり、導出と証明)が、ベイズの定理を説明するために示すことができる素晴らしい幾何学的またはグラフィカルな引数があるかどうかはわかりません。私はこれに対する答えを探してグーグルで試しましたが、驚くべきことに、何も見つけることができませんでした。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.