タグ付けされた質問 「conditional-probability」

別のイベントBが発生した、または発生したことがわかっているときに、イベントAが発生する確率。通常、P(A | B)で表されます。

14
Amazonインタビューの質問-2回目のインタビューの確率
Amazonのインタビューでこの質問を受けました。 最初のインタビューを受けるすべての人の50%が2番目のインタビューを受ける 2回目のインタビューを受けた友人の95%が、最初のインタビューが良かったと感じた 2回目のインタビューを受けなかった友人の75%が、最初のインタビューが良かったと感じた あなたが最初の面接が良かったと感じた場合、2回目の面接を受ける確率はどのくらいですか? 誰かがこれを解決する方法を説明できますか?単語の問題を数学に分解するのに苦労しています(インタビューはもう終わりです)。実際の数値的な解決策はないかもしれないと理解していますが、この問題をどのように通り抜けるかについての説明が役立つでしょう。 編集:まあ、2番目のインタビューを取得しました。誰かが興味があるなら、私は以下の回答の組み合わせである説明に行きました:情報が足りない、代表的なサンプルではない友人など、いくつかの確率を通して話をしました。しかし、すべての回答に感謝します。

2
多変量正規分布の条件付き分布の導出
多変量法線ベクトルY∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma)ます。分割考えるμμ\boldsymbol\muおよびYY{\boldsymbol Y}に μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} \ Sigmaの \ begin {bmatrix} \ Sigma_ {11}および\ Sigma_ {12} \\ \ Sigma_ {21}および\ Sigma_ {22} \ end {bmatrix} ΣΣ\Sigmaへの 同様のパーティションを使用して 、({\ boldsymbol y} _1 | {\ boldsymbol y} _2 …

3
例:バイナリ結果にglmnetを使用したLASSO回帰
私は興味のある結果が二分されglmnetているLASSO回帰の使用に手を出し始めています。以下に小さな模擬データフレームを作成しました。 age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, 2, 2, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

4
相関のある乱数を生成する方法(与えられた平均、分散、相関度)
これが少し基本的すぎるように思える場合は申し訳ありませんが、ここで理解を確認しようとしているだけだと思います。2つのステップでこれを行う必要があるという感覚が得られ、相関行列を理解しようとし始めましたが、実際には複雑に見え始めています。相関乱数を生成するための、理想的で迅速な優れた方法の簡潔な説明を(理想的には擬似コードソリューションへのヒントとともに)探しています。 既知の平均と分散を持つ2つの疑似ランダム変数の高さと重み、および特定の相関関係を考えると、この2番目のステップがどのように見えるかを基本的に理解しようとしていると思います。 height = gaussianPdf(height.mean, height.variance) weight = gaussianPdf(correlated_mean(height.mean, correlation_coefficient), correlated_variance(height.variance, correlation_coefficient)) 相関平均と分散を計算するにはどうすればよいですか?しかし、ここで本当に関連する問題であることを確認したいと思います。 マトリックス操作に頼る必要がありますか?それとも、この問題に対する基本的なアプローチに何か他の非常に間違ったものがありますか?

3
反復期待法則の一般化
私は最近このアイデンティティに出会いました: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] もちろん、そのルールのより単純なバージョン、つまりE[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) には精通していますが、その一般化の正当性を見つけることができませんでした。 誰かがその事実についてそれほど技術的ではない参考文献を教えてくれたり、さらに良いことに、誰かがこの重要な結果の簡単な証拠を提示してくれたら、ありがたいです。

8
この人が女性である確率はどのくらいですか?
カーテンの後ろに人がいます-私はその人が女性か男性かを知りません。 私はその人が長い髪を持っていること、そして長い髪を持つすべての人々の90%が女性であることを知っています 私はその人が希少な血液型AX3を持っていること、そしてこの血液型を持つすべての人々の80%が女性であることを知っています。 人が女性である確率はどのくらいですか? 注:この元の定式化は、さらに2つの仮定を加えて拡張されました。1。血液型と髪の長さは独立しています。 (ここでの特定のシナリオはそれほど適切ではありません-むしろ、私はこれに答えるための正しいアプローチを心に留める必要がある緊急のプロジェクトを持っています。異なる統計理論による複数の議論のできる答えを持つものよりも)

13
条件付き確率の式の背後にある直感は何ですか?
以下のための式の条件付き確率のことを考慮起こっが起こったである:B P (AAA\text{A}BB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. 私の教科書は、ベン図の観点からこの背後にある直感を説明しています。 ことを考える発生したこと、のための唯一の方法イベントがの交差点に入ることで発生するためであると。A A BBB\text{B}AA\text{A}AA\text{A}BB\text{B} その場合には、確率ではないだろう単にの確率に等しくなる交差点ため、それがイベントが発生する唯一の方法ですか?私は何が欠けていますか? A BP(A|B)P(A|B)P\left(\text{A} \middle| \text{B}\right)AA\text{A}BB\text{B}

3
R:データセットにNaNがないにもかかわらず、「Forest function call」エラーでNaN / Infをスローするランダムフォレスト[非公開]
キャレットを使用して、データセットに対してクロス検証されたランダムフォレストを実行しています。Y変数は要因です。データセットにNaN、Inf、またはNAはありません。ただし、ランダムフォレストを実行すると、 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

7
2つのサイコロロール-順番に同じ数
私は現在、コースラで統計的推論のクラスを勉強しています。課題の1つで、次の質問が出てきます。 | Suppose you rolled the fair die twice. What is the probability of rolling the same number two times in a row? 1: 2/6 2: 1/36 3: 0 4: 1/6 Selection: 2 | You're close...I can feel it! Try it again. | Since we don't care what the outcome …

5
ウィキペディアの可能性に関するエントリはあいまいに見える
「条件付き確率」と「可能性」に関する簡単な質問があります。(私はすでにこの質問をここで調査しましたが、役に立ちませんでした。) ウィキペディアの可能性に関するページから始まります。彼らはこう言います: 結果与えられたパラメーター値のセットの尤度は、パラメーター値が与えられた場合に観測された結果の確率に等しい、つまりθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) すばらしいです!そう英語で、私はこれを読んで、「シータ、所与のデータX = X、(左辺)を、等しいパラメータの可能性は、データXがXに等しい確率に等しい所定のパラメータことシータに等しい」。(太字は強調のためのものです)。 ただし、同じページの3行以上後に、Wikipediaのエントリは次のように続きます。 ましょ離散確率分布を持つ確率変数 、パラメータに応じて、。次に、関数XXXpppθθ\theta L(θ∣x)=pθ(x)=Pθ(X=x),L(θ∣x)=pθ(x)=Pθ(X=x),\mathcal{L}(\theta \mid x) = p_\theta (x) = P_\theta (X=x), \, 関数と見なされるものは、(確率変数結果が与えられた場合の)尤度関数と呼ばれます 。時には値の確率のパラメータ値のためのとして書き込まれる。多くの場合のように記述を強調するために、このから異なる 条件付き確率されていないので、パラメータとしない確率変数です。θθ\thetaθθ\thetaxxxXXXxxxXXXθθ\thetaP(X=x∣θ)P(X=x∣θ)P(X=x\mid\theta)P(X=x;θ)P(X=x;θ)P(X=x;\theta)L(θ∣x)L(θ∣x)\mathcal{L}(\theta \mid x) θθ\theta (太字は強調のためのものです)。したがって、最初の引用では、文字通り条件付き確率について説明されていますが、その後すぐに、これは実際には条件付き確率ではなく、実際には?P(x∣θ)P(x∣θ)P(x\mid\theta)P(X=x;θ)P(X=x;θ)P(X = x; \theta) それで、どれが?尤度は、実際には最初の引用の条件付き確率を暗示していますか?または、2番目の引用の単純な確率を暗示していますか? 編集: これまでに受け取った有益で洞察に満ちたすべての答えに基づいて、私の質問を要約しました。 で英語「可能性が観測されたデータを考えると、パラメータの関数である。」:、我々はと言います で数学:、我々は、のように記述。L(Θ=θ∣X=x)L(Θ=θ∣X=x)L(\mathbf{\Theta}= \theta \mid \mathbf{X}=x) 尤度は確率ではありません。 尤度は確率分布ではありません。 尤度は確率質量ではありません。 ただし、英語では、尤度は「であり、パラメーター化された確率分布の積(連続的な場合)、または確率質量の積(離散的な場合)。 " 数学、我々は、次に、そのように書く:(連続ケース、はPDF)、および(離散ケース、は確率質量)。ここで重要なことは、ここではまったくX=xX=x\mathbf{X} …

2
iidデータの逆説(少なくとも私にとって)
統計に関する私の集計(および乏しい)知識が許す限り、がiidのランダム変数である場合、用語が示すように、それらは独立しており、同一に分布しています。バツ1、X2、。。。、Xnバツ1、バツ2、。。。、バツnX_1, X_2,..., X_n ここでの私の懸念は、iidサンプルの以前のプロパティです。これは、 p (Xn| バツ私1、X私2、。。。、X私k)= p (Xn)、p(バツn|バツ私1、バツ私2、。。。、バツ私k)=p(バツn)、p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), 個別ののst。 1 ≤ I 、J &lt; N私j私ji_j1 ≤ Ij&lt; n1≤私j&lt;n1 \leq i_j < n ただし、同一の分布の独立したサンプルの集合が分布構造に関する情報を提供し、上記の場合の結果としてに関する情報を提供することを知っているので、実際には、 バツnバツnX_np (Xn| バツ私1、X私2、。。。、X私k)= p (Xn)。p(バツn|バツ私1、バツ私2、。。。、バツ私k)=p(バツn)。p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}). 私は間違いの犠牲者であることは知っていますが、その理由はわかりません。これで私を助けてください。

4
モンティ・ホールの問題と誤りのあるモンティ
モンティは、ドアの後ろにヤギがいた(または空だった)かどうかについて完全な知識がありました。この事実により、プレイヤーは「推測」を他のドアに切り替えることで、時間の経過とともに成功率を倍にすることができます。モンティの知識が完全ではなかった場合はどうなりますか?時々、賞品がヤギと同じ出入り口で本当にあったとしたらどうでしょう?しかし、あなたがあなたのドアを選んで開けるまで、あなたはそれを見ることができなかったのですか?モンティの正解率が100%未満の場合、IFの計算方法を理解するのを助けてくれますか?たとえば、Montyが間違っている場合、平均50%の確率でどうなりますか?プレイヤーは、彼の推測/ドアを切り替えることでさらに利益を得られますか?モンティが正しい確率が33.3%未満で、賞品がドアの後ろにない場合、プレイヤーの最善の選択肢はドアの選択を切り替えないことだと思います。賞品がドアの後ろにないことについて正しいモンティの確率を挿入することにより、切り替えの潜在的な利点を計算する方法を教えてください。私は高校の数学以外に何も持っておらず、69歳ですので、優しくしてください。 洞察と式が提供されてくれてありがとう。「Fallible Monty」が賞/車の不在を予測するのに66%の精度である場合、ドアの最初の選択から切り替えることにはゼロの利点があるようです。...33%のエラー率がデフォルトであるため賞品の基本料金は、あらゆるドアの後ろにあります。ただし、Montyが賞品のない場所を予測することで66%を上回った場合、スイッチングはより大きなユーティリティを導き出します。「専門家」が「専門家の予測」を行うゲームにこの推論を適用しようとしています。3つのおおよそ同じ確率のオプションのうちの1つが正しいものになるでしょう。私はエキスパートが正しいことをほとんど信じておらず、彼の「ヒット率」が33%未満-15%に近いと確信しています。これからの私の結論は、「私と同じオプション、私はおそらく間違いであり、他の2つのいずれかに変更する必要があります!;-)


3
尤度の定義に頻度主義者とベイジアンの間に違いはありますか?
尤度関数は条件付き確率ではないと言う人もいれば、そうだと言う人もいます。これは非常に混乱しています。 私が見たほとんどの情報源によると、パラメータ分布の尤度は、x iの n個のサンプルが与えられた確率質量関数の積でなければなりません。θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) たとえば、ロジスティック回帰では、最適化アルゴリズムを使用して尤度関数(最大尤度推定)を最大化し、最適なパラメーター、したがって最終的なLRモデルを取得します。互いに独立していると仮定するトレーニングサンプルが与えられた場合、確率の積(または結合確率質量関数)を最大化します。これは私には明らかです。nnn よるとの関係:可能性、条件付き確率と故障率、「可能性は確率ではありません、それは条件付き確率ではありません」。また、「尤度はベイジアンの尤度の理解においてのみ条件付き確率です。つまり、が確率変数であると仮定した場合」。θθ\theta 頻度の高い人とベイジアンの間で学習問題を扱う際のさまざまな視点について読みました。 ソースによると、ベイジアン推論の場合、アプリオリ、尤度P (X | θ )があり、ベイジアン定理を使用して事後P (θ | X )を取得します。P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 私はベイジアン推論に精通していません。どうしてP(X|θ)P(X|θ)P(X|\theta)そのパラメータを条件と観測データの分布である、また、可能性と呼ばれますか?ではウィキペディア、それが時にはそれが書かれていると言い。これは何を意味するのでしょうか?L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) 頻度についての頻度とベイジアンの定義に違いはありますか? ありがとう。 編集: ベイズの定理の解釈には、ベイズの解釈と頻度論者の解釈のさまざまな方法があります(ベイズの定理-ウィキペディアを参照)。

2
複数の条件による条件付き確率の定義
具体的には、AとBの2つのイベントと、いくつかの分布パラメーターがあり、を調べたいとします。θθ \theta P( A| B 、θ )P(A|B、θ)P(A | B,\theta) したがって、条件付き確率の最も簡単な定義は、イベントAおよびBが与えられた場合、です。上記のように、条件付けするイベントが複数ある場合、 または私はまったく間違った方法で見ていますか?私は時々確率に対処するときに自分自身を気にする傾向がありますが、その理由はよくわかりません。P(A | B ) = P( A ∩ B)P(B )P(A|B)=P(A∩B)P(B)P(A|B) = \frac{P(A \cap B)}{P(B)}P(A | B 、θ )=?P((A | θ )∩ (B | θ ))P(B | θ )P(A|B、θ)=?P((A|θ)∩(B|θ))P(B|θ)P(A | B,\theta) \stackrel{?}{=} \frac{P((A | \theta)\cap(B | \theta))}{P(B|\theta)}

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.