タグ付けされた質問 「conditional-expectation」

条件付き期待値は、ランダム変数の期待値であり、別の1つまたは複数の変数に関する情報が(ほとんどの場合、それらの値を指定することによって)与えられます。

1
期待の添字表記
測定理論の枠組みにおける条件付き期待値の添字表記の正確な意味は何ですか?これらの添え字は、条件付き期待値の定義には表示されませんが、たとえばwikipediaのこのページに表示される場合があります。(数ヶ月前の同じページではないことに注意してください)。EX[f(X)]EX[f(X)]\mathbb{E}_X[f(X)] 例えばの意味は何をする必要がありますでX 〜N(0 、1 )とY = X + 1?EX[X+Y]EX[X+Y]\mathbb{E}_X[X+Y]X∼N(0,1)X∼N(0,1)X\sim\mathcal{N}(0,1)Y=X+1Y=X+1Y=X+1

3
反復期待法則の一般化
私は最近このアイデンティティに出会いました: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] もちろん、そのルールのより単純なバージョン、つまりE[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) には精通していますが、その一般化の正当性を見つけることができませんでした。 誰かがその事実についてそれほど技術的ではない参考文献を教えてくれたり、さらに良いことに、誰かがこの重要な結果の簡単な証拠を提示してくれたら、ありがたいです。

3
代数の条件付き期待の直観
ましょう確率変数与え、確率空間であると -代数条件付き期待値である新しいランダム変数を構築できます。(Ω 、F、μ )(Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ :Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R}σ 、G ⊆ F E [ ξ | G ]σ\sigmaG⊆F\mathscr{G}\subseteq \mathscr{F}E[ξ|G]E[\xi|\mathscr{G}] について考える直観は何ですか?以下の直感を理解しています。E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] (i) ここで、はイベント(正の確率)です。E [ ξ | A ] E[ξ|A]E[\xi|A]AAA (ii) ここで、は離散確率変数です。E [ ξ | η ] E[ξ|η]E[\xi|\eta]ηη\eta しかし、視覚化することはできません。私はそれの数学を理解しており、視覚化できるより単純なケースを一般化するような方法で定義されていることを理解しています。しかし、それでも私はこの考え方が役に立つとは思いません。それは私にとって不思議なオブジェクトのままです。E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] たとえば、をイベントとし。形成 -代数、によって生成された1。次いで、に等しくなるなら、そして等しいなら。換言すれば、であれば、及び if。μ …

4
最良の予測子としての条件付き期待値の証明に関する問題
の証明に問題がある E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 期待と条件付き期待のより深い誤解を明らかにする可能性が非常に高い。 私が知っている証明は次のとおりです(この証明の別のバージョンはここにあります) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E \Big[ \big(Y - E(Y|X)\big)^2 + 2 \big(Y - E(Y|X)\big) \big(E(Y|X) - g(X)\big) + \big(E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E …


1
ボレルのパラドックスにどのように対処すればよいですか?
ボレルのパラドックスや条件付き確率を扱う他の関連する「パラドックス」を精神的にどのように扱ったかについて、少し不安を感じています。これをよく読んでいない人は、このリンクを参照してください。これまでの私の精神的な反応は、ほとんど誰もそれについて語っていないようだから、それを無視することでしたが、私はこれを修正すべきだと感じています。 このパラドックスが存在することはわかっていますが、実際には(極端な例としてベイジアン分析として)メジャーイベントの条件付けは完全にうまくいくようです。場合上の私のデータは、我々の条件であるこれは測定のイベントであっても、すべての時間連続しています。そして、少なくとも明示的にではなく、パラドックスを解決するために観察したイベントに収束するイベントのシーケンスを構築するための努力は確かに行いません。000X = x 0 XバツXXバツ= xX=xX = x000バツXX 私が考えて、我々は本質的にランダム変数固定しているので、これは大丈夫です実験の前に(原則として)、そして我々は上のコンディショニングされているので。つまり、自然である上の条件に-代数の情報なぜならを通じて使用することがきである -それは他のいくつかの方法で私たちに来ていたならば、我々は異なるに関する条件でしょう -代数。Borelのパラドックスは、適切な代数が条件付けられるのは明らかではないが、ベイジアンは指定しているためです。事前に情報を指定しているためσ (X )σ (X )σ X = X X σバツXXσ(X)σ(X)\sigma(X)σ(X)σ(X)\sigma(X)σσ\sigmaバツ= xX=xX = xバツXXσσ\sigmaσ (X )X = Xσσ\sigmaσ(X)σ(X)\sigma(X)バツ= xX=xX = xは、を測定することでバツXX明らかになりました。 -algebra を指定したら、すべて問題ありません。Radon-Nikodymを使用して条件付き期待値を構築します。すべてが一意のヌルセットです。σσ\sigma これは本質的に正しいですか、それとも私は道を進んでいますか?私は遠く離れてる場合は、何で私たちがそうであるように振る舞うための正当化は?[このサイトのQ&Aの性質を考えると、これを私の質問と見なしてください。]測定理論の確率をとったとき、何らかの理由で、条件付きの期待にさえ触れませんでした。その結果、私の考えが非常に混乱しているのではないかと心配しています。

4
サンプル平均が与えられたサンプル中央値の期待値
ましょう中央値を表すとletサイズのランダムサンプルの平均を表しである分布から。を計算するにはどうすればよいですか?ˉ X N = 2 のk + 1 N (μ 、σ 2)E (Y | ˉ X = ˉ X)YYYX¯X¯\bar{X}n=2k+1n=2k+1n=2k+1N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) 直観的には、正規性の仮定のため、と主張するのは理にかなっています。しかし、それを厳密に示すことはできますか?E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} 私の最初の考えは、一般に既知の結果である条件付き正規分布を使用してこの問題にアプローチすることでした。問題は、期待値と中央値の分散がわからないため、次統計量を使用してそれらを計算する必要があるということです。しかし、それは非常に複雑で、絶対に必要な場合を除き、私はそこに行きたくありません。 k+1k+1k+1

2
ピタゴラスの定理としての総分散の法則
XXXとYYYは有限の2次モーメントがあると仮定します。第2の有限モーメントがランダム変数のヒルベルト空間では(の内積をT1,T2T1,T2T_1,T_2によって定義されたE(T1T2)E(T1T2)E(T_1T_2)、||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2))、我々は解釈するE(Y|X)E(Y|X)E(Y|X)の投影としてYYYの機能の空間にXXX。 全分散の法則は、 Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X))+Var(E(Y|X))Var(Y)=E(Var(Y|X)) + Var(E(Y|X)) 上記の幾何学的な観点からこの法則を解釈する方法はありますか?法律は、辺持つ直角三角形のピタゴラスの定理と同じであると言われましたY,E(Y|X),Y−E(Y|X)Y,E(Y|X),Y−E(Y|X)Y, E(Y|X), Y-E(Y|X)。三角形が直角である理由を理解していますが、ピタゴラスの定理が全分散の法則をどのように捉えているかはわかりません。

3
もし IIDであり、その後、計算、ここで、
質問 場合 IID、次いで計算され、ここで、。X 1、⋯ 、X N〜N(μ 、1 )X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E (X 1 | T )E(X1∣T)\mathbb{E}\left( X_1 \mid T \right) T = Σ I X IT=∑iXiT = \sum_i X_i 試行:以下が正しいかどうかを確認してください。 たとえば、 これは、X_1、\ ldots、X_nがIIDである、各ことを意味します。Σ I E(X I |T) =E(Σ I X I |T) =T。∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i \mid T \right) = …

2
指数確率変数の条件付き期待
ランダム変数(E [ X ] = 1X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda))E[X| X>x]はx+E[X]と等しくなければなりません。これは、メモリーレスプロパティによってX| X>Xは、のと同様であるXが、右にシフトし、X。E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda}E[X|X> x ]E[X|バツ>バツ]\mathbb{E}[X|X > x]x + E [ X]バツ+E[バツ]x + \mathbb{E}[X]バツ| バツ> xバツ|バツ>バツX|X > xバツバツXバツバツx ただし、具体的な証拠を提供するためにメモリレスプロパティを使用するのに苦労しています。どんな助けも大歓迎です。 ありがとう。

4
カードを引いた後、エース、2、3などを獲得するまでの数字
以下を解決するのに苦労しています。 エースを獲得するまで、標準の52カードデッキからカードを交換せずに引きます。2を得るまで残っているものから引きます。3に進みます。デッキ全体がなくなった後、予想される数はどれくらいですか。 させるのは自然でした Ti=first position of card whose value is iTi=first position of card whose value is iT_i = \text{first position of card whose value is }i Ui=last position of card whose value is iUi=last position of card whose value is iU_i = \text{last position of card whose value is …

1
フィッシャーの厳密検定と超幾何分布
私はフィッシャーの正確なテストをよりよく理解したかったので、次のおもちゃの例を考案しました。ここで、fとmは男性と女性に対応し、nとyは次のように「ソーダ消費」に対応します。 > soda_gender f m n 0 5 y 5 0 明らかに、これは大幅な簡略化ですが、コンテキストが邪魔になりたくありませんでした。ここで私は男性がソーダを飲まず、女性がソーダを飲まないと仮定し、統計手順が同じ結論になるかどうかを確認したかっただけです。 Rでフィッシャーの正確検定を実行すると、次の結果が得られます。 > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.0000000 0.4353226 sample estimates: odds ratio 0 ここでは、p値が0.007937であるため、性別とソーダ消費が関連付けられていると結論付けます。 フィッシャーの正確な検定が超幾何分布に関連していることを知っています。だから私はそれを使って同様の結果を得たいと思った。つまり、この問題は次のように表示できます。10個のボールがあり、5個が「男性」、5個が「女性」とラベル付けされており、交換せずに5つのボールをランダムに描画すると、0個の男性ボールが表示されます。 。この観察の可能性は何ですか?この質問に答えるために、次のコマンドを使用しました。 …

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
を見つけるためのより簡単な方法
一様分布から引き出さ3つのIIDサンプル検討 、θはパラメータです。E [ X (2 )を見つけたい | X (1 )、X (3 ) ] ここで、X (i )は順序統計量iです。u(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE[X(2)|X(1),X(3)]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X(i)X(i)X_{(i)}iii 結果は しかし、この結果を示すことができる唯一の方法は長すぎるようです。簡単な解決策を思い付くことができません。何か不足していますか、ショートカットはありますか?E[X(2)|X(1),X(3)]=X(1)+X(3)2E[X(2)|X(1),X(3)]=X(1)+X(3)2 \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] = \frac{X_{(1)}+ X_{(3)}}{2} 私がすることは次のとおりです: 条件付き密度を見つける f(x(2)|x(1),x(3))=f(x(1),x(2),x(3))f(x(1),x(3))f(x(2)|x(1),x(3))=f(x(1),x(2),x(3))f(x(1),x(3)) f(x_{(2)}| x_{(1)}, x_{(3)}) = \frac{ f(x_{(1)}, x_{(2)}, x_{(3)})}{f(x_{(1)}, x_{(3)})} 私は統合します E[X(2)|X(1),X(3)]=∫xf(x|x(1),x(3))dxE[X(2)|X(1),X(3)]=∫xf(x|x(1),x(3))dx \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] = \int x f(x| …

1
正規分布の高次積への期待
平均ゼロと共分散行列Σを持つ2つの正規分布変数とX 2があります。E [ X 2 1 X 2 2 ]の値をΣのエントリで計算することに興味があります。バツ1X1X_1バツ2X2X_2ΣΣ\SigmaE[ X21バツ22]E[X12X22]E[X_1^2 X_2^2]ΣΣ\Sigma 総確率の法則を使用して、 が、内部の期待値が何になるのかわかりません。ここに別の方法はありますか?E[ X21バツ22] = E[ X21E[ X22| バツ1] ]E[X12X22]=E[X12E[X22|X1]]E[X_1^2 X_2^2] = E[X_1^2 E[X_2^2 | X_1]] ありがとう。 編集:変数も多変量正規分布です。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.