タグ付けされた質問 「random-variable」

確率変数または確率変数は、偶然の変動(すなわち、数学的な意味でのランダム性)の影響を受ける値です。

1
証明/反証
証明/反証E[1A|Ft]=0 or 1 a.s. ⇒E[1A|Fs]=E[1A|Ft] a.s.E[1A|Ft]=0 or 1 a.s. ⇒E[1A|Fs]=E[1A|Ft] a.s.E[1_A | \mathscr{F_t}] = 0 \ \text{or} \ 1 \ \text{a.s.} \ \Rightarrow E[1_A | \mathscr{F_{s}}] = E[1_A | \mathscr{F_t}] \ \text{a.s.} フィルター処理された確率空間が与えられると、。(Ω,F,{Fn}n∈N,P)(Ω,F,{Fn}n∈N,P)(\Omega, \mathscr{F}, \{\mathscr{F}_n\}_{n \in \mathbb{N}}, \mathbb{P})A∈FA∈FA \in \mathscr{F} 仮定それは従ってい何についての?∃t∈N s.t. E[1A|Ft]=1 a.s.∃t∈N s.t. E[1A|Ft]=1 a.s.\exists t \in \mathbb{N} …

3
変数のマッチングや統計的制御などの方法間のリンクは何ですか?
研究記事では、研究者が特定の変数を制御していることがよくあります。これは、マッチング、ブロッキングなどの方法で実行できます。 しかし、変数の制御は、影響を与える可能性のあるいくつかの変数を測定し、それらに対していくつかの統計分析を実行することによって統計的に行われるものであると常に思っていました。したがって、たとえば、独立変数と交絡変数を測定し、分析を行う調査やその他のテストを行うことができます。 準実験で変数を制御することは可能ですか? 変数のマッチングや統計的制御などの方法間のリンクは何ですか?


1
平日の分布の均一性を測定する
私はここで尋ねられた質問と同様の問題を抱えています: 分布の不均一性をどのように測定しますか? 曜日全体にわたる一連の確率分布があります。各分布が(1 / 7,1 / 7、...、1/7)にどれだけ近いかを測定したいと思います。 現時点では、上記の質問の回答を使用しています。L2ノルムは、分布の1日の質量が1の場合に値1を持ち、(1 / 7,1 / 7、...、1/7)に対して最小化されます。私はこれを線形にスケーリングして、0と1の間にあるようにします。それを反転させると、0は完全に不均一になり、1は完全に均一になります。 これはかなりうまく機能しますが、私には1つの問題があります。平日は7次元空間の次元として等しく扱われるため、日数の近さは考慮されません。つまり、(1 / 2,1 / 2,0,0,0,0,0)と(1 / 2,0,0,1 / 2,0,0,0)にも同じスコアを与えますある意味では、後者はより「広がり」、均一であり、理想的にはより高いスコアを取得する必要があります。日付の順序が循環的であるという追加の複雑さが明らかにあります。 日の近さを説明するために、このヒューリスティックをどのように変更できますか?

1
多変数依存の共同分布から周辺分布を見つける方法は?
私の教科書の問題点の1つは次のとおりです。2次元の確率的連続ベクトルには、次の密度関数があります。 fX,Y(x,y)={15xy20if 0 &lt; x &lt; 1 and 0 &lt; y &lt; xotherwisefX,Y(x,y)={15xy2if 0 &lt; x &lt; 1 and 0 &lt; y &lt; x0otherwise f_{X,Y}(x,y)= \begin{cases} 15xy^2 & \text{if 0 < x < 1 and 0 < y < x}\\ 0 & \text{otherwise}\\ \end{cases} 周辺密度関数およびf Yが次のとおりであることを示します。fXfXf_XfYfYf_Y fX(x)={5x40if 0 &lt; x …

1
0で切り捨てられた2つの独立した一様変数の差の分布
ましょとYが同じ均一分布を有する二つの独立確率変数であるU (0 、1 )密度をバツXXYYYU(0 、1 )U(0,1)U(0,1) であれば 0 ≤ X ≤ 1(および 0他の場所)。f(x )= 1f(x)=1f(x)=10 ≤ X ≤ 10≤x≤10≤x≤1000 してみましょうで定義された本当のランダム変数であります:ZZZ なら X &gt; Y(および 0他の場所)。Z= X− YZ=X−YZ=X-YX&gt;YX&gt;YX>Y000 の分布を導き出します。ZZZ 期待値と分散V (Z )を計算します。E(Z)E(Z)E(Z)V(Z)V(Z)V(Z)

2
確率
仮定X1X1X_1及びX2X2X_2、パラメータを持つ独立した幾何学的な確率変数であるppp。その確率は何であるX1≥X2X1≥X2X_1 \geq X_2? X1X1X_1とX2X2X_2については幾何学的であるということ以外は何も言われていないので、私はこの質問について混乱しています。X 1とX 2は範囲内にあるため、これは50%50%50\%はないでしょうか?X1X1X_1X2X2X_2 編集:新しい試み P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1 ≥ X2) = P(X1 > X2) + P(X1 = X2) P(X1=X2)P(X1=X2)P(X1 = X2) =∑x∑x\sum_{x} (1−p)x−1p(1−p)x−1p(1−p)x−1p(1−p)x−1p(1-p)^{x-1}p(1-p)^{x-1}p =p2−pp2−p\frac{p}{2-p} P(X1&gt;X2)P(X1&gt;X2)P(X1 > X2) = P(X1&lt;X2)P(X1&lt;X2)P(X1 < X2)およびP(X1&lt;X2)+P(X1&gt;X2)+P(X1=X2)=1P(X1&lt;X2)+P(X1&gt;X2)+P(X1=X2)=1P(X1 < X2) + P(X1 > X2) + P(X1 = X2) = 1 したがって、P(X1&gt;X2)P(X1&gt;X2)P(X1 > X2) = 1−P(X1=X2)21−P(X1=X2)2\frac{1-P(X1 = X2)}{2} …

2
2つのrvの差の均一PDF
2つのiid rvの差のPDFを長方形のように見えるようにすることは可能ですか(たとえば、rvが均一な分布から取得された場合に得られる三角形の代わりに)。 つまり、jkのPDF f(ある分布から取られた2つのiid rvについて)がすべて-1 &lt;x &lt;1に対してf(x)= 0.5を持つことは可能ですか? 最小値が-1で最大値が1であることを除いて、jとkを取得する分布に制限はありません。 いくつかの実験の後、これは不可能かもしれないと思っています。

2
ランダム変数を独自のpdfまたはcdfにプラグインする背後にある直感的な意味は何ですか?
pdfは通常、として記述されます。小文字のxは、そのpdfを持つ確率変数Xの実現または結果として扱われます。同様に、cdfはF X(x )として記述され、P (X &lt; x )の意味を持ちます。ただし、スコア関数の定義やcdfが均一に分布しているというこの導出など、状況によっては、確率変数Xが独自のpdf / cdfにプラグインされているように見えます。そうすることで、f(x|θ)f(x|θ)f(x|\theta)xxxXXXFX(x)FX(x)F_X(x)P(X&lt;x)P(X&lt;x)P(X<x)XXX新しいランダム変数 またはZ = F X(X )。それ自体が確率変数になり、後者の場合、「解釈」F X(X )= P (X &lt; X )は私にはナンセンスのように見えるので、これをpdfまたはcdfと呼ぶことはもうできないと思います。Y= f(X| θ)Y=f(X|θ)Y=f(X|\theta)Z= Fバツ(X)Z=FX(X)Z=F_X(X)Fバツ(X)= P(X&lt; X)FX(X)=P(X&lt;X)F_X(X)=P(X<X) さらに、上記の後者の場合、「確率変数の累積分布関数は一様分布に従う」という文を理解していることを確信できません。cdfは関数であり、確率変数ではないため、分布はありません。むしろ、一様な分布を持つのは、独自の累積分布関数を表す関数を使用して変換された確率変数ですが、この変換がなぜ意味があるのか​​はわかりません。同じことがスコア関数にも当てはまります。ここでは、独自の対数尤度を表す関数にランダム変数を挿入します。 私はこれらの変換の背後にある直感的な意味を考え出そうと何週間も頭を悩ませてきましたが、行き詰まっています。どんな洞察もいただければ幸いです!

2
表示
もし、の分布見つけるY = 2 XをX∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1)。Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2} 我々はFY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈ ( − 1 、− 1 + 1 + y2√y])、もしy&gt; 0P r ( X∈ ( − 1 、− 1 + 1 + y2√y]) + P r ( X∈ ( 1 、− 1 − 1 + y2√y])、もしy&lt; 0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify&gt;0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify&lt;0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y<0 …

1
ない
ないは Xと Yの独立を意味しますか?Cov(f(X),Y)=0∀f(.)Cov(f(X),Y)=0∀f(.)\mathbb{Cov} \left(f(X),Y\right) = 0 \; \forall \; f(.)XXXYYY 私は、とYの間の独立性の次の定義にのみ精通しています。XXXYYY fx,y(x,y)=fx(x)fy(y)fx,y(x,y)=fx(x)fy(y) f_{x,y}(x,y) = f_x(x)f_y(y)

1
確率変数を平均
ましょ IIDこととˉ X = Σ nは、私は= 1 X Iを。 E [ X iXiXiX_iX¯=∑ni=1XiX¯=∑i=1nXi\bar{X} = \sum_{i=1}^{n} X_i 当たり前のようですが、正式に導出するのに苦労しています。E[XiX¯]= ?E[XiX¯]= ? E\left[\frac{X_i}{\bar{X}}\right] = \ ?

1
ええと、 興味深い反例については、たとえばhttps://en.wikipedia.org/wiki/Subindependenceを参照できません。しかし、本当の問題は、独立が続くように条件を強化する方法はありますか?たとえば、関数g 1、… 、g nのセットがあるため、E g i(X )g j(Y )= E g i(X )E g j(Y )の場合、すべてのi 、jg1,…,gng1,…,gng_1, \dotsc, g_nEgi(X)gj(Y)=Egi(X)Egj(Y)E⁡gi(X)gj(Y)=E⁡gi(X)E⁡gj(Y)\E g_i(X) g_j(Y) =\E g_i(X) \E g_j(Y)i,ji,ji,jその後、独立が続きますか?そして、そのような一連の関数は無限大である必要がありますか? そして、さらに、この質問を扱う良い参考文献はありますか?

2
非iidベルヌーイ変数のこのランダムな合計の確率分布は何ですか?
一様に分布していないランダムな数の変数の合計の確率分布を見つけようとしています。次に例を示します。 ジョンはカスタマーサービスのコールセンターで働いています。彼は問題のある電話を受け、それらを解決しようとします。彼が解決できないものは、彼を上司に転送します。彼が1日に受け取る通話の数が平均ポアソン分布に従うと仮定します。それぞれの問題の難易度は、かなり単純なもの(間違いなく対処できるもの)から、解決方法がわからない非常に専門的な質問までさまざまです。i番目の問題を解くことができる確率p iは、パラメーターαおよびβのベータ分布に従い、以前の問題とは無関係であると仮定します。彼が1日に解決する通話数の分布はどのようになっていますか?μμ\mupipip_iαα\alphaββ\beta より正式には、私は: のために、私は= 0 、1 、2 、。。。、NY=I(N&gt;0)∑Ni=0XiY=I(N&gt;0)∑i=0NXiY = I(N > 0)\sum_{i = 0}^{N} X_ii=0,1,2,...,Ni=0,1,2,...,Ni = 0, 1, 2, ..., N ここで、、(X I | P I)〜BのEのR 、N 、O 、U 、L 、L 、I(P I)及びP I〜BのE T(α 、β )N∼Poisson(μ)N∼Poisson(μ)N \sim \mathrm{Poisson}(\mu)(Xi|pi)∼Bernoulli(pi)(Xi|pi)∼Bernoulli(pi)(X_i | p_i) \sim \mathrm{Bernoulli}(p_i)pi∼Beta(α,β)pi∼Beta(α,β)p_i \sim \mathrm{Beta}(\alpha, \beta) 今のところ、は独立していると思います。μが大きい場合の実際の例では、パラメーターαおよびβは、ベータ分布の成功率が低いほど多くの質量を持つようになっていますが、パラメーターμ 、αおよびβは互いに影響しないことも受け入れます。レートp。しかし、今はそれを無視しましょう。XiXiX_iμ,αμ,α\mu, \alphaββ\betaμμ\muαα\alphaββ\betappp …

2
マルコフ、チェビシェフの不等式が厳しいランダム変数
マルコフまたはチェビシェフの不等式が厳しい確率変数の作成に興味があります。 簡単な例は、次の確率変数です。 P (| X | ≥ 1 )= 1P(X=1)=P(X=−1)=0.5P(X=1)=P(X=−1)=0.5P(X=1)=P(X=-1) = 0.5。その平均はゼロであり、分散は1であり、です。このランダム変数の場合、チェビシェフはタイトです(等しい値で保持されます)。P(|X|≥1)=1P(|X|≥1)=1P(|X| \ge 1) = 1 P(|X|≥1)≤Var(X)12=1P(|X|≥1)≤Var(X)12=1P(|X|\ge 1) \le \frac{\text{Var}(X)}{1^2} = 1 マルコフとチェビシェフがタイトである、より興味深い(非一様)確率変数はありますか?いくつかの例は素晴らしいでしょう。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.