タグ付けされた質問 「expected-value」

確率変数の期待値は、確率変数が取り得るすべての可能な値の加重平均であり、重みはその値を受け取る確率と同じです。

2
二乗ガンマの期待
ガンマ分布がおよびでパラメーター化されている場合:αα\alphaββ\beta E(Γ(α,β))=αβE(Γ(α,β))=αβ E(\Gamma(\alpha, \beta)) = \frac{\alpha}{\beta} 二乗ガンマの期待値を計算したいと思います。 E(Γ(α,β)2)=?E(Γ(α,β)2)=? E(\Gamma(\alpha, \beta)^2) = ? 私はそうだと思います: E(Γ(α,β)2)=(αβ)2+αβ2E(Γ(α,β)2)=(αβ)2+αβ2 E(\Gamma(\alpha, \beta)^2) = \left(\frac{\alpha}{\beta}\right)^2 + \frac{\alpha}{\beta^2} この後者の表現が正しいかどうか誰かが知っていますか?

2
正弦と余弦の相関
仮定均一に分布している[ 0 、2 π ]。レッツY = 罪のXとZ = COS X。YとZの間の相関がゼロであることを示します。XXX[0,2π][0,2π][0, 2\pi]Y=sinXY=sin⁡XY = \sin XZ=cosXZ=cos⁡XZ = \cos XYYYZZZ サインとコサインの標準偏差とそれらの共分散を知る必要があるようです。これらをどのように計算できますか? が均一な分布であり、変換された変数Y = sin (X )およびZ = cos (X )を見ると仮定する必要があると思います。次に、無意識の統計学者の法則が期待値を与えるXXXY=sin(X)Y=sin⁡(X)Y=\sin(X)Z=cos(X)Z=cos⁡(X)Z=\cos(X) 及びE[Z]=1E[Y]=1b−a∫∞−∞sin(x)dxE[Y]=1b−a∫−∞∞sin⁡(x)dxE[Y] = \frac{1}{b-a}\int_{-\infty}^{\infty} \sin(x)dxE[Z]=1b−a∫∞−∞cos(x)dxE[Z]=1b−a∫−∞∞cos⁡(x)dxE[Z] = \frac{1}{b-a}\int_{-\infty}^{\infty} \cos(x)dx (密度は均一な分布であるため一定であり、積分の外に移動できます)。 ただし、これらの積分は定義されていません(ただし、コーシーのプリンシパル値は0だと思います)。 どうすればこの問題を解決できますか?私は解決策を知っていると思います(サインとコサインは反対の位相を持っているので相関はゼロです)が、それを導き出す方法を見つけることができません。

2
期待
LET、、、と無関係です。の期待は何ですか?X1X1X_1X2X2X_2⋯⋯\cdotsXd∼N(0,1)Xd∼N(0,1)X_d \sim \mathcal{N}(0, 1)X41(X21+⋯+X2d)2X14(X12+⋯+Xd2)2\frac{X_1^4}{(X_1^2 + \cdots + X_d^2)^2} は対称で簡単に見つけることができます。しかし、私はの期待値を見つける方法を知りません。ヒントを教えてください。E(X21X21+⋯+X2d)=1dE(X12X12+⋯+Xd2)=1d\mathbb{E}\left(\frac{X_1^2}{X_1^2 + \cdots + X_d^2}\right) = \frac{1}{d}バツ41(X21+ ⋯ + X2d)2X14(X12+⋯+Xd2)2\frac{X_1^4}{(X_1^2 + \cdots + X_d^2)^2} これまでに入手したもの を対称的に見つけたかった。しかし、この場合には、の場合と異なっているので、は。だから私は期待を見つけるためにいくつかの他のアイデアが必要です。E (X41(X21+ ⋯ + X2d)2)E(X14(X12+⋯+Xd2)2)\mathbb{E}\left(\frac{X_1^4}{(X_1^2 + \cdots + X_d^2)^2}\right)E (X21バツ21+ ⋯ + X2d)E(X12X12+⋯+Xd2)\mathbb{E}\left(\frac{X_1^2}{X_1^2 + \cdots + X_d^2}\right)E (X4私(X21+ ⋯ + X2d)2)E(Xi4(X12+⋯+Xd2)2)\mathbb{E}\left(\frac{X_i^4}{(X_1^2 + \cdots + X_d^2)^2}\right)E (X2私バツ2j(X21+ ⋯ …

1
n iid正規変数の最大比率の期待値
がからのiidであり、がから番目に小さい要素を示すと仮定します。 2つの連続する要素間の比率の予想される最大値をどのように上限にできるでしょうか?つまり、次の上限をどのように計算できますか。 N (μ 、σ 2)X (I ) I X 1、。。。、X n X (i )X1,...,XnX1,...,XnX_1,...,X_nN(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)X(i)X(i)X_{(i)}iiiX1,...,XnX1,...,XnX_1,...,X_nX(i)X(i)X_{(i)} E[maxi=1,...,n−1(X(i+1)X(i))]E[maxi=1,...,n−1(X(i+1)X(i))]E\left[\max\limits_{i=1,...,n-1}\left(\frac{X_{(i+1)}}{X_{(i)}}\right)\right] 私が見つけることができた文献は、主に2つの確率変数間の比率に焦点を当てています。その結果、2つの無相関正規分布のpdfがここに示されています。https://en.wikipedia.org/wiki/ Ratio_distribution#Gaussian_ratio_distribution。これにより、nnn変数の期待される平均比率を上限にできるようになりますが、この概念を一般化してnnn変数の期待される最大比率を見つける方法はわかりません。

1
iid確率変数の期待値
私は理解できないこの派生に出くわしました:が平均と分散母集団から取られたサイズnのランダムサンプルである場合、X1,X2,...,XnX1,X2,...,XnX_1, X_2, ..., X_nμμ\muσ2σ2\sigma^2 X¯=(X1+X2+...+Xn)/nX¯=(X1+X2+...+Xn)/n\bar{X} = (X_1 + X_2 + ... + X_n)/n E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(\bar{X}) = E(X_1 + X_2 + ... + X_n)/n = (1/n)(E(X_1) + E(X_2) + ... + E(X_n)) E(X¯)=(1/n)(μ+μ+...n times)=μE(X¯)=(1/n)(μ+μ+...n times)=μE(\bar{X}) = (1/n)(\mu + \mu + ...n ~\text{times}) = \mu これは私が迷っているところです。使用される引数はです。これらは同じように分布しているためです。実際にはそうではありません。サンプルあり、ランダムに2つの数値を置き換えて選択し、この手順を10回繰り返すと、10個のサンプルが得られます:(5、4) (2、5)(1、2)(4、1)(4、6)(2、4)(6、1)(2、4)(3、1)(5、1)。これは、2つのランダム変数ます。ここで、の期待値を取得すると、E(Xi)=μE(Xi)=μE(X_i) = \muS={1,2,3,4,5,6}S={1,2,3,4,5,6}S=\{1,2,3,4,5,6\}X1,X2X1,X2X_1, X_2X1X1X_1 E(X1)=1.(1/10)+2.(3/10)+3.(1/10)+4.(2/10)+5.(2/10)+6.(1/10)=34/10=3.4E(X1)=1.(1/10)+2.(3/10)+3.(1/10)+4.(2/10)+5.(2/10)+6.(1/10)=34/10=3.4E(X_1) = 1.(1/10) …

1
分位数の関数としての期待値?
RV用の期待値と同じRVの変位値の関数として連続確率変数の期待値に関連する一般的な式がある場合、私は思っていた:として定義される および変位値は次のように定義されます: for。XXX E(X)=∫xdFX(x)E(X)=∫xdFX(x)E(X) = \int x dF_X(x) QpX={x:FX(x)=p}=F−1X(p)QXp={x:FX(x)=p}=FX−1(p)Q^p_X = \{x : F_X(x) = p \} =F_X^{-1}(p) p∈(0,1)p∈(0,1)p\in(0,1) たとえば、次のような関数があります: GGGE(X)=∫p∈(0,1)G(QpX)dpE(X)=∫p∈(0,1)G(QXp)dpE(X) = \int_{p\in(0,1)} G(Q^p_X) dp

2
(全体の)関数の期待値に対するテイラー級数近似はいつ収束しますか?
いくつかの一変量確率変数と関数全体の形式期待値を取ります(つまり、収束の間隔は実線全体です)。E(f(X))E(f(X))E(f(X))XXXf(⋅)f(⋅)f(\cdot) モーメント生成関数があるので、整数モーメントを簡単に計算できます。周りにテイラー級数を使用してから、一連の中心モーメント = f(\ mu)+ \ sum_ {n = 2 } ^ {\ infty} \ frac {f ^ {(n)}(\ mu)} {n!} E \ left [(x-\ mu)^ n \ right] この系列を切り捨て、 E_N(f(x) )= f(\ mu)+ \ sum_ {n = 2} ^ {N} \ frac {f ^ {(n)}(\ mu)} {n!} E \ …


4
私が表示したい
LET確率空間上の確率変数である .SHOWそのX:Ω→NX:Ω→NX:\Omega \to \mathbb N(Ω,B,P)(Ω,B,P)(\Omega,\mathcal B,P)E(X)=∑n=1∞P(X≥n).E(X)=∑n=1∞P(X≥n).E(X)=\sum_{n=1}^\infty P(X\ge n). からの私の定義は、と等しくなり E(X)E(X)E(X)E(X)=∫ΩXdP.E(X)=∫ΩXdP.E(X)=\int_\Omega X \, dP. ありがとう。

2
ロジスティック関数で変換されたガウス確率変数の期待値
通常、ロジスティック関数と標準偏差はどちらも表されσσ\sigmaます。標準偏差にはσ(x)=1/(1+exp(−x))σ(x)=1/(1+exp⁡(−x))\sigma(x) = 1/(1+\exp(-x))とsssを使用します。 私はランダムな入力を持つロジスティックニューロンを持っています。その平均μμ\muと標準偏差sssは知っています。平均との差がガウスノイズで近似できることを願っています。したがって、表記を少し乱用して、生成すると仮定しますσ(μ+N(0,s2))=σ(N(μ,s2))σ(μ+N(0,s2))=σ(N(μ,s2))\sigma(\mu + N(0,s^2))=\sigma(N(\mu,s^2))。σ (N (μ 、s 2))の期待値は何ですか?σ(N(μ,s2))σ(N(μ,s2))\sigma(N(\mu,s^2))標準偏差sssは、μμ\muまたはと比較して大きい場合と小さい場合があります111。期待値の適切な閉じた形の近似は、閉じた形の解とほぼ同じです。 閉じた形のソリューションは存在しないと思います。これは、畳み込みとみなすことができ、およびロジスティック密度のための特徴的な機能が知られている()が、私は確かにそれがどのように役立つかあまりないです。逆シンボリック計算機はで密度を認識することができませんでした0ロジスティック分布の密度の畳み込みと示唆しているが、単純な基本整数が存在しないことを証明しない標準正規分布、の。より状況証拠:ロジスティックニューロンを含むニューラルネットワークにガウス入力ノイズを追加することに関するいくつかの論文では、これらの論文は閉形式の式も提供していませんでした。πt csch πtπt csch πt\pi t ~\text{csch} ~\pi t000 この質問は、ボルツマンマシンの平均場近似の誤差を理解しようとするときに生じました。

1
サンプルとは、ある意味で、分布の「最良の」推定を意味するのでしょうか。
いくつかのiidサンプルポイントが与えられた多数の(弱い/強い)法則により、それらのサンプル平均は、確率とサンプルサイズ両方で分布平均に収束します 無限に行きます。、F *({ X I、iは=は1 、... 、N } ):= 1{xi∈Rn,i=1,…,N}{xi∈Rn,i=1,…,N}\{x_i \in \mathbb{R}^n, i=1,\ldots,N\}Nf∗({xi,i=1,…,N}):=1N∑Ni=1xif∗({xi,i=1,…,N}):=1N∑i=1Nxif^*(\{x_i, i=1,\ldots,N\}):=\frac{1}{N} \sum_{i=1}^N x_i NNN サンプルサイズが固定されている場合、LLN推定量は、ある意味で最良の推定量であるのでしょうか。例えば、f ∗NNNf∗f∗f^* その期待値は分布平均であるため、不偏推定量です。その分散はで、は分布の分散です。しかし、それはUMVUですか? σ2をσ2Nσ2N\frac{\sigma^2}{N}σ2σ2\sigma^2 いくつかの関数がありますかそのような最小化問題を解く:F *({ X I、iは= 1 、... 、N } )F *({ X I、iは= 1 、... 、N } )= argmin U ∈ R nl0:Rn×Rn→[0,∞)l0:Rn×Rn→[0,∞)l_0: \mathbb{R}^n \times \mathbb{R}^n \rightarrow [0,\infty)f∗({xi,i=1,…,N})f∗({xi,i=1,…,N})f^*(\{x_i, i=1,\ldots,N\})f∗({xi,i=1,…,N})=argminu∈Rn∑i=1Nl0(xi,u)?f∗({xi,i=1,…,N})=argminu∈Rn∑i=1Nl0(xi,u)? f^*(\{x_i, …

3
MCMCを使用して高次元関数の期待値を評価する
私は最適化に関連する研究プロジェクトに取り組んでおり、最近この設定でMCMCを使用することを考えていました。残念ながら、私はMCMCメソッドにかなり慣れていないため、いくつか質問がありました。問題を説明し、質問をすることから始めます。 問題は、コスト関数の期待値を推定することになります。ここで、は、密度次元確率変数です。ω = (ω 1、ω 2、。。。ω H)時間F (ω )c(ω)c(ω)c(\omega)ω=(ω1,ω2,...ωh)ω=(ω1,ω2,...ωh)\omega = (\omega_1,\omega_2,...\omega_h)hhhf(ω)f(ω)f(\omega) 私たちの場合、閉じた形式のバージョンは存在しません。つまり、期待値を近似するにはモンテカルロ法を使用する必要があります。残念ながら、MCまたはQMCメソッドを使用して生成された推定値は、実際の設定で使用するには分散が大きすぎることがわかります。E [ c (ω )]c(ω)c(ω)c(\omega)E[c(ω)]E[c(ω)]E[c(\omega)] 低分散推定を生成するサンプルポイントを生成するために重要度サンプリング分布を使用する必要があったという1つのアイデア。私たちの場合、理想的な重要度のサンプリング分布、ほぼ比例している必要があります。どのように見て定数まで知られている、私は私が提案配布とともにMCMCを使用できるかどうかを疑問に思って、最終的にサンプルを生成するために。g (ω )c (ω )f (ω )g (ω )c (ω )f (ω )g (ω )E[c(ω)]E[c(ω)]E[c(\omega)]g(ω)g(ω)g(\omega)c(ω)f(ω)c(ω)f(ω)c(\omega)f(\omega)g(ω)g(ω)g(\omega)c(ω)f(ω)c(ω)f(ω)c(\omega)f(\omega)g(ω)g(ω)g(\omega) ここに私の質問は次のとおりです。 この設定でMCMCを使用できますか?もしそうなら、どのMCMC法が適切でしょうか?私はMATLABで作業しているので、MATLABが既に実装されているものを優先します。 MCMCのバーンイン期間を短縮するために使用できるテクニックはありますか?そして、どのように私は定常分布に達したことを知ることができますか?この場合、実際には、特定のを計算するのにかなりの時間がかかります。ωc(ω)c(ω)c(\omega)ωω\omega

1
クーポンコレクターの問題の一般的な形式の公式はありますか?
私はクーポンコレクターの問題に遭遇し、一般化の公式を考え出そうとしていました。 ある場合は個別のオブジェクトは、あなたが少なくとも収集するk個の任意の各コピーメートルそれらの(M ≤ N)、あなたが買うべきか、多くのランダムなオブジェクトの期待は何ですか?。通常のクーポンコレクターの問題には、m = Nおよびk = 1があります。NNNkkkmmmm≤Nm≤Nm \le Nm=Nm=Nm = Nk=1k=1k = 1 コレクションには12種類のレゴフィギュアがあります。10体(各10体)それぞれ3枚ずつ集めたい。ランダムに1つずつ購入できます。それらのそれぞれの3つのコピーを入手する前に、いくつ購入する予定ですか?

3
サイズデッキから枚のカードを引くときに目に見えないカードの予想数
枚のカードのデッキがあります。そこからランダムにランダムにカードを引いて差し替えます。ドローした後、決して選択されなかったと予想されるカードの数はいくつですか?nnn2n2n2n この質問は、問題2.12のパート2です。 M. MitzenmacherおよびE. Upfal、Probability and Computing:Randomized Algorithms and Probabilistic Analysis、Cambridge University Press、2005年。 また、それが価値があることについては、これは宿題の問題ではありません。それは独学で、私は行き詰まっています。 これまでの私の答えは: レッツ後に見られる個別のカードの数も番目のドロー。次に:XiXiX_iiii E[Xi]=∑k=1nk(knP(Xi−1=k)+n−k−1nP(Xi−1=k−1))E[Xi]=∑k=1nk(knP(Xi−1=k)+n−k−1nP(Xi−1=k−1))E[X_i] = \displaystyle \sum_{k=1}^{n} k (\frac{k}{n}P(X_{i-1}=k) + \frac{n-k-1}{n} P(X_{i-1}=k-1)) ここでの考え方は、引くたびに、見たことのあるカードを引くか、見たことのないカードを引くかのいずれかであり、これを再帰的に定義できるということです。 最後に、ドロー後に何が見られなかったかという質問に対する答えは、ます。2n2n2nn−E[X2n]n−E[X2n]n-E[X_{2n}] これは正しいと思いますが、もっと簡単な解決策があるはずです。 どんな助けでも大歓迎です。

3
場合
連続確率変数の場合はXXX、場合E(|X|)E(|X|)E(|X|)有限で、あるlimn→∞nP(|X|&gt;n)=0limn→∞nP(|X|&gt;n)=0\lim_{n\to\infty}n P(|X|>n)=0? これはインターネットで見つけた問題ですが、それが成り立つかどうかはわかりません。 nP(|X|&gt;n)&lt;E(|X|)nP(|X|&gt;n)&lt;E(|X|)n P(|X|>n)<E(|X|)がマルコフの不等式で成り立つことは知っていますが、nnnが無限大になると0になることを示すことはできません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.