タグ付けされた質問 「rao-blackwell」

2
Rao-Blackwellの定理に必要なのはなぜですか?
ラオブラックウェルの定理は ましょうの推定であるとためのすべての。仮定するのに十分である、とletすべてに続いて、が関数でない限り、不等式は厳密ですθ^θ^\hat{\theta}θθ\thetaE(θ^2)&lt;∞E(θ^2)&lt;∞\Bbb E (\hat{\theta}^2) < \inftyθθ\thetaTTTθθ\thetaθ∗=E(θ^|T)θ∗=E(θ^|T)\theta ^ * = \Bbb E (\hat{\theta}|T)θθ\thetaE(θ∗−θ)2≤E(θ^−θ)2E(θ∗−θ)2≤E(θ^−θ)2\Bbb E (\theta^* - \theta )^2 \leq \Bbb E (\hat{\theta} - \theta )^2θ^θ^\hat{\theta}TTT この定理を正しく理解していれば、十分な統計量がある場合、が指定されたの条件付き期待値はの解であると述べています(\ hat {\ theta}-\ theta)^ 2TTTθθ\thetaθ^θ^\hat{\theta}TTTminθ^Eminθ^E\min_{\hat{\theta}} \Bbb E (θ^−θ)2(θ^−θ)2(\hat{\theta}-\theta)^2 私の質問 \ theta ^ *が\ Bbb E (\ hat {\ theta}-\ theta)^ 2をθ∗θ∗\theta^*最小化することは正しいですか?EE\Bbb E (θ^−θ)2(θ^−θ)2(\hat{\theta}-\theta)^2 Rao-Blackwellの定理に\ Bbb …

2
Gibbs SamplerのRao-Blackwellization
私は現在、マルコフ連鎖モンテカルロ法で確率ボラティリティモデルを推定しています。これにより、ギブスとメトロポリスのサンプリング方法を実装しています。ランダムなサンプルではなく、事後分布の平均を取ると仮定すると、これは一般にRao-Blackwellizationと呼ばれるものですか? 全体として、これは事後分布の平均に対する平均をパラメーター推定値として取得することになります。

2
との結合分布を
この質問は、ロバート・ホッグの数学統計入門第6バージョンの質問7.6.7からのものです。問題は : サイズランダムサンプルをpdfnnnf(x;θ)=(1/θ)exp(−x/θ)I(0,∞)(x)f(x;θ)=(1/θ)exp⁡(−x/θ)I(0,∞)(x)f(x;\theta)=(1/\theta)\exp(-x/\theta)\mathbb{I}_{(0,\infty)}(x) のMLEとMVUEを見つけます。P(X≤2)P(X≤2)P(X \le 2) MLEを見つける方法を知っています。 MVUEを見つけるアイデアは、Rao-BlackwellとLehmannとScheffeを使用することだと思います。最初に、不偏推定量を見つけます。これはであり、 a十分な統計。P(X≤2)P(X≤2)P(X \le 2)I(0,2)(X1)I(0,2)(X1)\mathbb{I}_{(0,2)}(X_1)Y=∑ni=1XiY=∑i=1nXiY=\sum_{i=1}^n X_i 次に、がMUVEになります。E[I(0,2)(X1)∣Y]E[I(0,2)(X1)∣Y]\mathbb{E}[I_{(0,2)}(X_1)\mid Y] 期待値を見つけるには、X1X1X_1とY = \ sum_ {i = 1} ^ n X_iの同時分布が必要ですY=∑ni=1XiY=∑i=1nXiY=\sum_{i=1}^n X_i ここで行き詰まっています。 本には解決策がありますが、私は解決策を理解していません。解は、Z=X1Z=X1Z=X_1とYYYの結合分布を見つけようとしていますが、最初にV=X1+X2V=X1+X2V=X_1+X_2とU=X1+X2+X3+...U=X1+X2+X3+...U=X_1+X_2+X_3+...ヤコビアンは、他の変数を統合したものです。 ヤコビアンはなぜ1に等しいのですか? 共同分布の答えは g(z,y;θ)=(y−z)n−2(n−2)!θne−y/θg(z,y;θ)=(y−z)n−2(n−2)!θne−y/θg(z,y;\theta)=\frac{(y-z)^{n-2}}{(n-2)!\theta^n}e^{-y/\theta} どうすれば入手できますか? 更新:西安によって提案されたように(この本は変換が混乱することを示唆しています)、次の方法で変換を実行してみましょう: しましょう Y1Y2Y3Y4Yn=X1,=X1+X2,=X1+X2+X3,=X1+X2+X3+X4,⋮=X1+X2+X3+X4+⋯+XnY1=X1,Y2=X1+X2,Y3=X1+X2+X3,Y4=X1+X2+X3+X4,⋮Yn=X1+X2+X3+X4+⋯+Xn\begin{align} Y_1 & =X_1, \\Y_2 & =X_1+X_2,\\ Y_3 & =X_1+X_2+X_3, \\Y_4 & =X_1+X_2+X_3+X_4, \\ & \quad \vdots …

2
不偏推定量がUMVUEになるために必要な条件は何ですか?
Rao-Blackwellの定理によれば、統計値TTTがθθ\thetaに対して十分かつ完全であり、E(T)= θE(T)=θE(T)=\thetaである場合、TTTは均一最小分散不偏推定量(UMVUE)です。 公平な推定者がUMVUEであることを正当化する方法を私は思っています: もしTTTが十分でない、UMVUEになりますか? もしTTTが完全でない、UMVUEになりますか? TTTが不十分または完全でない場合、UMVUEになる可能性がありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.