タグ付けされた質問 「sufficient-statistics」

十分な統計とは、特定のパラメータ自体に関するすべての関連情報を含む、データの低次元関数です。


1
十分な統計、詳細/直感の問題
私は楽しみのためにいくつかの統計を教えていますが、十分な統計に関する混乱があります。混乱をリスト形式で書きます。 分布にパラメーターがある場合、十分な統計がありますか?nnnnnnn 十分な統計とパラメーターの間に何らかの直接的な対応関係はありますか?または、基礎となる分布のパラメーターについて同じ推定値を計算できるように設定を再作成できるように、十分な統計が単に「情報」のプールとして機能するようにします。 すべての分布に十分な統計がありますか?すなわち。因数分解定理が失敗することはありますか? データのサンプルを使用して、データの出所である可能性が最も高い分布を想定し、分布のパラメーターの推定値(MLEなど)を計算できます。十分な統計は、データ自体に依存せずにパラメーターの同じ推定値を計算できる方法ですよね? 十分な統計のすべてのセットには、最小限の十分な統計がありますか? これは、トピックの問題を理解しようとするために使用している資料です:https : //onlinecourses.science.psu.edu/stat414/node/283 私が理解していることから、共同分布を2つの関数に分離する因数分解定理がありますが、分布を関数に因数分解した後に十分な統計を抽出する方法がわかりません。 この例で与えられたポアソン質問には明確な因数分解がありましたが、十分な統計はサンプル平均とサンプル合計であると述べられました。最初の方程式の形を見るだけで、それらが十分な統計量であることをどのように知ったのでしょうか? 分解結果の2番目の方程式がデータ値自体に依存する場合、十分な統計を使用して同じMLE推定を実行する方法はありますか?たとえば、ポアソンの場合、2番目の関数はデータの階乗の積の逆数に依存しており、データはもうありません!バツ私バツ私X_i Webページのポアソンの例と比較して、サンプルサイズが十分な統計量ではないのはなぜですか?最初の関数の特定の部分を再構成するためにを必要とするのに、なぜそれも十分な統計量ではないのですか?nnnnnnn

3
パラメータの推定値を計算するために必要なすべての情報が十分な統計に含まれているのはなぜですか?
統計の研究を始めたばかりで、十分なものを直感的に理解することができません。より正確には、次の2つの段落が同等であることを示す方法を理解できません。 大まかに、未知のパラメーターθを条件とする独立した同一分布データのセットXが与えられると、十分な統計量は、パラメーターの推定値を計算するために必要なすべての情報を値に含む関数T(X)です。 統計T(X)が与えられたデータXの条件付き確率分布がパラメーターθに依存しない場合、統計T(X)は基礎となるパラメーターθに十分です。 (十分な統計からの引用を取りました) 2番目のステートメントは理解できますが、因数分解定理を使用して特定の統計が十分であるかどうかを示すことはできますが、そのようなプロパティを持つ統計が「パラメータの推定」。とにかく理解を深めるのに役立つ正式な証拠を探していません。2つのステートメントが同等である理由の直感的な説明を取得したいと思います。 要約すると、私の質問は次のとおりです。2つのステートメントが同等なのはなぜですか。誰かがその等価性について直感的な説明を提供できますか?

1
GAM vs LOESS vsスプライン
コンテキスト:パラメトリックではない散布図に線を描画したいのでgeom_smooth()、ggplotin を使用していRます。geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use 'method = x' to change the smoothing method.一般化された加法モデルのGAMスタンドを収集し、3次スプラインを使用して自動的に戻ります。 次の認識は正しいですか? レスは、特定の値で応答を推定します。 スプラインは、データ(一般化された加法モデルを構成する)に適合するさまざまな区分的関数を接続する近似であり、3次スプラインはここで使用される特定のタイプのスプラインです。 最後に、スプラインはいつ使用する必要があり、LOESSはいつ使用する必要がありますか?

1
共同完全な十分な統計:Uniform(a、b)
ましょう上の一様分布からのランダムサンプルである、。ましょうと最大と最小の順序統計こと。統計量がパラメーターに対して十分な統計量であることを示します。 X=(x1,x2,…xn)X=(x1,x2,…xn)\mathbf{X}= (x_1, x_2, \dots x_n)(a,b)(a,b)(a,b)a&lt;ba&lt;ba < bY1Y1Y_1YnYnY_n(Y1,Yn)(Y1,Yn)(Y_1, Y_n)θ=(a,b)θ=(a,b)\theta = (a, b) 因数分解を使用して十分であることを示すのは問題ありません。 質問:完全性を表示するにはどうすればよいですか?できればヒントをお願いします。 試み:私は見ることができます暗示一つのパラメータの均一な分布のために、私は2つのパラメータ均一な分布に立ち往生しています。E[g(T(x))]=0E[g(T(x))]=0\mathbb E[g(T(x))] = 0g(T(x))=0g(T(x))=0g(T(x)) = 0 をいじってみて、と共同分布を使用しましたが、計算がつまずくので、正しい方向に進んでいるかどうかはわかりません。E[g(Y1,Yn)]E[g(Y1,Yn)]\mathbb E[g(Y_1, Y_n)]Y1Y1Y_1YnYnY_n

1
指数の家族分布では、平均と分散が常に存在しますか?
スカラー確率変数がpdfをもつベクトルパラメーター指数ファミリーに属していると仮定します。XXX fX(x|θ)=h(x)exp(∑i=1sηi(θ)Ti(x)−A(θ))fX(x|θ)=h(x)exp⁡(∑i=1sηi(θ)Ti(x)−A(θ)) f_X(x|\boldsymbol \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) ここで、はパラメーターベクトルで、\ mathbf {T}(x)= \ left(T_1(x)、T_2 (x)、\ cdots、T_s(x)\ right)^ Tは、結合十分統計量です。θ=(θ1,θ2,⋯,θs)Tθ=(θ1,θ2,⋯,θs)T{\boldsymbol \theta} = \left(\theta_1, \theta_2, \cdots, \theta_s \right )^TT(x)=(T1(x),T2(x),⋯,Ts(x))TT(x)=(T1(x),T2(x),⋯,Ts(x))T\mathbf{T}(x)= \left(T_1(x), T_2(x), \cdots,T_s(x) \right)^T 各T_i(x)の平均と分散Ti(x)Ti(x)T_i(x)が存在することを示すことができます。ただし、Xの平均と分散XXX(つまり、E(X)E(X)E(X)とVar(X)Var(X)Var(X))は常に存在しますか?そうでない場合、平均と変数が存在しない、この形式の指数ファミリー分布の例はありますか? ありがとうございました。

1
ユニークなMVUEを見つける
この質問は、ロバート・ホッグの数学統計入門第6バージョン問題7.4.9、388ページからの質問です。 LET PDFファイルでIIDことゼロの他の場所、\シータ&gt; 0。X1,...,XnX1,...,XnX_1,...,X_nf(x;θ)=1/3θ,−θ&lt;x&lt;2θ,f(x;θ)=1/3θ,−θ&lt;x&lt;2θ,f(x;\theta)=1/3\theta,-\theta0 ()MLE検索θ^θ^\hat{\theta}のθθ\theta (b)はθ^θ^\hat{\theta}のための十分な統計θθ\theta?どうして ? (c)(n+1)θ^/n(n+1)θ^/n(n+1)\hat{\theta}/nは\ thetaの一意のMVUE θθ\thetaですか?どうして ? (a)と(b)は解決できると思いますが、(c)で混乱しています。 のために): してみましょうY1&lt;Y2&lt;...YnY1&lt;Y2&lt;...YnY_10、この導関数は負であることがわかります。 したがって、尤度関数L(θ;x)L(θ;x)L(\theta;x)は減少しています。 (−θ&lt;y1(−θ&lt;y1(-\theta< y_1 とyn&lt;2θ)yn&lt;2θ) y_n < 2\theta)、 (θ⇒⇒\Rightarrow (θ&gt;−y1(θ&gt;−y1(\theta>-y_1 と θ&gt;yn/2),⇒θ&gt;max(−y1,yn/2)θ&gt;yn/2),⇒θ&gt;max(−y1,yn/2)\theta>y_n/2), \Rightarrow \theta>max(-y_1,y_n/2) θ θ &gt; M X (- Y 1、Y N / 2 )θ = M X (- Y 1 、Y nはL(θ,x)L(θ,x)L(\theta,x)ときに、減少している、以降samllest値を有する尤度関数を最大を達成する、場合、尤度関数は最大値を達成します。θθ\thetaθ&gt;max(−y1,yn/2)θ&gt;max(−y1,yn/2)\theta>max(-y_1,y_n/2)θ=max(−y1,yn/2)θ=max(−y1,yn/2)\theta=max(-y1,y_n/2) ∴∴\therefore mleθ^=max(−y1,yn/2)θ^=max(−y1,yn/2)\hat{\theta}=max(-y_1,y_n/2) (b)の場合: …

2
ドイツ戦車問題の解決策
ドイツ戦車問題の解がパラメーターk(観測されたサンプルの数)とm(観測されたサンプルの最大値)のみの関数であることを正式に数学的に証明したものはありますか?言い換えれば、解が最大値以外の他のサンプル値から独立していることを証明できますか?

1
指数ファミリ:観察された統計と期待される十分な統計
私の質問は、ランダムベクトルの観測に基づいてディリクレ分布の最尤推定量を導出するという文脈で、証明なしに次のように述べているMinkaの「ディリクレ分布の推定」を読んでいることから生じます。 指数関数ファミリーの場合と同様に、勾配がゼロの場合、予想される十分な統計は、観測された十分な統計と等しくなります。 このように提示された指数関数の最尤推定を見たことがなく、検索で適切な説明も見つかりませんでした。誰かが観測された統計と予想される十分な統計との関係についての洞察を提供し、おそらくそれらの差を最小化することで最尤推定を理解するのを助けることができますか?

2
ベイジアン充足度は頻度論的充足度とどのように関連していますか?
頻出主義の観点における十分な統計の最も単純な定義は、ここウィキペディアで与えられています。しかし、私は最近、定義を持つベイジアンの本に出くわしました。リンクには両方とも同等であると記載されていますが、方法はわかりません。また、同じページの「その他のタイプの充足感」セクションで、両方の定義が無限次元空間では同等ではないと述べられています...P(θ|x,t)=P(θ|t)P(θ|x,t)=P(θ|t)P(\theta|x,t)=P(\theta|t) また、予測的十分性は古典的十分性とどのように関連していますか?


1
十分性または不十分性
ランダムサンプル検討Xはiは IIDである BのEのRがN 、O 、U 、L L I (P )の確率変数P ∈ (0 、1 )。T (X )= X 1 + 2 X 2 + X 3がpの十分な統計であるかどうかを確認し ます。{ X1、X2、X3}{X1,X2,X3}\{X_1,X_2,X_3\}バツ私XiX_iB Eのr個のN 、O 、U 、L L I (P )Bernoulli(p)Bernoulli(p)P ∈ (0 、1 )p∈(0,1)p\in(0,1)T(X)= X1+ 2 X2+ X3T(X)=X1+2X2+X3T(X)=X_1+2X_2+X_3ppp まず、の分布をどのように見つけることができますか?または、それをX 1 + X 2 + X …

1
バイアスのない効率的な推定量は、他の(中央値の)バイアスのない推定量よりも確率的に支配的ですか?
概要 効率的な推定量(サンプル分散がCramér–Rao限界に等しい)は、真のパラメーターθθ\thetaに近い確率を最大化しますか? 私たちは見積もりと真のパラメータの違いや絶対差を比較すると言いますΔ = θ - θΔ^= θ^- θΔ^=θ^−θ\hat\Delta = \hat \theta - \theta 分布であるΔ効率的な推定のためには、確率的に支配的なの分布オーバーその他の不偏推定のために?Δ^Δ^\hat\DeltaΔ〜Δ~\tilde\Delta 動機 ため、私は質問のこの考えていますすべての賢明な損失(評価)関数の下で最適な見積もりから(私たちは1つの凸損失関数に関して公平最良推定量は、他の損失関数に関して公平最良推定量でもあると言うことができますIosif Pinelis、2015年、最高の不偏推定量の特性 。arXivプレプリントarXiv:1508.07636)。真のパラメータに近い確率的優位性は、私と似ているようです(これは十分な条件であり、より強力なステートメントです)。 より正確な表現 上記の質問文は幅広いものです。たとえば、どの種類の不偏性が考慮され、負と正の差について同じ距離測定基準がありますか? 次の2つのケースについて考えてみましょう。††^\dagger 予想1:もし、効率的な平均値と中央値、不偏推定量です。次に、任意の平均および中央値不偏推定量 where and θ^θ^\hat \thetaθ〜θ~\tilde \theta もし 、X &gt; 0 そして P[ Δ^≤ X ] ≥ P[ Δ〜≤ X ]もし X &lt; 0 、次いで P[ Δ^≥ X ] …

1
十分な統計の目的とメカニズムの背後にある直感的な意味は何ですか?
十分な統計量の定義は次のとおりを、パラメーターによってインデックスが付けられた分布からのランダムサンプルとする。してみましょう統計こと。すべてのおよびすべての可能な値について、がは依存せず、のみ依存する場合のの条件付き結合分布を仮定します。次に、はパラメーター十分な統計量です。 θ T θ T T XX1,...,XnX1,...,XnX_1,...,X_nθθ\thetaTTTθθ\thetatttTTT T = T T θ T θX1,...,XnX1,...,XnX_1,...,X_nT=tT=tT=ttttθθ\thetaTTTθθ\theta 十分な統計量を理解するためのパズルのいくつかの部分(因数分解の定理など)を知っているように感じますが、全体的な理論を把握していません。 私の主な質問は: 1)がパラメータ十分な統計量であると彼らが言うのはなぜですか?場合は正規分布の母集団の平均だった、と言う、それは私たちが言う、の確率を見つけたいという、いつでも、どういう意味、我々は必要しないこと、特定の方法で発生しました、人口の平均の値?θ θTTTθθ\thetaθθ\thetaX 1、。。。、X nμμ\muバツ1、。。。、XんX1,...,XnX_1,...,X_n 2)実生活では、なぜ十分な統計量を使用したいのですか?統計値を計算するだけではそれほど多くの作業(Xの合計など)ではいけないようですが、なぜそれが必要なのでしょうか。 ありがとう!

2
十分な統計量が最小限では不十分であることをどのように示すか?
私の宿題の問題は、特定の統計が一般に最小限では不十分である反例を示すことです。この特定の統計の特定の反例を見つけることの詳細に関係なく、これは私に次の質問を引き起こします: 質問:十分な統計量が条件を満たしていることを証明できる方法で、最小の十分な統計量ではないという条件をどのように定式化できますか? これまでのところ:私の教科書(Keener、Theoretical Statistics:Topics for a Core Course)での最小の十分な統計量の定義は次のとおりです。 統計量は、が十分であれば最小で十分であり、十分な統計量ごとに、 aeような関数が存在します。T 〜T F T = F (〜T)PTTTTTTT~T~\tilde{T}fffT=f(T~)T=f(T~)T = f(\tilde{T})PP\mathcal{P} (ae)は、統計モデル、すべての確率分布について、等式が失敗するセットがnullセットであることを意味します。 P P P ∈ PPP\mathcal{P}PPPPP\mathcal{P}P∈PP∈PP \in \mathcal{P} これを否定しようとすると、私は次の場所に到着します: 統計値は、以下の少なくとも1つが成り立つ場合、最小値ではありません。 TTT TTTは十分ではありません。 aeような関数が存在しない、少なくとも1つの十分な統計 が存在します。T~T~\tilde{T}T = F (〜T)PfffT=f(T~)T=f(T~)T = f(\tilde{T})PP\mathcal{P} したがって、統計が十分である場合、たとえそれが十分に不十分でなくても、統計が十分ではないことを示すことは非常に難しいようです。(1が偽であるため、1が、代わりに1の2を表示しなければならないので-しかし、1つは、反例の統計がある場合でも、ので、2が示すのは非常に難しいだろう念頭に置いて、1はまだ持っています非存在表示する任意のそのプロパティと機能を。そして、非存在は示すことは困難であることが多いです。)T~T~\tilde{T} 私の教科書では、統計が最小の十分な統計となるための同等の(つまり、必要かつ十分な)条件を示していません。(十分な統計であることに加えて)統計が最小の十分な統計となるための代替の必要条件さえも与えません。 したがって、私の宿題の問題で、統計が不十分であることを示すことができない場合(それが原因で)、統計が十分でないことをどのようにして示すことができますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.