タグ付けされた質問 「estimation」

このタグは一般的です。より具体的なタグを提供してください。特定の推定量のプロパティに関する質問については、代わりに[estimators]タグを使用してください。

3
10回の失敗までサンプリングすることにより、ベルヌーイプロセスの確率を推定する:偏っているか?
故障確率(たとえば)のベルヌーイプロセスがあり、そこから故障が発生するまでサンプリングするとします。これにより、失敗の確率をとして推定します。ここで、はサンプル数です。Q ≤ 0.01 10 Q:= 10 / N Nqqqq≤0.01q≤0.01q \leq 0.01101010q^:=10/Nq^:=10/N\hat{q}:=10/NNNN 質問:ある偏った推定の?そして、もしそうなら、それを修正する方法はありますか?q^q^\hat{q}qqq 私は、最後のサンプルが推定に失敗するバイアスであると主張しています。

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
多変量ガウス分布の共分散事後分布の推定
サンプル数の少ない2変量ガウス分布を「学習」する必要がありますが、事前分布に関する仮説は良好なので、ベイジアンアプローチを使用したいと思います。 :私は私の前に定義された P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ 0 & 27 \end{bmatrix} そして、私の分布は、仮説与えられた P(x|μ,Σ)∼N(μ,Σ)P(x|μ,Σ)∼N(μ,Σ) \mathbf{P}(x|\mathbf{\mu},\mathbf{\Sigma}) \sim \mathcal{N}(\mathbf{\mu},\mathbf{\Sigma}) μ=[00] Σ=[180018]μ=[00] Σ=[180018] \mathbf{\mu} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma} = …

2
正規分布のパラメーターの推定:平均ではなく中央値?
正規分布のパラメーターを推定するための一般的なアプローチは、平均とサンプルの標準偏差/分散を使用することです。 ただし、外れ値がある場合は、中央値と中央値からの中央値偏差がより堅牢になりますよね? いくつかのデータセットでは、私は、によって推定正規分布しようとしたN(median(x),median|x−median(x)|)N(median(x),median|x−median(x)|)\mathcal{N}(\text{median}(x), \text{median}|x - \text{median}(x)|)古典よりもはるかに優れフィット作るように思わN(μ^,σ^)N(μ^,σ^)\mathcal{N}(\hat\mu, \hat\sigma)の平均を使用してのRMS偏差。 データセットにいくつかの異常値があると仮定した場合、中央値を使用しない理由はありますか?このアプローチのリファレンスを知っていますか?Googleでのクイック検索では、ここで中央値を使用する利点を説明する有用な結果が見つかりませんでした(ただし、明らかに、「正規分布パラメーター推定中央値」は検索用語の特定のセットではありません)。 偏差の中央値は偏っていますか?乗算する必要がありn−1nn−1n\frac{n-1}{n}バイアスを減らすためにますか? ガンマ分布や指数関数的に修正されたガウス分布(パラメーター推定にスキューネスが必要であり、外れ値が実際にこの値を台無しにする)などの他の分布に対する同様の堅牢なパラメーター推定アプローチを知っていますか?

3
データのランダムサンプリングから一意の発生カウントを推定するにはどうすればよいですか?
私は時々繰り返す値の大きなセットを持っているとしましょう。大規模なセット内の一意の値の総数を推定したいと思います。SSS 値のランダムサンプルを取得し、一意の値が含まれていると判断した場合、これを使用して大きなセットの一意の値の数を推定できますか?TTTTuTuT_u

2
Rのカーネル密度推定の「pdf」の下の領域
Rの「密度」関数を使用してカーネル密度の推定を試みています。結果を解釈してさまざまなデータセットを比較するのは、曲線下の面積が必ずしも1であるとは限らないため、多少困難です。確率密度関数(pdf) には、面積。カーネル密度の推定値がpdfを報告すると仮定しています。私が使用していますintegrate.xyからsfsmisc曲線下面積を推定します。ϕ(x)ϕ(x)\phi(x)∫∞−∞ϕ(x)dx=1∫−∞∞ϕ(x)dx=1\int_{-\infty}^\infty \phi(x) dx = 1 > # generate some data > xx<-rnorm(10000) > # get density > xy <- density(xx) > # plot it > plot(xy) > # load the library > library(sfsmisc) > integrate.xy(xy$x,xy$y) [1] 1.000978 > # fair enough, area close to 1 > # use another …

5
M推定器の経験的ヘッセ行列は不定にできますか?
Jeffrey Wooldridgeは、断面およびパネルデータの計量経済分析(357ページ)で、経験的なヘッシアンは、「作業中の特定のサンプルについて、正定値、または正定値でさえも保証されない」と述べています。 これは私にとって間違っているようです(数値問題は別として)ヘッシアンは、与えられたサンプルの目的関数を最小化するパラメーターの値としてのM-estimatorの定義と、 (ローカル)最小値では、ヘッセ行列は半正定です。 私の主張は正しいですか? [編集:文は第2版で削除されました。本の。コメントを参照してください。] 背景と仮定最小化することにより得られた推定量である 示し番目の観察。θˆNθ^N\widehat \theta_N1N∑i=1Nq(wi,θ),1N∑i=1Nq(wi,θ),{1 \over N}\sum_{i=1}^N q(w_i,\theta),wiwiw_iiii レッツの意味ヘッセ行列によって、 qqqHHHH(q、θ )私はj= ∂2q∂θ私∂θjH(q、θ)私j=∂2q∂θ私∂θjH(q,\theta)_{ij}=\frac{\partial^2 q}{\partial \theta_i \partial \theta_j} の漸近共分散にはがます。ここでは真のパラメーター値です。それを推定する1つの方法は、経験的なヘッセ行列を使用することですθˆnθ^n\widehat \theta_nE[ H(q、θ0)]E[H(q、θ0)]E[H(q,\theta_0)]θ0θ0\theta_0 Hˆ= 1N∑i = 1NH(w私、θˆn)H^=1N∑私=1NH(w私、θ^n)\widehat H=\frac{1}{N}\sum_{i=1}^N H(w_i,\widehat \theta_n) 問題になっているのは\ widehat Hの確定性ですHˆH^\widehat H。

5
「野生の」ジェームズ・シュタインの収縮?
James-Stein収縮の概念にとらわれます(つまり、独立した法線のベクトルの単一の観測の非線形関数は、「より良い」が二乗誤差で測定されるランダム変数の平均のより良い推定量になります) )。しかし、私はそれを応用研究で見たことがない。明らかに私は十分に読まれていません。James-Steinが適用された設定で推定を改善した典型的な例はありますか?そうでない場合、この種の収縮は単なる知的好奇心ですか?

4
なぜ一貫性を保つために推定量が必要なのですか?
一貫した推定量の数学的定義はすでに理解していると思います。私が間違っている場合は修正してください: WnWnW_n場合、は一貫した推定量ですθθ\theta∀ϵ>0∀ϵ>0\forall \epsilon>0 limn→∞P(|Wn−θ|>ϵ)=0,∀θ∈Θlimn→∞P(|Wn−θ|>ϵ)=0,∀θ∈Θ\lim_{n\to\infty} P(|W_n - \theta|> \epsilon) = 0, \quad \forall\theta \in \Theta ここで、ΘΘ\Thetaはパラメトリック空間です。しかし、私は推定量が一貫している必要性を理解したいと思います。一貫性のない推定量が悪いのはなぜですか?例を挙げていただけますか? Rまたはpythonでのシミュレーションを受け入れます。

4
固定効果モデルで時間不変変数を保持する方法
私はイタリアの大企業の従業員に関する10年以上のデータを持っていますが、男性と女性の収入の性差がどのように変化しているかを知りたいと思います。この目的のために、プールされたOLSを実行します: ここで、は1年あたりのログ収益、は個人と時間によって異なる共変量を含み、は年のダミー、は労働者が男性の場合は1、それ以外の場合はゼロです。yit=X′itβ+δmalei+∑t=110γtdt+εityit=Xit′β+δmalei+∑t=110γtdt+εit y_{it} = X'_{it}\beta + \delta {\rm male}_i + \sum^{10}_{t=1}\gamma_t d_t + \varepsilon_{it} yyyXitXitX_{it}dtdtd_tmaleimalei{\rm male}_i 今、私は共変量のいくつかが観測されていない固定効果と相関しているかもしれないという懸念を持っています。しかし、固定効果(内)推定器または最初の違いを使用すると、この変数は時間とともに変化しないため、性別ダミーが失われます。ランダム効果推定器を使用したくないのは、非常に非現実的でありそうもない仮定を置くと人々が言うのをよく耳にするからです。 性別をダミーに保ち、固定効果を同時に制御する方法はありますか?方法がある場合、性別変数の仮説検定のエラーに関連する他の問題をクラスター化するか、注意する必要がありますか?

1
「ターゲットの最尤期待値」とは何ですか?
Mark van der Laanの論文を理解しようとしています。彼は、バークレーの理論統計学者であり、機械学習と大きく重複する問題に取り組んでいます。私にとっての問題の1つは(深い数学に加えて)、完全に異なる用語を使用して使い慣れた機械学習アプローチを説明することが多いことです。彼の主な概念の1つは、「ターゲットを絞った最尤予測」です。 TMLEは、交絡因子が存在する場合でも効果を推定できるように、非制御実験からの打ち切り観測データを分析するために使用されます。同じ概念の多くが他のフィールドの他の名前の下に存在することを強く疑いますが、私はまだそれを何かに直接一致させるほど十分に理解していません。 「計算データ分析」とのギャップを埋める試みはこちらです: データサイエンスの時代への突入:対象を絞った学習と、統計と計算データ分析の統合 そして、統計学者の紹介はこちらです: ターゲット最尤ベースの因果推論:パートI 2番目から: この記事では、複数の時点での介入の因果効果の特定のターゲット最尤推定量を開発します。これには、損失ベースのスーパー学習を使用して、G計算式の未知の因子の初期推定値を取得し、その後、各推定因子にターゲットパラメーター固有の最適変動関数(最も好ましいパラメトリックサブモデル)を適用することが含まれます。最尤推定で変動パラメーターを推定し、初期因子のこの更新ステップを収束まで繰り返します。この反復ターゲット最尤更新ステップにより、結果の推定結果の因果効果は、初期推定量が一貫していれば一貫しているという意味で二重ロバストになり、または、最適な変動関数の推定量は一貫しています。介入する因果グラフのノードの条件付き分布が正しく指定されている場合、最適な変動関数が正しく指定されます。 彼の用語では、「スーパー学習」とは、理論的に健全な非負の重み付けスキームを使用したアンサンブル学習です。しかし、「各推定因子にターゲットパラメーター固有の最適変動関数(最も好ましくないパラメトリックサブモデル)を適用する」とはどういう意味ですか。 または、3つの明確な質問に分けて、TMLEには機械学習の類似点がありますか、「最も好ましいパラメトリックサブモデル」とは何か、他の分野の「変動関数」とは何ですか。

6
最尤推定を使用することはありますか?
統計で最尤推定が使用されているかどうか疑問に思っています。私たちはその概念を学びますが、実際にいつ使用されるのでしょうか。データの分布を仮定すると、2つのパラメーターが見つかります。1つは平均用で、もう1つは分散用ですが、実際の状況で実際に使用しますか? 誰かがそれが使用されている簡単なケースを教えてもらえますか?

2
どのモデルの場合、MLEのバイアスは分散よりも速く低下しますか?
してみましょう trueパラメータの最尤推定値も一部のモデルの。データポイント数が増えると、エラーは通常O(1 / \ sqrt n)として減少します。三角形の不等式と期待値の特性を使用すると、このエラー率が「バイアス」\ lVert \ mathbb E \ hat \ theta-\ theta ^ * \ rVertと「偏差」\ lVert \ mathbb Eの両方を意味することを示すことができます。\ hat \ theta-同じO(1 / \ sqrt {n})での\ hat \ theta \ rVertの減少θ^θ^\hat\thetaθ∗θ∗\theta^*nnn∥θ^−θ∗∥‖θ^−θ∗‖\lVert\hat\theta-\theta^*\rVertO(1/n−−√)O(1/n)O(1/\sqrt n)∥Eθ^−θ∗∥‖Eθ^−θ∗‖\lVert \mathbb E\hat\theta - \theta^*\rVert∥Eθ^−θ^∥‖Eθ^−θ^‖\lVert \mathbb E\hat\theta - \hat\theta\rVertO(1/n−−√)O(1/n)O(1/\sqrt{n})割合。もちろん、モデルがより速い速度で縮小するバイアスを持つことは可能です。多くのモデル(通常の最小二乗回帰など)にはバイアスがありません。 O(1 / \ sqrt n)よりも速く収縮するバイアスを持つモデルに興味O(1/n−−√)O(1/n)O(1/\sqrt n)がありますが、偏差がO(1 …

1
複数のパラメーターのジェフリーズ事前
特定のケースでは、完全な多次元モデルのジェフリーズ事前分布は一般に不適切と見なされます。これは、たとえば、、、 (ここで、および不明)、次の事前分布が優先されます(ジェフリーズの事前の完全な): ここでは、固定したときに取得したジェフリーズ事前分布です(同様に)。この事前分布は、処理するときの参照事前分布と一致します。p (σ )σy私= μ + ε私、y私=μ+ε私、 y_i=\mu + \varepsilon_i \, , ε 〜N(0 、σ2)ε〜N(0、σ2)\varepsilon \sim N(0,\sigma^2)μμ\muσσ\sigmaπ(μ 、σ)α σ− 2π(μ、σ)∝σ−2\pi(\mu,\sigma)\propto \sigma^{-2}p (μ 、σ)= π(μ )⋅ π(σ)α σ− 1、p(μ、σ)=π(μ)⋅π(σ)∝σ−1、 p(\mu,\sigma) = \pi(\mu) \cdot \pi(\sigma) \propto \sigma^{-1}\, , π(μ )π(μ) \pi(\mu)σσ\sigmap (σ)p(σ)p(\sigma)σσ\sigmaおよびは別々のグループになります。μμ\mu 質問1:なぜそれらを別々のグループとして扱うのが同じグループで扱うよりも理にかなっているのか(私が正しい場合(?)、以前の完全な次元のジェフリーズでは[1]を参照)。 次に、次の状況を考えます: ここでは不明、、は未知であり、は既知の非線形関数です。そのような場合、魅力的であり、私の経験から、次の分解を考慮することは時々有益です: ここでとは、前の縮尺位置の例と同様に、2つのサブモデルのジェフリーズです。θ ∈ R N ε I〜N …

3
サンプルサイズ、最小値と最大値から正規分布を再構築できますか?中間点を使用して平均を代理できます
私はこれが統計的には少し強引かもしれないことを知っていますが、これは私の問題です。 範囲データ、つまり変数の最小、最大、サンプルサイズがたくさんあります。これらのデータの一部については平均値もありますが、多くはありません。これらの範囲を互いに比較して、各範囲の変動性を定量化し、平均を比較したいと思います。分布が平均に関して対称的であり、データがガウス分布を持っていると仮定する正当な理由があります。このため、平均値が存在しない場合、分布の中間点を平均値のプロキシとして使用することを正当化できると考えています。 私がやりたいのは、各範囲の分布を再構築し、それを使用してその分布の標準偏差または標準誤差を提供することです。私が持っている唯一の情報は、サンプルから観測された最大値と最小値、および平均値のプロキシとしての中点です。 このようにして、各グループの加重平均を計算でき、また、私が持っている範囲データと(対称および正規分布の)仮定に基づいて、各グループの変動係数も計算できるようになります。 私はこれを行うためにRを使用する予定であるため、コードのヘルプも歓迎します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.