タグ付けされた質問 「confidence-interval」

信頼区間は、信頼度で未知のパラメーターをカバーする区間です。信頼区間は、頻度主義の概念です。それらは、ベイジアンアナログである信頼できる間隔と混同されることがよくあります。 (1α)%

2
最初の実験の95%信頼区間内で、どのサイズの反復実験が効果サイズを持ちますか?
ランダムサンプリング、ガウス母集団、等分散、Pハッキングなしなどの理想的な状況に固執しましょう。 ステップ1. 2つの標本平均を比較するという実験を実行し、2つの母平均間の差について95%の信頼区間を計算します。 ステップ2.さらに多くの実験(数千)を実行します。平均の違いは、ランダムサンプリングのため、実験ごとに異なります。 質問:ステップ1の信頼区間内にあるのは、ステップ2の実験のコレクションの平均の差のどの部分ですか? それは答えられません。それはすべて、ステップ1で起こったことに依存します。ステップ1の実験が非常に非定型である場合、質問に対する答えは非常に低い可能性があります。 したがって、両方のステップが何度も繰り返されることを想像してください(ステップ2がさらに何度も繰り返される)。これで、平均して、繰り返し実験のどの部分が最初の実験の95%信頼区間内に効果サイズを持っているかについての期待を考え出すことができるはずです。 研究の再現性を評価するためには、これらの質問に対する答えを理解する必要があるようです。

1
ACF関数の信頼区間はどのように計算されますか?
たとえば、Rでacf()関数を呼び出すと、デフォルトでコレログラムがプロットされ、95%の信頼区間が描画されます。コードを見て、を呼び出すとplot(acf_object, ci.type="white")、次のように表示されます。 qnorm((1 + ci)/2)/sqrt(x$n.used) タイプホワイトノイズの上限として。誰かがこの方法の背後にある理論を説明できますか?なぜ1 + 0.95のqnormを取得してから2で割り、その後、観測数で割りますか?

3
ロジスティック回帰からオッズ比の信頼区間を作成するさまざまな方法
ロジスティック回帰で得られた係数からオッズ比の95%信頼区間を構築する方法を研究しています。したがって、ロジスティック回帰モデルを検討すると、 log(p1−p)=α+βxlog⁡(p1−p)=α+βx \log\left(\frac{p}{1 - p}\right) = \alpha + \beta x \newcommand{\var}{\rm Var} \newcommand{\se}{\rm SE} 制御グループではx = 0、ケースグループではx = 1などです。x=0x=0x = 0x=1x=1x = 1 \ betaの 95%CIを構築するのが最も簡単な方法であることをすでに読んだのでββ\beta、指数関数を適用しました。つまり、 β^±1.96×SE(β^)→exp{β^±1.96×SE(β^)}β^±1.96×SE(β^)→exp⁡{β^±1.96×SE(β^)} \hat{\beta} \pm 1.96\times \se(\hat{\beta}) \rightarrow \exp\{\hat{\beta} \pm 1.96\times \se(\hat{\beta})\} 私の質問は: この手順を正当化する理論的な理由は何ですか?\ mbox {odds ratio} = \ exp \ {\ beta \}を知ってodds ratio=exp{β}odds ratio=exp⁡{β}\mbox{odds …

2
信頼区間は実際にパラメーター推定の不確実性の尺度を提供しますか?
私は統計学者のウィリアム・ブリッグスによるブログ投稿を読んでいて、次の主張は控えめに言っても興味がありました。 あなたはそれで何を作りますか? 信頼区間とは何ですか?もちろん、これは方程式であり、データの間隔を提供します。パラメータ推定の不確実性の尺度を提供することを意図しています。さて、厳密に言えば頻度論に基づいて-これは真実であると仮定することもできます-あなたが手にしているCIについて言えることは、パラメータの真の値がその中にあるかそうでないかだけです。これはトートロジーであるため、常に真実です。したがって、CIは不確実性の尺度をまったく提供しません。実際、不確実性を計算するのは役に立たない演習です。 リンク:http : //wmbriggs.com/post/3169/

3
信頼レベルの選択方法は?
私はしばしば90%の信頼レベルを使用しますが、これは95%または99%よりも大きな不確実性があることを受け入れています。 しかし、適切な信頼レベルを選択する方法に関するガイドラインはありますか?または、さまざまな分野で使用される信頼レベルのガイドラインですか? また、信頼レベルを解釈して提示する際に、数字を言語に変えるためのガイドはありますか?たとえば、ピアソンのr に関する次のようなガイド(編集:これらの説明は社会科学向けです): http://faculty.quinnipiac.edu/libarts/polsci/Statistics.html 更新 以下の回答をありがとう。それらはすべて非常に役に立ち、洞察力があり、有益でした。 さらに、この質問を検討しているときに出会った重要度レベル(本質的には同じ質問)の選択に関する素晴らしい記事を以下に示します。彼らは、以下の回答で述べられていることを検証します。 「0.05の有意性とは何ですか?」 http://www.p-value.info/2013/01/whats-significance-of-005-significance_6.html 「統計的有意性の.05レベルの起源について」 http://www.radford.edu/~jaspelme/611/Spring-2007/Cowles-n-Davis_Am-Psyc_orignis-of-05-level.pdf 「科学的方法:統計誤差」 http://www.nature.com/news/scientific-method-statistical-errors-1.14700

1
なぜブートストラップCIを常に使用しないのですか?
ブートストラップCI(およびバーティキュラーのBCa)が通常の分散データに対してどのように機能するのか疑問に思っていました。さまざまなタイプのディストリビューションでのパフォーマンスを調査する多くの作業があるようですが、通常の分布データでは何も見つかりませんでした。最初に勉強するのは明らかなことのように思えるので、私は論文が古すぎると思います。 Rブートパッケージを使用していくつかのモンテカルロシミュレーションを行ったところ、ブートストラップCIは正確なCIと一致していることがわかりましたが、小さなサンプル(N <20)の場合、少し寛大な(小さなCI)傾向があります。サンプルが十分に大きい場合、それらは本質的に同じです。 これは、ブートストラップを常に使用しない理由があるのではないかと思います。分布が正常であるかどうかの評価の難しさ、およびこの背後にある多くの落とし穴を考えると、分布に関係なくブートストラップCIを決定および報告しないことは理にかなっています。ノンパラメトリックテストは電力が少ないため、体系的に使用しないことの動機を理解していますが、シミュレーションではブートストラップCIの場合はそうではないことがわかります。彼らはさらに小さいです。 私を悩ませる同様の質問は、なぜ中心傾向の尺度として中央値を常に使用しないのかということです。多くの場合、非正規分布データの特性評価に使用することをお勧めしますが、中央値は正規分布データの平均と同じなので、なぜ区別するのですか?分布が正規であるかどうかを決定する手順を取り除くことができれば、非常に有益と思われます。 これらの問題についてのあなたの考えと、それらが以前に議論されたかどうかについて、私は非常に興味があります。参考文献をいただければ幸いです。 ありがとう! ピエール

5
非常に多数のデータポイントで値の代入を実行する方法は?
非常に大きなデータセットがあり、約5%のランダムな値が欠落しています。これらの変数は互いに相関しています。次のRデータセットの例は、ダミーの相関データを使用した単なるおもちゃの例です。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
予測間隔を使用して確率的ステートメントを作成できますか?
信頼区間と予測区間の解釈に関するサイト上の多くの優れた議論を読みましたが、1つの概念はまだ少し不可解です: OLSフレームワークを考えてみると、近似モデルが得られました。が与えられ、その応答を予測するように求められます。私たちは、計算のx ^ {* T} \帽子\ベータ版をボーナスとして、我々はまた、私たちの予測を中心に95%予測区間を提供し、そして、ラ・線形モデルで予測制限の式を得ます。この予測間隔をPIと呼びましょう。y^=Xβ^y^=Xβ^\hat y = X\hat\betax∗x∗x^*x∗Tβ^x∗Tβ^x^{*T}\hat\beta さて、PIの正しい解釈は次のうちどれですか(どちらでもありません)? 用x∗x∗x^*特に、y(x∗)y(x∗)y(x^*)、95%の確率でPI内にあります。 多数のxが与えられた場合xxx、PIを計算するこの手順は、95%の時間で真の応答をカバーします。 線形回帰予測間隔の @gungの文言から、前者は正しいように思えます(非常によく誤解される可能性があります)。それが正しいかどう私たちがしているので、それは予測の実現確率変数の対推定パラメータを? (編集)ボーナスの質問:真のが何であるか、つまりデータを生成するプロセスを知っていると仮定すると、見ているだけで、特定の予測に関する確率について話すことができるでしょうか?ββ\betaϵϵ\epsilon これに対する私の最新の試み:(概念的に非常に大まかに言って)予測区間を2つの部分に分解できます。エラー項の範囲。(B)真の予測平均を知っていることを条件に、確率的ステートメントを作成できますが、全体として、予測間隔は、予測値の周りの頻度CIとしてのみ扱うことができます。これはいくらか正しいですか?

1
非数学者向けのクロッパー・ピアソン
Clopper-Pearson CIを超えてプロポーションについて直感を説明できる人がいるかどうか疑問に思っていました。 私の知る限り、すべてのCIには差異が含まれています。ただし、比率については、私の比率が0または1(0%または100%)であっても、クロッパーピアソンCIを計算できます。数式を見てみたところ、二項分布のパーセンタイルを持つものがあることを理解し、CIを見つけるには反復が必要であることを理解していますが、「単純な言葉」で、または最小限の数学で、論理と合理性を説明できる人はいないかと思いました?

2
多重代入データセット間でブートストラップされたp値をプールするにはどうすればよいですか?
乗算代入(MI)データからを推定するためにp値をブートストラップしたいのですが、MIセット全体でp値を結合する方法が不明確であるという問題に関心があります。θθ\theta MIデータセットの場合、推定値の合計分散を取得する標準的なアプローチでは、Rubinのルールを使用します。MIデータセットのプーリングのレビューについては、こちらをご覧ください。合計分散の平方根は、標準誤差推定として機能します。ただし、推定量によっては、総分散に既知の閉形式がないか、サンプリング分布が正規ではありません。統計量θ / s e (θ )は、漸近的ではなく、t分布しない場合があります。θθ\thetaθ / s e (θ )θ/se(θ){\theta}/{se(\theta)} したがって、完全なデータの場合、1つの代替オプションは、統計をブートストラップして分散、p値、および信頼区間を見つけることです。たとえ、サムリング分布が正規でなく、その閉形式が不明であってもです。MIの場合、2つのオプションがあります。 MIデータセット全体でブートストラップされた分散をプールする MIデータセット全体でp値または信頼限界をプールする θθ\theta だから私の質問は次のとおりです。複数の代入データセットにまたがって複数のブートストラップされたp値(または信頼区間)をプールする方法は? 進め方についての提案を歓迎します、ありがとうございます。

1
依存する観測のブートストラップを介した信頼区間の計算
標準形式のブートストラップを使用して、観測値がiidであれば、推定統計の信頼区間を計算できます。I. Visser et al。「隠れマルコフモデルパラメーターの信頼区間」のパラメトリックブートストラップを使用して、HMMパラメーターのCIを計算しました。ただし、観測シーケンスにHMMを近似する場合、観測値は依存関係にあると既に仮定しています(混合モデルとは対照的)。 2つの質問があります。 iidの仮定はブートストラップで何をしますか? パラメトリックブートストラップでiid要件を無視できますか? Visser et al。方法は簡単に次のとおりです。 我々は観測シーケンスがあるとしY=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nパラメータの実際の未知のセットとHMMをサンプリングに起因θ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l。 パラメータは、EMアルゴリズムを用いて推定することができるθ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l 推定HMMを使用して、サイズブートストラップサンプルを生成しnnnますY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n ブートストラップサンプルに係るHMMのパラメータを推定するθ^∗=θ^∗1,θ^∗2,...,θ^∗lθ^∗=θ^1∗,θ^2∗,...,θ^l∗\hat{\theta}^*=\hat{\theta}^*_1,\hat{\theta}^*_2,...,\hat{\theta}^*_l ステップ3および4繰り返し時間(例えば、B = 1000)で得られたBのブートストラップ推定:θ *(1 )、θ *(2 )、。。。、θ *(B )BBBBBBBBBθ^∗(1),θ^∗(2),...,θ^∗(B)θ^∗(1),θ^∗(2),...,θ^∗(B)\hat{\theta}^*(1),\hat{\theta}^*(2),...,\hat{\theta}^*(B) 各推定されたパラメータのCI計算θ iのの分布使用してθを * 私は、ブートストラップ推定に。θ^iθ^i\hat{\theta}_iθ^∗iθ^i∗\hat{\theta}^*_i 注(私の調査結果): パーセンタイル方式を使用して、正しいカバレッジを得るためにCIを計算する必要があります(正常性は悪い仮定です)。 ブートストラップディストリビューションのバイアスを修正する必要があります。分布平均ことを意味θは、 * 私はにシフトする必要がありますθ Iθ^∗iθ^i∗\hat{\theta}^*_iθ^iθ^i\hat{\theta}_i

2
モンテカルロシミュレーション推定の精度を見つける
バックグラウンド 私は一連のモデルの出力を組み合わせたモンテカルロシミュレーションを設計しています。シミュレーションにより、シミュレーション結果の確率とその確率推定の精度について合理的な主張ができることを確認したいと思います。 シミュレーションは、特定のコミュニティから選ばれたju審員が特定の被告に有罪判決を下す可能性を見つけます。シミュレーションの手順は次のとおりです。 既存のデータを使用して、人口統計的予測因子で「審査員第一投票」を回帰することにより、ロジスティック確率モデル(M)を生成します。 モンテカルロ法を使用して、Mの 1,000バージョン(つまり、モデルパラメーターの係数の1000バージョン)をシミュレートします。 モデルの1,000バージョン(M i)のいずれかを選択します。 特定の人口統計学的特性分布を持つ個人の「コミュニティ」(C)から12の「ju審員」の1,000セットをランダムに選択することにより、1,000人の審査員を審査します。 M iを使用して、各審査員の最初の投票有罪投票の確率を決定論的に計算します。 各「ju審員」の可能性のある票を、(0-1の間でランダムに選択された値よりも大きいか小さいかに基づいて)確定票にレンダリングします。 最初の投票で有罪判決を下すju審員の割合を条件に、ju審が有罪となる確率のモデル(経験的データから導出)を使用して、各「 "審員」「最終投票」を決定します。 1000人のju審員に対する有罪判決の割合(PG i)を保存します。 Mの 1,000のシミュレートされたバージョンのそれぞれについて、手順3〜8を繰り返します。 PGの平均値を計算し、それをCでの確信の確率のポイント推定値として報告し ます。 PGの2.5および97.5パーセンタイル値を特定し、0.95信頼区間として報告します。 現在、確率分布(Cの人口統計学的特性またはMのバージョン)から1,000のランダム抽選がその分布を埋めるという理論で、1,000人のju審員と1,000人のju審員を使用しています。 ご質問 これにより、見積もりの​​精度を正確に判断できますか?もしそうなら、Cの確率分布をカバーするために、各PG i計算に何人の審査員を入れる必要があります(したがって、選択バイアスを回避します)。1,000未満しか使用できませんか? 助けてくれてありがとう!

2
元のサンプルよりも小さいブートストラップサンプルを使用できますか?
ブートストラップを使用して、N = 250の企業とT = 50か月のパネルデータセットから推定パラメーターの信頼区間を推定したいと思います。パラメータの推定は、カルマンフィルタリングと複雑な非線形推定を使用するため、計算コストがかかります(数日間の計算)。したがって、M = N = 250会社のB(数百以上)のBサンプルを元のサンプルから描画し、パラメーターBを推定することは、これがブートストラップの基本的な方法であっても、計算上実行不可能です。 したがって、元の会社からの置き換えでランダムに描画されたブートストラップサンプルに小さいM(たとえば10)を使用し、モデルパラメータのブートストラップ推定共分散行列をスケーリングすることを検討しています(上記の例では1/25)で、完全なサンプルで推定されたモデルパラメーターの共分散行列を計算します。1NM1NM\frac{1}{\frac{N}{M}} 次に、望ましい信頼区間は、正規性の仮定に基づいて概算できます。または、同様の手順を使用してスケーリングされた小さいサンプルの経験的な信頼区間(たとえば、係数で縮小できます。1NM√1NM\frac{1}{\sqrt{\frac{N}{M}}} この回避策は意味がありますか?これを正当化する理論的な結果はありますか?この課題に取り組むための代替手段はありますか?

2
曲線をフィッティングする場合、フィッティングしたパラメーターの95%信頼区間をどのように計算しますか?
1つのパラメーターを抽出するために、データに曲線を適合させています。ただし、そのパラメーターの確実性が何であるか、および%の信頼区間をどのように計算/表現するかはわかりません。959595 指数関数的に減衰するデータを含むデータセットについて、各データセットに曲線を当てはめます。次に、抽出したい情報は指数bbbです。私はtttの値と私が興味のないaの値を知っていますaaa(これは、母集団からの変数であり、Imがモデル化しようとしているプロセスではありません)。 これらのパラメーターを近似するために、非線形回帰を使用します。ただし、どの方法でも959595%信頼区間を計算する方法がわからないので、より幅広い回答も歓迎します。 f=a⋅e−btf=a⋅e−btf= a\cdot e^{-bt} bの値を取得したらbbb、その959595%信頼区間をどのように計算しますか?前もって感謝します!

1
順列検定の信頼区間とP値の不確実性
私は今、ランダム化テストを学んでいます。私の頭に浮かぶ2つの質問があります。 はい、ランダム化テストでP値を計算する方法は簡単で直感的です(置換テストと同じだと思いますか?)。しかし、通常のパラメトリックテストで行うように、95%の信頼区間をどのように生成することもできますか? 順列検定に関するワシントン大学の文書を読んでいるときに、13ページに次のような文があります。 順列が1000の場合、p。0.05付近の不確実性は約 です。±1%±1%\pm 1\% どのようにしてこの不確実性を得るのでしょうか。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.