タグ付けされた質問 「confidence-interval」

信頼区間は、信頼度で未知のパラメーターをカバーする区間です。信頼区間は、頻度主義の概念です。それらは、ベイジアンアナログである信頼できる間隔と混同されることがよくあります。 (1α)%

2
線形回帰でx切片の信頼区間を計算する方法は?
線形回帰の標準誤差は、通常、応答変数に対して与えられるため、他の方向の信頼区間を取得する方法を考えています。たとえば、x切片の場合です。私はそれが何であるかを視覚化することができますが、これを行う簡単な方法があるはずだと確信しています。以下は、これを視覚化する方法のRの例です。 set.seed(1) x <- 1:10 a <- 20 b <- -2 y <- a + b*x + rnorm(length(x), mean=0, sd=1) fit <- lm(y ~ x) XINT <- -coef(fit)[1]/coef(fit)[2] plot(y ~ x, xlim=c(0, XINT*1.1), ylim=c(-2,max(y))) abline(h=0, lty=2, col=8); abline(fit, col=2) points(XINT, 0, col=4, pch=4) newdat <- data.frame(x=seq(-2,12,len=1000)) # CI pred <- …

1
重い裾の分布の順序統計量の漸近正規性
背景: 重い裾の分布でモデル化したいサンプルがあります。観測値の広がりが比較的大きいなど、いくつかの極端な値があります。私の考えはこれを一般化されたパレート分布でモデル化することでしたので、私はそれを行いました。ここで、私の経験的データ(約100データポイント)の0.975分位点は、データに当てはめた一般化パレート分布の0.975分位点よりも低くなっています。さて、この違いが気になるものかどうかを確認する方法はあるのでしょうか。 分位数の漸近分布は次のように与えられることがわかります。 だから私は、データのフィッティングから得たのと同じパラメーターで一般化されたパレート分布の0.975分位の周りに95%の信頼帯をプロットしようとすることで私の好奇心を楽しませるのは良い考えだと思いました。 ご覧のとおり、ここでは極端な値を処理しています。また、分散が非常に大きいため、密度関数の値は非常に小さく、信頼帯は上記の漸近正規性公式の分散を使用してのオーダーになります。±1012±1012\pm 10^{12} ±1.960.975∗0.025n(fGPD(q0.975))2±1.960.975∗0.025n(fGPD(q0.975))2\pm 1.96\frac{0.975*0.025}{n({f_{GPD}(q_{0.975})})^2} したがって、これは意味がありません。正の結果のみの分布があり、信頼区間には負の値が含まれています。ここで何かが起こっています。私は0.5分位の周りのバンドを計算すると、バンドがでないことを、巨大な、まだ巨大な。 これが別の分布、つまり分布とどのように関係するかを見ていきます。分布から観測をシミュレートし、変位値が信頼帯内にあるかどうかを確認します。これを10000回実行して、信頼帯内にあるシミュレーションされた観測値の0.975 / 0.5変位値の比率を確認します。N(1,1)N(1,1)\mathcal{N}(1,1)n=100n=100n=100N(1,1)N(1,1)\mathcal{N}(1,1) ################################################ # Test at the 0.975 quantile ################################################ #normal(1,1) #find 0.975 quantile q_norm<-qnorm(0.975, mean=1, sd=1) #find density value at 97.5 quantile: f_norm<-dnorm(q_norm, mean=1, sd=1) #confidence bands absolute value: band=1.96*sqrt((0.975*0.025)/(100*(f_norm)^2)) u=q_norm+band l=q_norm-band hit<-1:10000 for(i in 1:10000){ d<-rnorm(n=100, mean=1, sd=1) …

2
2つのオッズ比の差の統計的検定の引用?
ここのコメントで、@ gungは書きました、 私はそれらが少し(おそらく〜25%)オーバーラップする可能性があり、5%レベルでも重要であると信じています。表示される95%のCIは個々のORに関するものですが、2つのORのテストはそれらの違いに関するものであることを覚えておいてください。ただし、まったくオーバーラップしない場合、それらは明らかに大きく異なります。95%のCIが他のORポイントの推定値とオーバーラップする場合、それらは確実にオーバーラップしません。 上記の声明を引用している人はいますか?レビュー担当者は、2つのオッズ比が互いに大幅に異なるかどうかを計算してほしいと考えています。

6
学部生に示す良い例は何ですか?
今学期後半は、CS志向の大学生に教員補として統計を教えます。ほとんどの学生はクラスを受講し、その主題を学ぶインセンティブはなく、主要な要件のためだけに受講しました。私は、B +を合格させるために学んだクラスだけでなく、主題を面白く有用なものにしたいと考えています。 純粋数学の博士課程の学生として、私は実際の応用面についてはほとんど知りませんでした。学部統計の実際のアプリケーションをいくつかお願いしたいと思います。私が探している例は次のようなものです(精神的に): 1)中心極限定理を示すことは、特定の大きなサンプルデータに役立ちます。 2)中心極限定理が適用できないという反例を示します(たとえば、コーシー分布に従うもの)。 3)Z検定、t検定などを使用して、有名な実例で仮説検定がどのように機能するかを示します。 4)過適合または誤った初期仮説がどのように誤った結果をもたらすかを示す。 5)p値と信頼区間が(よく知られている)実際のケースでどのように機能したか、およびそれらがあまり機能しない場合を示します。 6)同様に、タイプI、タイプIIのエラー、統計的検出力、拒否レベルなど。αα\alpha 私の問題は、確率の側面に多くの例(コイントス、ダイストス、ギャンブラーの破滅、マルチンゲール、ランダムウォーク、3つの囚人のパラドックス、モンティホール問題、アルゴリズム設計における確率法など)がありますが、統計面での多くの標準的な例。私が言いたいのは、教育学的に価値のある深刻で興味深い例であり、実際の生活から非常に切り離されているように見えるほど人工的に作られたものではありません。Z検定とt検定がすべてであるという誤った印象を学生に与えたくありません。しかし、私の純粋な数学の背景のために、クラスを彼らにとって興味深く、有用なものにするのに十分な例を知りません。だから私はいくつかの助けを探しています。 私の学生のレベルは微積分Iと微積分II前後です。彼らはガウスカーネルの評価方法がわからないため、標準法線の分散が定義で1であることを示すこともできません。そのため、少し理論的または実践的な計算(超幾何分布、1Dランダムウォークのアークシンの法則など)は機能しません。「どうして」だけでなく、「なぜ」も理解できる例をいくつか紹介したいと思います。そうでなければ、私が脅迫によって私が言ったことを証明するかどうかはわかりません。

1
「以前のフラット」のベイジアン推定は、最尤推定と同じですか?
系統学では、系統樹はMLEまたはベイズ分析を使用して構築されることがよくあります。多くの場合、ベイジアン推定ではフラット事前分布が使用されます。私が理解しているように、ベイズ推定は事前分布を組み込んだ尤度推定です。私の質問は、フラット事前分布を使用する場合、単純に尤度分析を行うことと何が違うのですか?

1
ブートストラップを使用して1パーセンタイルのサンプリング分布を取得する
母集団からのサンプル(サイズ250)があります。人口の分布はわかりません。 主な質問:母集団の1パーセンタイルの点推定が必要です。次に、点推定の周りに95%の信頼区間が必要です。 私の点推定値は、サンプル1になり番目のパーセンタイル。私はそれをと表します。xxx その後、ポイント推定値の周囲に信頼区間を構築しようとします。ここでブートストラップを使用するのは理にかなっているのでしょうか。私はブートストラップに非常に慣れていないので、適切な用語を使用できない場合などはご容赦ください。 ここに私がそれをやろうとした方法があります。元のサンプルから置き換えて、ランダムなサンプルを1000個描画します。それぞれから1パーセンタイルを取得します。したがって、私は1000ポイントを持っている- "1 stは -percentiles"。これらの1000ポイントの経験的分布を見てみましょう。その平均ます。次のように「バイアス」を示します:。私は2.5とり番目のパーセンタイルと97.5 番目の下、私は1の周りの95%信頼区間と呼ぶもののハイエンド得るために、1000ポイントのパーセンタイルをSTパーセンタイル元のサンプルのを。これらの点をおよびます。xmeanxmeanx_{mean}bias=xmean−xbias=xmean−x\text{bias}=x_{mean}-xx0.025x0.025x_{0.025}x0.975x0.975x_{0.975} 最後のステップは、この信頼区間を、元のサンプルの1パーセンタイル付近ではなく、母集団の1パーセンタイル付近になるように調整することです。したがって、を下限とし、を上限とします人口の1つの点推定値の周りの95%信頼区間の番目のパーセンタイル。この最後のインターバルが私が求めていたものです。x−bias−(xmean−x0.025)x−bias−(xmean−x0.025)x-\text{bias}-(x_{mean}-x_{0.025})x−bias+(x0.975−xmean)x−bias+(x0.975−xmean)x-\text{bias}+(x_{0.975}-x_{mean}) 重要な点は、私の意見では、それは1つのために使用するブートストラップに理にかなっているかどうかであるSTのかなり近い人口の未知の根本的な分布のテールにあるパーセンタイル。問題があるのではないかと思います。ブートストラップを使用して、最小値(または最大値)の信頼区間を構築することを検討してください。 しかし、おそらくこのアプローチには欠陥がありますか?私にお知らせください。 編集: もう少し問題についての考えを持って、私は私の解決策は、以下のことを意味していることがわかり:経験1 番目のパーセンタイル元のサンプルの1の偏った推定かもしれSTパーセンタイル人口の。もしそうなら、ポイント推定はバイアス調整されるべきです:。そうでない場合、バイアス調整された信頼区間は、バイアス未調整のポイント推定と互換性がありません。ポイント推定値と信頼区間の両方を調整するか、どちらも調整しない必要があります。x−biasx−biasx-\text{bias} 一方、見積もりにバイアスをかけることを許可しなかった場合は、バイアス調整を行う必要はありません。つまり、をポイント推定値として、を下限として、を95%の上限として信頼区間。この間隔が意味を成しているかどうかはわかりません...xxxx−(xmean−x0.025)x−(xmean−x0.025)x-(x_{mean}-x_{0.025})x+(x0.975−xmean)x+(x0.975−xmean)x+(x_{0.975}-x_{mean}) だから、サンプル1と仮定することは何の意味も持たないSTはパーセンタイル人口1の偏った推定値である番目のパーセンタイル?そうでない場合、私の代替ソリューションは正しいですか?

2
重要でない効果の周りの狭い信頼区間は、帰無の証拠を提供できますか?
nullを拒否できないということは、nullが真であることを意味すると仮定するのは明らかに誤りです。しかし、ヌルが拒否されず、対応する信頼区間(CI)が狭く、0を中心とする場合、これはヌルの証拠を提供しませんか? 私は2つの考えを持っています:はい、実際にはこれは効果が多かれ少なかれ0であるという証拠を提供します。しかし、厳密な仮説テストフレームワークでは、null効果は対応するCIと同様に、推論には単に使用できないようです。では、ポイントの推定値が重要でない場合のCIの意味は何ですか?また、推論には使用できませんか、それとも、前の例のようにnullの証拠を定量化するために使用できますか? 学術的参考文献を含む回答は推奨されます。

1
信頼区間ではなく信頼できる区間を報告する必要がありますか?
統計の教科書でその概念に出くわした後、私はそれについて頭を抱えてみましたが、最終的に、これまでに見たすべての説明に当てはまるように思える結論に至りました。間隔です。 私のような1時間前からの違いを知らない人のための余談 データを観察し、そこからいくつかのパラメーターを予測した場合、たとえば平均であるとすると、信頼できる区間は、であり、 95%muが確実に中に入る(または別のレベルを使用した場合は95%以外の数)。入門統計クラスで教えられる信頼区間は、信頼できる区間と重複する可能性がありますが、必ずしも十分に重複するとは限りません。説明を勇敢にしたい場合は、これとこの質問をCross Validatedで読んでみてください。多くの頭を悩ませた後、私が最終的に理解したのはこの答えでした。μμ\mu[ μ分、μ 最高][μmin, μmax][\mu_{\text{min}},\ \mu_{\text{max}}] 私の結果では信頼区間よりも信頼できる区間を使用することが科学的に望ましいという意味ですか?はいの場合、それを使用している出版物を見なかったのはなぜですか? それはコンセプトを使用する必要があるからなのですが、測定科学者はまだ正しい統計手法に追いついていませんか? あるいは、元の信頼区間の意味は、実証研究の結果を説明するのに適していますか? それとも実際には、それらはあまり重要ではないほど重複していることが多いのですか? 選択は、データについて想定している統計分布に依存しますか?多分ガウス分布で、それらは常に数値的に重複するので、純粋な統計の外の誰もが違いを気にしません(私が読んだ多くの研究は、どんな種類の間隔も計算しませんし、おそらく約1%は考えにスペースを与えますそれらのデータが正常に配布されない可能性があること)。 それは私たちの科学理論の立場に依存しますか?例えば、信頼区間は実証主義者の仕事で、信頼できる区間は解釈主義者の仕事で使用されるべきだと感じますが、この感覚が正しいかどうかはわかりません。

3
「実際のカバレッジ確率」の計算は、「信頼できる間隔」の計算と同じですか?
エントリーレベルの統計教科書を読んでいました。二項分布を持つデータの成功率の最尤推定に関する章では、信頼区間を計算するための式を提供し、さりげなく言及しました 実際のカバレッジ確率、つまり、メソッドが真のパラメーター値を取得する間隔を生成する確率を考慮してください。これは、公称値よりもかなり少ない場合があります。 そして、おそらく実際のカバレッジ確率を含む代替の「信頼区間」を構築する提案を続けます。 私は初めて、名目確率と実際のカバレッジ確率の考えに直面しました。ここで古い質問を通り抜けると、理解できたと思います。確率と呼ばれる2つの異なる概念があります。1つ目は、まだ起こっていないイベントが特定の結果を生成する確率であり、2つ目は確率です。既に発生したイベントの結果に対する監視エージェントの推測が真である可能性がどのくらいあるかです。また、信頼区間は最初のタイプの確率のみを測定し、「信頼できる区間」と呼ばれるものは2番目のタイプの確率を測定するように見えました。要約すると、信頼区間は「公称カバレッジ確率」を計算するものであり、信頼区間は「実際のカバレッジ確率」をカバーするものであると仮定しました。 しかし、本を誤って解釈した可能性があります(それが提供する異なる計算方法が信頼区間と信頼区間、または2つの異なるタイプの信頼区間に対するものであるかどうかは完全に明確ではありません)。私の現在の理解。特に私が別の質問で得たコメント、 頻度主義者の信頼区間、ベイジアンにとって信頼できる その本はその章でベイジアン法を説明していなかったので、私は私の結論を疑いました。 ですから、私の理解が正しいかどうか、または途中で論理的な誤りを犯したかどうかを明確にしてください。

1
ブートストラップリサンプリングを使用して、データセットの分散の信頼区間を計算できますか?
データセットから何回も再サンプリングし、そのたびに平均を計算すると、これらの平均は(CLTによる)正規分布に従います。したがって、データセットの確率分布を仮定せずに、データセットの平均の信頼区間を計算できます。 分散についても同様のことができるかどうか疑問に思っていました。つまり、データセットから何度も再サンプリングし、そのたびに分散を計算した場合、これらの分散は特定の分布に従います(データセットの元の確率分布に関係なく)? その元のデータセットが正常であれば、分散はカイ2乗分布に従うことを知っています。しかし、それが正常でない場合はどうですか?

2
予測間隔の計算
ここに次のデータがあります。炭化水素のパーセンテージが1.0の場合、平均純度の95%信頼区間を計算しようとしています。Rでは、次のように入力します。 > predict(purity.lm, newdata=list(hydro=1.0), interval="confidence", level=.95) fit lwr upr 1 89.66431 87.51017 91.81845 しかし、どうすればこの結果を自分で導き出すことができますか?次の式を使ってみました。 snew=s2(1+1N+(xnew−x¯)2∑(xi−x¯)2)−−−−−−−−−−−−−−−−−−−−−−√snew=s2(1+1N+(xnew−x¯)2∑(xi−x¯)2)s_{new}=\sqrt{s^2\left(1+\frac{1}{N}+\frac{(x_{new}-\bar x)^2}{\sum(x_i-\bar x)^2}\right)} そして、Rに次のように入力します。 > SSE_line = sum((purity - (77.863 + 11.801*hydro))^2) > MSE = SSE_line/18 > t.quantiles <- qt(c(.025, .975), 18) > prediction = B0 + B1*1 > SE_predict = sqrt(MSE)*sqrt(1+1/20+(mean(hydro)-1)^2/sum((hydro - mean(hydro))^2)) > prediction …

3
信頼区間とサンプルサイズ
私は統計と信頼区間のフィールドにまったく新しいです。したがって、これは非常に些細なことであるか、または愚かでさえあるかもしれません。このことをよりよく説明している文献/テキスト/ブログを理解したり、指摘したりしていただければ幸いです。 CNN、Foxニュース、Politicoなどのさまざまなニュースサイトで、2012年の米国大統領レースに関する投票について調べています。各機関は、いくつかの投票を実施し、フォームの統計を報告しています。 CNN:オバマ氏の人気はX%で、誤差は+/- x1%です。サンプルサイズ600。FOX:オバマ氏の人気はY%で、誤差は+/- y1%です。サンプルサイズ800。XYZ:オバマ氏の人気はZ%で、誤差は+/- z1%です。サンプルサイズ300。 ここに私の疑問があります: どれを信頼するかをどうやって決めるのですか?それは信頼区間に基づくべきですか、それともFoxのサンプルサイズが大きいため、推定値の信頼性が高いと思いますか?信頼度とサンプルサイズの間に暗黙の関係があり、一方を指定すると他方を指定する必要がなくなりますか? 信頼区間から標準偏差を決定できますか?もしそうなら、それは常に有効ですか、それとも特定の分布(Gaussianなど)に対してのみ有効ですか? 上記の3つの推定値を「マージ」または「結合」して、信頼区間とともに独自の推定値を取得する方法はありますか?その場合、どのサンプルサイズを請求する必要がありますか? CNN / Foxについては、私の例をわかりやすく説明するためにのみ言及しました。私はここで民主党対共和党論争を始めるつもりはありません。 私が提起した問題を理解するのを手伝ってください。

1
観測されたイベントと期待されたイベントを比較する方法は?
4つの可能なイベントの頻度の1つのサンプルがあるとします。 Event1 - 5 E2 - 1 E3 - 0 E4 - 12 そして、私は自分のイベントの発生が予想される確率を持っています: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 4つのイベントの観測頻度の合計(18)を使用して、イベントの予想頻度を計算できますか? expectedE1 - 18 * 0.2 = 3.6 expectedE2 - 18 * 0.1 = 1.8 expectedE1 - 18 * 0.1 = 1.8 expectedE1 - …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

1
95%信頼区間の繰り返し実験の説明のシミュレーション研究の問題-どこが間違っているのですか?
95%信頼区間の繰り返し実験解釈をシミュレートするRスクリプトを記述しようとしています。これは、割合の真の母集団値がサンプルの95%CIに含まれている時間の割合を過大評価していることがわかりました。大きな違いはありません-約96%対95%ですが、それでも私は興味を持っていました。 私の関数は、samp_n確率pop_pでベルヌーイ分布からサンプルを取得し、prop.test()連続性補正を使用して、またはより正確に95%信頼区間を計算しbinom.test()ます。真の人口比率pop_pが95%CIに含まれている場合、1を返します。私は2つの関数を作成しました。1つはを使用する関数、もう1つはを使用しprop.test()、binom.test()両方で同様の結果を得たものです。 in_conf_int_normal <- function(pop_p = 0.3, samp_n = 1000, correct = T){ ## uses normal approximation to calculate confidence interval ## returns 1 if the CI contain the pop proportion ## returns 0 otherwise samp <- rbinom(samp_n, 1, pop_p) pt_result <- prop.test(length(which(samp == 1)), samp_n) lb <- pt_result$conf.int[1] ub …

2
Rのoptimを使用して対数尤度関数を最大化することにより推定されたパラメーターのプロファイリングを使用して、95%の信頼区間をどのように推定できますか?
Rのoptimを使用して対数尤度関数を最大化することにより推定されたパラメーターのプロファイリングを使用して、95%の信頼区間をどのように推定できますか? hessianを反転させることで、共分散行列を漸近的に推定できることはわかっていますが、この方法が有効であるために必要な前提条件がデータに適合していないことが心配です。他の方法を使用して信頼区間を推定したいと思います。 StryhnとChristensen、およびVenables and RipleyのMASSの本、§8.4、pp。220-221で説明されているように、プロファイル尤度法は適切ですか? もしそうなら、Rでこれを行うのに役立つパッケージはありますか?そうでない場合、そのようなメソッドの疑似コードはどのようになりますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.