タグ付けされた質問 「confidence-interval」

信頼区間は、信頼度で未知のパラメーターをカバーする区間です。信頼区間は、頻度主義の概念です。それらは、ベイジアンアナログである信頼できる間隔と混同されることがよくあります。 (1α)%

3
統計を使用するタイミングと
信頼区間を計算するためにこのビデオ講義を参照していました。ただし、混乱があります。この男は、計算に統計を使用しています。ただし、それはt統計であるはずだったと思います。母集団の真の標準偏差は与えられません。サンプルの標準偏差を使用して、真の標準偏差を推定しています。zzzttt それでは、なぜ彼はではなく信頼区間の正規分布を取るのでしょうか?ttt

4
回帰パラメータの信頼区間:ベイジアン対クラシック
長さnの2つの配列xとyが与えられた場合、モデルy = a + b * xに適合し、勾配の95%信頼区間を計算します。これは(b-デルタ、b +デルタ)で、bは通常の方法で検出され、 delta = qt(0.975,df=n-2)*se.slope se.slopeは、勾配の標準誤差です。Rから勾配の標準誤差を取得する1つの方法はsummary(lm(y~x))$coef[2,2]です。 ここで、xとyが与えられた勾配の尤度を記述し、これに「フラット」を掛け、MCMC手法を使用して事後分布からサンプルmを描画するとします。定義する lims = quantile(m,c(0.025,0.975)) 私の質問:(lims[[2]]-lims[[1]])/2上記で定義されたデルタとほぼ等しいですか? 以下の補遺は、これら2つが異なるように見える単純なJAGSモデルです。 model { for (i in 1:N) { y[i] ~ dnorm(mu[i], tau) mu[i] <- a + b * x[i] } a ~ dnorm(0, .00001) b ~ dnorm(0, .00001) tau <- pow(sigma, -2) sigma …

2
信頼区間の解釈
注:これが重複している場合は事前に謝罪しますが、検索で同様のqが見つかりませんでした 真のパラメーターpがあるとします。信頼区間C(X)は、たとえば95%の時間を含むpを含むRVです。ここで、Xを観察してC(X)を計算するとします。一般的な答えは、「pを含むまたは含まない」ため、「95%の確率でpを含む」と解釈するのは間違っているようです。 しかし、シャッフルされたデッキの一番上からカードを選び、裏向きのままにしておきましょう。直感的には、このカードがスペードのエースである確率は、実際には「スペードのエースであるか、そうではない」としても1/52であると思います。この推論を信頼区間の例に適用できないのはなぜですか? あるいは、カードが「あり」または「なし」であるためにスペードのエースであるという「確率」について話すのが意味がない場合でも、スペードのエースではないという51:1のオッズがあります。この情報を説明する別の言葉はありますか?この概念は「確率」とどう違うのですか? 編集:確率のベイジアン解釈から、より明確になるかもしれません、確率変数の実現が95%の確率で含まれていると言われた場合、その確率変数の実現(および条件付けする他の情報はありません)確率変数がpを含む95%の確率を持っていると言って正しいですか? 編集:また、頻度の頻度の確率の解釈から、頻度の専門家が「信頼区間にpが含まれる確率は95%である」などのことを言わないことに同意するとします。信頼区間にpが含まれているという「信頼」を頻繁に持っている人にとって、それはまだ論理的ですか? alphaを有意水準とし、t = 100-alphaとします。K(t)は、信頼区間にpが含まれているという頻度主義者の「信頼」です。K(t)はtで増加するはずです。t = 100%の場合、周波数範囲は(定義により)信頼区間にpが含まれているという確実性があるはずです。したがって、K(1)= 1を正規化できます。同様に、K(0)= 0。 0と1、およびK(0.999999)は大きいです。頻度論者はどのようにKをP(確率分布)とは異なると考えますか?

1
lmerモデルに使用する多重比較方法:lsmeansまたはglht?
1つの固定効果(条件)と2つのランダム効果(被験者内のデザインとペアによる参加者)を含む混合効果モデルを使用して、データセットを分析しています。モデルはlme4パッケージで生成されました:exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)。 次に、固定効果(条件)のないモデルに対してこのモデルの尤度比検定を実行しましたが、有意差があります。データセットには3つの条件があるため、多重比較を行いたいのですが、どの方法を使用すればよいかわかりません。CrossValidatedや他のフォーラムで同様の質問をいくつか見つけましたが、それでもかなり混乱しています。 私が見たものから、人々は使用することを提案しました 1.lsmeansパッケージ- lsmeans(exp.model,pairwise~condition)私に次のような出力が得られます。 condition lsmean SE df lower.CL upper.CL Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089 Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443 Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552 Confidence level used: 0.95 $contrasts contrast estimate SE df t.ratio p.value Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099 Condition1 - …

3
いつ信頼区間が「意味をなす」が、対応する信頼区間はそうではないのか?
多くの場合、95%のカバレッジの信頼区間は、95%の事後密度を含む信頼区間と非常によく似ています。これは、前者が均一であるか、後者の場合にほぼ均一であるときに起こります。したがって、信頼区間を近似するために信頼区間を使用することがよくあります。重要なことは、これから、信頼区間としての信頼区間のひどく間違った誤解は、多くの単純なユースケースにとって実際的重要性がほとんどないか、まったくないということを結論付けることができます。 これが起こらない場合の例はたくさんありますが、それらはすべて、頻繁なアプローチに何か問題があることを証明しようとして、ベイジアン統計の支持者によって厳選されているようです。これらの例では、信頼区間に不可能な値などが含まれており、それらがナンセンスであることを示しています。 これらの例や、ベイジアン対フリークエンティストの哲学的議論に戻りたくありません。 私はちょうど反対の例を探しています。信頼区間と信頼区間が大幅に異なり、信頼手順によって提供される区間が明らかに優れている場合はありますか? 明確にするために:これは、信頼できる区間が通常、対応する信頼区間と一致すると予想される状況、つまり、フラット、均一などの事前分布を使用する状況についてです。誰かが勝手に悪い事前を選択する場合には興味がありません。 編集: 以下の@JaeHyeok Shinの回答に応じて、彼の例が正しい尤度を使用していることに同意しなければなりません。近似ベイズ計算を使用して、以下のRのシータの正しい事後分布を推定しました。 ### Methods ### # Packages require(HDInterval) # Define the likelihood like <- function(k = 1.2, theta = 0, n_print = 1e5){ x = NULL rule = FALSE while(!rule){ x = c(x, rnorm(1, theta, 1)) n = length(x) x_bar = mean(x) rule = …

5
効果サイズは本当にp値より優れていますか?
応用研究におけるp値ではなく、効果の大きさに依存して報告することに多くの重点が置かれています(例えば、以下の引用)。 しかし、p値のような効果サイズがランダム変数であり、同じ実験を繰り返したときにサンプルごとに異なる可能性があるということはありませんか?言い換えれば、どの統計的特徴(たとえば、p値よりもサンプルごとの効果サイズの変動が少ないか)が、p値よりも効果サイズの証拠測定指標を良くするかどうかを尋ねています。 ただし、p値とエフェクトサイズを分離する重要な事実に言及する必要があります。つまり、母集団パラメーターがあるため効果の大きさは推定されますが、母集団パラメーターがないためp値は推定されません。 私にとって、効果の大きさは、特定の研究分野(人間の研究など)で、さまざまな研究者が開発した測定ツールから得られた経験的知見を共通のメトリックに変換するのに役立つ指標です定量研究クラブ)。 たぶん、効果の大きさとして単純な割合をとると、次の(Rの)がp値に対する効果の大きさの優位性を示すものでしょうか?(p値は変更されますが、効果サイズは変更されません) binom.test(55, 100, .5) ## p-value = 0.3682 ## proportion of success 55% binom.test(550, 1000, .5) ## p-value = 0.001731 ## proportion of success 55% ほとんどの効果のサイズは、検定統計量と直線的に関連していることに注意してください。したがって、効果サイズを使用して帰無仮説のテストを行うのは簡単なステップです。 たとえば、プレポストデザインから得られたt統計は、対応するCohenのd効果サイズに簡単に変換できます。そのため、Cohenのdの分布は、at分布のスケール位置バージョンにすぎません。 引用符: p値は混同されたインデックスであるため、理論上、さまざまなサンプルサイズと100の異なる効果サイズを持つ100の研究はそれぞれ同じ単一のp値を持つことができ、同じ単一の効果サイズを持つ100の研究はそれぞれp値に対して100の異なる値を持つことができます。 または p値は、サンプルごとに異なるランダム変数です。。。。したがって、2つの異なる実験、または同じ実験で測定された2つの変数のテストからp値を比較し、一方が他方よりも重要であることを宣言することは適切ではありませんか? 引用: トンプソン、B。(2006)。行動統計の基礎:洞察に基づくアプローチ。ニューヨーク、ニューヨーク:ギルフォードプレス。 グッド、PI、ハーディン、JW(2003)。統計の一般的なエラー(およびそれらを回避する方法)。ニューヨーク:ワイリー。

2
誤った仕様のもとでの統計的推論
統計的推論の古典的な扱いは、正しく指定された統計が使用されるという仮定に依存しています。つまり、観測データを生成した分布は統計モデル一部です: ただし、ほとんどの場合、これが本当に正しいとは限りません。正しく指定された仮定を破棄すると、統計的推論手順はどうなるのだろうか。P∗(Y)P∗(Y)\mathbb{P}^*(Y)yyyMM\mathcal{M}P∗(Y)∈M={Pθ(Y):θ∈Θ}P∗(Y)∈M={Pθ(Y):θ∈Θ}\mathbb{P}^*(Y) \in \mathcal{M}=\{\mathbb{P}_\theta(Y) :\theta \in \Theta\} 私は1982年にWhiteがML推定値に関する誤った仕様の下でいくつかの仕事を見つけました。その中で、最尤推定量は、分布 は、統計モデル内のすべての分布と真の分布\ mathbb {P} ^ *からKL発散を最小化します。Pθ1=argminPθ∈MKL(P∗,Pθ)Pθ1=arg⁡minPθ∈MKL(P∗,Pθ)\mathbb{P}_{\theta_1}=\arg \min_{\mathbb{P}_\theta \in \mathcal{M}} KL(\mathbb{P}^*,\mathbb{P}_\theta)P∗P∗\mathbb{P}^* 信頼セット推定量はどうなりますか?信頼度セット推定量を再現できます。してみましょう δ:ΩY→2Θδ:ΩY→2Θ\delta:\Omega_Y \rightarrow 2^\Thetaセットの推定、可能ΩYΩY\Omega_Yサンプルスペースとである2Θ2Θ2^\Thetaパラメータ空間での電力セットΘΘ\Theta。私たちが知りたいのは、\ deltaによって生成されたセットδδ\deltaが真の分布\ mathbb {P} ^ *を含むイベントの確率P∗P∗\mathbb{P}^*、つまりP∗(P∗∈{Pθ:θ∈δ(Y)}):=A.P∗(P∗∈{Pθ:θ∈δ(Y)}):=A.\mathbb{P}^*(\mathbb{P}^* \in \{P_\theta : \theta \in \delta(Y)\}):=A. ただし、実際の分布\ mathbb {P} ^ *はわかりませんP∗P∗\mathbb{P}^*。正しく指定された仮定は、P∗∈MP∗∈M\mathbb{P}^* \in \mathcal{M}ます。ただし、モデルのどの分布であるかはまだわかりません。ただし、infθ∈ΘPθ(θ∈δ(Y)):=Binfθ∈ΘPθ(θ∈δ(Y)):=B\inf_{\theta \in \Theta} \mathbb{P}_\theta(\theta \in \delta(Y)):=Bは確率Aの下限ですAAA。方程式BBBは、信頼セット推定量の信頼レベルの古典的な定義です。 正しく指定された仮定を破棄する場合、BBBは必ずしもAの下限ではなく、AAA実際に関心のある用語は、もはやです。確かに、モデルの指定が間違っていると仮定すると、ほとんどの現実的な状況では間違いなくAAAは0です。これは、真の分布P∗P∗P^*が統計モデル\ mathcal {M}に含まれていないためMM\mathcal{M}です。 別の観点から、モデルが誤って指定されている場合にBが何にBBB関連するかを考えることができます。これはより具体的な質問です。モデルの指定が間違っている場合、Bにはまだ意味がありますか。BBBそうでない場合、なぜパラメトリック統計に悩まされるのでしょうか? White 1982には、これらの問題に関するいくつかの結果が含まれていると思います。残念なことに、数学的な背景がないため、そこに書かれていることをあまり理解できません。

4
サンプルサイズが非常に大きい場合の信頼区間
私の質問は、特に雑誌の出版物については、「ビッグデータを使用してサンプリングエラーを評価する方法」と言い換えることができます。課題を説明するための例を次に示します。 非常に大規模なデータセット(100を超える病院の100,000を超える一意の患者と処方薬)から、特定の薬を服用している患者の割合を推定することに興味がありました。この比率を取得するのは簡単です。nは非常に大きいため、その信頼区間(パラメトリックまたはブートストラップなど)は非常にタイト/ナローです。サンプルサイズが大きいことは幸運ですが、エラー確率のいくつかの形式を評価、提示、および/または視覚化する方法を探しています。信頼区間(例:95%CI:.65878-.65881)を入力/視覚化することは(誤解を招くものではないにしても)役に立たないように見えますが、不確実性に関するいくつかの陳述を避けることも不可能と思われます。 ご意見をお聞かせください。このトピックに関する文献をいただければ幸いです。サンプルサイズが大きい場合でも、データの過剰な信頼を回避する方法。

1
QQラインの信頼帯
この質問は特にに関係するものRではありませんがR、説明のために使用することにしました。 (通常の)qqラインの周りに信頼帯を生成するコードを考えます。 library(car) library(MASS) b0<-lm(deaths~.,data=road) qqPlot(b0$resid,pch=16,line="robust") 私はこれらの信頼帯がどのように構築されるかの説明(または代替の紙/オンライン文書へのリンク)を探しています(RのヘルプファイルでFox 2002への参照を見ましたが、悲しいことに私はこれを持っていません便利な本)。 私の質問は例を使用してより正確になります。Rこれらの特定のCIの計算方法は次のとおりです(で使用するコードを短縮/簡略化しましたcar::qqPlot)。 x<-b0$resid good<-!is.na(x) ord<-order(x[good]) ord.x<-x[good][ord] n<-length(ord.x) P<-ppoints(n) z<-qnorm(P) plot(z,ord.x,type="n") coef<-coef(rlm(ord.x~z)) a<-coef[1] b<-coef[2] abline(a,b,col="red",lwd=2) conf<-0.95 zz<-qnorm(1-(1-conf)/2) SE<-(b/dnorm(z))*sqrt(P*(1-P)/n) #[WHY?] fit.value<-a+b*z upper<-fit.value+zz*SE lower<-fit.value-zz*SE lines(z,upper,lty=2,lwd=2,col="red") lines(z,lower,lty=2,lwd=2,col="red") 問題は、これらのSEを計算するために使用される式の正当化とは何ですか(例:line SE<-(b/dnorm(z))*sqrt(P*(1-P)/n))。 FWIWこの式は、線形回帰で使用される通常の信頼帯の式とは大きく異なります

4
ベイズ確率の観点から、95%の信頼区間に95%の確率で真のパラメーターが含まれないのはなぜですか?
信頼区間に関するウィキペディアのページから: ...信頼区間が、繰り返される(および場合によっては異なる)実験の多くの個別のデータ分析にわたって構築される場合、パラメーターの真の値を含むそのような区間の割合は、信頼レベルと一致します... そして同じページから: 信頼区間は、実際に取得されたデータが与えられた場合、パラメーターの真の値が信頼区間に入る特定の確率を持っているとは予測しません。 私がそれを正しく理解していれば、この最後の声明は、確率の頻繁な解釈を念頭に置いて作られています。しかし、ベイズ確率の観点から、95%の信頼区間に95%の確率で真のパラメーターが含まれないのはなぜですか?そうでない場合、次の推論の何が問題になっていますか? 95%の確率で正解を生成することがわかっているプロセスがある場合、次の解答が正しい確率は0.95です(プロセスに関する追加情報がない場合)。同様に、95%の時間で真のパラメーターを含むプロセスによって作成された信頼区間を誰かが表示した場合、知っていることを考えると、0.95の確率で真のパラメーターが含まれていると言ってはいけませんか? この質問は似ていますが、同じではありません。95%CIが95%の平均を含む可能性を意味しないのはなぜですか?その質問に対する答えは、95%CIが95%の頻度で頻繁に見られる平均を含む可能性を暗示しない理由に焦点を合わせています。私の質問は同じですが、ベイジアン確率の観点からです。

3
GAMモデルの信頼区間
mgcv::gamのヘルプページを読む: 信頼モデル/信頼区間は、適合モデルを使用して予測された数量に対して容易に利用可能です ただし、実際に取得する方法はわかりません。とがあると思ったのですpredict.gamが、type=confidenceありlevelません。作成方法を教えてください。

1
継続期間の予測誤差(信頼区間)を計算する方法は?
毎月の一連のデータで将来の期間を予測する必要があることがよくあります。 時系列の次の期間のアルファでの信頼区間を計算するための数式を使用できますが、これには2番目の期間や3番目の期間などの処理方法が含まれることはありません。 予測が高信頼区間と低信頼区間でグラフ化された場合、不確実性は累積力であるため、一般にこれらの区間は平均予測に対して指数関数的に増加または減少するはずだと視覚的に想像します。 たとえば、4月= 5月10日= 6月8日= 7月11日= 13のユニット販売があり、季節性や人口データなどの他のコンテキストはなかったとします。 8月、9月、10月に(やみくもに)予測する必要があります。 どの方法を使用しますか?さらに重要なことですが、9月と10月の自信をどのように測定しますか? これは一部の専門家にとっては単純な質問かもしれないことを申し訳ありません-私は明確な答えをずっと探していましたが、これは私のようなすべてのアマチュアが理解したいものだと確信しています。

2
混合効果モデルからの予測値の周りの信頼区間はどういう意味ですか?
このページを見ていましたRのlmeとlmerの信頼区間のメソッドに注目しました。Rを知らない人にとっては、混合効果またはマルチレベルモデルを生成するための関数です。反復測定デザインのようなものに固定効果がある場合、予測値(平均と同様)の周りの信頼区間はどういう意味ですか?効果のために合理的な信頼区間を設定できることは理解できますが、そのような設計で予測された平均値の周りの信頼区間は不可能に思えます。ランダム変数が推定値の不確実性に寄与するという事実を認識することは非常に大きい可能性がありますが、その場合、値全体を比較する推論的な意味ではまったく役に立ちません。または、 ここに何か欠けているのか、状況の分析が正しいのか?... [そしておそらく、それがlmerで実装されていない理由の正当化(しかしSASで簡単に取得できる)。:)]

3
比率間の差の信頼区間
2つの比率の差の信頼区間を正しく計算したかどうかを誰かに教えてもらえないかと思っています。 サンプルサイズは34で、そのうち19人が女性、15人が男性です。したがって、比率の差は0.1176471です。 -0.1183872と0.3536814の間の差の95%信頼区間を計算します。信頼区間がゼロを通過するため、差は統計的に有意ではありません。 以下は、Rでの私の作業であり、結果はコメントです。 f <- 19/34 # 0.5588235 m <- 15/34 # 0.4411765 n <- 34 # 34 difference <- f-m # 0.1176471 lower <- difference-1.96*sqrt((f*(1-f))/n+(m*(1-m))/n) # -0.1183872 upper <- difference+1.96*sqrt((f*(1-f))/n+(m*(1-m))/n) # 0.3536814


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.