タグ付けされた質問 「hypothesis-testing」

仮説検定では、データがランダムな変動の影響ではなく、特定の仮説と矛盾しているかどうかを評価します。

3
サブグループの平均がサブグループを含むグループ全体と異なるかどうかをテストする方法は?
サブグループ(たとえば、死亡した人)の平均(たとえば、血圧)がグループ全体(たとえば、死亡した人を含めて病気にかかった人すべて)と異なるかどうかをどのようにテストできますか? 明らかに、最初のものは2番目のもののサブグループです。 どの仮説検定を使用すればよいですか?

2
混合モデルのパラメトリック、セミパラメトリック、ノンパラメトリックブートストラップ
以下の移植片は、この記事から引用したものです。私はブートストラップの初心者であり、R bootパッケージを使用した線形混合モデルのパラメトリック、セミパラメトリック、ノンパラメトリックのブートストラップブートストラップを実装しようとしています。 Rコード これが私のRコードです: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn <- function(data, indices){ data <- data[indices, ] mod <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=data) fixef(mod) } set.seed(12345) Out <- boot(data=Cultivation, statistic=boot.fn, R=99) Out ご質問 …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 

4
正規分布確率変数の比率の有意差をテストします
関連する変数の比率分析とどのように2つの正規分布の変数の比をパラメータ化するために、または1つの逆?。 4つの異なる連続ランダム分布からのサンプルがいくつかあるとします。これらのサンプルはすべてほぼ正常であると想定できます。私の場合、これらは暗号化ありと暗号化なしの2つの異なるファイルシステム(たとえば、ext4とXFS)のいくつかのパフォーマンスメトリックに対応しています。このメトリックは、たとえば、1秒あたりに作成されたファイルの数や、一部のファイル操作の平均待機時間などです。これらの分布から抽出されたすべてのサンプルは常に厳密に正であると想定できます。レッツコールこれらの分布ここで、F S Tパフォーマンスfs t yp e 、e n c r yp t i o nPerffstype,encryption\textrm{Perf}_{fstype,encryption}及び E N C RのY軸のP T iがO 、N ∈ { C 、R 、Y 、P 、T 、O 、N 、O 、C 、R 、Y 、P T O }。fs t yp個のE ∈ { XのFs 、e x t 4 }fstype∈{xfs,ext4}fstype …

3
「家族ごとの誤り率に関して」「仮説のファミリー」の明確で実用的な定義は何でしょうか?
実験/プロジェクト/分析内で仮説のファミリーを構成するものを評価しようとしたとき、ファミリーを区切るためのガイドラインとして「目的が類似」および「内容が類似」であることがわかりましたが、これらは解釈にかなりの余地を残しています(控えめに言っても)。 分析の過程で、グループ平均のいくつかのテストと比率の均一性のテストの別のバッチを実行する場合、すべてを1つの仮説のファミリーにまとめないことは明らかです。 ただし、グループ平均のいくぶん関連性の高いテストのバッチがいくつかある場合、どの基準がそれらを1つのファミリにまとめるか(またはそれらを別々のファミリに分割するか)?家族のすべてのメンバーが同じ応答変数を持つ必要がありますか?異なる応答変数が含まれていても、同じケースセットが含まれている場合、それらすべてが一連の仮説にまとめられますか?

5
非公式/視覚的な「複数比較」に複数比較の修正は必要ですか?
多重比較の修正がいつ必要かについて、一種の哲学的な質問があります。 連続した時間変化信号を(離散時間点で)測定しています。個別のイベントが時々発生し、これらのイベントが測定された信号に大きな影響を与えるかどうかを確認したいと思います。 したがって、イベントに続く平均信号を取得でき、通常、特定のピークでいくつかの効果を確認できます。そのピークの時間を選択し、t検定でイベントが発生していない場合と有意であるかを判断する場合、多重比較補正を行う必要がありますか? 私はこれまで1つのt検定(計算された1の値)しか実行しませんでしたが、最初の目視検査で、プロットした(たとえば)15の異なるポスト遅延時間ポイントから最大の潜在的効果を持つものを選択しました。では、これまでに実行したことがない15のテストに対して、複数の比較修正を行う必要がありますか? 目視検査を使用せずに、各イベントラグでテストを実行して最も高いものを選択した場合、間違いなく修正する必要があります。テスト自体以外の基準(たとえば、視覚的な選択、最高の平均など)によって「最良の遅延」の選択が行われるかどうかについて、私は少し混乱しています。


2
グループ間の(いくつかの)分位Qの違いをテストしていますか?
3つのグループ(X)に分割されているいくつかのY変数について、グループを比較し、90%の変位値が3つのグループすべてで同じであるという仮説を立てます。どのようなテストを使用できますか? 私が考えることができる1つのオプションは、分位回帰を使用することですが、他の選択肢/アプローチはありますか? 中央値を比較したい場合は、クラスカルウォリス検定を使用できたと思います(ランクに基づいていますが、正しく覚えていれば、残差分布が対称である場合に同じ結果が得られます)。 ありがとう。

1
条件付き不等分散性を持つ線形モデルの推論
独立変数ベクトルとおよび従属変数を観察するとします。次の形式のモデルに適合させたい: ここでは正の値の2階微分可能関数、は未知のスケーリングパラメーター、はゼロ平均の単位分散ガウス確率変数(から独立していると仮定)および)。これは本質的に、(少なくとも私が理解している限り)Koenkerの異分散性のテストの設定です。x⃗ x→\vec{x}z⃗ z→\vec{z}yyyy=x⃗ ⊤β1→+σg(z⃗ ⊤β2→)ϵ,y=x→⊤β1→+σg(z→⊤β2→)ϵ,y = \vec{x}^{\top}\vec{\beta_1} + \sigma g\left(\vec{z}^{\top} \vec{\beta_2}\right) \epsilon,gggσσ\sigmaϵϵ\epsilonx⃗ x→\vec{x}z⃗ z→\vec{z} 私はの観測値のと、およびIは推定したいと。ただし、いくつか問題があります。nnnx⃗ ,z⃗ x→,z→\vec{x}, \vec{z}yyyβ1→β1→\vec{\beta_1}β2→β2→\vec{\beta_2} 推定問題を最小二乗法のようなものとしてどのように提起するかはわかりません(よく知られたトリックがあると思います)。最初の推測は、 しかし私はそれを数値的に解決する方法がわからない(おそらく、準ニュートン反復法で解決できるかもしれません)。minβ1→,β2→⎛⎝⎜⎜⎜⎜∑i=1n(yi−xi→⊤β1→)2g(zi→⊤β2→)2⎞⎠⎟⎟⎟⎟⎛⎝⎜⎜⎜⎜∑i=1n1g(zi→⊤β2→)2⎞⎠⎟⎟⎟⎟−1,minβ1→,β2→(∑i=1n(yi−xi→⊤β1→)2g(zi→⊤β2→)2)(∑i=1n1g(zi→⊤β2→)2)−1,min_{\vec{\beta_1}, \vec{\beta_2}} \left(\sum_{i=1}^n \frac{\left(y_i - \vec{x_i}^{\top}\vec{\beta_1}\right)^2}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)\left(\sum_{i=1}^n \frac{1}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)^{-1}, 私が問題をまともな方法で提起し、推定値を見つけることができると仮定すると、たとえば、仮説検定を実行できるように、推定値の分布を知りたいと思います。私は別に2つの係数ベクトルをテストするといいと思いますが、テストにいくつかの方法を好むだろう、例えば所与のため。β^1,β^2β^1,β^2\hat{\beta}_1, \hat{\beta}_2 H0:w1→⊤β1→+w2→⊤β2→≤cH0:w1→⊤β1→+w2→⊤β2→≤cH_0: \vec{w_1}^{\top} \vec{\beta_1} + \vec{w_2}^{\top} \vec{\beta_2} \le cw1→,w2→,cw1→,w2→,c\vec{w_1}, \vec{w_2}, c

4
2 X 3テーブルで複数の事後カイ2乗検定を実行する方法
私のデータセットは、沿岸、ミッドチャネル、オフショアの3つのサイトタイプでの生物の全死亡率または生存率で構成されています。下の表の数字は、サイトの数を表しています。 100% Mortality 100% Survival Inshore 30 31 Midchannel 10 20 Offshore 1 10 100%の死亡率が発生したサイトの数がサイトのタイプに基づいて重要かどうかを知りたいです。2 x 3カイ2乗を実行すると、重要な結果が得られます。実行できる事後的なペアワイズ比較はありますか、または実際にロジスティックANOVAまたは二項分布の回帰を使用する必要がありますか?ありがとう!

1
代替案とロジスティック回帰の間の実際的な&解釈の違いは何ですか?
Rのロジスティック回帰の代替案に関する最近の質問は、randomForest、gbm、rpart、bayesglm、および一般化された加法モデルを含むさまざまな回答をもたらしました。これらの方法とロジスティック回帰の実際的および解釈上の違いは何ですか?彼らはロジスティック回帰に関連してどのような仮定をしますか(しませんか)?仮説検定に適していますか?等。

2
データのROC曲線を計算する
そのため、ハミング距離を使用して生体認証特性から個人を認証しようとしている16のトライアルがあります。しきい値は3.5に設定されています。私のデータは以下であり、トライアル1のみが真陽性です。 Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 私の混乱のポイントは、このデータからROC曲線(FPR対TPR OR FAR対FRR)を作成する方法が本当にわからないということです。どちらでもかまいませんが、どうやって計算するのか混乱しています。任意の助けいただければ幸いです。
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
線形モデルの勾配が固定値に等しいかどうかをテストする方法は?
単純な線形回帰モデルあり、帰無仮説を一般的な代替案に対してテストしたいとします。H 0:a = b = 1Z= a X+ b YZ=aX+bYZ = aX + bYH0:a = b = 12H0:a=b=12H_0: a=b=\frac{1}{2} との推定値を使用し、さらに検定を適用しての信頼区間を取得できると思います。これでよろしいですか?SE()Z1a^a^\hat{a}SE(a^)SE(a^)SE(\hat{a})ZZZ1212\frac{1}{2} 他の質問はこれに強く関連しています。サンプルあり、統計を計算するとしますχ 2{ (x1、Y1、z1)、… 、(xん、Yん、zん)}{(x1,y1,z1),…,(xn,yn,zn)}\{(x_1,y_1,z_1),\ldots ,(x_n,y_n,z_n) \}χ2χ2\chi^2 Σi = 1ん(z私− x私+ y私2)2バツ私+ y私2。∑i=1n(zi−xi+yi2)2xi+yi2.\begin{equation} \sum_{i=1}^n \frac{(z_i-\frac{x_i+y_i}{2})^2}{\frac{x_i+y_i}{2}}. \end{equation} これらの統計を使用して、同じ帰無仮説をテストできますか?

2
2つの遺伝的アルゴリズムの比較
同等に動作するはずの遺伝的アルゴリズムの実装が2つあります。ただし、解決できない技術的な制限により、同じ入力が与えられた場合、それらの出力はまったく同じではありません。 それでも、パフォーマンスに大きな違いはないことを示したいと思います。 異なる初期乱数シードを使用して、2つのアルゴリズムのそれぞれに対して同じ構成で20回実行します。各実行のためにと生成誤差最小 人口の最良の個体の適応度を記録しました。アルゴリズムはエリート保持メカニズムを採用しているため、最高の個人の適合度は単調に減少しています。実行は1000世代で構成されるため、実行ごとに1000個の値があります。計算に非常に費用がかかるため、これ以上データを取得できません。 どのテストを採用すべきですか?簡単な方法は、おそらく最終世代のエラーのみを比較することでしょう(ここでも、ここでどのテストを使用しますか?)しかし、一般的に収束動作を比較することも考えられます。

2
多重比較問題の原因は何ですか?
MCPの背後にある直感は理解していますが、原因を正確に特定するのに苦労しています。回避すべきこと、または少なくとも説明する必要があることは何ですか。 最も率直な定義で、私はデータを取り、可能なすべての帰無仮説を試してそれに力ずくのアプローチを適用すると、最終的に任意のアルファ(たとえば、5%)で拒否できるものを見つけ、宣言することに同意します発見。 しかし、MCPの多くの定義では、「テストすればするほど、見つかる可能性が高い」などと読みましたが、私は同意しますが、必ずしもそれを問題(または少なくとも問題の根本)とは限りません。たとえば、多くの研究者が同じ現象を同じ利用可能なデータで分析していて、それぞれが独自の仮説を検証している場合、(たった1人の研究者である場合よりも)発見に到達する可能性が高くなります。ターゲットアルファへのある種の補正(たとえば、Bonferroni補正)?私は答えがノーであると仮定していますが、単一の研究者が多くの仮説をテストする必要がある理由が明確になりません(ここでも、テストシステムが悪用される可能性があり、そのための修正があるはずです)。 発見を見つける機会の増加(帰無仮説を拒否)が問題になるのはいつですか?原因について考えるとき、頭に浮かぶいくつかの要因がありますが、これらのうちのどれ(またはここにリストされていないもの)がこの問題の原因に関連しているかはわかりません。 事後分析:仮説は(できれば)アプリオリに定式化する必要があることを理解しています。そうでない場合は、希望のアルファの下でどの仮説を当てはめることができるかを推測するためのデータを調べています。 データの再利用:テストする仮説ごとに異なるデータセットを使用すれば、問題はなくなりましたか?発見を発見する可能性は、私がテストする仮説をさらに増やします(たとえ異なるデータセットであっても)。 独立した研究者:前の例を再利用して、MCPは同じ研究チーム/努力に関連していますか?それとも、同じ問題(または同じまたは類似のデータ)に取り組む複数の独立した研究者に適用されますか? 独立した仮説:前の問題に関連して、仮説が独立しているときに問題が発生しますか(またはより強く現れますか)?(私はより多くの検索スペースをカバーしているため)または主な問題は、小さな変動(たとえば、パラメーターの微調整)で同様の仮説を試すことですか? 上記のポイントを私の解釈で要約すると、(1)と(2)は、発見を見つけやすくするために、検索スペースを削減する(最適化理論から用語を借用する)形です。(3)および(4)それらが適用されるたびに(すなわち、仮説がテストされるたびに)この探索空間のより多くをカバーするより直交する探索法を使用する。しかし、これらは私が思いつく可能性のある考えられる原因のほんの一部であり、答えを始めるのを助けるために、私が確信していない多くがまだあります。 この質問は、多重比較が問題である理由を尋ねる以前の質問からのフォローアップであり、FWERとFDRの違いに似た問題を引き起こします(質問を正しく理解している場合)。この質問では、(FDRを使用する傾向がありますが)問題としては考慮していませんが、両方の率は、複数の仮説を分析するときに問題があることを意味します(ただし、次の場合の違いはわかりません)私はさまざまな無関係な問題を分析し、それぞれ5%の有意性を持つ発見を見つけました。つまり、帰無仮説を拒否する100の問題を「解決」した場合、そのうちの5つ-期待値-はおそらく間違っているでしょう)。その質問への最良の答え 明確な答えはなく、おそらくこの質問に対する答えもない可能性があることを示唆しましたが、MCPエラーの原因がどこにあるのかを可能な限り解明することは(少なくとも私にとっては)非常に役立ちますから来る。 (同じ質問に対する別の回答は、古典的な視点に対するベイジアンマルチレベルモデルの視点の利点を説明する論文を提案しました。これは調査する価値のある別の興味深いアプローチですが、この質問の範囲は古典的なフレームワークです。) この問題について、いくつかの質問に、多くの価値があるの読み取りが既に存在する(例えば、1、2、3、4)の問題は、上記の提起が、(それも可能であれば)、私はまだより統一答えを感じる(異なる視点からの)アドレス不足しているため、この質問は(すでに問題のある)SNRを低下させないことを願っています。

3
仮説検定。サンプリング分布をH0に集中させるのはなぜですか?
p値は、帰無仮説()が真であると仮定した場合に、サンプルデータで観測された統計と少なくとも同じくらい極端な統計を取得する確率です。H0H0H_0 これは、仮定した場合に取得されるであろうサンプリング分布の下のサンプル統計によって定義された領域にグラフィカルに対応し。H0H0H_0 ただし、この想定される分布の形状は実際にはサンプルデータに基づいているため、を中心とする分布は私には奇妙な選択のように思えます。 代わりに統計の標本分布を使用する場合、つまり標本統計に分布を集中させる場合、仮説検定は標本が与えられた場合のの確率の推定に対応します。μ 0μ0μ0\mu_0μ0μ0\mu_0 その場合、p値は、上記の定義の代わりに、データが与えられたときにと少なくとも同じくらい極端な統計を取得する確率です。μ0μ0\mu_0 さらに、このような解釈には信頼区間の概念によく関連するという利点があります。 有意水準仮説検定は、がサンプリング分布の信頼区間内にあるかどうかを確認することと同等です。μ 0(1 - α )αα\alphaμ0μ0\mu_0(1−α)(1−α)(1-\alpha) したがって、分布をせることは、不必要に複雑になる可能性があると感じています。 私が考慮しなかったこのステップの重要な正当化はありますか?μ0μ0\mu_0

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.