タグ付けされた質問 「statistical-significance」

統計的有意性とは、このサンプルが引き出された母集団において、真の効果が0(またはいくつかの仮説値)であった場合、サンプルで得られたものよりも極端または極端なテスト統計が発生した確率を指します。

3
2つのデバイスの精度を比較する統計的テスト
麻酔患者の体温を正確に37度に維持するように設計された2つの温度制御デバイスを比較しています。デバイスは、2つのグループを形成する500人の患者に適合しました。グループA(400人の患者)-デバイス1、グループB(100人の患者)-デバイス2。各患者の体温は1時間に1回36時間測定され、2つのグループで18000データポイントが得られました。36時間にわたって患者の体温をより正確に制御するデバイスを決定する必要があります。各時点の中央値を四分位バーで結んだ折れ線グラフを作成しましたが、視覚的には違いがあるようです。統計的差異を証明するためにデータをどのように分析すればよいですか?

2
サンプル外予測を改善しない「重要な変数」-解釈方法は?
多くのユーザーにとって非常に基本的なことだと思います。 線形回帰モデルを使用して、(i)いくつかの説明変数と私の応答変数の関係を調査し、(ii)説明変数を使用して私の応答変数を予測します。 特定の説明変数Xが、私の応答変数に大きな影響を与えているようです。私の応答変数のサンプル外予測の目的でこの説明変数Xの追加値をテストするために、2つのモデルを使用しました:すべての説明変数を使用するモデル(a)とすべての変数を使用するモデル(b)変数Xを除きます。両方のモデルで、サンプル外のパフォーマンスのみを報告します。どちらのモデルもほぼ同じように良好に機能するようです。つまり、説明変数Xを追加しても、サンプル外の予測は改善されません。モデル(a)、つまりすべての説明変数を持つモデルも使用して、説明変数Xが応答変数に大きな影響を与えることを確認しました。 私の質問は今です:この発見をどう解釈するか?直接的な結論は、変数Xは推論モデルを使用して私の応答変数に大きな影響を与えるように見えても、サンプル外の予測を改善しないということです。しかし、私はこの発見をさらに説明するのに苦労しています。これはどのようにして可能であり、この発見の説明は何ですか? 前もって感謝します! 追加情報:「有意に影響する」とは、パラメーター推定の最高95%事後密度間隔に0が含まれないことを意味します(ベイズアプローチを使用したIM)。頻度論的には、これはおおよそ0.05未満のp値を持つことに相当します。私はすべてのモデルパラメーターに拡散(情報のない)事前分布のみを使用しています。私のデータは縦方向の構造を持ち、合計で約7000の観測が含まれています。サンプル外予測では、90%のデータを使用してモデルを適合させ、10%のデータを使用して複数の複製を使用するモデルを評価しました。つまり、トレーニングテストの分割を複数回実行し、最終的に平均パフォーマンスメトリックを報告しました。

1
シャープレシオの有意性のテスト
シャープ比または情報比の重要性をテストする適切な方法は何ですか?シャープレシオはさまざまな株式指数に基づいており、ルックバック期間が変動する場合があります。 私が説明した1つの解決策は、dfをルックバック期間の長さに設定して、スチューデントのt検定を適用するだけです。 以下の懸念のため、私は上記の方法を適用するのをためらっています。 t検定は歪度の影響を受けやすいと思いますが、株式のリターンは一般的にマイナスに歪んでいます。 ログリターンを使用して計算された平均リターンは、単純なリターンを使用して計算された平均リターンよりも小さくなります。これにより、単純なリターンベースのシャープレシオが、ログリターンベースのシャープレシオと比較して有意であると登録される可能性が高くなると思いますが、基本的なアセットリターンは技術的に同じです。 ルックバック期間が短い(つまり、サンプルサイズが小さい)場合は、t検定が適切である可能性がありますが、別の検定を使用するのに適切なしきい値はどれですか。 私の最初の傾きは、学生のt分布の使用を避け、代わりに私がしている非対称パワーディストリビューションに基づいてテストを作成することです読み尖度と歪度のコントロールを可能にし、株式市場のリターンの非常に近い近似値であることが示されているが。 私の2番目の傾向は、ノンパラメトリックテストを調べることですが、それらの使用法の経験が限られているため、どこから始めればよく、どのような落とし穴を避けるべきかわかりません。 私はこの問題を考えすぎていますか、私の懸念は無関係ですか?

1
ブートストラップ有意性検定の2つの方法
ブートストラップを使用して、2つの方法を使用して有意差検定のp値を計算します。 帰無仮説の下でリサンプリングし、元のデータからの結果と少なくとも同じくらい極端な結果をカウントする 対立仮説の下でリサンプリングし、帰無仮説に対応する値と少なくとも元の結果から離れた結果​​をカウントする 最初のアプローチは、p値の定義に従っているため、完全に正しいと思います。2番目についてはよくわかりませんが、通常は非常によく似た結果が得られ、Waldテストを思い出させます。 私は正しいですか?どちらの方法も正しいですか?それらは同じですか(大きなサンプルの場合)? 2つの方法の例(DWinの質問とErikの回答の後に編集): 例1. 2つのサンプルのT検定に似たブートストラップ検定を作成してみましょう。方法1は、1つのサンプルからリサンプリングします(元の2つをプールすることによって取得されます)。方法2では、両方のサンプルから個別にリサンプリングします。 例2.x₁…xₐとy₁…yₐ間の相関のブートストラップテストを作成してみましょう。方法1は、相関がないと仮定し、(xₑ、yₔ)ペアを考慮してリサンプリングします。ここでe≠əです。方法2は、元の(x、y)ペアのブートストラップサンプルをコンパイルします。 例3.コインが公正かどうかを確認するブートストラップテストを作成してみましょう。方法1では、Pr(head)= Pr(tail)=½を設定してランダムサンプルを作成します。方法2は、実験的なヘッド/テール値のサンプルをリサンプリングし、比率をtoと比較します。

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
Rのフィッシャーテスト
次のデータセットがあるとします。 Men Women Dieting 10 30 Non-dieting 5 60 私がフィッシャーの正確検定をRで実行する場合、何をalternative = greater(またはそれ以下)意味しますか?例えば: mat = matrix(c(10,5,30,60), 2,2) fisher.test(mat, alternative="greater") 私が得るp-value = 0.01588とodds ratio = 3.943534。また、次のように分割表の行を反転すると、 mat = matrix(c(5,10,60,30), 2, 2) fisher.test(mat, alternative="greater") その後、私が得るp-value = 0.9967とodds ratio = 0.2535796。しかし、代替引数なしで2つの分割表(つまり、fisher.test(mat))を実行すると、が得られますp-value = 0.02063。 その理由を教えていただけませんか。 また、上記の場合の帰無仮説と対立仮説は何ですか? 次のような分割表でフィッシャーテストを実行できますか? mat = matrix(c(5000,10000,69999,39999), 2, 2) PS:私は統計学者ではありません。私はあなたの助け(簡単な英語での回答)が高く評価されるように統計を学ぼうとしています。

3
従属変数との相関が低い独立変数は有意な予測因子になることができますか?
8つの独立変数と1つの従属変数があります。私は相関行列を実行しましたが、そのうちの5つはDVとの相関が低くなっています。次に、段階的多重回帰を実行して、IVの一部またはすべてがDVを予測できるかどうかを確認しました。回帰は、2つのIVだけがDVを予測できることを示し(ただし、分散の約20%しか説明できない)、SPSSはモデルから残りを削除しました。私の監督者は、相関の強さが原因で、回帰モデルでより多くの予測子を見つけるべきだったため、回帰を正しく実行していないと考えています。しかし、相関関係は小さかったので、私の質問は次のとおりです。IVとDVがほとんど相関しない場合でも、IVは依然としてDVの優れた予測因子になり得ますか?

4
2つの相関関係が大幅に異なるかどうかを判断するにはどうすればよいですか?
2つのデータセット(B1、B2)のどちらが別のセット(A)とより適切に相関している(ピアソンr)かを判断します。すべてのデータセットに欠落データがあります。結果の相関が大幅に異なるかどうかをどのように判断できますか? たとえば、8426の値はAとB1の両方に存在し、r = 0.74です。8798はAとB2の両方に存在し、r = 0.72です。 この質問は役立つかもしれないと思いましたが、答えはありません:あるシステムが別のシステムよりもはるかに優れていることを知る方法は?

1
オリンピック-ハンガリーは2桁の金でリードしていますか?(人口相対)
Thompson Reutersからのオリンピックメダルのライブ結果とCIAからの世界中の人口カウントを取り込むWebページを作成しました。 結果は私にとって興味深いものです。ハンガリーは、世界の他の国々で金メダルを2桁リードしています。また、米国と中国はほぼすべてのカテゴリで最下位にあります。 私の質問は-私はデータを公平に提示していますか?私は単に最大の人口を採用し、それに基づいて各国の要素を作成しました。 相対的なメダル数の列は、その要素に基づいています。 どの列を追加できますか?最も公平な見解を提示するために他にどのような要素を追加できますか?絶対的な見方は簡単です-ロイターはそれを行います。公正な見解を作成する方法は? https://rack.pub/rio

4
2つの製品を区別する統計テストを開発する
顧客調査からのデータセットがあります。製品1と製品2の間に有意差があるかどうかを確認するために統計テストを展開したいと思います。 これは、顧客のレビューのデータセットです。 料金は非常に悪い、悪い、いい、良い、とても良いからです。 customer product1 product2 1 very good very bad 2 good bad 3 okay bad 4 very good okay 5 bad very good 6 okay good 7 bad okay 8 very good very bad 9 good good 10 good very good 11 okay okay 12 very good good …

1
「帰無仮説統計検定」と他の検定の違いは何ですか?
最近の話題の話題は、ジャーナルに投稿された記事からの「帰無仮説統計検定手順(NHSTP)」の使用を禁止するジャーナルに関するものです。一部の作家はこの用語を使用していますが、彼らがどのような区別をしようとしているのか理解できません。NHSTPは、「仮説の検定」または「有意性検定」とは異なるものですか?

1
投げ縄モデルから除外または含まれている変数を解釈するにはどうすればよいですか?
他の投稿から、ラッソーモデルに入る予測変数に「重要度」または「重要度」を帰属させることはできないと述べました。これらの変数のp値または標準偏差の計算はまだ進行中であるためです。 その推論の下で、投げ縄モデルから除外された変数は「無関係」または「重要ではない」とは言えないと断言するのは正しいですか? もしそうなら、ラッソーモデルに除外または含まれている変数について実際に何を主張できますか?私の特定のケースでは、ランダム値を減らし、エラー曲線を平均化するために、10倍の交差検証を100回繰り返すことにより、調整パラメーターlambdaを選択しました。 UPDATE1:以下の提案に従い、ブートストラップサンプルを使用して投げ縄を再実行しました。100個のサンプルを試してみました(その量は私のコンピューターの電源で一晩で管理できる量でした)と、いくつかのパターンが現れました。41の変数のうち2つがモデルに95%以上入り、3つの変数が90%を超え、5つの変数が85%を超えました。これらの5つの変数は、元のサンプルで実行したときにモデルに入力された9つの変数の1つであり、そのとき係数値が最も高かったものです。1000のブートストラップサンプルを使用してLassoを実行し、それらのパターンが維持されている場合、私の結果を提示する最良の方法は何ですか? 1000のブートストラップサンプルで十分ですか?(私のサンプルサイズは116です) すべての変数とそれらがモデルに入力される頻度をリストし、より頻繁に入力される変数が有意である可能性が高いと主張する必要がありますか? それは私の主張でできる限りですか?仕掛品ですので(上記参照)カットオフ値は使えませんよね? UPDATE2:以下の提案に従って、私は以下を計算しました。平均して、元のモデルの変数の78%が100のブートストラップサンプルに対して生成されたモデルに入りました。一方、その逆では41%に過ぎません。これは、ブートストラップサンプル用に生成されたモデルには、元のモデル(9)よりもはるかに多くの変数(平均17)が含まれる傾向があるという事実に大きく関係しています。 UPDATE3:ブートストラップとモンテカルロシミュレーションから得た結果の解釈を手伝っていただけるなら、この他の投稿をご覧ください。

2
重要でない効果の周りの狭い信頼区間は、帰無の証拠を提供できますか?
nullを拒否できないということは、nullが真であることを意味すると仮定するのは明らかに誤りです。しかし、ヌルが拒否されず、対応する信頼区間(CI)が狭く、0を中心とする場合、これはヌルの証拠を提供しませんか? 私は2つの考えを持っています:はい、実際にはこれは効果が多かれ少なかれ0であるという証拠を提供します。しかし、厳密な仮説テストフレームワークでは、null効果は対応するCIと同様に、推論には単に使用できないようです。では、ポイントの推定値が重要でない場合のCIの意味は何ですか?また、推論には使用できませんか、それとも、前の例のようにnullの証拠を定量化するために使用できますか? 学術的参考文献を含む回答は推奨されます。

1
観測されたイベントと期待されたイベントを比較する方法は?
4つの可能なイベントの頻度の1つのサンプルがあるとします。 Event1 - 5 E2 - 1 E3 - 0 E4 - 12 そして、私は自分のイベントの発生が予想される確率を持っています: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 4つのイベントの観測頻度の合計(18)を使用して、イベントの予想頻度を計算できますか? expectedE1 - 18 * 0.2 = 3.6 expectedE2 - 18 * 0.1 = 1.8 expectedE1 - 18 * 0.1 = 1.8 expectedE1 - …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

1
統計的有意性を定量化する方法は?
私は統計学に比較的慣れていないので、私の質問は完全に誤解されているかもしれません。私は自分のアルゴリズムを他のものと比較してテストしています。出力は同一ではありませんが、違いが「統計的に取るに足らない」ことを示したいと思います。私の主張をするために、これをどのように定量化できますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.