タグ付けされた質問 「statistical-significance」

統計的有意性とは、このサンプルが引き出された母集団において、真の効果が0(またはいくつかの仮説値)であった場合、サンプルで得られたものよりも極端または極端なテスト統計が発生した確率を指します。

3
仮説検定のType-IIエラーがエラーと見なされるのはなぜですか?
仮説検定の決定エラーについて読んでいます。私の質問は、「タイプIIエラー」がなぜエラーと見なされるのかということです。私が理解していることから、それは私たちが偽の帰無仮説を拒否することに失敗したときに発生します。帰無仮説を棄却できない場合、それは単にそれを棄却する強力な証拠がないことを意味します。2つの仮説のどちらが真(または偽)であるかについてはコメントしていません。どちらも真である可能性があります。帰無仮説が正しいと言っているのではありません。したがって、そのような結論がエラーと呼ばれるのはなぜですか?

4
重回帰モデルですべての変数が非常に重要になることは現実的ですか?
エンジンの排気量、燃料の種類、2対4輪駆動、馬力、マニュアルトランスミッションと自動トランスミッション、および速度の数について、燃費を後退させたいと思います。私のデータセット(リンク)には、2012〜2014年の車両が含まれています。 fuelEconomy ガロンあたりのマイル engineDisplacement:エンジンサイズ(リットル) fuelStd:ガス用1、ディーゼル用0 wheelDriveStd:2輪駆動の場合は1、4輪駆動の場合は0 hp:馬力 transStd:自動の場合は1、手動の場合は0 transSpeed:速度の数 Rコード: reg = lm(fuelEconomy ~ engineDisplacement + fuelStd + wheelDriveStd + hp + transStd + transSpeed, data = a) summary(reg) Call: lm(formula = fuelEconomy ~ engineDisplacement + fuelStd + wheelDriveStd + hp + transStd + transSpeed, data = a) Residuals: Min …

1
この質問を統計的に言い換える方法
ゲームのプレイヤーによるn回の試行からの観測を含むデータセットを分析しています。各プレーヤーの試行に関して1つ以上の記述子を指定して各試行の結果を予測する回帰モデルを構築している場合、データセットが与えられた特定の記述子が「意味のある」または「重要な」になる前にプレーヤーが何回試行する必要があるかを測定するにはどうすればよいですか? 良い例はダーツをする人々のグループでしょう。絶対的な初心者は目を閉じ、ダーツを投げ、雄牛の目を打つかもしれません。明らかに、それは純粋なチャンスであり、彼はこれまでにプレーしたことがなく、酔っ払っている可能性さえあることがわかっています。しかし、彼がさらに5本の投げ矢を投げ、その中からさらに3回ブルズアイに当たったとしましょう。彼は6本の投げ矢を投げて、50%の確率でブルズアイに当たりました。今、物事は疑わしくなっています... この真の初心者はどの時点で十分なブルズアイダーツを投げますか、そして彼が他のより経験豊富なプレーヤーよりも真面目な才能を持っていると言えるまでに何回の試行が必要ですか?統計でこの用語は何ですか、それについてどこでもっと知ることができますか? 免責事項:「有意性」や「観察」などの読み込まれた統計用語をできるだけ使用しないようにしましたが、ここでは特定の場所で適切であると感じました。 誰かが私を正しい方向に向けることができれば、それは素晴らしいことです。ありがとう!!

3
SVDを実行して欠損値を代入する方法、具体例
SVDを適用する前に欠損値を処理する方法に関する素晴らしいコメントを読みましたが、簡単な例でどのように機能するか知りたいです。 Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 上記のマトリックスを考えると、NAの値を削除すると、User2とUser5しかなくなります。これは、私のUが2×kになることを意味します。しかし、欠損値を予測する場合、Uは5×kである必要があります。これは、特異値とVで乗算できます。 上記のマトリックスで、最初に欠損値のあるユーザーを削除してからSVDを適用して、欠損値を記入する人はいますか?数学記号を使いすぎずに、適用した手順の非常に簡単な説明を提供し、答えを実用的なものにしてください(つまり、数値に別の数値を掛けると答えが得られます)。 次のリンクを読みました。 stats.stackexchange.com/q/33142 stats.stackexchange.com/q/31096 stats.stackexchange.com/q/33103
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

5
大規模なサンプルで無関係なリグレッサが統計的に有意になるのはなぜですか?
統計的有意性、効果の大きさなどをよりよく理解しようとしています。 大規模なサンプルでは、​​無関係なリグレッサでさえ統計的に有意になることがよくあるという認識があります(おそらく間違っています)。無関係な私回帰は、従属変数に関連しなければならない理由は何の主題の説明がないことを意味します。したがって、この投稿の無関係性は純粋な主題概念であり、統計的概念ではありません。 (ここで説明するように)母集団の影響が正確にゼロでない限り、十分に大きなサンプルが与えられれば、リグレッサは統計的に有意であることを知っています。したがって、大きなサンプルで統計的に有意であると思われる無関係なリグレッサは、母集団でゼロ以外の効果サイズを持っています。 質問: 無関係なリグレッサが統計的に有意であることが判明するのはなぜですか? 主題の説明を探す必要がありますか(つまり、関連性を否定しようとします)、これは統計的な現象ですか? これは、私がこの効果をどのように治すかを明確にしようとしていた投稿の続きです。一方、ここで、なぜそもそもそれが起こるのかを尋ねています。

1
Local Moran's Iのp値が有意である場合、Zスコアを確認する必要がありますか?
私が使用しているデータセットには、エリアごとの収入データが含まれています。次の図に示すように、値は通常は分散されません。Global Moran's Iは有意な空間パターンを示し、Local Moran's Iは有意なホットスポットとコールドスポットを検出します(p値による)。Zスコアを確認すると、コールドスポットが有意なレベルに達していないことがわかります。これは所得の分布に起因するのでしょうか?別にやるべきことはありますか?たぶん、ログ収入を使うのでしょうか? または、p値に問題がない限り(=有意、<0.05)、Zスコアを単に無視できますか? (PySALを使用してグローバルとローカルの両方のモランIを計算します。) これはログ収入のヒストグラムです: 更新: 私は最近、収入値が通常分布している別の国から別の収入データセットを取得しました。このデータセットのローカルモランのI計算では、p値とzスコアの両方に従って、重要なホットスポットとコールドスポットが生じます。

1
R-A / Bテストでのpower.prop.test、prop.test、および等しくないサンプルサイズ
成功の2つの比率の差が統計的に有意であるかどうかを判断しようとしている実験に必要なサンプルサイズを知りたいとしましょう。これが私の現在のプロセスです: 履歴データを見て、ベースライン予測を確立します。過去に、行動を起こすと10%の成功率になり、行動しないと9%の成功率になると言います。これらの結論は統計的に検証されていませんが、比較的大量のデータ(10,000以上の観測)に基づいていると仮定します。 これらの仮定をpower.prop.testにプラグインして、以下を取得します。 power.prop.test(p1=.1,p2=.11,power=.9) Two-sample comparison of proportions power calculation n = 19746.62 p1 = 0.1 p2 = 0.11 sig.level = 0.05 power = 0.9 alternative = two.sided したがって、これは、比率間の有意差を検出するために、A / Bテストの各グループで最大20000のサンプルサイズが必要になることを示しています。 次のステップは、各グループで20,000の観測値を使用して実験を実行することです。グループB(アクションなし)は20,000回の観測のうち2300回の成功を収めていますが、グループA(アクションを実行)は20,000回の観測のうち2200回の成功を収めています。 prop.testを実行する prop.test(c(2300,2100),c(20000,20000)) 2-sample test for equality of proportions with continuity correction data: c(2300, 2100) out of c(20000, 20000) …

2
p値も偽の発見率ですか?
でhttp://surveyanalysis.org/wiki/Multiple_Comparisons_(Post_Hoc_Testing)それは述べて たとえば、p値が0.05であり、それが有意であると結論付けた場合、誤った発見の確率は、定義により、0.05です。 私の質問:私は常に、誤った発見はタイプIのエラーであると常に考えていました。これは、ほとんどのテストで選択された有意水準と同じです。P値は、サンプルから計算された値です。確かに、ウィキペディアは述べています p値は、ネイマンピアソンアプローチの有意水準またはタイプIエラー率[誤検知率] と混同しないでください。 "αα\alpha では、なぜリンクされた記事はタイプIのエラー率がp値によって与えられると主張しているのですか?

2
膨大なデータセットが与えられた場合、なぜ統計モデルは過剰適合しますか?
現在のプロジェクトでは、特定のグループの行動を予測するモデルを構築する必要があるかもしれません。トレーニングデータセットには6つの変数のみが含まれます(idは識別目的のみです)。 id, age, income, gender, job category, monthly spend その中で monthly spend応答変数です。ただし、トレーニングデータセットには約300万行が含まれid, age, income, gender, job category、予測されるデータセット(応答変数は含まれるが、含まれない)には100万行が含まれます。私の質問は、統計モデルにあまりにも多くの行(この場合は300万行)を投げた場合に潜在的な問題はありますか?計算コストが懸念事項の1つであることを理解していますが、他に懸念事項はありますか?データセットのサイズの問題を完全に説明している本/紙はありますか?
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

2
同じデータに適用された異なる統計的検定からのp値を組み合わせる
質問のタイトルは取るに足らないように見えますが、同様のデータセットで同じ統計的検定を適用して、完全帰無仮説(メタ分析)に対して検定するという問題とは異なるという意味では、それほど簡単ではないことを説明したいと思います。たとえば、p値を組み合わせるためにフィッシャーの方法を使用します)。私が探しているのは、2つの異なる統計検定(t検定とu検定など)のp値を組み合わせる方法(存在する場合、および質問が統計的に有効である場合)です。 2つの母集団からの2つのサンプリングの中心を比較するために適用されます。これまでのところ、明確な答えがなくても、ウェブで多くの検索を行ってきました。私が見つけた最良の答えは、David Bickel(http://arxiv.org/pdf/1111.6174.pdf)によるゲーム理論の概念に基づいていました。 非常に単純な解決策は、投票方式です。観測の2つのベクトルとあり、いくつかのtのような統計(t検定、 u-test、one-way ANOVA)は、2つの過酷な分布の中心(平均、中央値など)が有意水準0.05で等しくないという仮説に対して等しいという仮説を検定します。5つのテストを実行するとします。5つのテストのうち3つでp値が0.05未満の場合、null分布を拒否する十分な証拠があると言うのは正当でしょうか?B = [ B 1、B 2、。。。、b n ]A=[a1,a2,...,an]A=[a1,a2,...,an]A=[a_1, a_2, ..., a_n]B=[b1,b2,...,bn]B=[b1,b2,...,bn]B=[b_1, b_2, ..., b_n] 別の解決策は、全確率の法則を使用することでしょうか、これは完全に間違っていますか?たとえば、がnull分布が拒否されるイベントであるとします。次に、3つのテスト、、(つまり、、可能な値はなります、ここでは、null分布がテストし。T 1 T 2 T 3 P (T 1)= P (T 2)= P (T 3)= 1 / 3 P (A )P (A )= P (A | T 1)P (T 1)+ P …

2
nが増加すると、t値は仮説検定で増加しますが、tテーブルは正反対です。どうして?
以下のための式仮説検定では、次式で与えられる。 T = ˉ X - μtttt = X¯- μσ^/ n−−√。t=バツ¯−μσ^/ん。 t=\frac{\bar{X}-\mu}{\hat \sigma/\sqrt{n}}. 場合が増加すると、T上記式に従って-value増加します。しかし、なぜdf(nの関数)が増加すると、tテーブルの臨界t値が減少するのでしょうか。んんntttttttttdfdf\text{df}んんn

3
分布が正規でない場合に2つの分布の分散が異なるかどうかをテストする方法
同じ種の地理的に隔離された2つの個体群を調べています。分布を調べると、両方が二峰性であることがわかります(発生にはある程度の季節性があります)が、1つの母集団のピークははるかに高く、非常に狭い(つまり、局所的なピークの分散は小さい)。 これらの違いが有意かどうかを判断するには、どのような統計的検定が適切でしょうか? 明確にするために、私のy軸は特定の日にトラップで識別された個人の数であり、x軸はユリウス日です。

2
特徴の選択と分類において、3つのデータセット全体で2つのアルゴリズムを統計的に比較する方法は?
問題の背景:私の研究の一環として、データセット(がん患者の遺伝子発現データ)から特徴のセットを選択できる2つのアルゴリズムを作成しました。次に、これらの機能をテストして、見えないサンプルをどれだけ癌または非癌として分類できるかを確認します。アルゴリズムの実行ごとに、ソリューション(一連の機能)が生成され、Z個の非表示サンプルでテストされます。ソリューションのパーセンテージ精度は、次のように計算されます(correct classifications / Z) * 100。 アルゴリズムは2つあります:アルゴリズムXとアルゴリズムY データセットA、データセットB、データセットCの3つの別々の(異なる癌)データセットがあります。これらのデータセットは互いに非常に異なります。サンプルごとに同じ数のサンプルや同じ数の測定(機能)はありません。 各データセットで各アルゴリズムを10回実行しました。したがって、アルゴリズムXには、データセットAから10件、データセットBから10件、データセットCから10件の結果があります。全体として、アルゴリズムXには30件の結果があります。 私の問題: 3つすべてのデータセットにわたるアルゴリズムXの合計パフォーマンスが、アルゴリズムYの合計パフォーマンスと統計的に有意に異なるかどうかを確認したいと思います。 各データセットのアルゴリズムXの結果を単一の結果セットに結合することは可能ですか?このようにして、アルゴリズムXの30の標準化された結果とアルゴリズムYの30の標準化された結果を取得します。t検定を使用して、2つの方法の間に有意差があるかどうかを確認できます。 編集-これらは進化的アルゴリズムであるため、実行するたびに少し異なるソリューションを返します。ただし、存在する場合にサンプルを癌または非癌のいずれかに強く分類できるサンプルの機能がある場合、アルゴリズムが実行されるたびにその機能が選択されます。 私が得る少し以下の理由により10回ごとに異なる結果を: これらのアルゴリズムはランダムにシードされます。 私は繰り返しランダムサブサンプリング検証を使用します(10回の繰り返し)。 私が使用しているデータセット(DNAマイクロアレイとプロテオミクス)は、アルゴリズムが行き詰まる可能性のある多くの局所最適値があるという意味で操作するのが非常に困難です。 検出したい機能間およびサブセット間の相互作用がたくさんあります。 私は50の染色体を訓練し、それらは特定の長さに制限されていません。それらは自由に成長したり収縮したりします(ただし、選択圧によって長さが短くなります)。これはまた、最終結果にいくつかのバリエーションをもたらします。 そうは言っても、アルゴリズムはほとんど常に機能の特定のサブセットを選択します! これが私の結果のサンプルです(ここでは、アルゴリズムごとに10のうち4つだけが示されています)。 データセット/実行アルゴリズムXアルゴリズムY A 1 90.91 90.91 A 2 90.91 95.45 A 3 90.91 90.91 A 4 90.91 90.91 B 1 100 100 B 2 100 100 B 3 95.65 100 …

2
さまざまなパンフレットの比較成功の見積もり
現実世界の問題 私のクライアントの1つは、サブスクライブしているユーザーリストにダイレクトメーラーを送信する準備をしていて、この統計的な課題が浮上しました。 彼らのマーケティングチームには3つの異なるパンフレットがあり、どのパンフレットが最も高い応答率を得るか知りたいと考えています。また、厚手の封筒で手書きのアドレスをメーラーに送信すると、通常の封筒と比較して結果が向上するかどうかも知りたいと考えています。 次のことを前提とします。 各パンフレットのための(iは= 1 、2 、3)、そのパンフレット受信者実際に開き、それが読み取る確率で応答するR Iを、R iは、そのパンフレットのため真の応答率でありますbibib_ii=1,2,3i=1,2,3i = 1,2,3ririr_iririr_i 厚くて高品質の封筒の真の開封率は、通常の封筒の開封率はo n o r m a lです。othickothicko_{thick}onormalonormalo_{normal} 以前の郵送から、実際に観察された回答率は約1%から5%の間になると予想しています。 私たちの目標 送付するメールの数を最小限に抑えながら、最適なパンフレットを見つけたいと考えています。また、2つのオープンレートを推定します。 実際に送信されたメーラーから経験的応答率を収集すると、応答率間の真の差が0.5%より大きい場合、p &lt; .05で統計的に有意であるとしてその差を検出できるはずです。ririr_ip&lt;.05p&lt;.05p < .05 これまでの私の考え 人のユーザーが各パンフレットを受け取るように、3つのパンフレットのそれぞれにユーザーをランダムに割り当てます。応答率の違いを検出するために必要な感度を達成するために必要なNを知りたい。最悪のケースを想定すると、1%と1.5%の真の率の差を検出できる必要があります。この違いのSDは√NNNNNN(.01∗.99)+(.015∗.985)N−−−−−−−−−−−−−√(.01∗.99)+(.015∗.985)N\sqrt{\frac{(.01*.99) + (.015*.985)}{N}}N=3948N=3948N = 3948 ご質問 これは最適な設計ですか、それとももっとうまくできるでしょうか? NNN oN 、O 、R 、M Lonormalo_{normal}oT H I C Kothicko_{thick} r私rir_iNNN oN 、O 、R 、M …

3
SPSSを使用した2x3混合設計ANOVAの事後テスト?
実験中に3回評価された10人の参加者の2つのグループがあります。グループ間および3つの評価全体の違いをテストするために、group(コントロール、実験)、time(最初、2、3)、およびを使用して2x3混合設計ANOVAを実行しましたgroup x time。両方timeとgroup有意な相互作用があったほか、重大な結果group x time。 グループメンバーシップに関しても、3回の評価の違いをさらにチェックする方法をよく知りません。実際、最初は、ANOVAのオプションで、ボンフェローニの補正を使用してすべての主要な効果を比較することだけを指定しました。しかし、この方法で、グループを区別せずに、サンプル全体の時間の違いをこのように比較したことに気付きましたね。 したがって、可能な解決策を見つけるためにインターネットでたくさん検索しましたが、結果はほとんどありませんでした。私と同じようなケースは2つしか見つかりませんでしたが、解決策は逆です! 記事では、混合設計の後、著者らは被験者ごとに1つずつ、2回の反復測定ANOVAを事後的に実行しました。このようにして、2つのグループは修正なしで個別に分析されます。 インターネットのガイドでは、混合ANOVAの実行中に、SPSS構文のCOMPARE(time) ADJ(BONFERRONI)直後にを手動で追加すると述べています/EMMEANS=TABLES(newgroup*time)。このように、3つの時間はグループごとに個別に比較されます。ボンフェローニ補正を使用すると、私は正しいのでしょうか。 どう思いますか?どちらが正しい方法でしょうか?
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.