タグ付けされた質問 「frequentist」

推論への常習的アプローチでは、統計的手順は、データを生成したと見なされたプロセスの繰り返しの仮想的な長期にわたるパフォーマンスによって評価されます。

6
確率のベイジアン対頻繁な解釈
確率に対するベイジアンアプローチと頻度主義的アプローチの違いを誰かが適切に要約できますか? 私が理解していることから: 専門家の見解では、データは特定の頻度/確率(試行回数が無限に近づくにつれて発生するイベントの相対頻度として定義されます)を持つ反復可能なランダムサンプル(ランダム変数)です。基礎となるパラメータと確率は、この反復プロセス中、変動がの変動によるものであることが一定のままとしない(特定のイベント/プロセスのために固定されている)の確率分布。XnXnX_n ベイジアンビューでは、データは固定されますが、特定のイベントの頻度/確率は変化する可能性があるため、分布のパラメーターが変化します。実際、取得するデータは、データの各セットに対して更新されるパラメーターの事前分布を変更します。 私には、イベントに特定の確率があり、変動がサンプリングにあることが合理的であると思われるため、頻度主義的アプローチがより実用的/論理的であると思われます。 さらに、研究からのほとんどのデータ分析は、容易に理解できるので、通常、頻繁なアプローチ(すなわち、信頼区間、p値を使用した仮説検定など)を使用して行われます。 頻度のp値と信頼区間のベイジアン統計的同等物を含む、頻度対ベイジアンのアプローチの解釈の簡単な要約を誰かが私に与えることができるかどうか疑問に思っていました。さらに、1つの方法が他の方法よりも好ましい特定の例が評価されます。

5
働く統計学者は、頻繁な推論とベイジアン推論の違いを気にしますか?
部外者として、統計的推論を実行する方法については2つの競合する見解があるようです。 2つの異なる方法は、両方とも統計学者によって有効と見なされていますか? 哲学的な質問と考えられているものを選択していますか?または、現在の状況は問題があると考えられており、さまざまなアプローチを何らかの形で統一する試みがなされていますか?

5
ベイジアンのように考え、頻度の高い人のように確認してください。それはどういう意味ですか?
ここにあるデータサイエンスコースの講義スライドをいくつか見ています。 https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf 残念ながら、この講義のビデオを見ることができず、スライドのある時点で、プレゼンターには次のテキストがあります。 いくつかの重要な原則 ベイジアンのように考え、周波数主義者のように確認する(和解) 誰がそれが実際に何を意味するか知っていますか?これから集められるべきこれらの2つの考え方について、良い洞察があると感じています。

8
最初にベイジアン統計または頻度統計を教える必要がありますか?
私は現在高校生で、統計を理解している少年たちを助けています。そして、理論を垣間見ることなく、いくつかの簡単な例から始めることを考えています。 私の目標は、統計をさらに追求し、定量的学習に興味を持たせるために、統計をゼロから学習するための最も直感的でありながら建設的なアプローチを提供することです。 ただし、始める前に、非常に一般的な意味を持つ特定の質問があります。 ベイジアンまたは頻度主義のフレームワークを使用して統計を教え始める必要がありますか? よく調べてみると、一般的なアプローチは、頻繁な統計の簡単な紹介から始まり、その後にベイジアン統計の詳細な議論が続きます(例:Stangl)。

5
信頼区間は精度について何と言っていますか(もしあれば)?
Morey et al(2015)は、信頼区間は誤解を招くものであり、それらの理解に関連する複数のバイアスがあると主張しています。とりわけ、彼らは精度の誤precisionを次のように説明しています: 精度の誤り 信頼区間の幅は、パラメーターに関する知識の精度を示します。狭い信頼区間は正確な知識を示し、広い信頼誤差は不正確な知識を示します。 推定の精度と信頼区間のサイズの間に必要な関係はありません。これを確認する1つの方法は、2人の研究者(上級研究者と博士課程の学生)がデータを分析していることを想像することです505050実験から 50人の参加者のです。博士課程の学生の利益のための演習として、上級研究者は参加者をランダムに 2セットに分割し、252525それぞれがデータセットの半分を個別に分析できるようにすることを決定します。後続の会議で、2人は互いに平均のスチューデントのttt信頼区間を共有します。博士課程の学生の95%95%95\% CIは52±252±252 \pm 2であり、上級研究員の 95 % CIは95%95%95\%CIはです。53±453±453 \pm 4 上級研究員は、結果がほぼ一貫しており、それぞれの2つのポイント推定値の均等に重み付けされた平均値真の平均値の全体的な推定値として使用できることに注目しています。52.552.552.5 しかし、博士課程の学生は、2つの平均を均等に重み付けすべきではないと主張します。彼女は、CIの幅が半分であると指摘し、推定がより正確であるため、より重く重み付けする必要があると主張します。彼女のアドバイザーは、2つの平均の不均等な重み付けからの推定値は、完全なデータセットの分析からの推定値とは異なるため、でなければならないため、これは正しいとは言えないと指摘します。博士課程の学生の間違いは、CIがデータ後の精度を直接示すと仮定していることです。52.552.552.5 上記の例は誤解を招くようです。サンプルをランダムに半分に2つのサンプルに分割すると、サンプル平均と標準誤差の両方が近くなると予想されます。このような場合、加重平均の使用(たとえば、逆誤差による加重)と単純な算術平均の使用に違いはありません。ただし、推定値が異なり、サンプルの1つのエラーが著しく大きい場合、そのようなサンプルの「問題」を示唆している可能性があります。 明らかに、上記の例では、サンプルサイズが同じであるため、平均をとることでデータを「結合」することは、サンプル全体を平均することと同じです。問題は、サンプル全体が最初に部分に分割され、最終的な推定のために再び結合されるという不明確なロジックに従っているということです。 この例を言い換えると、まったく逆の結論に導くことができます。 研究者と学生は、データセットを2つに分割し、個別に分析することにしました。その後、彼らは彼らの推定値を比較し、サンプルは彼らが計算したものが非常に異なっていることを意味し、さらに学生の推定値の標準誤差ははるかに大きかったようでした。学生はこれが彼の推定の精度の問題を示唆することを恐れていましたが、研究者は信頼区間と精度の間に関連性がないことを暗示したので、両方の推定は等しく信頼でき、ランダムに選択されたそれらのいずれかを公開できます、最終的な見積もりとして。 より正式に述べると、スチューデントのような「標準」信頼区間はエラーに基づいていますttt x¯±c×SE(x)x¯±c×SE(x) \bar x \pm c \times \mathrm{SE}(x) どこ、いくつかの定数です。そのような場合、それらは精度に直接関係していますよね。ccc だから私の質問は次のとおり です。信頼区間は精度について何と言っていますか? Morey、R.、Hoekstra、R.、Rouder、J.、Lee、M.、&Wagenmakers、E.-J. (2015)。信頼区間に信頼を置くという誤り。Psychonomic Bulletin&Review、1–21。https://learnbayes.org/papers/confidenceIntervalsFallacy/

5
機械学習で階層/ネストされたデータを処理する方法
例で問題を説明します。いくつかの属性(年齢、性別、国、地域、都市)を与えられた個人の収入を予測するとします。あなたはそのようなトレーニングデータセットを持っています train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


3
尤度の定義に頻度主義者とベイジアンの間に違いはありますか?
尤度関数は条件付き確率ではないと言う人もいれば、そうだと言う人もいます。これは非常に混乱しています。 私が見たほとんどの情報源によると、パラメータ分布の尤度は、x iの n個のサンプルが与えられた確率質量関数の積でなければなりません。θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) たとえば、ロジスティック回帰では、最適化アルゴリズムを使用して尤度関数(最大尤度推定)を最大化し、最適なパラメーター、したがって最終的なLRモデルを取得します。互いに独立していると仮定するトレーニングサンプルが与えられた場合、確率の積(または結合確率質量関数)を最大化します。これは私には明らかです。nnn よるとの関係:可能性、条件付き確率と故障率、「可能性は確率ではありません、それは条件付き確率ではありません」。また、「尤度はベイジアンの尤度の理解においてのみ条件付き確率です。つまり、が確率変数であると仮定した場合」。θθ\theta 頻度の高い人とベイジアンの間で学習問題を扱う際のさまざまな視点について読みました。 ソースによると、ベイジアン推論の場合、アプリオリ、尤度P (X | θ )があり、ベイジアン定理を使用して事後P (θ | X )を取得します。P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} 私はベイジアン推論に精通していません。どうしてP(X|θ)P(X|θ)P(X|\theta)そのパラメータを条件と観測データの分布である、また、可能性と呼ばれますか?ではウィキペディア、それが時にはそれが書かれていると言い。これは何を意味するのでしょうか?L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) 頻度についての頻度とベイジアンの定義に違いはありますか? ありがとう。 編集: ベイズの定理の解釈には、ベイズの解釈と頻度論者の解釈のさまざまな方法があります(ベイズの定理-ウィキペディアを参照)。

4
エッジケースの精度と再現率の正しい値は何ですか?
精度は次のように定義されます: p = true positives / (true positives + false positives) それは、それを修正しているtrue positivesとfalse positives、精度が1に近づくアプローチ0? リコールに関する同じ質問: r = true positives / (true positives + false negatives) 現在、これらの値を計算する必要がある統計テストを実装していますが、分母が0である場合があり、この場合にどの値を返すのか迷っています。 PS:不適切なタグをすみません、、およびを使用したいのですがrecall、新しいタグをまだ作成できません。precisionlimit
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

5
データベースの基準を使用して回帰モデルを指定できるのはいつですか?
多くの回帰モデル仕様(OLSなど)がデータセットの可能性と見なされると、これが多重比較の問題を引き起こし、p値と信頼区間はもはや信頼できないと聞きました。これの極端な例は、段階的回帰です。 モデルを指定するのにデータ自体を使用できるのはいつですか?また、これはいつ有効なアプローチではありませんか?モデルを形成するには、常に主題に基づいた理論が必要ですか?

2
頻度統計の暗黙の事前分布とは何ですか?
ジェインズは、頻繁な活動家が「暗黙の事前」で活動していると主張するという考えを聞いたことがあります。 これらの暗黙の優先順位は何ですか?これは、頻繁なモデルがすべて、ベイジアンモデルの発見を待っている特別なケースであることを意味しますか?

2
なぜ、最尤推定frequentist技術と考えられています
私にとって頻繁な統計は、可能なすべてのサンプルに適した決定を下そうとすることと同義です。すなわち、frequentist決定規則常に損失関数に依存frequentistリスク最小化するようにしてくださいLと自然の真の状態θ 0:δδ\deltaLLLθ0θ0\theta_0 Rfreq=Eθ0(L(θ0,δ(Y))Rfreq=Eθ0(L(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) 最尤推定は、頻繁なリスクにどのように関連していますか?頻繁に使用されるポイント推定手法であるため、何らかの接続が必要です。私が知る限り、最尤推定は頻度主義的リスクの概念よりも古いですが、それでも他の多くの人々がそれが頻度主義的手法であると主張する理由がいくつかあるはずです。 私が見つけた最も近い接続は 「弱い規則性条件を満たすパラメトリックモデルの場合、最尤推定量はほぼミニマックスです」Wassermann 2006、p。201 " 受け入れられた回答は、最尤点推定を頻度論的リスクに強くリンクするか、MLEが頻度論的推論手法であることを示す頻度論的推論の代替の正式な定義を提供します。

2
尤度原理が頻繁な確率と衝突する場合、そのうちの1つを破棄しますか?
ここに最近投稿されたコメントで、1人のコメンターが、頻度の高い推論が尤度の原則と衝突することを(ソースなしで)指摘するLarry Wassermanのブログを指摘しました。 尤度の原理は、同様の尤度関数を生成する実験は同様の推論を生成する必要があると単純に述べています。 この質問に対する2つの部分: 頻度論的推論のどの部分、フレーバーまたはスクールは、尤度原理に特に違反していますか? 衝突がある場合、どちらかを破棄する必要がありますか?もしそうなら、それからどれ?議論のために、ハッキングとロワイヤルが尤度原理は公理的であると私に確信させたので、何かを破棄しなければならない場合、衝突する頻度の高い推論の部分を破棄する必要があることをお勧めします。

3
ベイジアン統計は、行動研究の従来の(頻度主義)統計よりも本当に改善されていますか?
この質問は、クロス検証で回答できるため、Skeptics Stack Exchangeから移行されました。 8年前に移行され ました。 会議に参加している間、実験の結果を評価するためのベイジアン統計の支持者によるプッシュが少しありました。頻繁な統計よりも、本物の発見に対してより敏感で、適切で、選択的である(誤検出が少ない)ことで自慢されています。 私はこのトピックをいくぶん検討しましたが、ベイジアン統計を使用することの利点についてはこれまで納得できませんでした。しかし、ベイジアン分析は予知をサポートするダリル・ベムの研究に反論するために使用されたので、ベイジアン分析が私自身の研究でさえもどのように利益を得るかについて、私は慎重に興味を持ち続けています。 だから私は次のことに興味があります: ベイジアン分析と頻度分析のパワー 分析の各タイプのタイプ1エラーに対する感受性 分析の複雑さのトレードオフ(ベイジアンはより複雑に思われる)対得られた利点。従来の統計分析は簡単で、結論を出すための十分に確立されたガイドラインがあります。シンプルさは利点と見なすことができます。あきらめる価値はありますか? 洞察力をありがとう!

4
どの条件の下で、ベイジアンおよび頻度点推定量が一致しますか?
平坦な事前分布では、ML(頻度-最大尤度)とMAP(ベイジアン-最大事後確率)推定量は一致します。 ただし、より一般的には、損失関数のオプティマイザーとして導出されたポイント推定量について話します。すなわち )X(x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) \qquad \; \,\text{ (Bayesian) } x^(.)=argminE(L(x−x^(Y))|x)(Frequentist)x^(.)=argminE(L(x−x^(Y))|x)(Frequentist) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(x-\hat x(Y)) \; | \; x \right) \qquad \text{(Frequentist)} ここで、は期待値演算子、は損失関数(ゼロで最小化)、は推定であり、パラメーターデータ与えられ、ランダム変数は大文字で示されます。 L X(Y )のY XEE\mathbb{E}LLLx^(y)x^(y)\hat x(y) …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.