タグ付けされた質問 「history」

統計の歴史についての質問。


9
p値に関して、なぜ1%と5%ですか?なぜ6%または10%ではないのですか?
p値については、なぜ%と%がのゴールドスタンダードであると思われるのでしょうか。%や%のような他の値はなぜですか?111555"statistical significance"666101010 これには根本的な数学的理由がありますか、それとも単に広く行われている慣習ですか

7
統計の「大きな問題」とは何ですか?
数学には有名なミレニアム問題(そして歴史的にはヒルベルトの23)、分野の方向性を形作るのに役立つ質問があります。 しかし、リーマン仮説と統計のP対NPがどうなるか、私にはほとんど分かりません。 それでは、統計における包括的な未解決の質問は何ですか? 追加して編集: 私が探している答えの一般的な精神の例(非常に具体的ではないにしても)として、「21世紀の数学の挑戦」会議で、David Donohoによる「Hilbert's 23」に触発された講義を見つけました:高次元データ分析:次元の呪いと祝福 したがって、潜在的な答えは、ビッグデータとそれが重要である理由、高次元データがもたらす統計的課題の種類、問題を解決するために開発する必要がある方法または回答する必要がある質問について話すことができます。
77 history 

2
リッジ回帰が「リッジ」と呼ばれるのはなぜですか、なぜ必要なのですか。が無限になったときに何が起こるのでしょうか。
リッジ回帰係数の推定は、β^Rβ^R\hat{\beta}^R RSS+λ∑j=1pβ2j.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. 私の質問は: 場合、上記の式は通常のRSSに還元されることがわかります。場合はどうなりますか?係数の振る舞いに関する教科書の説明がわかりません。λ → ∞λ=0λ=0\lambda = 0λ→∞λ→∞\lambda \to \infty 特定の用語の背後にある概念を理解しやすくするために、用語がRIDGE回帰と呼ばれるのはなぜですか?(なぜリッジ?)そして、リッジ回帰と呼ばれる新しい概念を導入する必要があるという通常/一般的な回帰で何が間違っていたのでしょうか? あなたの洞察は素晴らしいでしょう。

5
統計学者は、シミュレーションなしで母分散の不偏推定量として(n-1)を使用することにどの程度同意しましたか?
分散を計算する式の分母にはがあります。(n−1)(n−1)(n-1) s2=∑Ni=1(xi−x¯)2n−1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} なぜだろうといつも思っていました。しかし、「」が「なぜ」であるかについてのいくつかの優れたビデオを読んで見ることは、人口分散の優れた公平な推定量であるようです。一方、母分散を過小評価し、過大評価します。n (n − 2 )(n−1)(n−1)(n-1)nnn(n−2)(n−2)(n-2) 私が知りたいのは、コンピューターが存在しない時代に、この選択がどれほど正確に行われたかということです。これを証明する実際の数学的証明はありますか、またはこの純粋に経験的かつ統計学者は当時の「最良の説明」を思いつくために多くの計算を手作業で行いましたか? 統計学者は、19世紀初頭にコンピューターの助けを借りてどのようにしてこの公式を思いついたのでしょうか?マニュアルまたはそれは目に会う以上のものですか?

3
最初の標準標準テーブルを作成したのは誰ですか?
はじめに統計クラスで標準の標準テーブルを導入しようとしていますが、だれが最初の標準標準テーブルを作成したのでしょうか?コンピューターが登場する前に、彼らはどのようにそれをしましたか?誰かが総当たりでリーマン合計を手で計算することを考えるとぞっとする。

6
頻度の高いベイジアンの議論はどこへ行ったのですか?
統計の世界は、フリークエンシーとベイジアンに分かれていました。最近では、誰もが両方を少しやっているようです。どうすればいいの?異なるアプローチが異なる問題に適している場合、統計の創設者はなぜこれを見なかったのですか?あるいは、頻度論者が議論に勝ち、真の主観的なベイジアンが決定理論に移行したのでしょうか?

6
統計的検定に対するフィッシャーとネイマン・ピアソンのアプローチ間の「ハイブリッド」は、実際には「インコヒーレントなミッシュマッシュ」ですか?
統計的検定への最も普及しているアプローチは、フィッシャーのアプローチとネイマン・ピアソンのアプローチの2つのアプローチの「ハイブリッド」であるという考え方があります。主張によれば、これらの2つのアプローチは「互換性がない」ため、結果の「ハイブリッド」は「一貫性のないミッシュマッシュ」です。以下に参考文献といくつかの引用を提供しますが、現時点では、統計的仮説検定に関するウィキペディアの記事にそれについて多くのことが書かれていると言って十分です。CVでは、@ Michael Lewがこの点を繰り返し述べています(こちらとこちらをご覧ください)。 私の質問は次のとおりです。なぜFとNPのアプローチは互換性がないと主張され、ハイブリッドは一貫性がないと主張されるのですか?少なくとも6つのアンチハイブリッドペーパー(下記を参照)を読みましたが、それでも問題や議論を理解できないことに注意してください。また、FまたはNPがより良いアプローチであるかどうかを議論することを提案していないことに注意してください。頻度主義者対ベイジアンの枠組みについて議論することも申し出ていません。代わりに、問題は次のとおりです。FとNPの両方が有効で意味のあるアプローチであることを受け入れると、ハイブリッドのどこが悪いのでしょうか。 ここに私が状況を理解する方法があります。フィッシャーのアプローチは、値を計算し、それを帰無仮説に対する証拠とすることです。小さいほど、証拠を確信させることができます。研究者は、この証拠を彼の背景知識と組み合わせ、それが十分に説得力があるかどうかを判断し、それに応じて進むことになっています。(フィッシャーの見解は長年にわたって変化したが、これは彼が最終的に収束したように見えることに注意してください。)対照的に、Neyman-Pearsonアプローチは事前にを選択し、をチェックすることですP αのp個の≤のαppppppαα\alphap≤αp≤αp\le\alpha; もしそうなら、それを重要と呼び、帰無仮説を拒否します(ここでは、現在の議論に関係のないNPストーリーの大部分を省略します)。FisherとNeyman-Pearsonのフレームワークを使用するタイミングは?の @gungによる優れた返信も参照してください。 ハイブリッドアプローチは、値を計算し、それを報告し(暗黙的に小さい方が良いと仮定して)、場合は有意な結果(通常は)、それ以外の場合は有意でない結果も呼び出します。これは一貫性のないことになっています。2つの有効なことを同時に行うのはどうして無効なのでしょうか。のp ≤のαのα = 0.05pppp≤αp≤αp\le\alphaα=0.05α=0.05\alpha=0.05 特に一貫性のない反ハイブリッド主義者は、値を、、または(または)として報告する広範な慣行を、常に最も強い不平等が選択されるとます。議論は、(a)正確なが報告されないため、証拠の強度を適切に評価できないこと、および(b)不等式の右辺の数をとして解釈し、それをタイプIエラーと見なす傾向があると思われるレート、それは間違っています。ここで大きな問題は見当たりません。第一に、正確な報告することは確かに良い習慣ですが、が例えばか、、P &lt; 0.05 、P &lt; 0.01 、P &lt; 0.001 のp « 0.0001 のp α のp のp 0.02 0.03 〜0.0001 0.05 α = 0.05 、P ≠ α αpppp&lt;0.05p&lt;0.05p<0.05p&lt;0.01p&lt;0.01p<0.01p&lt;0.001p&lt;0.001p<0.001p≪0.0001p≪0.0001p\ll0.0001pppαα\alphapppppp0.020.020.020.030.030.03なので、ログスケールで丸めてもそれほど悪くありません(そしてを下回ることは意味がありません。小さなp値を報告する方法を参照してください)。第二に、コンセンサスが未満のすべてを有意と呼ぶ場合、エラー率はおよびになります。@ gungは仮説検定でのp値の解釈で説明しています。これは混乱を招く可能性のある問題ですが、統計テスト(ハイブリッド以外)の他の問題よりも混乱させることはありません。また、すべての読者は、ハイブリッドペーパーを読むときに自分のお気に入りのを念頭に置くことができ、その結果として自分のエラー率を知ることができます。∼0.0001∼0.0001\sim 0.00010.050.050.05α=0.05α=0.05\alpha=0.05p≠αp≠αp \ne \alphaαα\alphaそれで、大したことは何ですか? 私がこの質問をしたい理由の1つは、統計仮説検定に関するウィキペディアの記事のどれだけがハイブリッドの暴行に当てられているかを見るのが文字通り痛いからです。ハルピン&スタムに続いて、それが(そこに彼の教科書のも、大きなスキャンが黄色でハイライト「エラー」である)、そしてもちろんAA一定リンドクイストは責任があると主張リンドクイスト自分自身についてのwikiの記事が同じ告発で始まります。しかし、その後、多分私は何かを見逃しています。 参照資料 Gigerenzer、1993年、超自我、自我、および統計的推論のidは - 「ハイブリッド」という用語を導入し、「支離滅裂寄せ集め」と呼びました Gigerenzer et …

13
過去15年間の統計のブレークスルーは何ですか?
Friedman-Hastie-TibshiraniによるBoostingに関する統計の論文と、他の著者(フロイントとシャピレを含む)による同じ問題に関するコメントを今でも覚えています。当時、明らかにBoostingは多くの点でブレークスルーと見なされていました。計算的に実行可能なアンサンブルメソッドであり、優れた、しかし神秘的なパフォーマンスを備えています。ほぼ同時期に、SVMは成熟し、堅固な理論に裏打ちされたフレームワークを提供し、多くのバリアントとアプリケーションを備えています。 それは素晴らしい90年代でした。過去15年間に、多くの統計はクリーンで詳細な操作でしたが、本当に新しい見解はほとんどありませんでした。 そこで、2つの質問をします。 革命的/最終的な論文を見逃していませんか? そうでない場合、統計的推論の視点を変える可能性があると思われる新しいアプローチはありますか? ルール: 投稿ごとに1つの回答。 参照またはリンクを歓迎します。 PS:有望なブレークスルーの候補がいくつかあります。後で投稿します。

30
最も有名な統計学者
最も重要な統計学者とは何ですか、そしてそれらを有名にしたのは何ですか? (回答ごとに1人の科学者に返信してください。)

3
平均、中央値、モード間の経験的関係
適度に歪んだユニモーダル分布の場合、平均、中央値、モードの間に次の経験的関係があります。 この関係はどうでしたか派生?(Mean - Mode)∼3(Mean - Median)(Mean - Mode)∼3(Mean - Median) \text{(Mean - Mode)}\sim 3\,\text{(Mean - Median)} この結論を形成する前に、カールピアソンはこれらの関係を何千もプロットしましたか、それともこの関係の背後に論理的な推論の線がありますか?

2
確率的勾配降下法を発明したのは誰ですか?
勾配降下法と確率勾配降下法の歴史を理解しようとしています。グラディエントディセントは1847年にコーシーで発明されました。システムエクイテーションシステムの同時解法により作成されました。pp。536–538詳細については、こちらを参照してください。 それ以来、勾配降下法は開発を続け、私はそれらの歴史に精通していません。特に、確率的勾配降下法の発明に興味があります。 学術論文で歓迎される以上に使用できるリファレンス。

6
科学者は正規分布確率密度関数の形状をどのように理解しましたか?
これはおそらくアマチュアの質問ですが、科学者がどのようにして正規分布の確率密度関数の形を思いついたのでしょうか?基本的には、正規分布データの確率関数がベル曲線ではなく二等辺三角形の形状を持っていると、そのような人にどのように証明するのでしょうか?すべての正規分布データは鐘の形をしていますか?実験で?または、いくつかの数学的派生によって? 結局のところ、実際に正規分布データを考慮しているのは何でしょうか?正規分布の確率パターンに従うデータ、または他の何か? 基本的に私の質問は、なぜ正規分布の確率密度関数が他のベル形ではなくベル形になるのかということです。また、科学者は、実験またはさまざまなデータ自体の性質を調べることによって、どの現実のシナリオで正規分布を適用できるかをどのように理解しましたか? したがって、このリンクは正規分布曲線の関数形式の導出を説明するのに非常に役立ち、「なぜ正規分布は他のように見えないのですか?」という質問に答えることがわかりました。少なくとも私にとっては、本当に驚くべき推論です。


4
素粒子物理学で証拠を受け入れるための「
ニュースレポートによると、CERN は明日、ヒッグス粒子が5つの証拠で実験的に検出されたことを発表すると発表しています。その記事によると:σσ\sigma 5は、CMSおよびATLAS検出器が見ているデータがランダムノイズではない99.99994%の可能性に相当します。5は、何かが科学的な「発見」と正式にラベル付けされるために必要な確実性です。σσσ\sigmaσσ\sigma これは、超厳格ではありませんが、物理学者は、統計的な手法を「仮説検定」の設定標準を使用することを言っているようだにに、その対応(2がテイル)?それとも他の意味がありますか?0.0000006 Z = 5αα\alpha0.00000060.00000060.0000006z= 5z=5z=5 もちろん、科学の多くでは、アルファを0.05に設定することは日常的に行われています。これは "two- "の証拠に相当しますが、それが呼ばれたことは聞いたことがないです。アルファのより厳密な定義が標準である他のフィールド(粒子物理学以外)はありますか?5ルールが粒子物理学でどのように受け入れられたのかについてのリファレンスを知っている人はいますか?σσσ\sigmaσσ\sigma 更新:簡単な理由でこの質問をしています。私の本の直観的生物統計学(ほとんどの統計の本のように)には、通常の「P &lt;0.05」ルールがいかにarbitrary 意的であるかを説明するセクションがあります。私は科学的分野のこの例を追加したいと思います。そこでは、はるかに(ずっと!)小さい値が必要と考えられています。しかし、例が実際にはより複雑で、ベイジアンメソッドを使用している場合(以下のコメントが示唆するように)、それはまったく適切ではないか、より多くの説明が必要になります。αα\alpha

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.