タグ付けされた質問 「mathematical-statistics」

形式的な定義と一般的な結果に関係する統計の数学的理論。

5
ランダムウォークの分散が増加するのはなぜですか?
ランダムウォークのように定義される、ホワイトノイズです。現在の位置が前の位置と予測できない用語の合計であることを示します。Yt= Yt − 1+ etYt=Yt−1+etY_{t} = Y_{t-1} + e_tetete_t 、平均関数であることを証明できμt= 0μt=0\mu_t = 0 E(Yt)= E(e1+ e2+ 。。。+ et)= E(e1)+ E(e2)+ 。。。+ E(et)= 0 + 0 + 。。。+ 0E(Yt)=E(e1+e2+。。。+et)=E(e1)+E(e2)+。。。+E(et)=0+0+。。。+0E(Y_{t}) = E(e_1+ e_2+ ... +e_t) = E(e_1) + E(e_2) +... +E(e_t) = 0 + 0 + ... + 0 しかし、なぜ分散は時間とともに直線的に増加するのでしょうか? これは、新しい位置が前の位置と非常に相関しているため、「純粋な」ランダムではないことに関係していますか? 編集: …

8
良い完全な確率と統計の本を探しています
私は数学の教員から統計コースを訪問する機会がありませんでした。私は、完全で自給自足の確率論と統計の本を探しています。完全とは、結果だけでなくすべての証明が含まれていることを意味します。自給自足とは、本を理解するために別の本を読む必要がないことを意味します。もちろん、大学レベル(数学の学生)の微積分と線形代数が必要になる場合があります。 私は複数の本を見ましたが、どれも好きではありませんでした。 DeGroot&Schervish(2011)確率と統計(第4版)ピアソン これは十分に完了していません。それは、派生せずに多くのものを述べているだけです。それに加えて、私はそれが好きです。 Wasserman(2004)すべての統計:統計的推論スプリンガーの簡潔なコース。 まったく気に入らなかった。ほとんど説明はありません。 David Williamsの「Weighing the Odds」は、DeGrootよりも正式であり、完全かつ自給自足のようです。しかし、そのスタイルは奇妙だと思います。彼はまた、自分だけが使用していると思われる新しい用語を発明しています。DeGrootで説明されているものもすべて、より適切に説明されています。 あなたがドイツ語で素晴らしい本を知っているなら、それは私がドイツ人であるので大丈夫です。

1
デボラメイヨーは、ビルンバウムの尤度原理の証明に反論しましたか?
これは、ここでの以前の質問と多少関連しています。尤度の原則が*本当に*重要な例ですか? どうやら、Deborah Mayoは、 Birnbaumの尤度原理の証明に反論する統計科学の論文を発表したようです。誰もがビルバウムの主な議論とメイヨーの反論を説明できますか?彼女は(論理的に)正しいですか?


3
次元の2つのランダムな単位ベクトルのスカラー積の分布
場合と内の2つの独立したランダムな単位ベクトルでありそれらのスカラー積(内積)の分布が何であるか(均一単位球面上に分布)、?、Y のR D X ⋅ Yバツバツ\mathbf{x}yy\mathbf{y}RDRD\mathbb{R}^DX ⋅ Yバツ⋅y\mathbf x \cdot \mathbf y ように私は推測迅速に配布を成長より高い次元でゼロと正常になる平均及び分散減少(?)しかしのための明示的な公式がある\ sigma ^ 2(D)?DDDリムD → ∞σ2(D )→ 0 、リムD→∞σ2(D)→0、\lim_{D\to\infty}\sigma^2(D) \to 0,σ2(D )σ2(D)\sigma^2(D) 更新 簡単なシミュレーションをいくつか実行しました。最初に、D = 1000のランダムな単位ベクトルの10000ペアを生成D = 1000D=1000D=1000すると、それらのドット積の分布が完全にガウス分布であることが簡単にわかります(実際、すでにD = 100の場合はかなりガウス分布ですD = 100D=100D=100)。左側のサブプロットを参照してください。次に、1から10000までの各Dに対してDDD(ステップを増やしながら)1000ペアを生成し、分散を計算しました。ログ-ログプロットは右側に示されており、式が1 / Dで非常によく近似されていることは明らかです1 / D1/D1/D。D = 1D=1D=1およびD = 2D=2D=2この式で正確な結果が得られることにも注意してください(ただし、後で何が起こるかわかりません)。


2
帰無仮説の下での線形回帰での分布は何ですか?ときになぜモードがゼロにならないのですか?
帰無仮説下での線形単変量多重回帰における決定係数、またはR 2乗の分布は何ですか?R2R2R^2H0:β=0H0:β=0H_0:\beta=0 予測子の数とサンプルのどのように依存しますか?この分布のモードに閉形式の表現はありますか?kkkn&gt;kn&gt;kn>k 特に、単純な回帰(1つの予測子)の場合、この分布のモードはゼロになりますが、重回帰の場合、モードはゼロ以外の正の値になります。もしこれが本当なら、この「相転移」の直感的な説明はありますか?xxx 更新 @Alecosが以下に示すように、および場合、分布は実際にゼロでピークに達し、場合、ゼロではありません。この相転移には幾何学的な見方が必要だと感じています。OLSの幾何学的ビューを考えてみましょう:はベクトルで、は次元の部分空間を定義します。OLSはこの部分空間にを投影することになり、はとその投影間の角度の二乗余弦です。k=2k=2k=2k=3k=3k=3k&gt;3k&gt;3k>3yy\mathbf yRnRn\mathbb R^nXX\mathbf Xkkkyy\mathbf yR2R2R^2Yyy\mathbf yy^y^\hat{\mathbf y} @Alecosの答えから、すべてのベクトルがランダムである場合、この角度の確率分布はおよびでピークになりますが、他の値モードを持つことになりますのため。なぜ?!90∘90∘90^\circk=2k=2k=2k=3k=3k=3&lt;90∘&lt;90∘<90^\circk&gt;3k&gt;3k>3 更新2:私は@Alecosの回答を受け入れていますが、ここでいくつかの重要な洞察を逃していると感じています。もし誰かがこの現象について他の(幾何学的であるか否かを問わず)それを「明白」にするだろうと提案した場合、私は喜んで賞金を提供します。

5
変量効果と固定効果の数学的な違いは何ですか?
ランダム効果と固定効果の解釈に関して、インターネット上で多くのことを発見しました。ただし、以下をピン留めするソースを取得できませんでした。 変量効果と固定効果の数学的な違いは何ですか? つまり、モデルの数学的定式化とパラメーターの推定方法を意味します。

1
統計が滑らかな場合にのみ、ブートストラップが有効であるという結果がありますか?
全体を通して、統計量θ(⋅)θ(⋅)\theta(\cdot)は、分布関数Fから得られるデータ関数であると仮定します。サンプルの経験的分布関数はです。したがって、は確率変数として表示される統計であり、は統計のブートストラップバージョンです。KS距離としてを使用しますX1,…XnX1,…XnX_1, \ldots X_nFFF θ(F)θ( F)Dを∞F^F^\hat{F}θ(F)θ(F)\theta(F)θ(F^)θ(F^)\theta(\hat{F})d∞d∞d_\infty 統計が単純な線形統計である場合、ブートストラップの有効性に対して「if and only if」結果があります。たとえば、Mammenの定理1「ブートストラップはいつ機能しますか?」 もしいくつかの任意の機能のためのHNことその後ブートストラップは意味で動作するD∞[L(θ( F) - T N)、L(θ(F)-TN)]→P0が存在する場合にのみσNおよびTNとなるようにθ(F)=1n∑ni−1hn(Xi)θ(F)=1n∑i−1nhn(Xi)\theta(F) = \frac{1}{n} \sum_{i-1}^n h_n(X_i)hnhnh_nd∞[L(θ(F^)−t^n),L(θ(F)−tn)]→p0d∞[L(θ(F^)−t^n),L(θ(F)−tn)]→p0d_\infty\big[\mathscr{L}(\theta(\hat{F})-\hat{t}_n), \mathscr{L}(\theta(F)-t_n)\big] \underset{p}{\rightarrow} 0σnσn\sigma_ntntnt_n 我々は定義することができる ^ T N我々のサンプルの一部機能として、T N = E(T N)d∞[L(θ(F)−tn),N(0,σ2n)]→p0d∞[L(θ(F)−tn),N(0,σn2)]→p0d_\infty\big[\mathscr{L}(\theta(F)-t_n), N(0, \sigma_n^2)\big]\underset{p}{\rightarrow} 0tn^tn^\hat{t_n}tn=E(t^n)tn=E(t^n)t_n = \mathbb{E}(\hat{t}_n) また、Politis RomanoとWolfによるSubsamplingの定理1.6.3など、一般的な統計に対してブートストラップが機能するより一般的な結果もあります。 は、有限のサポートを持つすべての分布のクラスから引き出されると仮定します。統計量θ (⋅ )がFで極値ノルムに関して微分可能であり、微分g Fが0 &lt; Var F [ g F(x )] &lt; ∞を満たすと仮定します。次に、θ (F …

1
次元のランダムな点が線形に分離できる確率はどのくらいですか?
それぞれが特徴を持つデータポイントが与えられると、はとしてラベル付けされ、他のはとしてラベル付けされます。各フィーチャは、からランダムに値を取ります(均一な分布)。2つのクラスを分割できる超平面が存在する確率はどのくらいですか?、D N / 2 0 、N / 2 1 [ 0 、1 ]nnndddn/2n/2n/2000n/2n/2n/2111[0,1][0,1][0,1] まず最も簡単なケース、つまり考えてみましょう。d=1d=1d = 1

4
数学的統計と統計の違いは何ですか?
数学的統計と統計の違いは何ですか? 私が読んだ本を: 統計は、データの収集、編成、分析、および解釈の研究です。調査と実験の設計に関するデータ収集の計画を含む、このすべての側面を扱います。 そしてこれ: 数学統計学は、確率論だけでなく、線形代数や分析などの数学の他の分野を使用した、数学的な観点からの統計の研究です。 それで、それらの間の違いは何でしょうか?収集のプロセスは数学的ではないかもしれないことは理解できますが、組織、分析、解釈は何か不足していると思いますか?

4
ニューラルネット/ MLアルゴリズムの*理論*の教科書?
これまでに見てきたすべての教科書は、MLアルゴリズムとその実装方法について説明しています。 これらのアルゴリズムの動作の定理と証明を構築する教科書もありますか?例えば条件場合、勾配降下は常につながると述べていますか?x 、y、zバツ、y、zx,y,zA 、B 、CA、B、CA,B,C


4
偏りのない最尤推定量は常に最良の偏りのない推定量ですか?
規則的な問題については、最良の正規の不偏推定量があれば、それは最尤推定量(MLE)でなければなりません。しかし、一般に、偏りのないMLEがある場合、それは最良の偏りのない推定量にもなります(または、分散が最小である限り、UMVUEと呼ぶべきでしょうか)。

4
自然対数の期待値
私が知っているE(aX+b)=aE(X)+bE(aX+b)=aE(X)+bE(aX+b) = aE(X)+bと 、Bのように与えられ、定数を、それを解決するのは簡単です。また、この場合のような非線形関数の場合は適用できないことを知っており、それを解決するために近似を行う必要がありますテイラーの 私の質問は、どのように解くのですか?? テイラーとも近似しますか?a,ba,ba,b E(X)E(X)E(X)E(1/X)≠1/E(X)E(1/X)≠1/E(X)E(1/X) \neq 1/E(X)E(ln(1+X))E(ln⁡(1+X))E(\ln(1+X))

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.