タグ付けされた質問 「mathematical-statistics」

形式的な定義と一般的な結果に関係する統計の数学的理論。

1
確率変数は通常の数と同じ代数的規則に従いますか?
確率変数の合計に関する最近の質問への私の回答のコメントで、比率分布に関するウィキペディアの記事へのリンクに出くわしました、そしてそこに次の奇妙な主張に気づきました: 通常の数で知られている代数ルールは、確率変数の代数には適用されません。たとえば、積がで比率が場合、と分布が同じであるとは限りません。D = C / A D BC= A BC=ABC = ABD = C/ AD=C/AD=C/ADDDBBB この主張は2007年以降の記事にあります。元々記事を作成し、その元のコンテンツと現在のコンテンツの多くを寄稿した一見評判の高い同じ編集者によって追加され、1979年に出版されたMelvin D.Springerの著書「ランダム変数の代数」に引用されているようです(ただし、同じ段落の後半に表示される引用マーカーが実際にこの主張をカバーすることを意図しているかどうかは、100%明確ではありません)。 明らかに、その主張は私にはナンセンスのように思えます。 ウィキペディアの記事からそれを編集することもできますが、10年以上もそこに挑戦し続けてきたことを考えると、ここで間違っているのは自分ではないことを確認する必要があります。(可能性のある)引用を確認するためのスプリンガーの本を手元に置いていなかったので、私はここの専門家に助けを求めたいと思いました。特に、述べられている主張は実際には2つの部分で構成されているため、私の質問もそうです。 パート1:確率変数は通常の数と同じ代数的規則に従いますか、それとも(ある意味では)従わないのですか?そうでない場合、ルールはどのように異なりますか?それは人が採用する(一般に受け入れられている)形式に依存しますか? パート2:通常の数値であっても、ときが定義されていないため、が常にに等しいとは限らないことは明らかです。この些細な違いは、とがランダム変数である場合でも、とが等しくならない唯一の方法ですか?特に、次のステートメントは常に(実数値または複素数値)確率変数に当てはまりますか? BDA=0DBA≠0D = A BあD=ABAD = \frac{AB}{A}BBBDDDA = 0A=0A = 0DDDBBBA ≠ 0⟹A Bあ= B 。A≠0⟹ABA=B.A \ne 0 \implies \frac{AB}{A} = B. パート3(おまけ):スプリンガーの本は実際にこれについて何を言っていますか、そしてそこに、上で引用された主張をサポートするために何らかの意味でとらえることができる何かがありますか?私が推測するように、それは実際に主流の数学と統計に関する主張の信頼できる情報源と見なされているのでしょうか?

1
相関確率のベクトルがある場合。相関関係を壊すことなく、それらをバイナリに変換するにはどうすればよいですか?
私の最終的な目標は、相関するベルヌーイ確率変数のサイズのベクトルを生成する方法を持つことができるようにすることです。これを行う1つの方法は、ガウスクープラアプローチを使用することです。ただし、ガウシアンクープラアプローチでは、ベクトルが残ります。NNN (p1,…,pN)∈[0,1]N(p1,…,pN)∈[0,1]N (p_1, \ldots, p_N) \in [0,1]^N Suppose that I have generated (p1,…,pN)(p1,…,pN)(p_1, \ldots, p_N) such that the common correlation between them is ρρ\rho. Now, how can I transform these into a new vector of 000 or 111's? In other words, I would like: (X1,…,XN)∈{0,1}N(X1,…,XN)∈{0,1}N (X_1, \ldots, X_N) \in \{0,1\}^N …

2
機械学習の信頼上限
k武装バンディット問題の信頼限界の上限を求める式に出くわしました。 c ln N私ん私−−−−−√clnNinic\sqrt{\frac{\text{ln} N_i}{n_i}} ここで、はこの特定の盗賊のために持っているサンプルの量であり、はすべての盗賊から持っているサンプルの総量です。モンテカルロツリー検索でも同じアルゴリズムが使用され、信頼限界の上限が取得されます。N iん私nin_iN私NiN_i 私は信頼限界の上限が何であるかを非常に明確に理解していますが、私が理解していないのは、この公式がどこから来たかです。私はいくつかの場所でオンラインを調べてみましたが、この式がどのように導出されるかについての明確な説明は見つかりませんでした。誰かがこの式がどこから来たかを説明できますか?統計の背景がよくないと思います。


1
指数の積の線形結合の合計は指数です
この問題は私の研究で発生しましたが平均 iid指数分布(ED)であり、が負でない数であると仮定し。それが真実であること これは、両側の期待値がに等しいため、健全性チェックに合格します。とすると、左側は指数関数的なになります。それ以外は、EDの製品の処理方法がわからないため、この問題への対処方法がわかりません。1 λ ∞ Σ K = 0Vi∼EDVi∼EDV_i \sim \text{ED}111λλ\lambda1λ=0V0∑k=0∞λke−λV0⋯Vkk!∼ED?∑k=0∞λke−λV0⋯Vkk!∼ED? \sum_{k=0}^{\infty} \frac{\lambda^k e^{-\lambda}V_{0} \cdots V_k}{k!} \sim \text{ED}? 111λ=0λ=0\lambda = 0V0V0V_0

2
モーメント生成関数の実際の使用
ほとんどの基本的な確率理論コースでは、指示されたモーメント生成関数(mgf)は確率変数のモーメントの計算に役立ちます。特に期待と分散。現在、ほとんどのコースで、期待値と差異について提供する例は、定義を使用して分析的に解決できます。 期待値と分散を見つけることが分析的に困難であり、mgfの使用が必要であった分布の実際の例はありますか?ベーシックコースでなぜ重要なのか正確に理解できないので、お願いします。

2
十分な統計量が最小限では不十分であることをどのように示すか?
私の宿題の問題は、特定の統計が一般に最小限では不十分である反例を示すことです。この特定の統計の特定の反例を見つけることの詳細に関係なく、これは私に次の質問を引き起こします: 質問:十分な統計量が条件を満たしていることを証明できる方法で、最小の十分な統計量ではないという条件をどのように定式化できますか? これまでのところ:私の教科書(Keener、Theoretical Statistics:Topics for a Core Course)での最小の十分な統計量の定義は次のとおりです。 統計量は、が十分であれば最小で十分であり、十分な統計量ごとに、 aeような関数が存在します。T 〜T F T = F (〜T)PTTTTTTT~T~\tilde{T}fffT=f(T~)T=f(T~)T = f(\tilde{T})PP\mathcal{P} (ae)は、統計モデル、すべての確率分布について、等式が失敗するセットがnullセットであることを意味します。 P P P ∈ PPP\mathcal{P}PPPPP\mathcal{P}P∈PP∈PP \in \mathcal{P} これを否定しようとすると、私は次の場所に到着します: 統計値は、以下の少なくとも1つが成り立つ場合、最小値ではありません。 TTT TTTは十分ではありません。 aeような関数が存在しない、少なくとも1つの十分な統計 が存在します。T~T~\tilde{T}T = F (〜T)PfffT=f(T~)T=f(T~)T = f(\tilde{T})PP\mathcal{P} したがって、統計が十分である場合、たとえそれが十分に不十分でなくても、統計が十分ではないことを示すことは非常に難しいようです。(1が偽であるため、1が、代わりに1の2を表示しなければならないので-しかし、1つは、反例の統計がある場合でも、ので、2が示すのは非常に難しいだろう念頭に置いて、1はまだ持っています非存在表示する任意のそのプロパティと機能を。そして、非存在は示すことは困難であることが多いです。)T~T~\tilde{T} 私の教科書では、統計が最小の十分な統計となるための同等の(つまり、必要かつ十分な)条件を示していません。(十分な統計であることに加えて)統計が最小の十分な統計となるための代替の必要条件さえも与えません。 したがって、私の宿題の問題で、統計が不十分であることを示すことができない場合(それが原因で)、統計が十分でないことをどのようにして示すことができますか?

1
単純なマトリックス結果の検証を要求する
仮定であるK × 1確率変数のベクトル。次にしてください確認しているE X "(E X X ")- 1 E X ≤ 1。バツXXk × 1k×1k\times 1Eバツ』(Eバツバツ』)− 1Eバツ≤ 1EX′(EXX′)−1EX≤1EX^{\prime}(EXX^{\prime})^{-1}EX\leq 1 ときこれは、よく知られた結果である(E X )2 ≤ E X 2。しかし、これを一般的にどのように主張するのでしょうか?K= 1K=1K=1(EX)2≤EX2(EX)2≤EX2(EX)^{2}\leq EX^{2}

1
均一な収束を伴わない点ごとの収束の実用性
動機 モデル選択後の推論に関連して、Leeb&Pötscher(2005)は次のように書いています。 パラメータに関する均一性が(少なくとも局所的に)漸近分析の重要な問題であることは以前から知られていましたが、このレッスンは、多くの場合、点ごとの漸近結果(つまり、固定された各真のパラメータ値を保持する結果)。幸運なことに、この健忘症とその結果としての実践は、十分に「規則的な」モデルで十分に「規則的な」推定量しか考慮されていない限り、劇的な結果はありません。ただし、モデル選択後の推定量は非常に「不規則」であるため、均一性の問題は復讐でここに浮上します。 バックグラウンド 均一な収束 推定器が分布内で一様に収束し(wrt)、確率変数に分布するとします。次に、与えられた精度に対して、サンプルサイズを常に見つけることができるため、すべてのに対して、の分布と(つまり、制限分布)は、ごとに最大でになります。αZε>0Nεα θ N(α)ZεN>Nθ^ん(α )θ^n(α)\hat\theta_n(\alpha)αα\alphaZZZε > 0ε>0\varepsilon>0NεNεN_{\varepsilon}αα\alphaθ^ん(α )θ^n(α)\hat\theta_{n}(\alpha)ZZZεε\varepsilonn > Nn>Nn>N これは実際に役立ちます: 実験を設計するとき、対応する見つけることにより、不正確さを希望する任意の小さいレベルの制限できます。N εεε\varepsilonNεNεN_{\varepsilon} サイズ与えられたサンプルについて、不正確さを制限するを見つけることができます。ε NNNNεNεN\varepsilon_N 点単位の(ただし不均一)収束 一方、推定量が点ごとに収束する(wrt)- 一様ではない -いくつかの確率変数に分布すると仮定します。不均一性に起因する、精度が存在任意のサンプルサイズになるように、我々は常に値見つけることができるそのような分布の距離そのと分布(すなわち、極限分布)少なくともあろういくつかのために。αZεN>0NαN ψ N(αN)ZεN>Nψ^ん(α )ψ^n(α)\hat\psi_n(\alpha)αα\alphaZZZεN> 0εN>0\varepsilon_N>0NNNαNαN\alpha_Nψ^ん(αN)ψ^n(αN)\hat\psi_{n}(\alpha_N)ZZZεε\varepsilonn > Nn>Nn>N いくつかの考え: これは大きさを教えてくれません。εNεN\varepsilon_N 実験を設計するとき、適切な見つけることによって、任意ので不正確さを制限することはできません。しかし、おそらくをいくつかの低レベルでバインドできれば、心配する必要はありません。しかし、私たちが望む場所に常にバインドできるとは限りません。N ε ε Nεε\varepsilonNεNεN_{\varepsilon}εNεN\varepsilon_N サイズ指定されたサンプルの不正確さを制限するが見つかるかどうかはわかりません。 NεNεN\varepsilon_NNNN ご質問 均一な収束の欠如により、推定量はほとんど役に立たなくなりますか? (おそらく、多くの論文が点ごとの収束に焦点を当てているため、答えは「いいえ」です...) いいえの場合、不均一収束推定量が役立ついくつかの基本的な例は何ですか? 参照: Leeb、H.&Pötscher、BM(2005)。モデルの選択と推論:事実とフィクション。 計量経済理論、21(01)、21-59。


2
ガウス混合モデルの「混合」とは
機械学習とその応用において有用なモデルとして、ガウス混合モデルをよく研究します。 この「混合物」の物理的な意味は何ですか? ガウス混合モデルは、それぞれ独自の平均値を持つ多数の確率変数の確率をモデル化するために使用されますか?そうでない場合、この単語の正しい解釈は何ですか。

1
からの打ち切られたサンプルの漸近分布
ましょサイズのIIDサンプルの順序統計量であるから。データが打ち切られ、データの上位パーセントのみが表示されると仮定します。つまり、入れます。の漸近分布は何 X(1),…,X(n)X(1),…,X(n)X_{(1)}, \ldots, X_{(n)}nnnexp(λ)exp⁡(λ)\exp(\lambda)(1−p)×100(1−p)×100(1-p) \times 100%X(⌊pn⌋),X(⌊pn⌋+1),…,X(n).X(⌊pn⌋),X(⌊pn⌋+1),…,X(n).X_{(\lfloor p n \rfloor )}, X_{(\lfloor p n\rfloor + 1)}, \ldots, X_{(n)}\,.m=⌊pn⌋m=⌊pn⌋m = \lfloor p n \rfloor (X(m),∑ni=m+1X(i)(n−m))?(X(m),∑i=m+1nX(i)(n−m))? \left(X_{(m)}, \frac{\sum_{i= m+1}^n X_{(i)}}{(n-m)} \right)? これは、この質問とこれに多少関係しており、この質問にもわずかに関係しています。 任意の助けいただければ幸いです。私は別のアプローチを試みましたが、あまり進歩することができませんでした。



2
結合確率変数の瞬間は何ですか?
簡単な質問ですが、オンラインで答えを見つけるのは驚くほど難しいです。 私は、RVのためにことを知っている、我々はk番目の時点を定義 場合等式は以下濃度のために、とルベーグ測度。XXX∫Xk dP=∫xkf(x) dx∫Xk dP=∫xkf(x) dx\int X^k \ d P = \int x^k f(x) \ dxp=f⋅mp=f⋅mp = f \cdot mfffmmm それで、例えば、のk番目のモーメントは何ですか?は私に対する答えのようには見えません...(X,Y)(X,Y)(X,Y)∫(X,Y) dP∫(X,Y) dP\int (X,Y) \ d P

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.