タグ付けされた質問 「mathematical-statistics」

形式的な定義と一般的な結果に関係する統計の数学的理論。

2
T統計が正規分布に従うためにデータを必要とする理由
私はこのノートブックを見ていましたが、次のステートメントに戸惑いました。 正規性について説明すると、データは正規分布のように見えるはずです。いくつかの統計検定はこれに依存しているため(たとえば、t統計)、これは重要です。 T統計が正規分布に従うためにデータを必要とする理由がわかりません。 確かに、ウィキペディアは同じことを言っています: 学生のt分布(または単にt分布)は、正規分布された母集団の平均を推定するときに発生する連続確率分布のファミリーのメンバーです。 しかし、なぜこの仮定が必要なのか理解できません。 その式からは、データが正規分布に従う必要があることはわかりません。 私はその定義を少し見ましたが、なぜ条件が必要なのかわかりません。

2
PythonでのQQプロット
次のコードを使用してqqプロットを生成しました。qqプロットは、データが正常に分布しているかどうかを確認するために使用されることを知っています。私の質問は、x軸とy軸のラベルがqqプロットで何を示し、そのr二乗値が何を示しているかです。 N = 1200 p = 0.53 q = 1000 obs = np.random.binomial(N, p, size = q)/N import scipy.stats as stats z = (obs-np.mean(obs))/np.std(obs) stats.probplot(z, dist="norm", plot=plt) plt.title("Normal Q-Q plot") plt.show() すでにqq plotについての議論があることは知っていますが、その議論を経験したにもかかわらず、の概念を理解できませんでした。

1
非相関性が独立性を意味するのはどの分布ですか?
古くからある統計では、「無相関は独立を意味するものではありません」としています。通常、このリマインダーは、「2つの変数が一緒に正規分布しているにもかかわらず、無相関が独立性を暗示している」という心理的に心地よい(そして科学的に正しい)ステートメントで補足されます。 幸せな例外の数を1から2に増やすことができます。2つの変数がベルヌーイ分布である場合、再び、無相関は独立性を意味します。場合とYは 2 Bermoulli RVの、あるX 〜B (q個のX)、XXXYYY、我々が持っているため、 P (X = 1 )= E (X )= Q 、X、および同様のための Y、それらの共分散でありますX∼B(qx),Y∼B(qy)X∼B(qx),Y∼B(qy)X \sim B(q_x),\; Y \sim B(q_y)P(X=1)=E(X)=qxP(X=1)=E(X)=qxP(X=1) = E(X) = q_xYYY Cov(X,Y)=E(XY)−E(X)E(Y)=∑SXYp(x,y)xy−qxqyCov⁡(X,Y)=E(XY)−E(X)E(Y)=∑SXYp(x,y)xy−qxqy\operatorname{Cov}(X,Y)= E(XY) - E(X)E(Y) = \sum_{S_{XY}}p(x,y)xy - q_xq_y =P(X=1,Y=1)−qxqy=P(X=1∣Y=1)P(Y=1)−qxqy=P(X=1,Y=1)−qxqy=P(X=1∣Y=1)P(Y=1)−qxqy = P(X=1,Y=1) - q_xq_y = P(X=1\mid Y=1)P(Y=1)-q_xq_y =(P(X=1∣Y=1)−qx)qy=(P(X=1∣Y=1)−qx)qy= \Big(P(X=1\mid Y=1)-q_x\Big)q_y 無相関のために、共分散がゼロである必要があります。 Cov(X,Y)=0⇒P(X=1∣Y=1)=P(X=1)Cov⁡(X,Y)=0⇒P(X=1∣Y=1)=P(X=1)\operatorname{Cov}(X,Y) = 0 …


3
情報エントロピーが1を超えるのはなぜですか?
エントロピーを計算するために、次の関数を実装しました。 from math import log def calc_entropy(probs): my_sum = 0 for p in probs: if p > 0: my_sum += p * log(p, 2) return - my_sum 結果: >>> calc_entropy([1/7.0, 1/7.0, 5/7.0]) 1.1488348542809168 >>> from scipy.stats import entropy # using a built-in package # give the same answer >>> entropy([1/7.0, …

4
混合型分布の最尤関数
一般的に、関数を最大化します L(θ;x1,…,xn)=∏i=1nf(xi∣θ)L(θ;x1,…,xn)=∏i=1nf(xi∣θ) L(\theta; x_1, \ldots, x_n) = \prod_{i=1}^n f(x_i \mid \theta) ここで、fffは、基礎となる分布が連続的な場合の確率密度関数であり、分布が離散的である場合は、確率質量関数(積の代わりに合計を使用)です。 基になる分布が連続分布と離散分布の混合であり、それぞれの重みが依存している場合、尤度関数をどのように指定しますか?θθ\theta

1
UMVUEの存在との推定量の選択にで人口
してみましょうから引き出されたランダムサンプルで人口。(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n)N(θ,θ2)N(θ,θ2)\mathcal N(\theta,\theta^2)θ∈Rθ∈R\theta\in\mathbb R のUMVUEを探しています。θθ\theta 結合密度は(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n) fθ(x1、x2、⋯ 、xん)= ∏i = 1ん1θ 2 π−−√exp[ − 12つのθ2(x私− θ )2]=1(θ2 π−−√)んexp[ −12θ2Σi = 1ん(x私- θ)2]=1(θ 2 π−−√)んexp[ 1θΣi = 1んバツ私− 12つのθ2Σi = 1んバツ2私− n2]= g(θ 、T(x))h (x)∀(x1、⋯ 、xん)∈ Rん、∀θ ∈ Rfθ(x1,x2,⋯,xn)=∏i=1n1θ2πexp⁡[−12θ2(xi−θ)2]=1(θ2π)nexp⁡[−12θ2∑i=1n(xi−θ)2]=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈R\begin{align} f_{\theta}(x_1,x_2,\cdots,x_n)&=\prod_{i=1}^n\frac{1}{\theta\sqrt{2\pi}}\exp\left[-\frac{1}{2\theta^2}(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[-\frac{1}{2\theta^2}\sum_{i=1}^n(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right] \\&=g(\theta,T(\mathbf x))h(\mathbf x)\qquad\forall\,(x_1,\cdots,x_n)\in\mathbb R^n\,,\forall\,\theta\in\mathbb R \end{align} 、ここでおよび。h(x)=1g(θ 、T(x))= 1(θ …

2
推定量が確率変数と見なされるのはなぜですか?
見積もりと見積もりについての私の理解:見積もり:見積もりを計算するためのルール見積もり:見積もりに基づく一連のデータから計算された値 これらの2つの項の間で、確率変数を指摘するように求められた場合、その値はデータセットのサンプルに基づいてランダムに変化するため、推定は確率変数であると言えます。しかし、私が与えられた答えは、推定量は確率変数であり、推定値は確率変数ではないということです。何故ですか ?

1
Pitman–Koopman–Darmoisの定理の学部レベルの証明
Pitman–Koopman–Darmoisの定理は、確率分布のパラメーター化されたファミリーからのiidサンプルが、スカラーコンポーネントの数がサンプルサイズとともに増加しない十分な統計量を認める場合、指数ファミリーであると述べています。 教科書や小説の説明紙に証拠がありますか? なぜそれらの3人にちなんで名付けられたのですか?

2
シンプソンのパラドックスは、隠し変数からの反転のすべてのインスタンスをカバーしていますか?
以下は、シンプソンのパラドックスの存在の「証明」として提供されている多くの視覚化についての質問であり、用語についての質問かもしれません。 シンプソンのパラドックスは説明すると、(理由の数値例を与えるためにかなり単純な現象であり、なぜこの現象が発生することができますが深いと面白いですが)。パラドックスは、2x2x2の分割表(Agresti、Categorical Data Analysis)が存在し、マージナルアソシエーションが各条件付きアソシエーションとは異なる方向にあることです。 つまり、2つの部分母集団の比率の比較はどちらも一方向に進むことができますが、組み合わせた母集団の比較は他の方向に進みます。シンボル: 存在、B 、C 、D 、E 、F 、Gは、Hよう +のBa 、b 、c 、d、e 、f、g、ha,b,c,d,e,f,g,ha,b,c,d,e,f,g,ha + bc + d&gt; e + fg+ ha+bc+d&gt;e+fg+h \frac{a+b}{c+d} > \frac{e+f}{g+h} しかし とac&lt; egac&lt;eg \frac{a}{c} < \frac{e}{g} bd&lt; fhbd&lt;fh \frac{b}{d} < \frac{f}{h} これは、次の視覚化で正確に表現されています(Wikipediaから): 分数は単に対応するベクトルの勾配であり、短いBベクトルは対応するLベクトルよりも大きい勾配を持っていますが、結合されたBベクトルは結合されたLベクトルよりも小さい勾配を持っていることが例でわかります。 多くの形式で非常に一般的な視覚化があり、特にSimpson'sに関するWikipediaのリファレンスの前に1つあります。 これは交絡の良い例であり、(2つのサブ母集団を分離する)非表示変数が異なるパターンを示す方法です。 ただし、数学的には、そのような画像は、シンプソンのパラドックスとして知られている現象の基礎となっている分割表の表示にまったく対応していません。まず、回帰直線は実数値のポイントセットデータ上にあり、分割表のカウントデータではありません。 また、回帰直線で勾配の任意の関係を持つデータセットを作成することもできますが、分割表では、勾配の違いに制限があります。つまり、母集団の回帰直線は、指定された部分母集団のすべての回帰に直交する可能性があります。しかし、シンプソンズのパラドックスでは、サブグループの比率は、回帰勾配ではありませんが、逆の方向にあったとしても、融合した母集団から遠く離れることはできません(ここでも、ウィキペディアの比率比較画像を参照してください)。 私にとっては、シンプソンのパラドックスの視覚化として後者の画像を見るたびに驚かされるのに十分です。しかし、私はどこでも(私が間違っていると思う)例を目にしているので、知りたいと思っています。 オリジナルのシンプソン/ユールの分割表の例から、回帰直線の視覚化を正当化する実際の値への微妙な変換が欠けていますか? 確かにシンプソンズは交絡エラーの特定のインスタンスです。「シンプソンのパラドックス」という用語は交絡エラーと同等になりました。そのため、どのような計算でも、隠し変数を介した方向の変化はシンプソンのパラドックスと呼ばれますか? 補遺:これは、2xmxn(または連続で2 x m)テーブルへの一般化の例です。 …

2
グラフィカルモデルとボルツマンマシンは数学的に関連していますか?
物理学のクラスでボルツマンマシンを使って実際にプログラミングを行ったことがありますが、それらの理論的な特性についてはよく知りません。対照的に、私はグラフィカルモデルの理論については適度な量を知っています(ローリッツェンの本Graphical Modelsの最初の数章について)。 質問:グラフィカルモデルとボルツマンマシンの間に意味のある関係はありますか?ボルツマンマシンは一種のグラフィカルモデルですか? 明らかに、ボルツマンマシンは一種のニューラルネットワークです。ニューラルネットワークの中には、数学的にグラフィカルモデルに関連しているものとそうでないものがあると聞きました。 私の質問に答えないCrossValidatedの関連質問: これは、以前に尋ねられた前の質問に似ています:階層モデル、ニューラルネットワーク、グラフィカルモデル、ベイジアンネットワーク間の関係は何ですか?より具体的です。 さらに、その質問に対する受け入れられた回答は私の混乱を明確にしません-ニューラルネットワークの標準的なグラフィック表現のノードが確率変数を表さなくても、そのような表現が存在しないことを必ずしも意味しません。具体的には、マルコフ連鎖の典型的なグラフィカル表現のノードが確率変数ではなく可能な状態のセットをどのように表すかについて考えていますが、X i間の条件依存関係を示すグラフを作成することもできますバツ私XiX_iバツ私バツ私X_iこれは、すべてのマルコフ連鎖が実際にはマルコフ確率場であることを示しています。答えはまた、ニューラルネットワーク(おそらくボルツマンマシンを含む)は「弁別的」であると述べていますが、その主張が何を意味するかを詳しく説明することはしません。また、明らかなフォローアップの質問は「差別的ではないグラフィカルモデルですか?」対処した。同様に、受け入れられた回答リンクはケビンマーフィーのウェブサイト(実際にはベイジアンネットワークについて学ぶときに彼の博士論文の一部を読んでいます)にリンクしていますが、このウェブサイトはベイジアンネットワークのみを取り上げており、ニューラルネットワークについてはまったく触れていません。異なっています。 この他の質問はおそらく私のものに最も似ています:ニューラルネットワークをグラフィカルモデルとして数学的にモデル化します。ただし、どの回答も受け入れられず、同様に参照のみが示され、説明は説明されません(この回答など)。いつかリファレンスを理解できるようになると思いますが、今は基本的な知識レベルにいるので、できるだけ単純化した回答をいただければ幸いです。また、上位の回答(http://www.cs.toronto.edu/~tijmen/csc321/lecture_notes.shtml)にリンクされているトロントのコースでは、これについて説明していますが、詳細については詳しく説明していません。さらに、私の質問に答える可能性がある1つの講義のノートは公開されていません。 3月25日講演13b:Belief Nets 7:43。このスライドでは、ボルツマンマシンを念頭に置いてください。そこにも、隠れたユニットと目に見えるユニットがあり、すべて確率的です。BMとSBNには、違いよりも共通点があります。9:16。最近では、「グラフィカルモデル」はニューラルネットワークの特別なカテゴリと見なされることがありますが、ここで説明する歴史では、非常に異なるタイプのシステムと見なされていました。

2
正確に何を
何がのような表記法(ドット以上チルダ)の平均、コンテキストのx ˙ 〜 N(0 、1 )?∼˙∼˙\dot\simx∼˙N(0,1)x∼˙N(0,1)x \mathrel{\dot\sim} \mathcal N(0,1) 正しくタイプセットする方法を見つける方が簡単であることがわかります:tex.SEは、実際に何を意味するのかを見つけるよりも、\mathrel{\dot\sim}単に\dot\simスペーシングの問題を修正するのではなく、タイプする必要があると説明しています。これまで、CVで4回しか使用されていません。それは標準ですか?

1
尤度関数を再パラメーター化する場合、変数の数式を変更する代わりに、変換された変数をプラグインするだけで十分ですか?
指数分布する尤度関数を再パラメーター化しようとしていると仮定します。私の元の尤度関数が: p (y| θ )= θ E- θ Yp(y∣θ)=θe−θy p(y \mid \theta) = \theta e^{-\theta y} そして、私はϕ = 1を使用してそれを再パラメータ化したいと思います、θは確率変数ではなくパラメーターなので、プラグインするだけで十分ですか?ϕ = 1θϕ=1θ\phi = \frac{1}{\theta}θθ\theta 私が明示的に言っているのは: p (y∣ ϕ = 1θ) = 1φe− 1φyp(y∣ϕ=1θ)=1ϕe−1ϕy p\left(y \mid \phi = \frac{1}{\theta}\right) = \frac{1}{\phi} e^{-\frac{1}{\phi} y} もしそうなら、私はこれの背後にある理論が何であるかわかりません。私の理解では、尤度関数はパラメーターの関数であるため、変数の変更式を使用する必要がないのはなぜですか。どんな助けでも本当に感謝します、ありがとう!

2
平均と分散がわかっている場合、2変量正規データの共分散の最尤推定値は何ですか?
平均としてゼロ、分散として1を持つ2変量正規分布からの無作為標本があるとすると、唯一の未知のパラメーターは共分散です。共分散のMLEとは何ですか?私はそれが1のようなものでなければならないことを知っていますしかし、これをどうやって知るのでしょうか?1んΣんj = 1バツjyj1n∑j=1nxjyj\frac{1}{n} \sum_{j=1}^{n}x_j y_j

1
情報ジオメトリの明確化
この質問は、Amariによる論文「曲線指数ファミリの曲がった幾何学-曲率と情報損失」に関係しています。 テキストは次のようになります。 LET であるn個の座標系との確率分布の次元マニホールドθ = (θ 1、... 、θ N)、p個のθ(X )&gt; 0が想定され...Sん= { pθ}Sn={pθ}S^n=\{p_{\theta}\}んnnθ = (θ1、… 、θん)θ=(θ1,…,θn)\theta=(\theta_1,\dots,\theta_n)pθ(x )&gt; 0pθ(x)&gt;0p_{\theta}(x)>0 私たちは、すべてのポイントを考えることがのS N機能搭載など、ログのp θ(X )のXを ...θθ\thetaSんSnS^nログpθ(x )log⁡pθ(x)\log p_{\theta}(x)バツxx ましょうの正接空間であるS Nにおけるθ、大まかに言えば、である、の小さな近傍の線形化バージョンで識別θでS N。してみましょうE I(θ )、私は= 1 、... 、n個の自然の基礎となるT θ協調システムに関連付けられています...TθTθT_{\theta}SんSnS^nθθ\thetaθθ\thetaSnSnS^nei(θ),i=1,…,nei(θ),i=1,…,ne_i(\theta), i=1,\dots,nTθTθT_{\theta} 各点のでのS N機能搭載ログPのθ(X )のXは、考えるのが自然であるE I(θ )におけるθの関数として表すE I(θ )= ∂をθθ\thetaSnSnS^nlogpθ(x)log⁡pθ(x)\log p_{\theta}(x)xxxei(θ)ei(θ)e_i(\theta)θθ\thetaei(θ)=∂∂θilogpθ(x).ei(θ)=∂∂θilog⁡pθ(x).e_i(\theta)=\frac{\partial}{\partial\theta_i}\log p_{\theta}(x). 私は最後の声明を理解していません。これは、上記の論文のセクション2に記載されています。接線空間の基準は上記の方程式でどのように与えられますか?この種の資料に精通しているこのコミュニティの誰かが私がこれを理解するのを助けてくれると助かります。ありがとう。 更新1: 場合、私は(@aginenskyから)ことを同意するが、、その後直線的に独立している∂∂∂θipθ∂∂θipθ\frac{\partial}{\partial\theta_i}p_{\theta}これらが最初の場所で接空間のメンバーであるかも線形独立であるが、非常に明確ではありません。それでは、どの缶∂∂∂θilogpθ∂∂θilog⁡pθ\frac{\partial}{\partial\theta_i}\log p_{\theta}接空間のための基礎として考慮されます。どんな助けでもありがたいです。∂∂θilogpθ∂∂θilog⁡pθ\frac{\partial}{\partial\theta_i}\log p_{\theta} …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.