タグ付けされた質問 「proof」

形式的な定義と一般的な結果に関係する統計の数学的理論。

5
統計学者は、シミュレーションなしで母分散の不偏推定量として(n-1)を使用することにどの程度同意しましたか?
分散を計算する式の分母にはがあります。(n−1)(n−1)(n-1) s2=∑Ni=1(xi−x¯)2n−1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} なぜだろうといつも思っていました。しかし、「」が「なぜ」であるかについてのいくつかの優れたビデオを読んで見ることは、人口分散の優れた公平な推定量であるようです。一方、母分散を過小評価し、過大評価します。n (n − 2 )(n−1)(n−1)(n-1)nnn(n−2)(n−2)(n-2) 私が知りたいのは、コンピューターが存在しない時代に、この選択がどれほど正確に行われたかということです。これを証明する実際の数学的証明はありますか、またはこの純粋に経験的かつ統計学者は当時の「最良の説明」を思いつくために多くの計算を手作業で行いましたか? 統計学者は、19世紀初頭にコンピューターの助けを借りてどのようにしてこの公式を思いついたのでしょうか?マニュアルまたはそれは目に会う以上のものですか?

1
2つの多変量ガウス分布間のKL発散
2つの多変量正規分布を仮定したKL発散式の導出に問題があります。単変量のケースはかなり簡単にできました。ただし、数学の統計情報を取得してからかなりの時間が経過しているため、多変量のケースに拡張するのに苦労しています。単純なものが欠けているだけだと確信しています。 私が持っているものは... 両方の仮定とqは手段で正規分布の確率密度関数であり、μ 1及びμ 2と分散Σ 1及びΣ 2をそれぞれ、。qからpへのカルバック・ライブラー距離は次のとおりです。pppqqqμ1μ1\mu_1μ2μ2\mu_2Σ1Σ1\Sigma_1Σ2Σ2\Sigma_2qqqppp の2面の多変量法線のためのものです、∫[ ログ(p (x ))− ログ(q(x ))] p (x )d バツ∫[log⁡(p(x))−log⁡(q(x))] p(x) dx\int \left[\log( p(x)) - \log( q(x)) \right]\ p(x)\ dx 12[log|Σ2||Σ1|−d+Tr(Σ−12Σ1)+(μ2−μ1)TΣ−12(μ2−μ1)]12[log⁡|Σ2||Σ1|−d+Tr(Σ2−1Σ1)+(μ2−μ1)TΣ2−1(μ2−μ1)]\frac{1}{2}\left[\log\frac{|\Sigma_2|}{|\Sigma_1|} - d + Tr(\Sigma_2^{-1}\Sigma_1) + (\mu_2 - \mu_1)^T \Sigma_2^{-1}(\mu_2 - \mu_1)\right] この証明と同じロジックに従って、行き詰まる前にここまで到達します。 =∫[d2log|Σ2||Σ1|+12((x−μ2)TΣ−12(x−μ2)−(x−μ1)TΣ−12(x−μ1))]×p(x)dx=∫[d2log⁡|Σ2||Σ1|+12((x−μ2)TΣ2−1(x−μ2)−(x−μ1)TΣ2−1(x−μ1))]×p(x)dx=\int \left[ \frac{d}{2} \log\frac{|\Sigma_2|}{|\Sigma_1|} + \frac{1}{2} \left((x-\mu_2)^T\Sigma_2^{-1}(x-\mu_2) - (x-\mu_1)^T\Sigma_2^{-1}(x-\mu_1) \right) …


3
R:データセットにNaNがないにもかかわらず、「Forest function call」エラーでNaN / Infをスローするランダムフォレスト[非公開]
キャレットを使用して、データセットに対してクロス検証されたランダムフォレストを実行しています。Y変数は要因です。データセットにNaN、Inf、またはNAはありません。ただし、ランダムフォレストを実行すると、 Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs introduced by coercion 3: In data.matrix(x) : NAs introduced by …

4
最良の予測子としての条件付き期待値の証明に関する問題
の証明に問題がある E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] 期待と条件付き期待のより深い誤解を明らかにする可能性が非常に高い。 私が知っている証明は次のとおりです(この証明の別のバージョンはここにあります) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ = &\arg \min_{g(X)} E \Big[ \big(Y - E(Y|X) + E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E \Big[ \big(Y - E(Y|X)\big)^2 + 2 \big(Y - E(Y|X)\big) \big(E(Y|X) - g(X)\big) + \big(E(Y|X) - g(X)\big)^2\Big]\\ =&\arg \min_{g(x)} E …

3
モーメント生成関数が確率分布を一意に決定することの証明
Wackerly et alのテキストは、この定理「とそれぞれランダム変数XとYのモーメント生成関数を示している。両方のモーメント生成関数が存在し、 tのすべての値に対して、XとYは同じ確率分布を持ちます。」テキストの範囲を超えているという証拠はありません。Scheaffer Youngにも証明のない同じ定理があります。Casellaのコピーはありませんが、Googleブック検索では定理を見つけることができなかったようです。m y(t )m x(t )= m y(t )mバツ(t )mバツ(t)m_x(t)my(t )my(t)m_y(t)mバツ(t )= my(t )mバツ(t)=my(t)m_x(t) = m_y(t) Gutのテキストは証明の概要を持っているように見えますが、「よく知られている結果」を参照せず、証拠も提供されていない別の結果を知る必要もあります。 誰が最初にこれを証明したか、そしてその証明がどこでもオンラインで利用可能かどうかを知っていますか?それ以外の場合、この証明の詳細をどのように記入しますか? 私が聞かれなかった場合、これは宿題の質問ではありませんが、これはおそらく誰かの宿題であると想像できます。ワッカーリーのテキストに基づいてコースシーケンスを取りましたが、しばらくの間、この証明について疑問に思っていました。それで、私はそれがちょうど尋ねる時間であると思いました。

2
2つの確率変数の合計としての一様確率変数
GrimmetおよびStirzakerから取得: そうでないことを示すU = X + Y Uは均一[0,1]上に分散され、XおよびYは独立しており、同一分布。あなたはないはず XとYが連続変数であることを前提としています。U=X+YU=X+YUUXXYY 場合の矛盾で十分によって簡単証明XXX、Yは、YYそれが常に可能見つけることと主張することによって別個に仮定され、Uuu及びU 'u′u'その結果、P (U ≤ U + U ')≥ P (U ≤ U )P(U≤u+u′)≥P(U≤u)P(U\leq u+u') \geq P(U\leq u)一方、P (X + Y ≤ U )= P (X + Y ≤ U + U ')P(X+ Y≤ U )= P(X+ Y≤ U + U′)P(X+Y \leq u) …

4
スピアマン相関の次の2つの式の等価性を証明する
ウィキペディアから、スピアマンのランク相関は、変数およびをランク変数およびに変換し、ランク変数間のピアソンの相関を計算することにより計算されます。XiXiX_iYiYiY_ixixix_iyiyiy_i ただし、この記事では、変数と間に関係がない場合、上記の式はXiXiX_iYiYiY_i ここで、、ランクの差。di=yi−xidi=yi−xid_i = y_i - x_i 誰かがこれの証拠をお願いできますか?ウィキペディアの記事で参照されている教科書にアクセスできません。

2
二変量ポアソン分布の導出
最近、2変量ポアソン分布に遭遇しましたが、その導出方法について少し混乱しています。 分布は次のとおりです。 P(X=x,Y=y)=e−(θ1+θ2+θ0)θx1x!θy2y!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X=x,Y=y)=e−(θ1+θ2+θ0)θ1xx!θ2yy!∑i=0min(x,y)(xi)(yi)i!(θ0θ1θ2)iP(X = x, Y = y) = e^{-(\theta_{1}+\theta_{2}+\theta_{0})} \displaystyle\frac{\theta_{1}^{x}}{x!}\frac{\theta_{2}^{y}}{y!} \sum_{i=0}^{min(x,y)}\binom{x}{i}\binom{y}{i}i!\left(\frac{\theta_{0}}{\theta_{1}\theta_{2}}\right)^{i} 私が収集できることから、θ0θ0\theta_{0}項はXXXとYの間の相関の尺度YYYです。したがって、XXXとYYYが独立している場合、θ0=0θ0=0\theta_{0} = 0あり、分布は2つの単変量ポアソン分布の積になります。 これを念頭に置いて、私の混乱は総和項に基づいています-この項はXXXとYの間の相関を説明すると仮定していYYYます。 私には、被加数は「成功」の確率が\ left(\ frac {\ theta_ {0}} {\ theta_ {1} \ theta_ {2}で与えられる二項累積分布関数のある種の積を構成するように思われます} \ right)(θ0θ1θ2)(θ0θ1θ2)\left(\frac{\theta_{0}}{\theta_{1}\theta_{2}}\right)および「失敗」の確率はi!^ {\ frac {1} {min(x、y)-i}}によって与えられます。i!1min(x,y)−ii!1min(x,y)−ii!^{\frac{1}{min(x,y)-i}}なぜなら、(i!1min(x,y)−i!)(min(x,y)−i)=i!(i!1min(x,y)−i!)(min(x,y)−i)=i!\left(i!^{\frac{1}{min(x,y)-i!}}\right)^{(min(x,y)-i)} = i!、しかしこれで大丈夫です。 誰かがこの分布をどのように導き出すことができるかについての支援を提供できますか?また、このモデルを多変量シナリオ(3つ以上のランダム変数など)に拡張する方法を回答に含めることができれば、それは素晴らしいことです! (最後に、以前に投稿された同様の質問(2変量ポアソン分布を理解する)があったことに注意しましたが、その導出は実際には調査されませんでした。)

2
2つの通常の製品の合計はラプラスですか?
これは、明らかにケースで、もし、その後、Xi∼N(0,1)Xi∼N(0,1)X_i \sim N(0,1) X1X2+X3X4∼Laplace(0,1)X1X2+X3X4∼Laplace(0,1)X_1 X_2 + X_3 X_4 \sim \mathrm{Laplace(0,1)} 任意の二次形式に関する論文を見てきましたが、それは常に恐ろしい非中心カイ二乗式をもたらします。 上記の単純な関係は、私にはまったく明白ではないように思えるので、(もしそうなら!)上記の単純な証拠は誰にもありますか?

3
単位ボールからのN個のサンプルの原点に最も近い中央値の式の説明
統計的学習の要素、問題は、高次元空間におけるK-NNとハイライトの問題に導入されます。次元の単位ボールに均一に分布するデータポイントがあります。pNNNppp 原点から最も近いデータポイントまでの距離の中央値は、次の式で与えられます。 d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} 場合は、ボールの半径の半分にダウン式の休憩、と私は最も近い点として国境に近づく方法を見ることができため、高い次元でのKNNブレークダウンの後ろに直感を作り、。しかし、なぜこの式がNに依存するのか理解できません。誰かが明確にしていただけませんか?p → ∞N=1N=1N=1p→∞p→∞p \rightarrow \infty また、この本は、「...予測はトレーニングサンプルのエッジ近くでははるかに困難です。隣接するサンプルポイント間を補間するのではなく、それらから外挿する必要がある」と述べて、この問題についてさらに取り上げています。これは深遠な発言のようですが、私はそれが何を意味するのか理解できません。誰かが言い直すことができますか?

3
正規方程式証明に関する質問
正規方程式は、Xが可逆であるという仮定なしに1つ以上の解を持つことをどのように証明できますか?(XTバツ)β= XTY(XTX)β=XTY(X^TX)\beta = X^TY 私の唯一の推測は、それが一般化された逆と関係があるということですが、私は完全に失われています。
11 regression  proof 


1
四分位回帰推定式
私は、分位点回帰推定量の2つの異なる表現を見てきました。 Q(βq)=∑i:yi≥x′iβnq∣yi−x′iβq∣+∑i:yi&lt;x′iβn(1−q)∣yi−x′iβq∣Q(βq)=∑i:yi≥xi′βnq∣yi−xi′βq∣+∑i:yi&lt;xi′βn(1−q)∣yi−xi′βq∣Q(\beta_{q}) = \sum^{n}_{i:y_{i}\geq x'_{i}\beta} q\mid y_i - x'_i \beta_q \mid + \sum^{n}_{i:y_{i}< x'_{i}\beta} (1-q)\mid y_i - x'_i \beta_q \mid および Q(βq)=∑i=1nρq(yi−x′iβq),ρq(u)=ui(q−1(ui&lt;0))Q(βq)=∑i=1nρq(yi−xi′βq),ρq(u)=ui(q−1(ui&lt;0))Q(\beta_q) = \sum^{n}_{i=1} \rho_q (y_i - x'_i \beta_q), \hspace{1cm} \rho_q(u) = u_i(q - 1(u_i < 0 )) ここで、です。これらの2つの式の同等性を示す方法を誰かに教えてもらえますか?ここでは、2番目の式から始めて、これまでに試したことを説明します。ui=yi−x′iβqui=yi−xi′βqu_i = y_i - x'_i \beta_q Q(βq)=∑i=1nui(q−1(ui&lt;0))(yi−x′iβq)=∑i=1n(yi−x′iβq)(q−1(yi−x′iβq&lt;0))(yi−x′iβq)=⎡⎣∑i:yi≥x′iβn(q(yi−x′iβq))+∑i:yi&lt;x′iβn(q(yi−x′iβq)−(yi−x′iβq))⎤⎦(yi−x′iβq)Q(βq)=∑i=1nui(q−1(ui&lt;0))(yi−xi′βq)=∑i=1n(yi−xi′βq)(q−1(yi−xi′βq&lt;0))(yi−xi′βq)=[∑i:yi≥xi′βn(q(yi−xi′βq))+∑i:yi&lt;xi′βn(q(yi−xi′βq)−(yi−xi′βq))](yi−xi′βq) \begin{align} Q(\beta_q) &= \sum^{n}_{i=1} u_i(q …

3
「統計的に証明された」という概念
ニュースが物事について「統計的に証明された」と話したとき、彼らは統計の明確に定義された概念を正しく使用しているか、それを間違って使用しているか、または単にオキシモロンを使用していますか? 「統計的証明」は、実際には仮説を証明するために実行されるものではなく、数学的な証明ではなく、「統計的検定」であると想像します。
10 inference  proof 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.