タグ付けされた質問 「mathematical-statistics」

形式的な定義と一般的な結果に関係する統計の数学的理論。

3
なぜ最大尤度であり、予想尤度ではないのですか?
なぜパラメーターの最尤推定値を取得するのがそれほど一般的であるのに、予想尤度パラメーター推定値についてはほとんど聞いていません(つまり、尤度関数のモードではなく期待値に基づいています)。これは主に歴史的な理由によるものですか、それともより実質的な技術的または理論的な理由によるものですか? 最尤推定値ではなく予想尤度推定値を使用することには、大きな利点や欠点がありますか? 予想尤度推定が日常的に使用される領域はありますか?

3
事前に共役を持っている:深い特性または数学的な事故?
一部の分布には共役事前分布があり、一部の分布にはありません。この区別は単なる事故ですか?つまり、あなたは数学を行い、それは何らかの方法でうまくいきますが、事実自体を除いて分布について何も重要なことを本当に教えてくれませんか? または、共役の事前の有無は、分布のより深い特性を反映していますか?共役事前分布を持つ分布は、他の興味深い分布を共有し、他の分布ではなく、それらの分布が共役事前分布を持つようにしますか?

5
Rを介して(実行中だけでなく)統計/数学を学習するためのソース
Rを使用して統計的および数学的な概念を学習するためのソースの例(Rコード、Rパッケージ、書籍、書籍の章、記事、リンクなど)に興味があります(他の言語でも可能ですが、Rは私のお気に入りです)。 課題は、素材の学習がアルゴリズムを実行するコードの実行方法だけでなく、プログラミングに依存することです。 だから(たとえば)Rのある線形モデルのような本(これは素晴らしい本です)は私が探しているものではありません。これは、この本が主にRで線形モデルを実装する方法を示しているためですが、Rを使用して線形モデルを教えることを中心としていません。 (素晴らしい)TeachingDemosパッケージのヘルプファイルは、私が探しているものの良い例です。これは、さまざまなRアプレットおよびシミュレーションを通じて統計概念を学習するための関数を含むRパッケージです。付属のヘルプファイルは便利です。もちろん、どちらも十分ではなく、正確な詳細の多くを習得してそれらを学習するには、外部のテキストブックが必要です(ヘルプファイルでも同様です)。 すべてのリードが高く評価されます。

1
マルコフ確率場指数族はいつですか?
教科書のグラフィカルモデル、指数関数的ファミリーおよび変分推論では、M。ジョーダンとM.ウェインライトが指数関数的ファミリーとマルコフランダムフィールド(無向グラフィカルモデル)の関係について説明しています。 次の質問で、それらの関係をよりよく理解しようとしています。 すべてのMRFは指数ファミリーのメンバーですか? 指数ファミリーのすべてのメンバーをMRFとして表すことはできますか? MRFが指数ファミリーである場合、一方のタイプの分布が他方に含まれない良い例は何ですか?≠≠\neq 教科書(第3章)で理解していることから、ジョーダンとウェインライトは次の議論を提示します。 ある分布に従うaaスカラー確率変数Xがあり、 iid観測を描画し、を特定したいとします。n X 1、… X n ppppnnnバツ1、… Xnバツ1、…バツnX^1, \ldots X^nppp 特定の関数の経験的期待値を計算しますϕαϕα\phi_\alpha% μ^α= 1n∑ni = 1ϕα(X私)、μ^α=1n∑私=1nϕα(バツ私)、\hat{\mu}_\alpha= \frac{1}{n}\sum^n_{i=1}\phi_\alpha(X^i), すべてのα ∈ Iα∈私\alpha \in \mathcal{I} ここで、いくつかのセットの各、関数インデックスを付けますI φ α:X → Rαα\alpha私私\mathcal{I}ϕα: X→ Rϕα:バツ→R\phi_\alpha: \mathcal{X} \rightarrow R 次に、次の2セットの量を強制的に整合させる、つまり一致させる(を識別する)場合:ppp 期待される分布十分な統計φ PEp[ (ϕα(X)] = ∫バツϕα(x )p (x ) ν( dx )Ep[(ϕα(バツ)]=∫バツϕα(バツ)p(バツ)ν(dバツ)E_p[(\phi_\alpha(X)]=\int_\mathcal{X}\phi_\alpha(x)p(x)\nu(dx)ϕϕ\phippp 経験的分布の下での期待 …


4
新しいベクターをPCA空間に投影する方法は?
主成分分析(PCA)を実行した後、新しいベクトルをPCA空間に投影します(つまり、PCA座標系で座標を見つけます)。 を使用してR言語でPCAを計算しましたprcomp。これで、ベクトルにPCA回転行列を掛けることができるはずです。このマトリックスの主成分を行または列に配置する必要がありますか?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
それから
古典的な統計では、データセットy 1、… 、y nの統計TTTがパラメーターθに対して完全であると定義され、それから0の不偏推定量を非自明に形成することは不可能であるという定義があります。つまり、唯一の方法は、持っているE H (T (Y ))= 0を全てに対してθを有することであるhはである0をほぼ確実。y1,…,yny1,…,yny_1, \ldots, y_nθθ\theta000Eh(T(y))=0Eh(T(y))=0E h(T (y )) = 0θθ\thetahhh000 この背後に直感がありますか?これはかなり機械的な方法のように思えますが、これは以前に尋ねられたことを知っていますが、入門者の学生が資料を消化するのが簡単になる直感を非常に理解しやすいかどうか疑問に思っていました。

4
平均(または別のモーメント)が存在しない非負の離散分布の例?
私はscipyでいくつかの仕事をしていて、非負の離散確率変数が未定義の瞬間を持つことができるかどうか、コアscipyグループのメンバーと会話ができました。彼は正しいと思いますが、便利な証拠はありません。誰でもこの主張を表示/証明できますか?(または、この主張が真実ではない場合) 離散確率変数がをサポートしている場合、便利な例はありませんが、Cauchy分布の離散化バージョンは、未定義の瞬間を得るための例として役立つはずです。非負性(おそらくを含む)の状態は、問題を(少なくとも私にとって)困難にしているようです。ZZ\mathbb{Z}000

5
尤度の原則が*本当に*重要な例?
比例尤度を持つ2つの異なる防御可能なテストが著しく異なる(および同様に防御可能な)推論につながる例があります。たとえば、p値は桁違いに離れていますが、代替に対する力は似ていますか? 私が見るすべての例は非常にばかげており、二項と負の二項を比較しています。最初のp値は7%で、2番目のp値は3%です。 5%(ちなみに、推論の基準としてはかなり低い)などの重要性を持ち、権力を見ることすらしません。たとえば、しきい値を1%に変更すると、どちらも同じ結論になります。 著しく異なる防御可能な推論につながる例を見たことはありません。そのような例はありますか? 可能性の原理が統計的推論の基礎の基本的なものであるかのように、このトピックに多くのインクが費やされているのを見てきたので、私は尋ねています。しかし、上記のような馬鹿げた例が最良の例である場合、原則はまったく取るに足らないように見えます。 したがって、私は非常に説得力のある例を探しています.LPに従わない場合、証拠の重みは1つのテストで一方向を圧倒的に指し示しますが、比例尤度を持つ別のテストでは証拠の重みが反対方向を圧倒的に指摘し、両方の結論が理にかなっているように見えます。 理想的には、対検定など、同じ選択肢を検出するための比例尤度と同等の検出力など、任意の遠く離れた、しかし賢明な答えが得られることを実証できます。p=0.1p=0.1p =0.1p=10−10p=10−10p= 10^{-10} PS:ブルースの答えは、この質問をまったく扱っていません。

7
対称正定値(SPD)行列がそれほど重要なのはなぜですか?
対称正定値(SPD)行列の定義は知っていますが、もっと理解したいです。 なぜ、直感的に重要なのですか? これが私が知っていることです。ほかに何か? 特定のデータの場合、共分散行列はSPDです。共分散行列は重要なメトリックです。直感的な説明については、この優れた投稿を参照してください。 二次形式12x⊤Ax−b⊤x+c12x⊤Ax−b⊤x+c\frac 1 2 x^\top Ax-b^\top x +cあれば、凸状であり、AAASPDです。凸は、ローカルソリューションがグローバルソリューションであることを確認できる関数の優れたプロパティです。Convexの問題には、解決すべき多くの優れたアルゴリズムがありますが、covex以外の問題にはありません。 AAAがSPDの場合、2次形式の最適化ソリューションはminimize 12x⊤Ax−b⊤x+cminimize 12x⊤Ax−b⊤x+c\text{minimize}~~~ \frac 1 2 x^\top Ax-b^\top x +cと線形システムのための溶液Ax=bAx=bAx=b同じです。したがって、2つの古典的な問題間で変換を実行できます。これは、あるドメインで発見されたトリックを別のドメインで使用できるため、重要です。たとえば、共役勾配法を使用して線形システムを解くことができます。 コレスキー分解など、SPDマトリックスに適した多くの優れたアルゴリズム(高速で安定した数値)があります。 編集:私はSPD行列のアイデンティティを尋ねるのではなく、重要性を示すためにプロパティの背後にある直観を求めています。たとえば、@ Matthew Druryが述べたように、行列がSPDの場合、固有値はすべて正の実数ですが、なぜすべてが正であるかが重要です。@Matthew Druryはフローに対して素晴らしい回答をしてくれました。

8
統計は数学ではありませんか?
統計は数学ですか? それはすべて数字であり、ほとんどが数学部門によって教えられており、数学のクレジットを取得していることを考えると、人々がそれを言うとき、それが数学のマイナーな部分であると言ったり、単に数学を適用しただけのように、冗談を言っているだけなのか疑問に思います。 基本的な公理に基づいてすべてを構築できない統計のようなものは、数学と見なすことができるのだろうか。たとえば、値は、データの意味を理解するために生まれた概念ですが、より基本的な原則の論理的な結果ではありません。ppp


3
フィッシャーメトリックと相対エントロピーの関係
誰かがフィッシャー情報メトリックと相対エントロピー(またはKL発散)の間の次の関係を純粋に数学的な厳密な方法で証明できますか? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3) ここでa=(a1,…,an),da=(da1,…,dan)a=(a1,…,an),da=(da1,…,dan)a=(a^1,\dots, a^n), da=(da^1,\dots,da^n)、gi,j=∫∂i(logp(x;a))∂j(logp(x;a)) p(x;a) dxgi,j=∫∂i(log⁡p(x;a))∂j(log⁡p(x;a)) p(x;a) dxg_{i,j}=\int \partial_i (\log p(x;a)) \partial_j(\log p(x;a))~ p(x;a)~dxgi,jdaidaj:=∑i,jgi,jdaidajgi,jdaidaj:=∑i,jgi,jdaidajg_{i,j} \, da^i \, da^j := \sum_{i,j}g_{i,j} \, da^i \, da^j(x; a)〜dxおよびg_ {i、j} \、da ^ i \、da ^ j:= \ sum_ …

2
モーメントを使用して整数ストリームの近似値を計算しますか?
math.stackexchangeから移行されました。 私は整数の長いストリームを処理していますが、多くのデータを保存せずにストリームのさまざまなパーセンタイルをおおよそ計算できるようにするために、しばらく追跡することを検討しています。数秒からパーセンタイルを計算する最も簡単な方法は何ですか。少量のデータのみを保存するより良いアプローチがありますか?

2
k-meansの収束の証明
割り当てについては、k-meansが有限のステップ数で収束するという証明を提供するように依頼されました。 これは私が書いたものです: CCCE(C)=∑xmini=1k∥x−ci∥2E(C)=∑xmini=1k‖x−ci‖2E(C)=\sum_{\mathbf{x}}\min_{i=1}^{k}\left\Vert \mathbf{x}-\mathbf{c}_{i}\right\Vert ^{2}E(C)E(C)E(C) ステップ2は、最も近いクラスター中心で各データポイントにラベルを付けるステップを指します。ステップ3は、平均を取ることによってセンターが更新されるステップです。 これは、有限数のステップで収束を証明するには十分ではありません。エネルギーは小さくなり続ける可能性がありますが、エネルギーをあまり変えずに中心点が飛び回る可能性を排除しません。言い換えれば、複数のエネルギー最小値があり、アルゴリズムはそれらの間を飛び回ることができますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.