タグ付けされた質問 「mixture」

混合分布は、他の分布の凸の組み合わせとして書かれた分布です。分布の「連結」には「compound-distributions」タグを使用します(分布のパラメーター自体がランダム変数です)。

1
2つのガウス分布の加重混合の分散とは何ですか?
平均およびと分散および 2つの正規分布AおよびBがあるとします。私は重み使用して、これらの二つの分布の重み付き混合物を取りたいとと。この混合の平均はます。μ B σ A σ B P qは0 ≤ P ≤ 1 、Q = 1 - P μ A B = (P × μ A)+ (Q × μ B)μAμA\mu_AμBμB\mu_BσAσA\sigma_AσBσB\sigma_Bpppqqq0≤p≤10≤p≤10\le p \le 1q=1−pq=1−pq = 1-pμAB=(p×μA)+(q×μB)μAB=(p×μA)+(q×μB)\mu_{AB} = (p\times\mu_A) + (q\times\mu_B) 分散はどうなりますか? 具体的な例は、男性と女性の身長の分布のパラメーターを知っていた場合です。男性が60%の人の部屋がある場合、部屋全体の予想平均身長を算出できますが、分散はどうでしょうか。

3
ロジスティック回帰の95%信頼区間を手動で計算することと、Rでconfint()関数を使用することに違いがあるのはなぜですか?
皆さん、私は説明できない奇妙なことに気づきました、できますか?要約すると、ロジスティック回帰モデルで信頼区間を計算する手動のアプローチとR関数confint()は異なる結果をもたらします。 Hosmer&LemeshowのApplied Logistic Regression(第2版)を行ってきました。第3章には、オッズ比と95%の信頼区間を計算する例があります。Rを使用すると、モデルを簡単に再現できます。 Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

10
なぜ2つのランダム変数の合計が畳み込みなのですか?
長い間、2つの確率変数の「合計」が畳み込みである理由を理解できませんでしたが、と混合密度関数の合計はf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); 畳み込みではなく算術和。「2つのランダム変数の合計」というフレーズは、googleで146,000回表示され、次のように楕円形です。RVが単一の値を生成すると考える場合、その単一の値を別のRVの単一の値に追加できます。これは、少なくとも直接ではなく、畳み込みとは関係ありません。それは2つの数値の合計です。ただし、統計のRV結果は値の集合であるため、より正確なフレーズは「2つのRVからの関連する個々の値のペアの調整された合計のセットは離散畳み込み」のようになり、...それらのRVに対応する密度関数の畳み込み。さらに単純な言語: 2 RVnnn-サンプルは、事実上、ベクトルの合計として加算される2つのn次元ベクトルです。 2つのランダム変数の合計が畳み込みと合計である方法の詳細を示してください。

3
ガウスの混合としての学生t
k>0k>0k > 0の自由度、位置パラメーターおよびスケールパラメーターが密度を持つスチューデントt分布を使用するSlllsss Γ(k+12)Γ(k2kπs2−−−−√){1+k−1(x−ls)}−(k+1)/2,Γ(k+12)Γ(k2kπs2){1+k−1(x−ls)}−(k+1)/2,\frac{\Gamma \left(\frac{k+1}{2}\right)}{\Gamma\left(\frac{k}{2}\sqrt{k \pi s^2}\right)} \left\{ 1 + k^{-1}\left( \frac{x-l}{s}\right)\right\}^{-(k+1)/2}, スチューデントの分布が、、および結合密度を積分して、限界密度を取得しますか?μ 、α 、βの関数として、結果のt分布のパラメーターは何ですか?tttX∼N(μ,σ2)X∼N(μ,σ2)X\sim N(\mu,\sigma^2)τ=1/σ2∼Γ(α,β)τ=1/σ2∼Γ(α,β)\tau = 1/\sigma^2\sim\Gamma(\alpha,\beta)f(x,τ|μ)f(x,τ|μ)f(x,\tau|\mu)f(x|μ)f(x|μ)f(x|\mu)tttμ,α,βμ,α,β\mu,\alpha,\beta 結合条件付き密度をガンマ分布と統合することにより、計算で迷子になりました。

5
期待の最大化アルゴリズムの動機
この質問は、相互検証で回答できるため、Mathematics Stack Exchangeから移行されました。 6年前に移行され ました。 EMアルゴリズムアプローチでは、Jensenの不等式を使用して、に到達しlogp(x|θ)≥∫logp(z,x|θ)p(z|x,θ(k))dz−∫logp(z|x,θ)p(z|x,θ(k))dzlog⁡p(x|θ)≥∫log⁡p(z,x|θ)p(z|x,θ(k))dz−∫log⁡p(z|x,θ)p(z|x,θ(k))dz\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz そして、を定義しますθ(k+1)θ(k+1)\theta^{(k+1)}θ(k+1)=argmaxθ∫logp(z,x|θ)p(z|x,θ(k))dzθ(k+1)=arg⁡maxθ∫log⁡p(z,x|θ)p(z|x,θ(k))dz\theta^{(k+1)}=\arg \max_{\theta}\int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz 私がEMを読むことはすべてそれを単純に落としますが、EMアルゴリズムが自然に発生する理由の説明がないためにいつも不安を感じています。通常、尤度は乗算ではなく加算を処理するために処理されが、の定義でのの出現は私にはやる気がありません。他の単調関数ではなくを考慮する必要があるのはなぜですか?さまざまな理由から、期待値の最大化の背後にある「意味」または「動機」には、情報理論と十分な統計の観点から何らかの説明があると思われます。そのような説明があれば、単なる抽象的なアルゴリズムよりもはるかに満足のいくものになります。loglog\logloglog\logθ(k+1)θ(k+1)\theta^{(k+1)}loglog\log

4
正規分布の混合からランダム変数を生成する
混合分布、特にの正規分布の混合からサンプリングするにはどうすればよいRですか?たとえば、次のものからサンプリングしたい場合: 0.3× N(0 、1 )+0.5× N(10 、1 )+0.2× N(3 、.1 )0.3×N(0、1)+0.5×N(10、1)+0.2×N(3、.1) 0.3\!\times\mathcal{N}(0,1)\; + \;0.5\!\times\mathcal{N}(10,1)\; + \;0.2\!\times\mathcal{N}(3,.1) どうすればそれができますか?

2
「これらのデータポイントはすべて同じ分布からのものです。」テスト方法
ここで説明したこのトピックを見たことはありますが、具体的なものを見つけることができませんでした。繰り返しになりますが、何を検索すればよいのかよくわかりません。 順序付けられたデータの1次元セットがあります。セット内のすべてのポイントは同じ分布から引き出されると仮定します。 この仮説をどのようにテストできますか?「このデータセットの観測値は2つの異なる分布から得られる」という一般的な代替案に対してテストするのは妥当ですか? 理想的には、どのポイントが「その他」の分布からのものかを特定したいと思います。データが順序付けられているので、データを切り取るのが「有効」かどうかを何らかの方法でテストした後、切り取り点を特定することはできますか? 編集:Glen_bの答えによると、私は厳密にポジティブな単峰分布に興味があります。また、分布を仮定し、さまざまなパラメーターをテストするという特別なケースにも興味があります。

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
混合モデルのMCMC推定でラベルスイッチングの問題に対処する標準的な方法はありますか?
MCMCを使用して混合モデルを推定する場合、ラベルスイッチング(つまり、事後分布はコンポーネントラベルのスイッチングに対して不変です)が問題です。 問題を処理するための標準的な方法(広く受け入れられている方法)はありますか? 標準的なアプローチがない場合、ラベルスイッチングの問題を解決するための主要なアプローチの長所と短所は何ですか?
15 bayesian  mcmc  mixture 

6
独立変数としてアクティビティに費やされた時間
線形モデルの独立変数として、何かをするのに費やした時間(たとえば、数週間の母乳育児)を含めたいと思います。ただし、一部の観察結果は動作にまったく関与しません。0を0としてコーディングするのは正しくありません。0は0を超える値とは質的に異なるためです(つまり、母乳育児をしない女性は、そうする女性と、非常に長い間それを行わない女性とでは大きく異なる場合があります)。私が思いつくのは、費やした時間を分類するダミーのセットですが、これは貴重な情報の無駄です。ゼロ膨張ポアソンのようなものも可能性のように思えますが、この文脈でどのように見えるかを正確に理解することはできません。誰か提案はありますか?

1
キャレットglmnetとcv.glmnet
glmnetwithin caretを使用して最適なラムダを検索cv.glmnetし、同じタスクを実行するために使用することの比較には、多くの混乱があるようです。 次のような多くの質問が提起されました。 分類モデルtrain.glmnet対cv.glmnet? キャレットでglmnetを使用する適切な方法は何ですか? 「キャレット」を使用して「glmnet」を相互検証する しかし、答えはありません。これは、質問の再現性による可能性があります。最初の質問に続いて、非常に似た例を挙げますが、同じ質問があります:推定されるラムダはなぜそんなに違うのですか? library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to directly perform CV set.seed(849) cvob1=cv.glmnet(x=as.matrix(trainX),y=trainY,family="binomial",alpha=1, type.measure="auc", nfolds = 3,lambda = seq(0.001,0.1,by = …


2
サンプルサイズが大きい場合、クラッターの問題はなぜ扱いにくいのですか?
ポイントのセットます。各点y iは、分布p (y i | x )= 1を使用して生成されます y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}yiyiy_ixの 事後を取得するには、p(x|y)∝p(y|x)p(x)=p(x) N ∏ i=1p(yi|x)と書き ます。期待伝播 に関するミンカの論文によれば、事後分布を得るには2Nの計算が必要です。p(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). xxxp(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N p(y_i | x). 2N2N2^Nであるため、大きなサンプルサイズ Nの場合、問題は扱いにくいものになります。ただし、単一の y i尤度の形式は …

1
ギブス出力からの限界尤度
のセクション4.2.1の結果を最初から再現しています ギブス出力からの限界尤度 シッダールタチブ Journal of the American Statistics Association、Vol。90、No。432.(1995年12月)、pp。1313-1321。 これは、既知の数と法線モデルの混合だk≥1k≥1k\geq 1成分。 f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) のPr (Z iは = jは| W )= W jは F (X I | Z 、μ 、σ 2)= N(X I | μ Z I、σ 2 Z I)z i(∗ )z=(z1,…,zn)z=(z1,…,zn)z=(z_1,\dots,z_n)1,…,k1,…,k1,\dots,kPr (z私= j …

2
有限混合ガウス混合とガウス混合の間の距離はどのくらいですか?
既知の重み、平均、標準偏差を持つ有限数のガウス分布が混在しているとします。平均は等しくありません。もちろん、モーメントは成分のモーメントの加重平均であるため、混合物の平均および標準偏差を計算できます。混合は正規分布ではありませんが、正規分布からどれくらい離れていますか? 222 111 動機:怠zyな人たちは、測定していない実際の分布については意見が異なります。私も怠け者です。分布も測定したくありません。彼らの仮定は矛盾していると言いたいのです。なぜなら、彼らは異なる手段をもつガウス分布の有限混合は正しくないガウス分布だと言っているからです。テールの漸近的な形状が間違っているとは言いたくありません。これらは、平均のいくつかの標準偏差内で合理的に正確であると想定される単なる近似であるためです。成分が正規分布によって近似されている場合、混合はそうではないと言いたいので、これを定量化できるようにしたいと思います。 L1L1L^12221/41/41/4

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.