タグ付けされた質問 「monte-carlo」

(疑似)乱数と大数の法則を使用して、実際のシステムのランダムな動作をシミュレートします。

1
ブートストラップまたはモンテカルロアプローチを使用して重要な主成分を決定する方法は?
主成分分析(PCA)または経験的直交関数(EOF)分析から得られる重要なパターンの数を特定することに興味があります。この方法を気候データに適用することに特に興味があります。データフィールドはMxN行列で、Mは時間次元(例:日)、Nは空間次元(例:経度/緯度)です。重要なPCを判別するための可能なブートストラップ方法を読みましたが、より詳細な説明を見つけることができませんでした。これまで、私はこのカットオフを決定するために、Northの経験則(North et al。 例として: ###Generate data x <- -10:10 y <- -10:10 grd <- expand.grid(x=x, y=y) #3 spatial patterns sp1 <- grd$x^3+grd$y^2 tmp1 <- matrix(sp1, length(x), length(y)) image(x,y,tmp1) sp2 <- grd$x^2+grd$y^2 tmp2 <- matrix(sp2, length(x), length(y)) image(x,y,tmp2) sp3 <- 10*grd$y tmp3 <- matrix(sp3, length(x), length(y)) image(x,y,tmp3) #3 respective temporal patterns …
40 r  pca  bootstrap  monte-carlo 


1
Metropolis Hastings、Gibbs、Importance、およびRejectionサンプリングの違いは何ですか?
私はMCMCの方法を学ぼうとしており、Metropolis Hastings、Gibbs、Importance、およびRejectionのサンプリングに出会いました。これらの違いの一部は明らかです。つまり、完全な条件式がある場合にGibbsがMetropolis Hastingsの特殊なケースであるのに対し、その他はGibbsサンプラー内でMHを使用する場合など、それほど明白ではありません。これらのそれぞれの違いの大部分を見る簡単な方法は?ありがとう!


6
モンテカルロシミュレーションを使用した近似
私は最近、モンテカルロシミュレーションを見ていて、ππ\pi(長方形内の円、比例領域)などの定数を近似するために使用しています。 ただし、モンテカルロ積分を使用してeee [オイラー数]の値を近似する対応する方法を考えることはできません。 これをどのように行うことができるかについての指針はありますか?


3
Kフォールドとモンテカルロクロス検証
主に教師付き多変量解析手法に適用することを意図して、さまざまな相互検証方法を学習しようとしています。私が出会った2つは、Kフォールドとモンテカルロの相互検証技術です。私は、Kフォールドがモンテカルロのバリエーションであることを読みましたが、モンテカルロの定義を構成するものが完全に理解されているかどうかはわかりません。誰かがこれら2つの方法の違いを説明してもらえますか?

5
なぜ単純なグリッドの代わりにモンテカルロ法を使用するのですか?
関数を統合するとき、または複雑なシミュレーションで、モンテカルロ法が広く使用されているのを見てきました。ランダムなポイントを描画する代わりに、関数を統合するためにポイントのグリッドを生成しない理由を自問しています。それはより正確な結果をもたらさないでしょうか?


4
MCMC手法のサンプリングプロセスを「改善」するために、機械学習アルゴリズムまたは深層学習アルゴリズムを利用できますか?
MCMC(マルコフチェーンモンテカルロ)手法に関する知識が少ないことから、サンプリングは前述の手法の重要な部分であると理解しています。最も一般的に使用されるサンプリング方法は、ハミルトニアンとメトロポリスです。 機械学習やディープラーニングを利用して、より効率的なMCMCサンプラーを構築する方法はありますか?

4
新しいベクターをPCA空間に投影する方法は?
主成分分析(PCA)を実行した後、新しいベクトルをPCA空間に投影します(つまり、PCA座標系で座標を見つけます)。 を使用してR言語でPCAを計算しましたprcomp。これで、ベクトルにPCA回転行列を掛けることができるはずです。このマトリックスの主成分を行または列に配置する必要がありますか?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
幾何学的混合物からどのようにシミュレートできますか?
場合はf1,…,fkf1,…,fkf_1,\ldots,f_kアルゴリズムが利用可能である私は、シミュレートすることができ、そこから密度、すなわち、知られています。製品が積分可能な場合、この製品密度からシミュレートする一般的なアプローチはありますかからのシミュレーターF I∏i=1kfi(x)αiα1,…,αk>0∏i=1kfi(x)αiα1,…,αk>0\prod_{i=1}^k f_i(x)^{\alpha_i}\qquad \alpha_1,\ldots,\alpha_k>0fifif_iの?

1
境界のあるパラメータ空間でのMCMC?
問題にMCMCを適用しようとしていますが、事前(私の場合は))はエリアに制限されていますか?通常のMCMCを使用して、制限ゾーン(私の場合は[0,1] ^ 2)の外にあるサンプルを無視できますか。つまり、新しい遷移が制限(制約)エリアから外れた場合に遷移関数を再利用できますか?α∈[0,1],β∈[0,1]α∈[0,1],β∈[0,1]\alpha\in[0,1],\beta\in[0,1]

2
誰かがNUTSを英語で説明できますか?
アルゴリズムの私の理解は次のとおりです。 Uターンサンプラー(NUTS)は、ハミルトニアンモンテカルロ法ではありません。これは、それがマルコフ連鎖法ではないことを意味します。したがって、このアルゴリズムはランダムウォーク部分を回避します。 ランダムウォークを行う代わりに、NUTSは長さxのジャンプを行います。アルゴリズムの実行を続けると、各ジャンプは2倍になります。これは、軌道が開始点に戻りたいポイントに到達するまで発生します。 私の質問:Uターンの特別なところは何ですか?軌跡を2倍にすると、最適化されたポイントがスキップされないのはどうしてですか?上記の説明は正しいですか?


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.