タグ付けされた質問 「bootstrap」

ブートストラップは、統計のサンプリング分布を推定するためのリサンプリング手法です。

1
サンプルのブートストラップ時にセンタリングが必要ですか?
サンプル平均の分布を近似する方法について読んでいると、ノンパラメトリックブートストラップ法に出くわしました。明らかに一つの分布近似することができるの分布によってˉ X * N - ˉ X N、ˉ X * nは、ブートストラップサンプルのサンプルの平均を意味します。X¯n−μX¯n−μ\bar{X}_n-\muX¯∗n−X¯nX¯n∗−X¯n\bar{X}_n^*-\bar{X}_nX¯∗nX¯n∗\bar{X}_n^* 私の質問は、「センタリングが必要ですか?」です。何のために? 私だけでおおよそのことができませんでしたによるP (ˉ X * N ≤ X )?P(X¯n≤x)P(X¯n≤x)\mathbb{P}\left(\bar{X}_n \leq x\right)P(X¯∗n≤x)P(X¯n∗≤x)\mathbb{P}\left(\bar{X}_n^* \leq x\right)

1
ブートストラップは、推定中央値の不確実性を評価する有効な方法ですか?
ブートストラップは平均推定値の不確実性にアクセスするのにうまく機能しますが、分位数推定値の不確実性(特に中央値)を評価するのにブートストラップがうまく機能しない場所を読んだことを覚えています。 これをどこで読んだか覚えていないので、グーグルで簡単に検索しても見つけられませんでした。これと参考文献についての考えは大歓迎です。

3
ブートストラップされた回帰スロープを比較するにはどうすればよいですか?
それぞれ独立変数xと従属変数yのデータペアのn個の観測値を持つ2つのデータセットがあるとします。さらに、観測値を(置換を使用して)N回ブートストラップし、回帰y = a + bxを計算することにより、各データセットの回帰勾配の分布を生成すると仮定します。毎回。勾配が大幅に異なると言うために、2つの分布を比較するにはどうすればよいですか?分布の中央値間の差をテストするためのUテストはNに大きく依存します。つまり、ブートストラップを繰り返す頻度が高いほど、差は大きくなります。有意差を決定するために、分布間のオーバーラップをどのように計算する必要がありますか?

2
検証とモデル選択のブートストラップについて
ブートストラップの基本がどのように機能するかは理解できていると思いますが、ブートストラップを使用してモデルを選択したり、過剰適合を回避したりする方法を理解できません。 たとえば、モデルの選択では、ブートストラップサンプル全体で最小のエラー(おそらく分散?)が得られるモデルを選択しますか? モデルの選択または検証にブートストラップを使用する方法を説明するテキストはありますか? 編集:このスレッドの詳細と、この質問の背景にある詳細については@ mark999による回答をご覧ください。

2
構造方程式モデルに非常に小さなサンプルがあることの複雑さ
Amos 18で構造方程式モデル(SEM)を実行しています。実験に100人の参加者(緩やかに使用)を探していましたが、SEMを成功させるにはおそらく十分ではないと思われました。SEM(EFA、CFAとともに)は「大規模なサンプル」統計手順であると繰り返し言われました。簡単に言えば、私は100人の参加者には到達しませんでした(なんて驚きです!)。問題のある2つのデータポイントを除外した後は42人しかいません。興味深いことに、とにかくこのモデルを試してみましたが、驚いたことに、非常にうまく適合しているようでした!CFI> .95、RMSEA <.09、SRMR <.08。 このモデルは単純ではありません。実際、比較的複雑だと思います。2つの潜在変数があり、1つは観測値が2つ、もう1つは観測値が5つあります。また、モデルには4つの追加の観測変数があります。間接変数と直接変数には多くの関係があり、例として、いくつかの変数は他の4つの変数に内因性があります。 私はSEMにやや不慣れです。ただし、SEMに精通している私が知っている2人の個人は、フィットインデックスが良好である限り、効果は解釈可能であり(有意である限り)、モデルに重大な「誤り」はないことを教えてくれます。いくつかの適合指数は、良好な適合を示唆するという点で小さなサンプルに対してバイアスがかけられていることを知っていますが、前述の3つはうまく見えるようで、同様にバイアスがかけられていないと思います。間接的な影響をテストするために、ブートストラップ(2000サンプル程度)を使用しています。90%のバイアス補正信頼度、モンテカルロ。さらに、3つの異なる条件に対して3つの異なるSEMを実行しています。 私はあなたの何人かを考慮したい2つの質問があります、そして、あなたが貢献する何かがあるならば、返信してください: 適合指数で実証されていないモデルに重大な弱点はありますか?小さなサンプルは研究の弱点として強調されますが、私が完全に忘れている大きな統計的問題があるかどうか疑問に思っています。将来、さらに10〜20人の参加者を獲得する予定ですが、このような分析のサンプルは比較的少ないままです。 私の小さなサンプル、または私がそれを使用しているコンテキストを考えると、ブートストラップの使用に問題はありますか? これらの質問がこのフォーラムにとって「基本的」すぎないことを願っています。私はSEMおよび関連事項に関する多くの章を読みましたが、この分野の意見に関しては人々が非常に分散していることがわかりました! 乾杯

1
同じスキューのヌルについて2つの独立したサンプルをテストしますか?
同じスキューを持つ母集団から派生しているという帰無仮説について、2つの独立したサンプルをテストするには、どのテストを使用できますか?スキューが固定数に等しいかどうかの古典的な1サンプルテストがあります(テストには6番目のサンプルモーメントが含まれます!)。2サンプルテストへの簡単な翻訳はありますか? データの非常に高い瞬間を含まない手法はありますか?(私は「bootstrap it」という形式の答えを期待しています:ブートストラップ技術はこの問題に適していることが知られていますか?)

1
t検定の「ほぼ正常」の評価
Welchのt検定を使用して平均の等価性をテストしています。基礎となる分布は、通常とはほど遠いです(関連する議論の例よりも歪んでいます)。より多くのデータを取得できますが、その範囲を決定する原則的な方法が必要です。 サンプルの分布が許容可能であるという評価を行うための優れたヒューリスティックはありますか?正規性からの逸脱が最も懸念されるのはどれですか? サンプル統計のブートストラップ信頼区間に依存する他のアプローチがありますか?

1
ジャックナイフの現代的な用途はありますか?
質問: ブートストラップはジャックナイフよりも優れています。ただし、パラメータ推定から不確実性を特徴付けるための唯一の、または少なくとも実行可能なオプションがジャックナイフである場合があるのではないかと思っています。また、実際の状況では、ブートストラップに比べて偏り/不正確なジャックナイフがどのように発生し、ジャックナイフの結果は、より複雑なブートストラップが開発される前に予備的な洞察を提供できますか? コンテキスト: 友人がブラックボックス機械学習アルゴリズム(MaxEnt)を使用して、「プレゼンスのみ」または「ポジティブのみ」の地理データを分類しています。一般的なモデル評価は、通常、相互検証とROC曲線を使用して行われます。しかし、彼女はモデルの出力を使用して、モデル出力の単一の数値記述を導き出し、その数値の周りの信頼区間を求めています。Jackknifingは、この値に関する不確実性を特徴付ける合理的な方法のようです。各データポイントはマップ上の一意の場所であり、置換で再サンプリングできないため、ブートストラップは関連しているようには見えません。モデリングプログラム自体は、最終的に彼女が必要とするものを提供できる可能性があります。ただし、jackknifingが役立つかどうか/いつに興味があるのでしょうか。

1
なぜブートストラップCIを常に使用しないのですか?
ブートストラップCI(およびバーティキュラーのBCa)が通常の分散データに対してどのように機能するのか疑問に思っていました。さまざまなタイプのディストリビューションでのパフォーマンスを調査する多くの作業があるようですが、通常の分布データでは何も見つかりませんでした。最初に勉強するのは明らかなことのように思えるので、私は論文が古すぎると思います。 Rブートパッケージを使用していくつかのモンテカルロシミュレーションを行ったところ、ブートストラップCIは正確なCIと一致していることがわかりましたが、小さなサンプル(N <20)の場合、少し寛大な(小さなCI)傾向があります。サンプルが十分に大きい場合、それらは本質的に同じです。 これは、ブートストラップを常に使用しない理由があるのではないかと思います。分布が正常であるかどうかの評価の難しさ、およびこの背後にある多くの落とし穴を考えると、分布に関係なくブートストラップCIを決定および報告しないことは理にかなっています。ノンパラメトリックテストは電力が少ないため、体系的に使用しないことの動機を理解していますが、シミュレーションではブートストラップCIの場合はそうではないことがわかります。彼らはさらに小さいです。 私を悩ませる同様の質問は、なぜ中心傾向の尺度として中央値を常に使用しないのかということです。多くの場合、非正規分布データの特性評価に使用することをお勧めしますが、中央値は正規分布データの平均と同じなので、なぜ区別するのですか?分布が正規であるかどうかを決定する手順を取り除くことができれば、非常に有益と思われます。 これらの問題についてのあなたの考えと、それらが以前に議論されたかどうかについて、私は非常に興味があります。参考文献をいただければ幸いです。 ありがとう! ピエール

5
非常に多数のデータポイントで値の代入を実行する方法は?
非常に大きなデータセットがあり、約5%のランダムな値が欠落しています。これらの変数は互いに相関しています。次のRデータセットの例は、ダミーの相関データを使用した単なるおもちゃの例です。 set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds <- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
ブートストラップテストを実行して2つのサンプルの平均を比較する方法
2つの大きく歪んだサンプルがあり、t統計を使用して平均を比較するためにブートストラップを使用しようとしています。 それを行う正しい手順は何ですか? 私が使用しているプロセス これが正規分布ではないことがわかっている場合、最終ステップで元のデータまたは観測されたデータの標準誤差を使用することの妥当性を心配しています。 私の手順は次のとおりです。 ブートストラップ-交換でランダムにサンプリング(N = 1000) 各ブートストラップのt統計を計算してt分布を作成します: T(b )= (X¯¯¯¯b 1− X¯¯¯¯b 2)− (X¯¯¯¯1− X¯¯¯¯2)σ2x b 1/ n+ σ2x b 2/ n−−−−−−−−−−−−−√T(b)=(バツ¯b1−バツ¯b2)−(バツ¯1−バツ¯2)σバツb12/n+σバツb22/n T(b) = \frac{(\overline{X}_{b1}-\overline{X}_{b2})-(\overline{X}_1-\overline{X}_2) }{\sqrt{ \sigma^2_{xb1}/n + \sigma^2_{xb2}/n }} t 分布のおよびパーセンタイルを取得してt信頼区間を推定するα / 2α/2\alpha/21 - α / 21−α/21-\alpha/2 信頼区間を取得するには: C私L= (X¯¯¯¯1− X¯¯¯¯2)− T_ C私L。SEO R I GI N …

2
多重代入データセット間でブートストラップされたp値をプールするにはどうすればよいですか?
乗算代入(MI)データからを推定するためにp値をブートストラップしたいのですが、MIセット全体でp値を結合する方法が不明確であるという問題に関心があります。θθ\theta MIデータセットの場合、推定値の合計分散を取得する標準的なアプローチでは、Rubinのルールを使用します。MIデータセットのプーリングのレビューについては、こちらをご覧ください。合計分散の平方根は、標準誤差推定として機能します。ただし、推定量によっては、総分散に既知の閉形式がないか、サンプリング分布が正規ではありません。統計量θ / s e (θ )は、漸近的ではなく、t分布しない場合があります。θθ\thetaθ / s e (θ )θ/se(θ){\theta}/{se(\theta)} したがって、完全なデータの場合、1つの代替オプションは、統計をブートストラップして分散、p値、および信頼区間を見つけることです。たとえ、サムリング分布が正規でなく、その閉形式が不明であってもです。MIの場合、2つのオプションがあります。 MIデータセット全体でブートストラップされた分散をプールする MIデータセット全体でp値または信頼限界をプールする θθ\theta だから私の質問は次のとおりです。複数の代入データセットにまたがって複数のブートストラップされたp値(または信頼区間)をプールする方法は? 進め方についての提案を歓迎します、ありがとうございます。

2
ブートストラップとベイジアン手法を使用する場合
信頼性テストを含むかなり複雑な意思決定分析の問題があり、論理的なアプローチ(私にとって)は、MCMCを使用してベイジアン分析をサポートすることを含むようです。ただし、ブートストラップアプローチを使用する方が適切であることが示唆されています。誰かが他の技術よりもどちらかの技術の使用をサポートする可能性のあるリファレンス(または3つ)を提案できますか(特定の状況でも)。FWIW、私は複数の異なるソースからのデータと故障の少ない/ゼロの観測値を持っています。また、サブシステムレベルとシステムレベルのデータもあります。 このような比較が利用できるはずですが、私は通常の容疑者を検索する運がありませんでした。ポインタを事前に感謝します。

1
依存する観測のブートストラップを介した信頼区間の計算
標準形式のブートストラップを使用して、観測値がiidであれば、推定統計の信頼区間を計算できます。I. Visser et al。「隠れマルコフモデルパラメーターの信頼区間」のパラメトリックブートストラップを使用して、HMMパラメーターのCIを計算しました。ただし、観測シーケンスにHMMを近似する場合、観測値は依存関係にあると既に仮定しています(混合モデルとは対照的)。 2つの質問があります。 iidの仮定はブートストラップで何をしますか? パラメトリックブートストラップでiid要件を無視できますか? Visser et al。方法は簡単に次のとおりです。 我々は観測シーケンスがあるとしY=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nパラメータの実際の未知のセットとHMMをサンプリングに起因θ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l。 パラメータは、EMアルゴリズムを用いて推定することができるθ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l 推定HMMを使用して、サイズブートストラップサンプルを生成しnnnますY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n ブートストラップサンプルに係るHMMのパラメータを推定するθ^∗=θ^∗1,θ^∗2,...,θ^∗lθ^∗=θ^1∗,θ^2∗,...,θ^l∗\hat{\theta}^*=\hat{\theta}^*_1,\hat{\theta}^*_2,...,\hat{\theta}^*_l ステップ3および4繰り返し時間(例えば、B = 1000)で得られたBのブートストラップ推定:θ *(1 )、θ *(2 )、。。。、θ *(B )BBBBBBBBBθ^∗(1),θ^∗(2),...,θ^∗(B)θ^∗(1),θ^∗(2),...,θ^∗(B)\hat{\theta}^*(1),\hat{\theta}^*(2),...,\hat{\theta}^*(B) 各推定されたパラメータのCI計算θ iのの分布使用してθを * 私は、ブートストラップ推定に。θ^iθ^i\hat{\theta}_iθ^∗iθ^i∗\hat{\theta}^*_i 注(私の調査結果): パーセンタイル方式を使用して、正しいカバレッジを得るためにCIを計算する必要があります(正常性は悪い仮定です)。 ブートストラップディストリビューションのバイアスを修正する必要があります。分布平均ことを意味θは、 * 私はにシフトする必要がありますθ Iθ^∗iθ^i∗\hat{\theta}^*_iθ^iθ^i\hat{\theta}_i

2
元のサンプルよりも小さいブートストラップサンプルを使用できますか?
ブートストラップを使用して、N = 250の企業とT = 50か月のパネルデータセットから推定パラメーターの信頼区間を推定したいと思います。パラメータの推定は、カルマンフィルタリングと複雑な非線形推定を使用するため、計算コストがかかります(数日間の計算)。したがって、M = N = 250会社のB(数百以上)のBサンプルを元のサンプルから描画し、パラメーターBを推定することは、これがブートストラップの基本的な方法であっても、計算上実行不可能です。 したがって、元の会社からの置き換えでランダムに描画されたブートストラップサンプルに小さいM(たとえば10)を使用し、モデルパラメータのブートストラップ推定共分散行列をスケーリングすることを検討しています(上記の例では1/25)で、完全なサンプルで推定されたモデルパラメーターの共分散行列を計算します。1NM1NM\frac{1}{\frac{N}{M}} 次に、望ましい信頼区間は、正規性の仮定に基づいて概算できます。または、同様の手順を使用してスケーリングされた小さいサンプルの経験的な信頼区間(たとえば、係数で縮小できます。1NM√1NM\frac{1}{\sqrt{\frac{N}{M}}} この回避策は意味がありますか?これを正当化する理論的な結果はありますか?この課題に取り組むための代替手段はありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.