タグ付けされた質問 「bootstrap」

ブートストラップは、統計のサンプリング分布を推定するためのリサンプリング手法です。

1
リサンプリングシミュレーションの中心的な傾向が観測値と著しく異なるのはなぜ/なぜですか?
ブートストラップされたサンプルの中心傾向(つまり、平均値および/または中央値)が観測値に類似していることを常に期待する必要がありますか? この特定のケースでは、被験者の2つの条件に指数関数的に分布する応答があります(私は実験を実行せず、データしかありません)。私は効果サイズをブートストラップするタスクを課されました(コーエンのdの観点から、1サンプルの式、つまりは、母標準偏差のサンプル推定です。これのフォーラムはRosenthal&Rosnow(2008)のpg 398、式13.27で提供されています。これらは分母にを使用しています。これは歴史的に正しいためですが、標準的な実務ではdをを使用するように誤って定義しているため、上記の計算でそのエラーを続けています。MD¯sDMD¯sD\bar{M_D}\over{s_D}σσ\sigmasss 参加者内(つまり、参加者のRTが複数回サンプリングされる場合がある)と被験者全体(参加者が複数回サンプリングされる場合がある)の両方をランダム化したため、参加者1が2回サンプリングされても、両方のサンプルの平均RTはありそうにありません完全に等しい。ランダム化/リサンプリングされたデータセットごとに、dを再計算します。この場合、です。私が観察しているのは、コーエンのdの観測値が、シミュレートされた観測値の2.5パーセンタイルよりも通常97.5パーセンタイルに近い傾向です。また、ブートストラップの中央値よりも0に近い傾向があります(シミュレートされた分布の密度の5%〜10%)。Nsim=10000Nsim=10000N_{sim} = 10000 これを説明できるものは何ですか(私が観察している効果の大きさを覚えておいてください)?それは、リサンプリングの際の平均値の端部と比較して観察されたものよりも極端な分散を取得するほうが、リサンプリングの際に「簡単」であるためですか?これは、過度にマッサージ/選択的にトリミングされたデータを反映しているのでしょうか?このリサンプリングアプローチはブートストラップと同じですか?そうでない場合、CIを作成するために他に何をする必要がありますか?


2
膨大なデータセットが与えられた場合、なぜ統計モデルは過剰適合しますか?
現在のプロジェクトでは、特定のグループの行動を予測するモデルを構築する必要があるかもしれません。トレーニングデータセットには6つの変数のみが含まれます(idは識別目的のみです)。 id, age, income, gender, job category, monthly spend その中で monthly spend応答変数です。ただし、トレーニングデータセットには約300万行が含まれid, age, income, gender, job category、予測されるデータセット(応答変数は含まれるが、含まれない)には100万行が含まれます。私の質問は、統計モデルにあまりにも多くの行(この場合は300万行)を投げた場合に潜在的な問題はありますか?計算コストが懸念事項の1つであることを理解していますが、他に懸念事項はありますか?データセットのサイズの問題を完全に説明している本/紙はありますか?
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

1
(決定木を使用した)バギングの剪定は避けるべきですか?
木の「袋詰め」アンサンブルでの剪定は不要であると主張するいくつかの投稿と論文を見つけました(1を参照)。 ただし、アンサンブル内の個々のツリーに対してプルーニング(たとえば、OOBサンプルを使用)を実行することは、必ずしも(または少なくともいくつかの既知のケースでは)損傷を与えるのでしょうか。 ありがとう!

1
データから再サンプリングしてp値をシミュレートする方法
しばらく前に、タイムスタンプ間の時間の相関について質問し、コード間の平均距離を計算できるとピーターエリスから返信を受けました ... これにより、どのビヘイビアーがクラスター化されているかがある程度わかりますが、これが偶然によるものではないことも確認する必要があります。 これを確認するために、関係がないという帰無仮説の下でモデルによって生成されたシミュレーションデータを作成します。これを行うには、おそらく各イベント間の時間(たとえば、各あくびの間)の時間のリサンプリングに基づいて、可能性のあるnullモデルから各動作の時間のデータを生成し、架空のnullモデルイベントの新しいタイムスタンプのセットを作成する必要があります。次に、このnullモデルの同じインジケーター統計を計算し、本物のデータのインジケーターと比較します。このシミュレーションを何度も繰り返すことにより、データのインジケーターがnullモデルのシミュレーションデータと十分に異なるかどうか(各あくびから最も近いストレッチまでの平均時間が短いなど)を統計的に有意な証拠としてカウントできます。あなたの帰無仮説。 私はようやくこれを行うためのスキルセットを所有し、Rでこれを行いましたが、(a)詳細について学ぶ(b)私の背後にある理論についてインテリジェントに話すことができるように、このメソッドまたはテクニックが何と呼ばれるかわかりませんやってる これは順列検定と呼ばれることを示唆している人もいれば、ブートストラップと似ているが同じではないと言う人もいれば、モンテカルロ再サンプリングに関連していると私が言った人もいます。 NULLがTRUEの場合、このリサンプリング方法は何と呼ばれますか?回答をバックアップするためのリファレンスが1つまたは2つある場合は、役立つかもしれませんが必要ではありません。

1
ペアのブートストラップでp値を計算する
私は、バークレーNLPグループからの統計的テストに関する新しい論文「NLP における統計的有意性の実証的調査」に出くわしました。 論文にはp値を計算するための疑似コードがあり、基本的には、のサンプルセットは、データからの置換でサンプリングされます。その後 xバツ1、x2、。。。、xNバツ1、バツ2、。。。、バツNx_1,x_2,...,x_Nバツバツx p値= カウント(δ(x私)&gt; 2 δ(x))/Np-value=count(δ(xi)&gt;2δ(x))/N\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/N、ここではメトリックゲインです。δ(xi)δ(xi)\delta(x_i) ケーンの論文「機械翻訳評価のための統計的有意性検定」のp値を計算する式を理解できました。 p-value=count(δa(xi)&lt;δb(xi))/Np-value=count(δa(xi)&lt;δb(xi))/N\text{p-value} = \text{count}(\delta_a(x_i) < \delta_b(x_i))/N、ここでとはそれぞれシステムとシステムメトリックゲインです。δをbは Bδaδa\delta_aδbδb\delta_baaabbb 式のための任意の説明または参照ある。著者は、の平均があり、が対称である場合、上記の両方の式は同等であることにも言及しました。δ (X I)δ (X )δ (X Ip値= カウント(δ(x私)&gt; 2δ(x ))/ Np-value=カウント(δ(バツ私)&gt;2δ(バツ))/N\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/Nδ(x私)δ(バツ私)\delta(x_i)δ(x )δ(バツ)\delta(x)δ(x私)δ(バツ私)\delta(x_i)

2
ブートストラップと数値積分
ブートストラップアプローチに関する私の理解は、Wassermanのフレームワーク(ほとんど逐語的)に基づいています。 LET (統計であるX iの分布から引き出さIIDサンプルである)。我々は推定したいとしの分散-与えられた。Tん= g(X1、。。。、Xん)Tん=g(バツ1、。。。、バツん)T_n = g(X_1, ..., X_n)バツ私バツ私X_iV F(T n)T n FFFFVF(Tん)VF(Tん)V_F(T_n)TんTんT_nFFF ブートストラップアプローチは、次の2つの手順に従います。 を推定します。ここで、は経験分布関数です。V F(T N)FVF(Tん)VF(Tん)V_F(T_n)VF^(Tん)VF^(Tん)V_{\hat{F}}(T_n)F^F^\hat{F} 近似シミュレーションを用いて。VF^(Tん)VF^(Tん)V_{\hat{F}}(T_n) ステップ2のシミュレーションは、実際に役立つ値に対して実行不可能であることを除いて、正確な計算に置き換えることができることを正しく理解していますか?これが私の考えです:は積分に正確に等しくなり。は有限数ステップのステップ関数です。したがって、質量がゼロでない点を除くすべての点を無視できます。したがって、積分は項の合計に正確に等しくなります。一旦 14を超えると、簡単な直接計算が不可能です。V F T N(X 1、。。。、X N)D F(X 1)D F(X 2)。。。D F(X N)F N N D F(X )、N 、N、NんんnVF^VF^V_{\hat{F}}Tん(X1、。。。、Xん)dF^(X1)dF^(X2)。。。dF^(Xん)Tん(バツ1、。。。、バツん)dF^(バツ1)dF^(バツ2)。。。dF^(バツん)T_n(X_1, ..., X_n)d\hat{F}(X_1)d\hat{F}(X_2)...d\hat{F}(X_n)F^F^\hat{F}んんnんんndF^(x )dF^(バツ)d\hat{F}(x)んんんんn^nんんn しかし、私たちがやろうとしているのは、積分を計算することだけです。総当たりのブートストラップシミュレーションを、積分を取るための従来の数値アルゴリズムに置き換えてみませんか?同じ計算時間ではるかに高い精度になるのではないでしょうか? サンプル空間をセクションに分割するだけの簡単なもの(おそらく、サンプル統計が速く変化する小さなボリュームの場合)で、中間点を使用して各セクションの統計値を推定することは、ブラインドブートストラップよりも優れているようです。 何が欠けていますか? おそらく、ブートストラップは非常に高速で機能するので、もっと複雑なことをする必要はありませんか?(例えば、ステップ1での精度の損失がステップ2でのそれよりもはるかに大きい場合、ステップ2の改善はあまり役に立ちません。)

1
ブートストラップされたパラメーターと構造方程式モデルの非正規性による推定の適合
環境: 構造方程式モデリングのコンテキスト内では、マルディア検定によると非正規性がありますが、歪度と尖度の1変量インデックスは2.0未満です。 質問: パラメータ推定(係数推定)は、バイアス補正された方法でブートストラップ(1000反復)を使用して評価する必要がありますか? 従来のカイ2乗検定の代わりに、Bollen-Stineブートストラップバージョンを使用する必要がありますか?

3
非常に大きなファイルからのサンプルで回帰を行っています。サンプル係数の平均とSEは、一貫した推定量ですか?
100M行30列程度のかなり大きなファイルがあり、その上で複数の回帰を実行したいと思います。私はファイル全体で回帰を実行するための特別なコードを持っていますが、私がしたいことは、ファイルからランダムなサンプルを描画してRで実行することです。戦略は次のとおりです。対象の係数を保存し、係数ごとに異なるサンプルを使用してこのプロセスをM回繰り返し、M回の実行に対する係数の平均と標準誤差を計算します。 Mランで計算された平均を、データセット全体で計算された係数の値の推定値として解釈し、平均の標準誤差を、データセット全体で計算された係数の標準誤差の推定値として解釈したいと思います。 実験はこれが有望な戦略であることを示していますが、根本的な理論についてはわかりません。私の推定者は一貫して効率的で偏っていませんか?それらが一貫している場合、どれくらい早く収束すべきですか?MとNのどのトレードオフが最適ですか? 誰かが私に関連理論を使って論文や本などを教えてもらえれば幸いです。 今後ともよろしくお願いいたします。 ジョー・リッカート

2
異分散性がある場合に、ロバスト線形回帰またはブートストラップを使用するかどうか。
線形回帰を行う必要があるデータセットがあります。残念ながら、異分散性に問題があります。分散のHC3推定器を使用したロバスト回帰を使用して分析を再実行し、Hmisc for Rのbootcov関数を使用してブートストラップを実行しました。結果は非常に近いです。一般的に推奨されるものは何ですか?

2
ブートストラップが失敗するタイミングを理解するための推奨資料
ブートストラップが失敗する可能性があることがわかっています。 Bickel and Freedman(1981)のセクション6で、ブートストラップを使用して連続一様分布のパラメーターを推定するためにMLEを評価する場合に失敗することを読みました。 私はエフロンとティブシラニの本のセクション7.4を読みましたが、彼らが指摘した参考文献を見つけることができません。 誰かが私が参照できるもっと簡単にアクセスできるものを私に指摘できますか?ありがとう!

1
少数の観測によるブートストラップ
のは、私が収集したとしましょう小さな私がテストしたいという仮説のための観測値の数(N)を。ブートストラップ法を使用して、N個の観測の平均結果のサンプル分布を生成できますが、Nが非常に小さくなると、このモデルが壊れて、サンプル分布自体にエラーが発生するのではないかと心配しています。 したがって、私の質問は、妥当な結果を得るために必要な最小Nをどのように決定できるかです。より定量的には、NはN-&gt; 0としてサンプリングエラーにどのように関連付けられますか? 更新: Nの最小値は、基礎となるデータの性質によって異なることを理解するようになりました。それで、この場合、これを決定するのを助けるためにどのようなメタ観察を行うことができますか?私は本当の根本的なディストリビューションを知りません、さもなければブートストラップする必要はないでしょう。
8 bootstrap 

1
有限母集団からのサンプルのブートストラップ
誰かが、既知のサイズの母集団から取得したサンプルをブートストラップすることについての理論の参照を私に指摘できますか? 私は、人口のサイズがサンプルよりもはるかに大きいと考えられる場合に、Bootstrapを使用してサンプルの信頼区間を計算することに慣れています(したがって、繰り返しによるランダムな選択は、サンプリングプロセスをうまくエミュレートするはずです)。 人口が1000で、800をサンプリングしたことがわかったとしましょう(サンプリングが実際にランダムであると仮定しましょう)。繰り返しを伴うランダム選択は適切ではないようです。ピジョンホールの原理により、サイズ800の別のランダムサンプルを実際に取得すると、少なくとも600の値が元のサンプルと同じであることが保証されます。 解決策はありますか?私は考えました: 繰り返しで1000をサンプリングし、ランダムに800を選択します(従来のブートストラップと同等のアプローチのようです) 繰り返しなしのサンプル600では、繰り返しありの800サンプルすべてを使用して200をさらにサンプリングします。これは、私が前に説明した効果を説明します。 これらのアプローチの良い点と悪い点について何か考えはありますか?または別のアプローチ?

1
代表的なサンプルをブートストラップしてnを無限に近づけることができるのに、なぜ仮説検定の威力が問題になるのですか?
コンピューターが遅い時代にもう生きていなくて、ノンパラメトリックなものに対して順列検定をブートストラップ/実行するのにコストがかかりすぎるのに、なぜ仮説検定の力を気にするのですか? ブートストラップ/置換仮説検定を実行できる場合、電力分析は関係ありませんか? 「サンプルサイズ」をブートストラップで無限大にできるので、ブートストラップの結果として電力が増加しますか?

1
従属比較の複数比較修正
で、このブログの記事の著者は同時に分位を推定し、全体の分位数機能をカバーして推定のために同時信頼エンベロープを構築する議論します。彼らはこれをブートストラップしてポイントワイズブートストラップ信頼区間を計算し、多重比較のためにボンフェローニ型補正を適用します。比較は独立していないので、式に従って独立した試行の有効数のようなものを計算します Ne q=N2Σ私、jr (b私、bj)Neq=N2∑i,jr(bi,bj)N_{eq}=\frac{N^2}{\sum_{i,j}r(b_i,b_j)} どこ NNN 推定するポイントの数であり、 r (b私、bj)r(bi,bj)r(b_i,b_j) 間のサンプル相関です 私はトンの時間ithith そして jjjthブートストラップベクトル。 私の質問は、この公式がどこから来たかです。それらはソースへのリンクを提供しますが、ソースにこの式は表示されません。この特定の修正が文献で使用されていることを知っている人はいますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.