タグ付けされた質問 「clustered-standard-errors」

4
Rの標準エラークラスタリング(手動またはplmのいずれか)
標準エラーの「クラスタリング」とRでの実行方法を理解しようとしています(Stataでは簡単です)。RIでは、どちらplmかを使用するか、独自の関数を作成することに失敗しました。パッケージのdiamondsデータを使用しggplot2ます。 いずれかのダミー変数で固定効果を実行できます > library(plyr) > library(ggplot2) > library(lmtest) > library(sandwich) > # with dummies to create fixed effects > fe.lsdv <- lm(price ~ carat + factor(cut) + 0, data = diamonds) > ct.lsdv <- coeftest(fe.lsdv, vcov. = vcovHC) > ct.lsdv t test of coefficients: Estimate Std. Error t value Pr(>|t|) …

1
自由度は非整数の数値にできますか?
GAMを使用すると、残留DFは(コードの最終行)になります。どういう意味ですか?GAMの例を超えて、一般に、自由度の数を整数以外の数にすることはできますか?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
クラスタ化された標準エラーとマルチレベルモデリング
私はいくつかの本(Raudenbush&Bryk、Snijders&Bosker、Gelman&Hillなど)といくつかの記事(Gelman、Jusko、Primo&Jacobsmeierなど)をざっと読みましたが、まだ頭をかき回していませんクラスター化された標準エラーの使用とマルチレベルモデリングの主な違い。 私は手元にある研究の質問に関係する部分を理解しています。マルチレベルモデリングからしか得られない特定のタイプの回答があります。ただし、たとえば、関心のある係数が2番目のレベルにのみある2レベルモデルの場合、1つの方法を他の方法よりも行う利点は何ですか?この場合、クラスターの予測や個々の係数の抽出について心配する必要はありません。 私が見つけた主な違いは、クラスターのサンプルサイズが等しくない場合にクラスター化された標準誤差が発生し、ランダム係数分布の仕様を前提とするマルチレベルモデリングが弱いことです(クラスター化された標準誤差の使用はモデルフリーです) 。 そして最終的に、これはすべて、表面上どちらかの方法を使用できるモデルについて、係数と標準誤差の点で同様の結果を得る必要があることを意味しますか? 回答や役立つ資料をいただければ幸いです。

3
クラスターSEを使用する場合と固定効果を使用する場合
あなたは、個人がグループ内に配置されているデータの単一断面(学校内などの生徒を)持っていて、フォームのモデルを推定したいと仮定し、個々のレベル特性とのベクトルである定数を。Y_i = a + B*X_iXa この場合、観測されていないグループ間不均一B性が、対象の独立変数と相関しているため、ポイント推定値とそのSEにバイアスをかけていると仮定します。 1つのオプションは、グループ(学校)によってSEをクラスター化することです。もう1つは、グループFEを含めることです。別の方法は両方を使用することです。これらのオプションを選択する際に考慮すべきことは何ですか?グループごとにSEをクラスタ化し、グループFEを使用する理由は特に不明です。私の特定のケースでは、35のグループと、各グループ内にネストされた5,000人の個人がいます。このpdfの説明に従いましたが、クラスター化されたSEと固定効果の両方を使用する理由と時期についてはあまり明確ではありません。 (マルチレベルモデルに適合することを提案する代わりに、クラスター化されたSEとFEの長所と短所について議論してください。)

4
勾配ブースティングマシンの精度は、反復回数が増えると低下します
caretR のパッケージを介して勾配ブースティングマシンアルゴリズムを試しています。 小さな大学入学データセットを使用して、次のコードを実行しました。 library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = 'cv', number = 5, summaryFunction=defaultSummary) grid <- expand.grid(n.trees = seq(5000,1000000,5000), interaction.depth = 2, shrinkage …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.