タグ付けされた質問 「generalized-least-squares」

8
既存の変数と定義された相関関係を持つランダム変数を生成します
シミュレーション研究のために、既存の変数に対する事前定義された(母集団)相関を示すランダム変数を生成する必要があります。YYY 私は、に見えたRパッケージcopulaとCDVine特定の依存構造を持つランダムな多変量分布を生成することができました。ただし、結果の変数の1つを既存の変数に修正することはできません。 アイデアや既存の機能へのリンクを歓迎します! 結論: さまざまなソリューションで、2つの有効な答えが出ました。 カラカルによるR スクリプト。事前定義された変数との正確な(サンプル)相関を持つランダム変数を計算します 事前定義された変数に対する定義された母集団相関を持つランダム変数を計算するR 関数 [@ttnphnsの追加:質問のタイトルを単一の固定変数の場合から任意の数の固定変数に拡大するために自由を取りました。すなわち、いくつかの固定された既存の変数と事前定義された相関を持つ変数を生成する方法]

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
一般化された最小二乗:回帰係数から相関係数へ?
1つの予測子を持つ最小二乗の場合: y= βx + ϵy=βx+ϵy = \beta x + \epsilon とがフィッティングの前に標準化されている場合(つまり、)、次のようになります。、Y 〜N (0 、1 )バツxxyyy〜N(0 、1 )∼N(0,1)\sim N(0,1) Rββ\betaはピアソン相関係数と同じです。rrr X = β Y + εββ\betaは反映された回帰で同じです:x = βy+ ϵx=βy+ϵx = \beta y + \epsilon 一般化された最小二乗(GLS)の場合、同じことが当てはまりますか?つまり、データを標準化した場合、回帰係数から直接相関係数を取得できますか? データの実験から、反映されたGLSはさまざまな係数を導き、また、回帰係数が相関の期待値と一致していると確信していません。私は人々がGLS相関係数を引用しているのを知っているので、彼らがどのようにしてそれらに到達し、それゆえ彼らが本当に何を意味するのか疑問に思っていますか?ββ\beta

1
観測48で革新的な異常値をARIMAモデルに組み込むにはどうすればよいですか?
私はデータセットに取り組んでいます。いくつかのモデル識別手法を使用した後、私はARIMA(0,2,1)モデルを思いつきました。 R detectIOのパッケージの関数を使用して、元のデータセットの48回目の観測で革新的な外れ値(IO)TSAを検出しました。 この外れ値をモデルに組み込んで、予測に使用するにはどうすればよいですか?Rではそれから予測を行うことができない可能性があるため、ARIMAXモデルを使用したくありません。これを行う方法は他にありますか? これが私の値です。 VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

2
これらのカスタムコントラストを解釈する方法は?
私は、カスタムコントラストを使用して(種ごとに)一元配置分散分析を行っています。 [,1] [,2] [,3] [,4] 0.5 -1 0 0 0 5 1 -1 0 0 12.5 0 1 -1 0 25 0 0 1 -1 50 0 0 0 1 ここでは、強度0.5を5と比較し、5を12.5と比較しています。これらは私が取り組んでいるデータです 次の結果 Generalized least squares fit by REML Model: dark ~ intensity Data: skofijski.diurnal[skofijski.diurnal$species == "niphargus", ] AIC BIC logLik …

2
成長チャートを作成する最良の方法
私は5から15歳(5、6、7のみなど、2.6歳のような小数値はありません)の負ではなく、継続的である健康変数のチャート(成長チャートと同様)を作成する必要があります50〜150の範囲(この範囲外の数個の値のみ)。90、95、99パーセンタイル曲線を作成し、これらのパーセンタイルのテーブルも作成する必要があります。サンプルサイズは約8000です。 私は次の可能な方法をチェックして見つけました: 分位点を見つけて、レス法を使用して、これらの分位点から滑らかな曲線を取得します。滑らかさの程度は「スパン」パラメータで調整できます。 LMS(Lambda-Mu-Sigma)メソッドを使用します(RでgamlssまたはVGAMパッケージを使用するなど)。 分位回帰を使用します。 各年齢グループの平均とSDを使用して、その年齢のパーセンタイルを推定し、パーセンタイル曲線を作成します。 それを行う最良の方法は何ですか?「最良」とは、そのような成長曲線を作成するための標準的な方法であり、すべての人に受け入れられる理想的な方法を意味します。または、いくつかの制限があるかもしれませんが、受け入れ可能でより速い方法である、実装がより簡単で単純な方法。(たとえば、パーセンタイル値でloessを使用すると、gamlssパッケージのLMSを使用するよりもはるかに高速です)。 また、そのメソッドの基本的なRコードになります。 ご協力いただきありがとうございます。

1
GLSとSURの違い
私は一般化最小二乗法(GLS)についていくつか読んでいて、それを私の基本的な計量経済学の背景に結び付けようとしています。大学院では、GLSにいくらか似ているように思われる一見無関係な回帰(SUR)を使用して覚えています。SURをGLSの「特別なケース」と呼んでも、私が偶然見つけた1つの論文。しかし、私はまだ類似点と相違点に頭を抱えることはできません。 だから質問: GLSとSURの類似点と相違点は何ですか?ある方法を別の方法で使用する必要がある問題の特徴は何ですか?

1
条件付き不等分散性を持つ線形モデルの推論
独立変数ベクトルとおよび従属変数を観察するとします。次の形式のモデルに適合させたい: ここでは正の値の2階微分可能関数、は未知のスケーリングパラメーター、はゼロ平均の単位分散ガウス確率変数(から独立していると仮定)および)。これは本質的に、(少なくとも私が理解している限り)Koenkerの異分散性のテストの設定です。x⃗ x→\vec{x}z⃗ z→\vec{z}yyyy=x⃗ ⊤β1→+σg(z⃗ ⊤β2→)ϵ,y=x→⊤β1→+σg(z→⊤β2→)ϵ,y = \vec{x}^{\top}\vec{\beta_1} + \sigma g\left(\vec{z}^{\top} \vec{\beta_2}\right) \epsilon,gggσσ\sigmaϵϵ\epsilonx⃗ x→\vec{x}z⃗ z→\vec{z} 私はの観測値のと、およびIは推定したいと。ただし、いくつか問題があります。nnnx⃗ ,z⃗ x→,z→\vec{x}, \vec{z}yyyβ1→β1→\vec{\beta_1}β2→β2→\vec{\beta_2} 推定問題を最小二乗法のようなものとしてどのように提起するかはわかりません(よく知られたトリックがあると思います)。最初の推測は、 しかし私はそれを数値的に解決する方法がわからない(おそらく、準ニュートン反復法で解決できるかもしれません)。minβ1→,β2→⎛⎝⎜⎜⎜⎜∑i=1n(yi−xi→⊤β1→)2g(zi→⊤β2→)2⎞⎠⎟⎟⎟⎟⎛⎝⎜⎜⎜⎜∑i=1n1g(zi→⊤β2→)2⎞⎠⎟⎟⎟⎟−1,minβ1→,β2→(∑i=1n(yi−xi→⊤β1→)2g(zi→⊤β2→)2)(∑i=1n1g(zi→⊤β2→)2)−1,min_{\vec{\beta_1}, \vec{\beta_2}} \left(\sum_{i=1}^n \frac{\left(y_i - \vec{x_i}^{\top}\vec{\beta_1}\right)^2}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)\left(\sum_{i=1}^n \frac{1}{g\left(\vec{z_i}^{\top}\vec{\beta_2}\right)^2}\right)^{-1}, 私が問題をまともな方法で提起し、推定値を見つけることができると仮定すると、たとえば、仮説検定を実行できるように、推定値の分布を知りたいと思います。私は別に2つの係数ベクトルをテストするといいと思いますが、テストにいくつかの方法を好むだろう、例えば所与のため。β^1,β^2β^1,β^2\hat{\beta}_1, \hat{\beta}_2 H0:w1→⊤β1→+w2→⊤β2→≤cH0:w1→⊤β1→+w2→⊤β2→≤cH_0: \vec{w_1}^{\top} \vec{\beta_1} + \vec{w_2}^{\top} \vec{\beta_2} \le cw1→,w2→,cw1→,w2→,c\vec{w_1}, \vec{w_2}, c

2
RのOLSとGLSで同じ結果が得られるのはなぜですか?
このコードを実行すると: require(nlme) a <- matrix(c(1,3,5,7,4,5,6,4,7,8,9)) b <- matrix(c(3,5,6,2,4,6,7,8,7,8,9)) res <- lm(a ~ b) print(summary(res)) res_gls <- gls(a ~ b) print(summary(res_gls)) 私は同じ係数と係数の同じ統計的有意性を得ます: Loading required package: nlme Call: lm(formula = a ~ b) Residuals: Min 1Q Median 3Q Max -2.7361 -1.1348 -0.2955 1.2463 3.8234 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) …

2
一般化最小二乗モデル(GLS)からの非相関エラー
私たちは金融機関として、時系列データの分析を頻繁に実行します。多くの場合、時系列変数を使用して回帰を行うことになります。これが発生すると、多くの場合、OLS回帰における独立したエラーの基本的な仮定に違反する時系列構造の残差が発生します。最近、別のモデルを構築しています。自己相関エラーのある回帰があるlm(object)と思います。ACFとPACFから明らかなように、線形モデルの残差は明らかにAR(1)構造を持っています。私は2つの異なるアプローチをとりました。最初のアプローチは明らかgls()にRの一般化最小二乗法を使用してモデルを適合させることでした。私の期待は、gls(object)からの残差がホワイトノイズ(独立したエラー)になることでした。しかし、からの残差gls(object)通常の回帰と同じARIMA構造がまだあります。残念なことに、私がやっていることに、理解できないほどの問題があります。したがって、線形モデル(OLS推定)からの回帰係数を手動で調整することにしました。驚くべきことに、調整された回帰からの残差をプロットすると、それは機能しているようです(残差はホワイトノイズです)。私は本当にコーディングをパッケージで使用gls()したいnlmeので、コーディングはずっと簡単で簡単になります。ここで私が取るべきアプローチは何ですか?REMLを使用するはずですか?または、gls()オブジェクトからの相関のない残差(ホワイトノイズ)に対する私の期待は間違っていますか? gls.bk_ai <- gls(PRNP_BK_actINV ~ PRM_BK_INV_ENDING + NPRM_BK_INV_ENDING, correlation=corARMA(p=1), method='ML', data = fit.cap01A) gls2.bk_ai <- update(gls.bk_ai, correlation = corARMA(p=2)) gls3.bk_ai <- update(gls.bk_ai, correlation = corARMA(p=3)) gls0.bk_ai <- update(gls.bk_ai, correlation = NULL) anova(gls.bk_ai, gls2.bk_ai, gls3.bk_ai, gls0.bk_ai) ## looking at the AIC value, gls model with AR(1) will be the best bet …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.