タグ付けされた質問 「garch」

条件付き分散が時変で自己相関する時系列のモデル。

8
不規則な間隔の時系列をモデル化するためのゴールドスタンダードはありますか?
経済学の分野(私は思う)には、等間隔の時系列用のARIMAとGARCHと、ポイントプロセスのモデリング用のPoisson、Hawkesがあります。 ? (このトピックに関する知識がある場合は、対応するwiki記事も展開できます。) エディション(欠損値と不規則な間隔の時系列について): @Lucas Reisのコメントに答えてください。測定または実現変数間のギャップが(たとえば)ポアソンプロセスのために間隔が空いている場合、この種の正則化の余地はあまりありませんt(i)が、単純な手順が存在します:変数xのi番目の時間インデックス(実現X)、次いで、測定の時間の間のギャップを定義g(i)=t(i)-t(i-1)し、我々は、離散化、g(i)定数を使用しc、dg(i)=floor(g(i)/cそして元の時系列から古い観測値との間のブランク値の数と新しい時系列を作成iし、i+1()IをDGに等しいが、問題は、このことですプロシージャは、観測数よりはるかに多くの欠損データを含む時系列を容易に生成できるため、欠損観測値の合理的な推定は不可能であり、大きすぎる可能性があります。c「時間構造/時間依存など」を削除する 分析された問題の(極端なケースは、c>=max(floor(g(i)/c))不規則な間隔の時系列を規則的に間隔を空けて単純に崩壊させることにより与えられる Edition2(楽しみのためだけ):不規則な間隔の時系列の欠損値またはポイント処理の場合の画像アカウンティング。

4
GARCHとARMAの違いは何ですか?
私は混乱しています。ARMAとGARCHのプロセスの違いを理解していません。 これが(G)ARCH(p、q)プロセスです σ2t= α0+ ∑i = 1qα私r2t − iA R CH+ ∑i = 1pβ私σ2t − iG A R CHσt2=α0+∑i=1qαirt−i2⏟ARCH+∑i=1pβiσt−i2⏟GARCH\sigma_t^2 = \underbrace{ \underbrace{ \alpha_0 + \sum_{i=1}^q \alpha_ir_{t-i}^2} _{ARCH} + \sum_{i=1}^p\beta_i\sigma_{t-i}^2} _{GARCH} そして、ここにARMA(p 、qp,qp, q)があります: バツt= c + εt+ ∑i = 1pφ私バツt − i+ ∑i = 1qθ私εt − i。Xt=c+εt+∑i=1pφiXt−i+∑i=1qθiεt−i. X_t = c …
42 arima  garch  finance 

3
直感のために、無相関であるが従属するランダム変数の実際の例は何ですか?
非相関が独立を意味しない理由を説明する際に、ランダム変数の束を含むいくつかの例がありますが、それらはすべてとても抽象的に見えます:1 2 3 4。 この答えは理にかなっているようです。私の解釈:ランダム変数とその二乗は無相関の場合があります(明らかに相関の欠如は線形独立性に似ているため)が、明らかに依存しています。 例としては、(標準化された)高さと高さ2は無相関だが依存しているかもしれないが、高さと高さ2を比較したい理由がわからない。22^222^2 初等確率理論または同様の目的で初心者に直観を与える目的で、無相関だが従属する確率変数の実際の例は何ですか?

3
GARCHパラメーターの解釈方法は?
標準のGARCHモデルを使用します: rtσ2t=σtϵt=γ0+γ1r2t−1+δ1σ2t−1rt=σtϵtσt2=γ0+γ1rt−12+δ1σt−12\begin{align} r_t&=\sigma_t\epsilon_t\\ \sigma^2_t&=\gamma_0 + \gamma_1 r_{t-1}^2 + \delta_1 \sigma^2_{t-1} \end{align} さまざまな係数の推定値があり、それらを解釈する必要があります。したがって、私は何をするか、素敵な解釈について疑問に思って、γ 1およびδ 1を表しますか?γ0γ0\gamma_0γ1γ1\gamma_1δ1δ1\delta_1 私がいることがわかり一定の一部のようなものです。したがって、それは一種の「周囲のボラティリティ」を表します。γ 1は、過去のショックへの調整を表しています。また、δ 1は私にとって非常に直感的ではありません:それは、PASのボラティリティへの調整を表しています。しかし、これらのパラメーターをより良く、より包括的に解釈したいと思います。γ0γ0\gamma_0γ1γ1\gamma_1δ1δ1\delta_1 缶誰かが私にそれらのパラメータが表すと(例えばあれば、それは何を意味してどのようなパラメータの変化を説明することができるものの良い説明与えるので、増加を?)。γ1γ1\gamma_1 また、いくつかの本(たとえばTsay)で調べましたが、良い情報を見つけることができなかったので、これらのパラメーターの解釈に関する文献の推奨事項は高く評価されます。 編集:永続性を解釈する方法にも興味があります。それでは、まさに永続性とは何ですか? いくつかの本では、私は、GARCH(1,1)の持続性があることを、読みが、著書で例えばキャロル・アレクサンダーページ283のは、彼がおよそだけ話しβパラメータ(私のδ 1を永続化されて)パラメータ。だから、ボラティリティの持続性(の間に差があるσ トン)とショックで永続性(のR tは)?γ1+δ1γ1+δ1\gamma_1+\delta_1ββ\betaδ1δ1\delta_1σtσt\sigma_trtrtr_t

1
が静止している場合、
Iは、IFと言うたARCHモデルの特性のいずれかの証拠出くわし、次いで、{ Xのtは }静止IFFあるΣ P iは= 1、B I &lt; 1 ARCHモデルです。E(X2t)&lt;∞E(Xt2)&lt;∞\mathbb{E}(X_t^2) < \infty{Xt}{Xt}\{X_t\}∑pi=1bi&lt;1∑i=1pbi&lt;1\sum_{i=1}^pb_i < 1 Xt=σtϵtXt=σtϵtX_t = \sigma_t\epsilon_t σ2t=b0+b1X2t−1+...bpX2t−pσt2=b0+b1Xt−12+...bpXt−p2\sigma_t^2 = b_0 + b_1X_{t-1}^2 + ... b_pX_{t-p}^2 証明の主なアイデアは、がAR(p)プロセスとして記述でき、∑ p i = 1 b i &lt; 1が真である場合、特性多項式のすべての根が単位円の外側にあり、したがって、{ X 2 t }は静止しています。そして、それゆえ{ X t }は静止していると言います。これはどのように続きますか?X2tXt2X_t^2∑pi=1bi&lt;1∑i=1pbi&lt;1\sum_{i=1}^pb_i < 1{X2t}{Xt2}\{X_t^2\}{Xt}{Xt}\{X_t\}

1
GBMパッケージとGBMを使用したキャレット
私はを使用してモデルのチューニングを行ってきましたがcaret、gbmパッケージを使用してモデルを再実行しています。caretパッケージが使用gbmし、出力が同じである必要があることは私の理解です。ただし、を使用した簡単なテスト実行でdata(iris)は、評価指標としてRMSEとR ^ 2を使用したモデルで約5%の不一致が示されています。を使用して最適なモデルのパフォーマンスを見つけたいが、部分的な依存関係プロットを利用するためにcaret再実行しgbmます。再現性のために以下のコード。 私の質問は次のとおりです。 1)これらの2つのパッケージは同じであっても違いがあるのはなぜですか(確率的ですが、5%がやや大きな違いであることがわかります。特に、次のような素晴らしいデータセットを使用していない場合 iris、モデリングの) 。 2)両方のパッケージを使用する利点または欠点はありますか? 3)無関係:irisデータセットを使用した場合、最適な値interaction.depthは5ですが、読み取り値が最大値floor(sqrt(ncol(iris)))である2 を超えるはずです。これは厳密な経験則ですか、それとも非常に柔軟ですか。 library(caret) library(gbm) library(hydroGOF) library(Metrics) data(iris) # Using caret caretGrid &lt;- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50, shrinkage=c(0.01, 0.001), n.minobsinnode=10) metric &lt;- "RMSE" trainControl &lt;- trainControl(method="cv", number=10) set.seed(99) gbm.caret &lt;- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm", trControl=trainControl, verbose=FALSE, tuneGrid=caretGrid, metric=metric, bag.fraction=0.75) …

5
非常に多数のデータポイントで値の代入を実行する方法は?
非常に大きなデータセットがあり、約5%のランダムな値が欠落しています。これらの変数は互いに相関しています。次のRデータセットの例は、ダミーの相関データを使用した単なるおもちゃの例です。 set.seed(123) # matrix of X variable xmat &lt;- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) &lt;- paste ("M", 1:10000, sep ="") rownames(xmat) &lt;- paste("sample", 1:200, sep = "") #M variables are correlated N &lt;- 2000000*0.05 # 5% random missing values inds &lt;- round ( runif(N, 1, length(xmat)) …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 &lt;- function(x,z,sx=0.3,sz=0.4) { x &lt;- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n &lt;- 500 x &lt;- runif(n)/20;z &lt;- runif(n); xs &lt;- seq(0,1,length=30)/20;zs &lt;- seq(0,1,length=30) pr &lt;- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth &lt;- matrix(test1(pr$x,pr$z),30,30) f &lt;- test1(x,z) y &lt;- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
ARMA-GARCHモデルを使用した外国為替価格のシミュレーション
ARIMA(1,1,1)-GARCH(1,1)モデルを、数年にわたって1分間隔でサンプリングされたAUD / USD為替レートログ価格の時系列に適合させ、2つ以上のモデルを推定する100万のデータポイント。データセットはこちらから入手できます。明確にするために、これはログ価格の1次積分により、ログのリターンに適合したARMA-GARCHモデルでした。元のAUD / USD時系列は次のようになります。 次に、当てはめたモデルに基づいて時系列をシミュレートしようとしましたが、次のようになりました。 シミュレーションされた時系列が元の時系列と異なることを期待し、望んでいますが、それほど大きな違いがあるとは思っていませんでした。本質的に、私はシミュレートされたシリーズがオリジナルのように動作するか、概して見たいと思っています。 これは、モデルの推定とシリーズのシミュレーションに使用したRコードです。 library(rugarch) rows &lt;- nrow(data) data &lt;- (log(data[2:rows,])-log(data[1:(rows-1),])) spec &lt;- ugarchspec(variance.model = list(model = "sGARCH", garchOrder = c(1, 1)), mean.model = list(armaOrder = c(1, 1), include.mean = TRUE), distribution.model = "std") fit &lt;- ugarchfit(spec = spec, data = data, solver = "hybrid") sim …

2
ARCHモデルとGARCHモデルが機能するデータを見つけた人はいますか?
私は金融および保険分野のアナリストであり、ボラティリティモデルを適合させようとするたびに、ひどい結果が得られます。残差は、多くの場合、非定常(単位根の意味で)であり、不均一(モデルがボラティリティを説明しない)です。 ARCH / GARCHモデルは他の種類のデータで動作しますか? いくつかのポイントを明確にするために、2015年4月17日15:07に編集されました。

1
GARCH(1,1)を近似する-Rの共変量を持つモデル
単純なARIMAモデルなど、時系列モデリングの経験があります。現在、ボラティリティクラスタリングを示すデータがいくつかあります。そのデータにGARCH(1,1)モデルを当てはめることから始めたいと思います。 データ系列とそれに影響を与えると思われるいくつかの変数があります。基本的な回帰用語では、次のようになります。 yt= α + β1バツt 1+ β2バツt 2+ ϵt。yt=α+β1xt1+β2xt2+ϵt. y_t = \alpha + \beta_1 x_{t1} + \beta_2 x_{t2} + \epsilon_t . しかし、これをGARCH(1,1)-モデルに実装する方法に完全に困っていますか?私が見てきたrugarch-packageとfGarch-packageでR、私は1つが、インターネット上で見つけることができるの例以外にも意味のある何かをすることができていません。
10 r  regression  garch 

1
ランク相関にARMAに相当するものはありますか?
ARMA / ARIMAモデルがうまく機能しない、非常に非線形なデータを見ています。しかし、いくつかの自己相関があり、非線形自己相関の方が良い結果が得られると思います。 1 /ランク相関のPACFに相当するものはありますか?(Rで?) 2 /非線形/ランク相関(R内)のARMAモデルに相当するものはありますか?

2
セキュリティリターン+ ARIMA / GARCHの質問を予測するために使用できる計量経済モデル
私は学部の論文を書こうとしています。そこでは、特定の金融時系列で特定の計量経済モデルの予測力をテストします。私はこれをどうやってやるべきかについていくつかのアドバイスが必要です。状況を説明するために、私は主に計量経済学を自己学習しています。私がこのテーマに取り組んだ唯一のコースは、時系列モデルを掘り下げる前に止まったので、私はこのテーマの専門家ではありません。 残念なことに、私は最近ARIMAモデルが株価(およびその他のセキュリティ)のリターンを予測するのが非常に悪いことを読みました。私の学校の経済学部の教授もこれを確認しました。この間ずっと、それらがおそらくいくつかの財務時系列の予測にリモートで役立つことを願っていました...私が見ることができる他のモデルはありますか?私の目標は、RまたはMATLABで時系列の計量経済モデリングを学習し、うまくいけば統計的に有意な予測結果を見つけることです。また、あなたが注目する特定の市場(エネルギー、レート、株式)はあ​​りますか? 最後に、GARCHはボラティリティの予測にのみ使用されますか?私が言及した教授は、株価のリターンをモデル化するために、GARCHまたはARIMA-GARCHモデルに目を向けるべきだと示唆しているようです。実際の返品にも使えるかもしれないと思われる論文をいくつか読んだのですが... ARIMA-GARCHモデルのARおよびMAコンポーネントは、ARMAモデルのコンポーネントと異なりますか?私が漠然と理解したことから、ARIMAとGARCHは2つの完全に別のものです(前者は実際の時系列を予測するために使用され、もう一方はその変動性を予測するために使用されます)。 質問が多すぎないことを願っていますが、どこに向かえばよいのかわからないので、私はこれまでずっと自分で研究してきました。どうもありがとう!

2
膨大なデータセットが与えられた場合、なぜ統計モデルは過剰適合しますか?
現在のプロジェクトでは、特定のグループの行動を予測するモデルを構築する必要があるかもしれません。トレーニングデータセットには6つの変数のみが含まれます(idは識別目的のみです)。 id, age, income, gender, job category, monthly spend その中で monthly spend応答変数です。ただし、トレーニングデータセットには約300万行が含まれid, age, income, gender, job category、予測されるデータセット(応答変数は含まれるが、含まれない)には100万行が含まれます。私の質問は、統計モデルにあまりにも多くの行(この場合は300万行)を投げた場合に潜在的な問題はありますか?計算コストが懸念事項の1つであることを理解していますが、他に懸念事項はありますか?データセットのサイズの問題を完全に説明している本/紙はありますか?
8 modeling  large-data  overfitting  clustering  algorithms  error  spatial  r  regression  predictive-models  linear-model  average  measurement-error  weighted-mean  error-propagation  python  standard-error  weighted-regression  hypothesis-testing  time-series  machine-learning  self-study  arima  regression  correlation  anova  statistical-significance  excel  r  regression  distributions  statistical-significance  contingency-tables  regression  optimization  measurement-error  loss-functions  image-processing  java  panel-data  probability  conditional-probability  r  lme4-nlme  model-comparison  time-series  probability  probability  conditional-probability  logistic  multiple-regression  model-selection  r  regression  model-based-clustering  svm  feature-selection  feature-construction  time-series  forecasting  stationarity  r  distributions  bootstrap  r  distributions  estimation  maximum-likelihood  garch  references  probability  conditional-probability  regression  logistic  regression-coefficients  model-comparison  confidence-interval  r  regression  r  generalized-linear-model  outliers  robust  regression  classification  categorical-data  r  association-rules  machine-learning  distributions  posterior  likelihood  r  hypothesis-testing  normality-assumption  missing-data  convergence  expectation-maximization  regression  self-study  categorical-data  regression  simulation  regression  self-study  self-study  gamma-distribution  modeling  microarray  synthetic-data 

3
SPSSを使用した2x3混合設計ANOVAの事後テスト?
実験中に3回評価された10人の参加者の2つのグループがあります。グループ間および3つの評価全体の違いをテストするために、group(コントロール、実験)、time(最初、2、3)、およびを使用して2x3混合設計ANOVAを実行しましたgroup x time。両方timeとgroup有意な相互作用があったほか、重大な結果group x time。 グループメンバーシップに関しても、3回の評価の違いをさらにチェックする方法をよく知りません。実際、最初は、ANOVAのオプションで、ボンフェローニの補正を使用してすべての主要な効果を比較することだけを指定しました。しかし、この方法で、グループを区別せずに、サンプル全体の時間の違いをこのように比較したことに気付きましたね。 したがって、可能な解決策を見つけるためにインターネットでたくさん検索しましたが、結果はほとんどありませんでした。私と同じようなケースは2つしか見つかりませんでしたが、解決策は逆です! 記事では、混合設計の後、著者らは被験者ごとに1つずつ、2回の反復測定ANOVAを事後的に実行しました。このようにして、2つのグループは修正なしで個別に分析されます。 インターネットのガイドでは、混合ANOVAの実行中に、SPSS構文のCOMPARE(time) ADJ(BONFERRONI)直後にを手動で追加すると述べています/EMMEANS=TABLES(newgroup*time)。このように、3つの時間はグループごとに個別に比較されます。ボンフェローニ補正を使用すると、私は正しいのでしょうか。 どう思いますか?どちらが正しい方法でしょうか?
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.