タグ付けされた質問 「autoregressive」

自己回帰(AR)モデルは、確率的プロセスモデリング時系列であり、系列の値を以前の値で線形に指定します。

1
SARIMAXを直感的に理解する方法
電気負荷の予測に関する論文を理解しようとしていますが、内部の概念、特にSARIMAXモデルに苦労しています。このモデルは、負荷を予測するために使用され、理解できない多くの統計概念を使用します(私はコンピューターサイエンスの学部生です-統計の中で私を素人と見なすことができます)。私はそれがどのように機能するかを完全に理解する必要はありませんが、少なくとも直観的に何が起こっているのかを理解したいと思います。 私は、SARIMAXを小さなピースに分割し、これらの各ピースを個別に理解し、それらをまとめようとしています。助けてくれませんか?ここに私がこれまでに持っているものがあります。 私はARとMAで始めました。 AR:自己回帰。私は回帰とは何かを学びましたが、私の理解から、単に質問に答えます:値/ポイントのセットが与えられた場合、これらの値を説明するモデルを見つけるにはどうすればよいですか?そのため、たとえば、これらすべての点を説明できる線を見つけようとする線形回帰があります。自己回帰は、以前の値を使用して値を説明しようとする回帰です。 MA:移動平均。私は実際ここでかなり迷っています。移動平均とは何かを知っていますが、移動平均モデルは「通常の」移動平均とは何の関係もないようです。モデルの式はARにぎこちなく似ているようで、インターネットで見つけた概念を理解できないようです。MAの目的は何ですか?MAとARの違いは何ですか? これでARMAができました。私は、その後から来統合限り私は理解しているように、単純に増加または減少のいずれか、ARMAモデルは傾向を持つことができるようにするという目的を果たします。(これは、ARIMAが非静止を許可するということと同等ですか?) 季節性からSが来ると、ARIMAに周期性が追加されます。これは、例えば、負荷予測の場合、基本的に毎日午後6時に負荷が非常に似ていると言います。 最後に、外生変数からのXは、基本的に天気予報などの外部変数をモデルで考慮することを可能にします。 ようやくSARIMAXができました!私の説明は大丈夫ですか?これらの説明は厳密に正確である必要はないことを認識してください。誰かがMAが直感的に行うことを説明できますか?

4
どのような状況でMAプロセスまたはARプロセスが適切ですか?
プロセスがそれ自体の以前の値に依存する場合、それはARプロセスであることを理解しています。以前のエラーに依存する場合、MAプロセスです。 これら2つの状況のいずれかが発生するのはいつですか?プロセスがMA vs ARとして最適にモデル化されることの意味に関する根本的な問題を明らかにする堅実な例はありますか?

2
自己回帰時系列モデルが非線形の場合でも、定常性が必要ですか?
時系列予測にリカレントニューラルネットワークを使用することについて考えます。基本的に、線形自動回帰を使用するARMAモデルとARIMAモデルと比較して、一種の一般化された非線形自動回帰を実装しています。 非線形自己回帰を実行している場合、時系列が静止している必要があり、ARIMAモデルで行う方法と異なる方法で実行する必要がありますか? または、モデルの非線形特性は、非定常時系列を処理する能力を与えますか? 別の言い方をすれば、ARMAモデルとARIMAモデルの定常性要件(平均および分散)は、これらのモデルが線形であるという事実によるものですか、それとも何か別のものによるものですか?

2
MAプロセスが可逆的である場合、なぜ気にするのですか?
MAプロセスが可逆的であるかどうかを気にする理由を理解できません。 私が間違っている場合は修正してください、しかし、ARプロセスが因果関係であるかどうかを気にする理由を理解することができます。すなわち、移動平均プロセス。その場合、ARプロセスが因果関係にあることが簡単にわかります。 ただし、MAプロセスを可逆的であることを示すことでARプロセスとして表すことができるかどうかを気にする理由を理解するのに苦労しています。どうして私たちが気にするのか本当に理解していません。 どんな洞察も素晴らしいでしょう。

2
異分散測定誤差を伴うAR(1)プロセス
1.問題 I変数のいくつかの測定値有する、、Iは、配信有するため簡単にするため、私は仮定しますMCMCを介して得られたが、平均値のガウス分布でありますと分散。ytyty_tt=1,2,..,nt=1,2,..,nt=1,2,..,nfyt(yt)fyt(yt)f_{y_t}(y_t)μtμt\mu_tσ2tσt2\sigma_t^2 これらの観測の物理モデル、たとえばありますが、残差相関しているようです。具体的には、私がいることを考えるのは物理的な理由持っているプロセスを考慮に相関を取るために十分であろう、と私は、私は必要のあるMCMC、経由フィットの係数を求めることを計画する可能性を。解決策はかなり簡単だと思いますが、私にはよくわかりません(とても簡単に思えるので、何かが足りないと思います)。g(t)g(t)g(t)rt=μt−g(t)rt=μt−g(t)r_t = \mu_t-g(t)AR(1)AR(1)AR(1) 2.尤度の導出 平均ゼロのAR(1)AR(1)AR(1)プロセスは次のように記述できます Xt=ϕXt−1+εt, (1)Xt=ϕXt−1+εt, (1)X_t = \phi X_{t-1}+\varepsilon_t,\ \ \ (1) ここで、εt∼N(0,σ2w)εt∼N(0,σw2)\varepsilon_t\sim N(0,\sigma_w^2)。したがって、推定されるパラメーターはθ={ϕ,σ2w}θ={ϕ,σw2}\theta = \{\phi,\sigma_w^2\}(私の場合、モデルg(t)のパラメーターも追加する必要がありますが、g(t)g(t)g(t)それは問題ではありません)。しかし、私が観察しているのは変数 Rt=Xt+ηt, (2)Rt=Xt+ηt, (2)R_t = X_t+\eta_t,\ \ \ (2) ここで\ eta_t \ sim N(0、\ sigma_t ^ 2)を想定してηt∼N(0,σ2t)ηt∼N(0,σt2)\eta_t\sim N(0,\sigma_t^2)おり、σ2tσt2\sigma_t^2は既知です(測定エラー)。XtXtX_tはガウス過程であるため、RtRtR_tもそうです。特に、私はそれを知っています X1∼N(0,σ2w/[1−ϕ2]),X1∼N(0,σw2/[1−ϕ2]),X_1 \sim N(0,\sigma_w^2/[1-\phi^2]), したがって、 R1∼N(0,σ2w/[1−ϕ2]+σ2t).R1∼N(0,σw2/[1−ϕ2]+σt2).R_1 \sim N(0,\sigma_w^2/[1-\phi^2]+\sigma_t^2). 次の課題は、t \ neq 1に対してR_t | R_ …

3
ACFおよびPACFはMAおよびAR条件の順序をどのように識別しますか?
私が別の時系列に取り組んでいるのは、2年以上前です。ACFはMA用語の順序を識別するために使用され、PACFはARのために使用されるという多くの記事を読みました。経験則では、MAの場合、ACFが突然停止するラグはMAの順序であり、同様にPACFとARの場合です。 ここでの記事の一つ、私は科学のPennState Eberly大学から続きます。 私の質問は、なぜそうなのですか?私にとって、ACFでもAR条件を与えることができます。上記の経験則の説明が必要です。親指の法則を直感的/数学的に理解できないのはなぜですか。 多くの場合、ARモデルの識別はPACFを使用して行うのが最適です。 MAモデルの識別は、多くの場合、PACFではなくACFを使用して行うのが最善です。 ご注意ください:-「なぜ」以外の方法は必要ありません。:)

3
確定的モデルと確率的モデルの違いは何ですか?
単純な線形モデル: ε T N (0 、σ 2)X = α T + εtx=αt+ϵtx=\alpha t + \epsilon_t 〜IIDεtϵt\epsilon_tN(0 、σ2)N(0,σ2)N(0,\sigma^2) とV R (X )= σ 2E(X )= α TE(x)=αtE(x) = \alpha tVa r (x )= σ2Var(x)=σ2Var(x)=\sigma^2 AR(1): ε T N (0 、σ 2)バツt= α Xt − 1+ ϵtXt=αXt−1+ϵtX_t =\alpha X_{t-1} + \epsilon_t場合 〜IIDεtϵt\epsilon_tN(0 …

3
AR(1)係数のOLS推定量が偏っているのはなぜですか?
OLSがAR(1)プロセスの偏った推定量を与える理由を理解しようとしています。検討 このモデルでは、厳密な外因性に違反しています。つまり、とは相関していますが、とは相関していません。しかし、これが本当なら、なぜ次の単純な導出が成り立たないのでしょうか? YTεT、YT-1εTPLIM βytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= \alpha + \beta y_{t-1} + \epsilon_{t}, \\ \epsilon_{t} &\stackrel{iid}{\sim} N(0,1). \end{aligned} ytyty_tϵtϵt\epsilon_tyt−1yt−1y_{t-1}ϵtϵt\epsilon_tプリムβ ^= Cov (yt、Yt − 1)Var (yt − 1)= Cov (α + βyt − 1+ ϵt、Yt − 1)Var (yt − 1)= β+ Cov (ϵt、Yt − 1)Var (yt − 1)= β。plim β^=Cov(yt,yt−1)Var(yt−1)=Cov(α+βyt−1+ϵt,yt−1)Var(yt−1)=β+Cov(ϵt,yt−1)Var(yt−1)=β. \begin{aligned} …

2
AR(
AR()モデルを考えます(単純化のためにゼロ平均を想定しています)。ppp xt=φ1xt−1+…+φpxt−p+εtxt=φ1xt−1+…+φpxt−p+εt x_t = \varphi_1 x_{t-1} + \dotsc + \varphi_p x_{t-p} + \varepsilon_t OLS推定量(に相当する条件のための最尤推定)で述べたように、バイアスされることが知られている最近のスレッド。φ:=(φ1,…,φp)φ:=(φ1,…,φp)\mathbf{\varphi} := (\varphi_1,\dotsc,\varphi_p) (奇妙なことに、私はハミルトンの「時系列分析」や他のいくつかの時系列の教科書で言及されたバイアスを見つけることができませんでした。しかし、それは様々な講義ノートや学術記事、例えばこれで見つけることができます。) AR(p)の正確な最尤推定量がバイアスされているかどうかを確認できませんでした。したがって、最初の質問です。ppp 質問1:です正確な最大ARの尤推定量()モデルの自己回帰パラメータφ 1、... 、φ P偏った?(AR(p)プロセスは定常的であると仮定します。それ以外の場合、定常領域で制限されているため、推定量は一貫していません。たとえば、Hamilton "Time Series Analysis"、p。123を参照してください。)pppφ1,…,φpφ1,…,φp\varphi_1,\dotsc,\varphi_pppp また、 質問2:合理的に単純な不偏推定量はありますか?

1
時系列予測のためのランダムフォレスト回帰
私は、製紙工場のパフォーマンスを予測するためにRF回帰を利用しようとしています。 私は、入力(木材パルプの速度と量など)と、マシンのパフォーマンス(生成された紙、マシンによって消費された電力)に関する分単位のデータを持ち、10分間の予測を求めています。パフォーマンス変数の先に。 12か月分のデータがあるので、トレーニングセット用に11か月、テスト用に最終月に分けました。 これまでに、パフォーマンス変数ごとに値が1〜10分遅れている10個の新しい機能を作成し、これらの機能と入力を使用して予測を行いました。テストセットのパフォーマンスは非常に良好です(システムはかなり予測可能です)が、アプローチに何か不足しているのではないかと心配しています。 たとえば、このペーパーでは、ランダムフォレストモデルの予測能力をテストする際のアプローチを次のように述べています。 シミュレーションは、新しい週のデータを繰り返し追加し、更新されたデータに基づいて新しいモデルをトレーニングし、翌週の大規模感染の数を予測することで続行されます。 これは、時系列の「後の」データをテストとして利用することとどう違うのですか?このアプローチとテストデータセットでRF回帰モデルを検証する必要がありますか?さらに、ランダムフォレスト回帰に対するこの種の「自己回帰」アプローチは時系列に有効ですか?将来10分の予測に興味がある場合、これだけ多くの遅延変数を作成する必要がありますか?

1
自己相関バイナリ時系列のモデリング
バイナリ時系列をモデル化するための通常のアプローチは何ですか?これを扱った紙や教科書はありますか?強い自己相関を持つバイナリプロセスについて考えます。ゼロから始まるAR(1)プロセスの記号のようなもの。セイと ホワイトノイズの。次に、定義され たバイナリ時系列 が自己相関を示します。これは、次のコードで説明します。バツ0= 0X0=0X_0 = 0バツt + 1= β1バツt+ ϵt、Xt+1=β1Xt+ϵt, X_{t+1} = \beta_1 X_t + \epsilon_t, εtϵt\epsilon_t(Yt)T ≥ 0(Yt)t≥0(Y_t)_{t \ge 0}Yt= 記号(Xt)Yt=符号(バツt) Y_t = \text{sign}(X_t) set.seed(1) X = rep(0,100) beta = 0.9 sigma = 0.1 for(i in 1:(length(X)-1)){ X[i+1] =beta*X[i] + rnorm(1,sd=sigma) } acf(X) acf(sign(X)) バイナリデータを取得し、重要な自己相関があることがわかっている場合、テキストブック/通常のモデリングアプローチとは何ですか?YtYtY_t 外部のリグレッサや季節的なダミーの場合、ロジスティック回帰を実行できると思いました。しかし、純粋な時系列アプローチとは何ですか? 編集:正確に言うと、sign(X)が最大4つのラグに対して自己相関していると仮定しましょう。これは次数4のマルコフモデルであり、それでフィッティングおよび予測できますか? 編集2:その間、私は時系列のグラムを偶然見つけました。これらは、説明変数が遅れた観測と外部リグレッサであるglmsです。ただし、これはポアソンおよび負の二項分布カウントに対して行われるようです。ポアソン分布を使用してベルヌーイを近似できます。これに対する明確な教科書的アプローチはないのでしょうか。 …


1
AR(1)の推定におけるRおよびEViewsの違い
主な問題は次のとおりです。EViewsとRで同様のパラメーター推定を取得できません。 自分がわからない理由で、EViewsを使用して特定のデータのパラメーターを推定する必要があります。これを行うには、NLS(非線形最小二乗)オプションを選択し、次の式を使用します。indep_var c dep_var ar(1) EViewsのクレーム:彼らはAR線形推定は、(1)のような処理 ここエラーのように定義される: 等価物を使用して方程式(代数的置換あり): さらに、このスレッドはEViewsフォーラムのフォーラムでは、NLS推定はMarquardtアルゴリズムによって生成されることが示唆されています。U 、T 、U 、T = ρ ⋅ U T - 1 + ε YのT = (1 - ρ )α + ρ YのT - 1 + β X T - ρ β X T - 1 + ε トンYt=α+βXt+utYt=α+βXt+ut Y_t = \alpha + …

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.