タグ付けされた質問 「time-series」

時系列は、(連続時間または離散時間のいずれかで)時間をかけて観測されたデータです。

3
季節的な時系列は定常または非定常時系列を意味しますか
季節性のある時系列がある場合、それによって系列は自動的に非定常になりますか?私の直感(おそらくオフ)はそうではないということです。 季節性とは、シリーズが一定の値を中心に上下することを意味します。正弦波のようなものです。したがって、このロジックにより、季節性のある時系列は(弱い)定常系列(一定の平均)になります。 これは間違っていますか?どうして?

1
時系列予測の信頼区間を計算する方法は?
時系列(からX nとしましょう)があり、ニューラルネットワークなどのモデルを使用して次のサンプル(X n + 1、X n + 2、… 、X n + kとしましょう)を予測する必要があります。または多重線形回帰。時間nでは、X 1からX nまでのすべてのサンプルがあり、X n + 1を予測する必要があります。時間n + 1では、X 1からXまでのすべてのサンプルがありますX1X1X_1XnXnX_nXn+1,Xn+2,…,Xn+kXn+1,Xn+2,…,Xn+kX_{n+1}, X_{n+2},\dots, X_{n+k}X1X1X_1XnXnX_nXn+1Xn+1X_{n+1}n+1n+1n+1X1X1X_1、 X n + 2を予測する必要があります。等々。Xn+1Xn+1X_{n+1}Xn+2Xn+2X_{n+2} モデルを使用して、値を予測したとします。これらの予測値の信頼区間を計算するにはどうすればよいですか?Yn+1,Yn+2,…,Yn+kYn+1,Yn+2,…,Yn+kY_{n+1}, Y_{n+2},\dots, Y_{n+k} この問題で誰かが私を助けることができれば幸いです。(これまでのところ、サンプルの平均の信頼区間を計算するための式を読みましたが、時系列の予測値の信頼区間を計算する方法については何もわかりませんでした)。

1
2つの周期的な時系列間の位相差を推定するにはどうすればよいですか?
私は毎日6つの時系列を2つ持っています。うるさいですが、どちらも明らかに周期的(頻度は1年程度)ですが、位相がずれているようです。これらの時系列間の位相差を推定したいと思います。 私は、フォームのカーブフィッティングと考えられてきた罪(2 πをを各時系列に追加し、bの2つの異なる値を比較するだけですが、これを行うには(おそらくフーリエ変換を使用するのでしょうか)よりエレガントな(そして厳密な!)メソッドがあると思います。また、可能であれば、位相差推定値の不確実性について何らかの考えを持つこともお勧めします。asin(2π365t−b)asin⁡(2π365t−b)a\sin(\frac{2\pi}{365}t - b) 更新: 網掛けの領域は95%CIです。 2つの時系列間の相互相関の例:

2
2次微分の直感とは何ですか?
時系列は、静止させるために差分をとる必要がある場合があります。ただし、1次の差分では不十分な場合に、2次の差分がそれを定常状態にするのにどのように役立つかは理解できません。 2次微分と、それが必要な場合について直感的に説明していただけますか?

1
ARIMA対カルマンフィルター-それらはどのように関連していますか
カルマンフィルターについて読み始めたとき、それはARIMAモデル(つまりARIMA(0,1,1))の特殊なケースであると思いました。しかし、実際には状況はより複雑であるようです。まず、ARIMAは予測に使用でき、カルマンフィルターはフィルタリングに使用できます。しかし、それらは密接に関連していませんか? 質問: ARIMAとカルマンフィルターの関係は何ですか?別のものを使用していますか?別の特別なケースですか?

3
外部変数を使用した時系列データの予測
現在、時系列データ(月次データ)の予測を行うプロジェクトに取り組んでいます。私はRを使用して予測を行っています。1つの従属変数(y)と3つの独立変数(x1、x2、x3)があります。y変数には73個の観測値があり、他の3個の変数にもあります(alos 73)。2009年1月から2015年1月まで。相関とp値を確認しましたが、モデルに入れることはすべて重要です。私の質問は、どのようにすればすべての独立変数を使用して適切な予測を行うことができますか?これらの変数の将来の値はありません。2年後(2017年)のy変数を予測したいとします。これどうやってするの? 私は次のコードを試しました: model = arima(y, order(0,2,0), xreg = externaldata) このコードで2年間のy値の予測を行うことはできますか? 私は回帰コードも試しました: reg = lm(y ~ x1 + x2 + x3) しかし、このコードでどのように時間をかけますか?yの値が2年になると予測するにはどうすればよいですか?統計と予測は初めてです。いくつかの読み取りを行ってラグ値をカムしていますが、モデルでラグ値を使用して予測を行うにはどうすればよいですか? 実際、私の全体的な質問は、将来の値がない外部変数を含む時系列データをどのように予測できるかということです。

1
シャープレシオの有意性のテスト
シャープ比または情報比の重要性をテストする適切な方法は何ですか?シャープレシオはさまざまな株式指数に基づいており、ルックバック期間が変動する場合があります。 私が説明した1つの解決策は、dfをルックバック期間の長さに設定して、スチューデントのt検定を適用するだけです。 以下の懸念のため、私は上記の方法を適用するのをためらっています。 t検定は歪度の影響を受けやすいと思いますが、株式のリターンは一般的にマイナスに歪んでいます。 ログリターンを使用して計算された平均リターンは、単純なリターンを使用して計算された平均リターンよりも小さくなります。これにより、単純なリターンベースのシャープレシオが、ログリターンベースのシャープレシオと比較して有意であると登録される可能性が高くなると思いますが、基本的なアセットリターンは技術的に同じです。 ルックバック期間が短い(つまり、サンプルサイズが小さい)場合は、t検定が適切である可能性がありますが、別の検定を使用するのに適切なしきい値はどれですか。 私の最初の傾きは、学生のt分布の使用を避け、代わりに私がしている非対称パワーディストリビューションに基づいてテストを作成することです読み尖度と歪度のコントロールを可能にし、株式市場のリターンの非常に近い近似値であることが示されているが。 私の2番目の傾向は、ノンパラメトリックテストを調べることですが、それらの使用法の経験が限られているため、どこから始めればよく、どのような落とし穴を避けるべきかわかりません。 私はこの問題を考えすぎていますか、私の懸念は無関係ですか?


2
ACFおよびPACFプロットを解釈する方法
ACFプロットとPACFプロットを正しく解釈していることを確認したいだけです。 データは、実際のデータポイントとAR(1)モデルを使用して生成された推定値の間に生成されたエラーに対応します。 私はここで答えを見ました: ACFおよびPACF検査によりARMA係数を推定する エラーを自動相関させていないようですが、確認したいのですが、私の懸念は次のとおりです。 1.)最初のエラーは境界の右側にあります(これが当てはまる場合、ラグ1に有意な自己相関があることを受け入れるか拒否する必要がありますか)? 2.)線は95%の信頼区間を表しており、116のラグがあることを前提として(0.05 * 116 = 5.8、6に切り上げます)、6つのラグが境界を超えると予測されます。ACFの場合はこれに該当しますが、PACFの場合は約10の例外があります。国境にそれらを含めると、14のようになりますか?これはまだ自己相関がないことを示していますか? 3.)95%信頼区間のすべての違反がマイナス面で発生しているという事実に何かを読む必要がありますか?

3
stlまたは分解のどちらが良いですか?
私はRを使用して時系列分析を行っています。データをトレンド、季節、ランダムコンポーネントに分解する必要があります。3年間の週次データがあります。R stl()とに2つの関数が見つかりましたdecompose()。stl()乗法分解に適さないことを読んだことがあります。これらの機能を使用できるシナリオを誰かに教えてもらえますか?
10 r  time-series 

3
残差のブートストラップ:私はそれを正しく行っていますか?
まず、 私が理解したことから、残差のブートストラップは次のように機能します。 モデルをデータに合わせる 残差を計算する 残差を再サンプリングし、それらを1に追加します。 モデルを3からの新しいデータセットに適合させます。 n時間を繰り返しますが、常にリサンプリングされた残差を1からの近似に追加します。 これまでのところ正しいですか? 私がやりたいことは少し違うものです: 環境変数を推定するアルゴリズムのパラメーターと予測の不確実性を推定したい。 私が持っているのは、その変数の(シミュレーションからの)エラーのない時系列です。合成データセットを生成するために、x_trueそれにノイズを追加します。次に、アルゴリズムを二乗和(!ではなく!)を目的関数としてフィッティングして、最適なパラメーターを見つけようとします。アルゴリズムの動作を確認し、パラメーターの分布のサンプルを作成するために、を再サンプリングし、それをに追加し、モデルを再度フィッティングし、リンスして繰り返します。それはパラメータの不確実性を評価するための有効なアプローチですか?ブートストラップされたデータセットへの適合を予測の不確実性として解釈できますか、それとも上に投稿した手順に従う必要がありますか?x_noisexsum((x_estimate - x_true)^2)x_estimate - xx_noisex_true / edit:私は自分のモデルが何をしているのか明確にしていないと思います。それは本質的にノイズ除去方法のようなものと考えてください。これは予測モデルではなく、ノイズの多い時系列の環境データの根本的な信号を抽出しようとするアルゴリズムです。 / edit ^ 2:そこにいるMATLAB-Usersのために、私が何を意味するのかについての簡単で汚い線形回帰の例を書き留めました。 これは、「通常の」残差のブートストラップが正しいと私が信じていることです(間違っている場合は修正してください):http : //pastebin.com/C0CJp3d1 これは私がしたいことです:http://pastebin.com/mbapsz4c

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
サンプルの自己共分散関数に関する質問
私は時系列分析の本を読んでおり、サンプルの自己共分散の式は本で次のように定義されています。 γˆ(h )= n− 1Σt = 1n − h(xt + h− x¯)(xt− x¯)γ^(h)=n−1∑t=1n−h(xt+h−x¯)(xt−x¯)\widehat{\gamma}(h) = n^{-1}\displaystyle\sum_{t=1}^{n-h}(x_{t+h}-\bar{x})(x_t-\bar{x}) 用。は平均です。γˆ(− h )= γˆ(h )γ^(−h)=γ^(h)\widehat{\gamma}(-h) = \widehat{\gamma}(h)\;ˉ XH = 0 、1 、。。。、n − 1h=0,1,...,n−1\;h = 0,1, ..., n-1バツ¯x¯\bar{x} 合計をではなく除算する理由を誰かが直感的に説明できますか?この本は、これは上記の式が非負定関数であるためであると説明しているため、で除算することが推奨されますが、これは私にはわかりません。誰かがこれを証明したり、例を示したりできますか?n − h nんnnn − hn−hn-hんnn 私にとって最初は直感的に除算することになります。これは、自己共分散の不偏または偏りのある推定量ですか?n−hn−hn-h

2
時系列分析の履歴に役立つリソースは何ですか?
私はstats.stackexchangeでこの質問の回答を確認しました。統計の履歴を提供する優れたリソースは何ですか? 確かに、スティグラーの本「Statistics on the Table」はすばらしいように見え、私はそれを読むのを楽しみにしています。しかし、私は現代のARIMAモデルの開発にもっと興味があります。 第二次世界大戦中の大砲のランダムな不正確さを予測しようとすることで多くの進歩が刺激されたと聞いたのを覚えていると思います。また、もちろん、ミレニアムの後半の天文学者は、天体の動きを理解するために、ある種の時系列をある程度使用していました。しかし、時系列の大砲の適用についてどこで聞いたのか思い出せず、物理学のバックグラウンドがあり、天文学者がどのような統計的手法を使用していたのか本当にわかりません。 ですから、時系列手法の開発に最も関連した歴史的影響は何だと思いますか。たとえば、それらは主に金融、防衛、地質学/地球物理学、またはこれらすべての組み合わせによって刺激されたのでしょうか?ARIMAの歴史に関する有益な本やウェブサイトはありますか?

3
時系列間の類似点を見つける方法は?
次の例では、海の5つの水深で記録された水温測定の時系列で構成されるデータフレームがあり、各値はTempの日付DateTimeと水深に対応していますDepth。 set.seed(1) Temp <- rnorm(43800,sd=20) AirT <- rnorm(8760,sd=20) Depth <- c(1:5) DateTime = seq(from=as.POSIXct("2010-01-01 00:00"), to=as.POSIXct("2010-12-31 23:00"), length=8760) Time <- as.POSIXct(DateTime, format = "%Y-%m-%d %H:%M") DatT <- data.frame(Temp) ## bind together FinalDat <- cbind(DatT, Date = rep(Time,5)) FinalDat <- cbind(FinalDat, AirT = rep(AirT, 5), Depth = rep(Depth, each = 8760), …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.