タグ付けされた質問 「time-series」

時系列は、(連続時間または離散時間のいずれかで)時間をかけて観測されたデータです。

4
予測精度の計算
時系列データの予測にはSTL(R実装)を使用しています。 私たちは毎日、毎日の予測を実行しています。予測値と実際の値を比較して、平均偏差を特定します。たとえば、明日の予測を実行して予測ポイントを取得した場合、これらの予測ポイントを、明日取得する実際のデータと比較します。私は、予測値と実際のデータがほとんどの場合一致しない場合があることを認識しています。これが、私たちが毎日どれだけ正確であるかを追跡したい理由の1つです。 今、私たちはこの問題を解決するための最良のアプローチは何かを特定しようとしていますか?ヘルプポインタをいただければ幸いです。 私が見て、予測精度の質問を測定するが、それはモデルを比較するのではなく実際の値と精度を計算に関係しているようです。 Rでの精度関数の実装を調べましたが、2つの質問と混同されていました。 1)チュートリアルのほとんどが「テストデータ」対「予測データ」と言っているため、実際のデータと予測データで機能しますか 2)精度関数の出力は、偏差の%ではなく値の配列です。

3
定期的なデータと定期的なデータを区別するためのテスト
私はいくつかの未知の関数があるとfffドメインと私は継続性のようないくつかの合理的な条件を満たすために知っています、。いくつかの等間隔のサンプリングポイントt_i = t_0 +iΔtとi∈\ {1、…、n \}でのの正確な値を知っています(これはすべてをキャプチャするのに十分細かいと想定できます)fの関連する側面。たとえば、2つのサンプリングポイント間にfの最大1つの極値があると想定できます。私のデータがfに正確に周期的であるかどうかを示すテストを探しています。つまり、∃τ:f(t +τ)= f(t)\、∀\、tRℝℝfffti=t0+iΔtti=t0+iΔtt_i=t_0 + iΔti∈{1,…,n}i∈{1,…,n}i∈\{1,…,n\}fffffffff∃τ:f(t+τ)=f(t)∀t∃τ:f(t+τ)=f(t)∀t∃τ: f(t+τ)=f(t) \,∀\,t、たとえばΔt&lt;τ&lt;n⋅ΔtΔt&lt;τ&lt;n·ΔtΔt < τ < n·Δt(ただし、必要に応じてより強い制約を課すことができると考えられる)など、期間の長さはやや共鳴します。 別の観点から見ると、データx0,…,xnx0,…,xn{x_0, …, x_n}あり、f(t_i)= x_i x iであるような周期関数fff(上記の条件を満たす条件)が存在するかどうかの質問に答えるテストを探しています。f(ti)=xi∀if(ti)=xi∀if(t_i)=x_i ∀ i 重要な点は、が少なくとも周期性に非常に近いことです(たとえば、またはと少量ずつのデータポイントを変更するとデータが準拠するために十分である程度に)正確に周期的です。したがって、フーリエ変換やゼロクロッシングの分析などの周波数分析の標準ツールはあまり役に立ちません。ffff(t):=sin(g(t)⋅t)f(t):=sin⁡(g(t)·t)f(t) := \sin(g(t)·t)f(t):=g(t)⋅sin(t)f(t):=g(t)·sin⁡(t)f(t) := g(t)·\sin(t)g′(t)≪g(t0)/Δtg′(t)≪g(t0)/Δtg'(t) ≪ g(t_0)/Δtfff 私が探しているテストはおそらく確率論的ではないことに注意してください。 私はそのようなテストを自分で設計する方法をいくつか考えていますが、ホイールの再発明を避けたいです。だから私は既存のテストを探しています。

1
加法分解と乗法分解
私の質問は本当に単純なものですが、それらは本当に私を理解するものです:)私は、特定の時系列が加法または乗法分解法を使用して分解されるかどうかを評価する方法を本当に知りません。お互いを区別するための視覚的な手掛かりがあることは知っていますが、理解できません。 この時系列を例にとります: どのように説明しますか? よろしくお願いします。

2
R時系列の増加/減少傾向を検出します
日、週、月などの期間を含む時系列がたくさんあります。stl()機能またはでloess(x ~ y)私が見ることができますどのように特定の時系列表情の動向。時系列の傾向が増加しているか減少しているかを検出する必要があります。どうすれば管理できますか? 線形回帰係数を計算lm(x ~ y)して、勾配係数で遊んでみました。(If |slope|&gt;2 and slope&gt;0 then増加傾向、else if |slope|&gt;2 and slope&lt;0–減少)。多分傾向検出のための別のより効果的な方法がありますか?ありがとうございました! 例:私はtimeserie1、を持っていtimeserie2ます。それがtimeserie2増加アルゴリズムであることを教えてくれる単純なアルゴリズムが必要timeserie1です。どの基準を使用すればよいですか? timeserie1: 1774 1706 1288 1276 2350 1821 1712 1654 1680 1451 1275 2140 1747 1749 1770 1797 1485 1299 2330 1822 1627 1847 1797 1452 1328 2363 1998 1864 2088 2084 594 884 1968 1858 …
9 r  time-series  trend 

1
時変係数DLMのあてはめ
DLMを時変係数で適合させたい、つまり通常の線形回帰への拡張、 。yt= θ1+ θ2バツ2yt=θ1+θ2x2y_t = \theta_1 + \theta_2x_2 私は、予測子()と応答変数(y t)、海洋および内陸の年間漁獲量をそれぞれ1950〜2011年に取得しています。DLM回帰モデルに従ってください。バツ2x2x_2ytyty_t yt= θt 、1+ θt 、2バツtyt=θt,1+θt,2xty_t = \theta_{t,1} + \theta_{t,2}x_t ここで、システム進化方程式は θt=Gtθt−1θt=Gtθt−1\theta_t = G_t \theta_{t-1} PetrisらによるRを使用した動的線形モデルの43ページから。 ここでいくつかのコーディング、 fishdata &lt;- read.csv("http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv", header=T) x &lt;- fishdata$marinefao y &lt;- fishdata$inlandfao lmodel &lt;- lm(y ~ x) summary(lmodel) plot(x, y) abline(lmodel) 明らかに、ここでは回帰モデルの時変係数がより適切です。私は121〜125ページの彼の例に従い、これを自分のデータに適用したいと思います。これは例のコーディングです ############ PAGE 123 require(dlm) …

2
複数の空間解像度/スケールを持つソースからの時系列情報の結合
さまざまなセンサーから入手できる多くの衛星ラスター画像があります。これらから、より粗いものは非常に豊富な時間分解能を持っています。中解像度のラスターは取得日が少ない傾向がありますが、それでもある程度の情報は利用できます。より細かい解像度のものは、2年以内に観測された日付が2から6に及ぶ非常に低い時間解像度を持っています。誰かがこのタイプのマルチスケール時系列を何らかの方法で研究するための努力を知っているかどうか疑問に思っていましたか?より粗いものから得られる情報を使用して、より細かいスケールで将来の値を予測することに興味があります。データは関連している必要があります(画像が同じ領域をカバーしている)ことは私には理にかなっていますが、予測モデルでこの情報の結合を開始する方法がわかりません。

1
イベント予測のための隠れマルコフモデル
質問:隠しマルコフモデルの賢明な実装の下の設定ですか? 108,000観測データセット(100日間で取得)と2000、観測期間全体にわたるおおよそのイベントがあります。観測された変数が3つの離散的な値とることができる場所下図のようなデータルックスと赤の列は、イベント時間を強調表示、すなわちトンEさん:[1,2,3][1,2,3][1,2,3]tEtEt_E tEtEt_EtE−5tE−5t_{E-5} HMMトレーニング:私がすることを計画し訓練 Pgの上で示唆したように、複数の観測系列の方法論を使用して、すべての「プレイベントの窓」に基づき、隠れマルコフモデル(HMM)を。ラビナーの論文の 273 。うまくいけば、これにより、イベントにつながるシーケンスパターンをキャプチャするHMMをトレーニングできます。 l o g[ P(O b s e r v a t i o n s | HMM)]log[P(Observations|HMM)]log[P(Observations|HMM)]O b s e r v a t i o n sObservationsObservationstttt − 5t−5t-5 l o g[ P(O b s e r v a t i o …

1
時系列予測パフォーマンスの評価
いくつかの時間変数でトレーニングされた動的単純ベイズモデルがあります。モデルの出力はの予測でありP(Event) @ t+1、それぞれで推定されますt。 P(Event)対のプロットtimeは、次の図に示すとおりです。この図では、黒い線P(Event)が私のモデルで予測されたものを表しています。水平な赤い線は、イベント出来事の事前確率を表します。縦の点線は、時系列での(5つの)イベント発生を表します。 理想的には、P(Event)イベントを観察する前に予測ピークを確認し、イベントの見込みがない場合はゼロに近いままにしたいです。 イベントの発生を予測する上で、モデル(黒い線)のパフォーマンスを報告できるようにしたいと思います。私のモデルと比較する明らかな候補は、イベントの事前確率(赤い線)です。これは、予測子として使用した場合、すべてに対して同じ確率値を予測しますt。 この比較を達成するための最良の正式な方法は何ですか? PS:私は現在、以下にコード化されている(直感的な)スコアリングを使用しています。スコアが全体的に低いほど、予測パフォーマンスが良いことを示しています。このスコアリングで以前のものを倒すのは実際にはかなり難しいことがわかりました: # Get prediction performance model_score = 0; prior_score=0; for t in range(len(timeSeries)): if(timeSeries[t]== event): # event has happened cur_model_score = 1- prob_prediction[t]; cur_prior_score = 1 - prior else: # no event cur_model_score = prob_prediction[t] - 0; cur_prior_score = prior - 0; model_score …

2
ARIMA予測、季節性と傾向、奇妙な結果
ARIMAモデルを使用した予測に足を踏み入れているとき、季節性とドリフトに適合するARIMAに基づいて予測を改善する方法を理解しようとしています。 私のデータは次の時系列です(3年以上、明確な上昇傾向と目に見える季節性があり、ラグ12、24、36の自己相関ではサポートされていないようです)。 &gt; bal2sum3years.ts Jan Feb Mar Apr May Jun Jul Aug 2010 2540346 2139440 2218652 2176167 2287778 1861061 2000102 2560729 2011 3119573 2704986 2594432 2362869 2509506 2434504 2680088 2689888 2012 3619060 3204588 2800260 2973428 2737696 2744716 3043868 2867416 Sep Oct Nov Dec 2010 2232261 2394644 2468479 2816287 2011 2480940 …

1
動的タイムワーピングと正規化
私は動的時間ワーピングを使用して「クエリ」と「テンプレート」の曲線を一致させ、これまでのところ妥当な成功を収めていますが、いくつかの基本的な質問があります。 DTWの結果がヒューリスティックに思いついたあるしきい値よりも小さいかどうかを評価することで、「一致」を評価しています。これは、DTWを使用して「一致」を決定するための一般的なアプローチですか?そうでない場合は、説明してください... (1)の答えが「はい」であるとすると、DTWの結果はa)曲線の振幅の違いとb)クエリベクトルの長さと "テンプレート」ベクトル。 私は対称ステップ関数を使用しているため、(b)については、DTWの結果をM + N(DTWマトリックスの幅+高さ)で除算することで正規化しています。これはある程度効果的であるようですが、対角線から遠い(つまり、DTWマトリックスを通るパスが長い)DTWの一致にペナルティを課すようです。これは、「正規化」アプローチにとっては恣意的なようです。マトリックスを介してステップ数で除算することは直感的に理解できるようですが、文献によるとそれを行う方法とは思われません。 では、DTWの結果をクエリベクトルとテンプレートベクトルのサイズに合わせて調整するより良い方法はありますか? 最後に、クエリとテンプレートベクトル間の振幅の差についてDTW結果を正規化するにはどうすればよいですか? 確かに、信頼できる正規化手法の欠如(または私の理解の欠如)を考えると、「一致」を定義するための最適なしきい値レベルを特定するためのサンプルデータの操作には、多くの手作業が伴うようです。何か不足していますか?

3
異分散性と非定常性の概念的な違い
分散性と定常性の概念を区別するのに苦労しています。私が理解しているように、異分散性は部分母集団の変動性が異なり、非定常性は時間の経過とともに変化する平均/分散です。 これが正しい(単純化ではあるが)理解である場合、非定常性は単に、時間の経過に伴う不均一分散の特定のケースですか?

2
Rで単純な指数平滑法をどのように使用しますか?
私はRの初心者です。R 予測の予測パッケージでsesを使用する方法を説明してもらえますか?初期期間の数と平滑化定数を選択したいと思います。 d &lt;- c(3,4,41,10,9,86,56,20,18,36,24,59,82,51,31,29,13,7,26,19,20,103,141,145,24,99,40,51,72,58,94,78,11,15,17,53,44,34,12,15,32,14,15,26,75,110,56,43,19,17,33,26,40,42,18,24,69,18,18,25,86,106,104,35,43,12,4,20,16,8) 70期間ありますが、初期に40期間、サンプル外に30期間を使用したいと思います。 ses(d, h=30, level=c(80,95), fan=FALSE,initial=c("simple"), alpha=.1) それが正しいか?

1
観測されたイベントと期待されたイベントを比較する方法は?
4つの可能なイベントの頻度の1つのサンプルがあるとします。 Event1 - 5 E2 - 1 E3 - 0 E4 - 12 そして、私は自分のイベントの発生が予想される確率を持っています: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 4つのイベントの観測頻度の合計(18)を使用して、イベントの予想頻度を計算できますか? expectedE1 - 18 * 0.2 = 3.6 expectedE2 - 18 * 0.1 = 1.8 expectedE1 - 18 * 0.1 = 1.8 expectedE1 - …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 



弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.