一般に、時系列は他の機械学習の問題と実際には違いはありません-トレーニングセットで学習したモデルがテストセットに適切であるようにするため、テストセットをトレーニングセットの「見た目」にする必要があります。それが定常性に関する重要な基本概念です。時系列には、データに長期的な構造があり、モデルが学習するには十分に洗練されていない可能性があるという追加の複雑さがあります。たとえば、Nの自己回帰ラグを使用する場合、Nよりも長い間隔で依存関係を学習することはできません。したがって、ARIMAのような単純なモデルを使用する場合、データも局所的に静止させる必要があります。
あなたが言ったように、定常とは、モデルの統計が時間とともに変化しないことを意味します(「局所的に」定常)。ARIMAモデルは基本的に回帰モデルであり、過去のN値を線形回帰への入力として使用して、N + 1番目の値を予測します。(少なくとも、これはARパートが行うことです)。モデルを学習するとき、回帰係数を学習しています。過去のNポイントと次のポイントとの関係を学習する時系列があり、それを異なるNポイントのセットに適用して次の値を予測する場合、暗黙的に同じ関係が成り立つと仮定しますN個の予測ポイントと、予測しようとしている次のN + 1番目のポイント。それは定常性です。トレーニングセットを2つの間隔に分けて個別にトレーニングした場合、そして2つの非常に異なるモデルを得ました-それから何を結論づけますか?これらのモデルを予測に適用すると自信があると思いますか新しいデータ?どちらを使用しますか?これらの問題は、データが「非定常」である場合に発生します。
RNNに対する私の考え方はこれです。あなたはまだ時系列の1つのセグメントからパターンを学んでおり、予測を得るためにそれを時系列の別の部分に適用したいのです。モデルは、時系列の簡略化された表現を学習します。その表現がトレーニングセットに適用され、テストセットには適用されない場合、パフォーマンスは向上しません。ただし、ARINAとは異なり、RNNは非線形性を学習することができ、LSTMノードなどの特殊なノードはこれがさらに優れています。特に、LSTMとGRUは、長期的な依存関係の学習に非常に優れています。たとえば、このブログ投稿を参照してください。事実上、これは、「定常性」が意味するものがRNNに対して脆弱性が低いことを意味しているため、多少心配はありません。ただし、長期的な依存関係を学習できるようにするには、トレーニングするために大量のデータが必要です。
最終的にその証拠はプリンにあります。つまり、他の機械学習プロジェクトの場合と同様に、モデルの検証を行います。ホールドアウトデータのモデルが適切に予測されている場合、そのモデルを使用することにある程度自信があります。しかし、他のMLプロジェクトと同様に、テストデータがトレーニングデータと大幅に異なる場合、モデルはうまく機能しません。