一般に、意図的にデータを過剰に適合させることは意味がありません。問題は、データに含まれていない部分にもパターンが表示されることを確認するのが難しいことです。データにパターンがあることを確認する必要があります。そうすることの1つの可能性は、定常性の概念です。
あなたが言うことは私に定常性とエルゴード性を思い出させます。コンテキスト側/ビジネス側から、時系列が特定のパターンに従うと想定します。これらのパターンは定常性またはエルゴード性と呼ばれます。
定常性の定義:
定常過程は、時間的にシフトしても無条件の同時確率分布が変化しない確率過程です。したがって、平均や分散などのパラメーターも時間の経過とともに変化しません。
エルゴード性の定義:
エルゴディックプロセスは、十分な時間が与えられた場合に、特定の空間内のすべてのポイントを含み、またはそれに影響を与え、合理的に大きなポイントの選択によって統計的に表すことができるプロパティを持つシステムまたはプロセスに関連するか、それを示すプロセスです。
次に、それが実際にこれらの特定のパターンに従っていることを確認します。これは、たとえば、ユニットルートテスト(Dickey-Fullerなど)または定常性テスト(KPSSなど)で実行できます。
定義ユニットルートテスト:
H0:ユニットルートがあります。
H1:ユニットルートがありません。これは、ほとんどの場合、定常性を意味します。
定義定常性テスト:
H0:定常性があります。
H1:定常性はありません。
参考文献:
定常テストと単体ルートテストの違いは何ですか?
時系列が実際にこれらのパターンに従っている場合、予測と予測は「統計的な観点から見るとより簡単」になります。たとえば、ARIMAやTBATSなどの予測に計量経済モデルを適用できます。横断的なデータの定常性があり、単位根が一般的な概念ではない場合、私の答えは単変量および多変量時系列に関連しています。