機械学習アルゴリズムでは、特徴スケーリングまたは正規化を使用して、トレーニング中にアルゴリズムが迅速に収束し、ある特徴のセットが他の特徴のセットを支配するのを回避することがしばしば有益です。たとえば、株価予測の問題を考えてみましょう。AppleやMicrosoftなどの高額の株式といくつかのペニー株を含めると、AppleとMicrosoftの価格から必然的に抽出する価値の高い機能は、ペニー株から抽出したものを圧倒し、トレーニングをしなくなります。りんごごとの基礎(しゃれた意図はありません!)、そして結果の訓練されたモデルはあまり一般化しないかもしれません。
ただし、「データのリサイクルとトレンド除去を試みる」ことは、非常に良いことです。さまざまな周期的コンポーネントとトレンドコンポーネントを抽出し、それぞれの平均を差し引いて標準偏差で割ることによって正規化すると、すべての時系列のすべてのデータが同じ近似範囲に配置され、好きなデータを好きなときにトレーニングします。正規化を元に戻すことによって再スケーリングされた場合、予測目的で一般化される可能性がはるかに高くなります。
さらに、すべての時系列について、トレンドが循環コンポーネントを圧倒する場合があるため、循環のみの時系列ではほとんど確実にうまく機能しない傾向のみのデータでトレーニングを終了する可能性があり、その逆も同様です。2つのコンポーネントを分離し、それぞれを個別のSVMまたはNNでトレーニングしてから、2つの予測を再結合することで、より正確で一般化しやすいアルゴリズムになる可能性があります。