トレイン/テストスプリットの代わりにAICまたはBICをどのように使用できますか?


8

最近、いくつかの「非公式」ソースに出くわしました。これは、状況によっては、AICまたはBICを使用して時系列モデルをトレーニングする場合、データをテストに分割してトレーニングする必要がないことを示しています。トレーニング用のデータ。(出典には、CVに関するRob Hyndmanのブログ投稿に関するディスカッション、スタンフォード大学からのこのプレゼンテーション、またはこのテキストのセクション4が含まれます)。

特に、データセットが小さすぎてトレインとテストを分割できない場合に、AICまたはBICを使用できることを示しているようです。

たとえば、Rob Hyndmanのコメント:「AIC / BICを使用する方がテストセットやCVを使用するよりもはるかに効率的であり、そうでない場合に十分なデータがない短い時系列では不可欠になります。」

しかし、これについて詳細に説明しているテキストや論文を見つけることはできません。

特に私を困惑させることの1つは、AICとBICが相互検証に漸近的になる傾向があるということです。つまり、可能であれば、それらは大きなデータセットのCVを置き換えることになります。

誰かが私にこのアイデアの正式な議論(本の章、論文、チュートリアル)を指摘できますか?

回答:


4

この本の 5.5章では、これらのモデル選択基準の多くがどのように発生するかについて説明しています。赤池のARモデルのFPE基準から始め、次にAIC、AICc、BICについて説明します。彼らはかなり徹底的に派生を歩きます。

{Xt}{Yt}これは、この新しいデータで推定モデルを使用することから生じます。主なアイデアは、a)すべてのデータに関して期待値を取得し、2)いくつかの漸近的な結果を使用して、期待値の一部の式を取得することです。(1)からの量は期待される全体的なパフォーマンスを提供しますが、(2)は実際よりも多くのデータがあることを前提としています。私は専門家ではありませんが、交差検証アプローチはこれらのパフォーマンス測定も対象にしていると思います。しかし、サンプル外のデータを仮想的に考慮する代わりに、トレーニングデータから分割された実際のデータを使用します。

{ϕ^i}i{Yt}

E(Yn+1ϕ^1Ynϕ^pYn+1p)2=E(Yn+1ϕ1YnϕpYn+1p(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=E(Zt+(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=σ2+E[E[((ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2|{Xt}]]=σ2+E[i=1pj=1p(ϕ^iϕi)(ϕ^jϕj)E[Yn+1iYn+1j|{Xt}]]=σ2+E[(ϕ^pϕp)Γp(ϕ^pϕp)](typo in book: n1/2 should be n1/2)σ2(1+pn)(nσ^2/σ2 approx. χnp2)nσ^2np(1+pn)=σ^2n+pnp.

これらの基準のパフォーマンスを相互検証手法と経験的に比較した、頭の上の論文は知りません。ただし、この本には、FPE、AIC、AICc、BICの比較方法に関する多くのリソースが記載されています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.