前書き
このトピックへの私の関心は現在約7年であり、博士論文の時系列になりました:集計、分解、および長期記憶。AR(1)スキームの断面分解問題の特定の質問に注意が払われました。
データ
集約へのさまざまなアプローチを使用する場合、最初に明らかにする必要がある質問は、どのタイプのデータを扱うかです(私の推測では、最もスリリングな空間データです)。実際には、時間的集約(Silvestrini、A.およびVeridas、D.(2008)を参照)、断面(Granger、CWJ(1990)の記事が大好き)または時間と空間(空間的集約がよく調査されています)を考慮することができますでGiacomini、R.とグレンジャー、CWJ(2004) )。
回答(長い)
さて、あなたの質問に答えて、私はいくつかの大まかな直観を最初に置きました。私が実際に遭遇する問題は、しばしば不正確なデータに基づいているため(アンディの仮定
あらゆるレベルの精度で観測値の時系列を測定できます
マクロ計量経済学には強すぎるように思えますが、金融およびミクロ計量経済学や実験分野には適しています、精度をかなりうまく制御していれば)私の月次時系列は、年次データ。少なくともマクロ経済学でより頻繁な時系列に加えて、季節的なパターンがあり、それはスプリアスにつながる可能性があります結果(季節の部分は系列ではなく相関します)ので、季節ごとにデータを調整する必要があります。これは、高頻度データの精度が低い別のソースです。断面データを操作することで、高レベルの分解により、おそらく多くのゼロに対処する必要があるため、より多くの問題が発生することが明らかになりました。たとえば、データパネルの特定の世帯は5〜10年に1回車を購入できますが、新しい(中古)車の総需要は(小さな町や地域でも)よりスムーズです。
最も弱いポイント集計は、常に、その結果、情報の損失、全体の10年間(2001年から2010年の期間など)にEU諸国の断面によってGDPが生成される場合がありますが、詳細なパネルデータセットを考慮して分析に存在する可能性のあるすべての動的な機能を失います。大規模な断面集約はさらに興味深いものになる可能性があります。おおまかに、単純なもの(短いメモリAR(1))を非常に大きな母集団で平均化し、マイクロに似ていない「代表的な」長いメモリエージェントを取得します。ユニット(代表エージェントのコンセプトのもう1つの石)。そのため、集約〜情報の損失〜オブジェクトのさまざまなプロパティがあり、この損失や新しいプロパティのレベルを制御したいと考えています。私の意見では、可能な限り高い頻度で正確なマイクロレベルのデータを取得する方が良いですが、...
(少なくとも)統計的に結果がジャンクでないことを多少なりとも確信するには、より多くの余地(自由度)が必要です。質問1と2への重み(通常、マクロ分析用に四半期ごとのデータを選択します)。3番目のサブ質問に答えて、実際のアプリケーションであなたにとってより重要なこと、つまり、より正確なデータまたは自由度を決定します。上記の仮定を考慮に入れる場合、より詳細な(またはより高い頻度の)データが望ましいです。
おそらく、ある種の議論がある場合は、後で答えを編集します。