タグ付けされた質問 「econometrics」

計量経済学は、経済学への応用を扱う統計学の分野です。

9
計量経済学と他の統計分野との間の主要な哲学的、方法論的、および用語的な違いは何ですか?
計量経済学は、従来の統計とかなり重複していますが、多くの場合、さまざまなトピック(「識別」、「外生」など)について独自の専門用語を使用します。私はかつて、用語は異なるが概念は同じであるという別のフィールドのコメントで応用統計の教授を聞いたことがあります。しかし、独自の方法と哲学的区別もあります(ヘックマンの有名なエッセイが思い浮かびます)。 計量経済学と主流の統計学との間にはどのような用語の違いがありますか?また、用語は単なる用語ではなく、どこに分かれて異なるようになりますか?

8
R言語は経済学の分野で信頼できますか?
私は経済学の大学院生で、最近、他の非常に有名な統計パッケージからRに変換しました(主にSPSSを使用していました)。現時点での私の小さな問題は、クラスで唯一のRユーザーであるということです。私のクラスメートはStataとGaussを使用しており、教授の一人は、Rはエンジニアリングには最適であるが、経済には最適ではないと言っていました。彼は、多くのパッケージはプログラミングについてはよく知っているが、経済性についてはあまり知られていないため、信頼性が低いと述べています。彼はまた、Rパッケージの構築に実際にお金がかからないため、それを正しく行うインセンティブがなく(たとえば、Stataの場合とは異なり)、Rをしばらく使用し、いくつかのものを推定する彼の試み​​。さらに、彼はRの乱数発生器について不満を述べました。 私は1か月以上Rを使用していますが、Rに夢中になったと言わざるを得ません。私が教授から聞いていることはすべて、私を落胆させているだけです。 私の質問は、「Rは経済学の分野で信頼できるのか?」です。

5
計量経済学の「変量効果モデル」は、計量経済学以外の混合モデルとどの程度正確に関係していますか?
計量経済学の「ランダム効果モデル」は、計量経済学の外の「ランダムな切片を持つ混合モデル」に対応すると考えていましたが、今はわかりません。しますか? 計量経済学では、「固定効果」や「ランダム効果」などの用語を混合モデルに関する文献とは多少異なる方法で使用しているため、悪名高い混乱が生じています。私たちは、単純な状況について考えてみましょう直線的に依存してが、測定値の異なるグループで異なる切片での:xyyyxxx yit=βxit+ui+ϵit.yit=βxit+ui+ϵit.y_{it} = \beta x_{it} + u_i + \epsilon_{it}. ここで、各ユニット/グループは異なる時点観測されます。計量経済学者はそれを「パネルデータ」と呼びます。トンiiittt 混合モデルの用語では、を固定効果またはランダム効果(この場合はランダムインターセプト)として扱うことができます。固定として扱うことは、とをフィッティングして、平方誤差を最小化することを意味します(つまり、ダミーグループ変数を使用してOLS回帰を実行する)。それを我々はさらにその仮定として、ランダムな手段治療と合わせて最大尤度を使用しとの代わりに、各フィッティング独自にします。これは、推定値が平均値向かって縮小する「部分プーリング」効果にます。β uと I uのI〜N(U 0、σ 2 U)U 0 σ 2 U U I 、U I 、U 0uiuiu_iβ^β^\hat \betau^iu^i\hat u_iui∼N(u0,σ2u)ui∼N(u0,σu2)u_i\sim\mathcal N(u_0,\sigma^2_u)u0u0u_0σ2uσu2\sigma^2_uuiuiu_iu^iu^i\hat u_iu^0u^0\hat u_0 R formula when treating group as fixed: y ~ x + group R formula when treating group …

3
対数変換された予測子および/または応答の解釈
従属変数のみ、従属変数と独立変数の両方、または独立変数のみが対数変換されるかどうかの解釈に違いがあるのか​​と思います。 の場合を考えます log(DV) = Intercept + B1*IV + Error IVはパーセントの増加として解釈できますが、 log(DV) = Intercept + B1*log(IV) + Error または私が持っているとき DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

4
相違点とは何ですか?
違いの違いは、特に経済学において、非実験的なツールとして長い間人気がありました。誰かが違いの違いに関する以下の質問に明確で非技術的な答えを提供してください。 差分の推定量とは何ですか? 差異の差の推定量が使用されるのはなぜですか? 実際に差の推定値を信頼できますか?

5
機械学習は因果関係の理解にはあまり役に立たないので、社会科学にはあまり興味がありませんか?
機械学習/その他の統計的予測手法と社会科学者(例:エコノミスト)が使用する統計の種類の違いについての私の理解は、エコノミストが単一または複数の変数の効果を理解することに非常に興味を持っているように見えることです。大きさと関係が因果関係であるかどうかの検出。このため、あなたは実験的および準実験的方法などで自分自身に関わることになります。 予測的である機械学習または統計モデリングは、この側面をしばしば完全に無視し、多くの場合、1つの変数が結果に影響する特定の程度を与えません(ロジットとプロビットは両方を行うようです)。 関連する質問は、新しいドメインを予測する際に、理論的に示唆された経済モデルまたは行動モデルが理論モデルよりもどの程度有利であるかということです。機械学習または予測指向の統計学者は、経済モデルがなければ、共変量が非常に異なる新しいサンプルを正しく予測することはできないという批判に対して何を言うでしょうか。 あらゆる観点からこれについての人々の意見を聞いて本当にうれしいです。

4
インストルメンタル変数とは何ですか?
インストルメンタル変数は、応用経済学と統計学でますます一般的になっています。未経験者のために、以下の質問に対する技術的ではない回答がありますか? インストルメンタル変数とは何ですか? いつインストルメンタル変数を使用したいですか? インストルメンタル変数をどのように見つけ、選択しますか?



1
lmerモデルからの効果の再現性の計算
混合効果モデリングによる測定の再現性(別名信頼性、別名クラス内相関)の計算方法を説明するこの論文に出会ったばかりです。Rコードは次のようになります。 #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
自由度は非整数の数値にできますか?
GAMを使用すると、残留DFは(コードの最終行)になります。どういう意味ですか?GAMの例を超えて、一般に、自由度の数を整数以外の数にすることはできますか?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

13
計量経済学の教科書?
どの優れた計量経済学の教科書を勧めますか? 編集:さまざまなレベルの数学的な洗練された書籍がかなりあります。あなたが推薦している本がどれほど技術的であるかについていくらかのアイデアを得ることは良いでしょう。

6
モデルをフィッティングするときに、通常、二乗和誤差(SSE)を最小化することを選択するのはなぜですか?
問題は非常に単純です。なぜ、線形または非線形のデータにモデルを適合させようとすると、通常、誤差の二乗和を最小化してモデルパラメーターの推定量を取得しようとするのでしょうか。最小化する他の目的関数を選択してみませんか?技術的な理由から、2次関数は他の関数、たとえば絶対偏差の合計よりも優れていることを理解しています。しかし、これはまだ非常に説得力のある答えではありません。この技術的な理由以外に、なぜこの「ユークリッド型」の距離関数を好むのでしょうか?そのための具体的な意味や解釈はありますか? 私の考えの背後にある論理は次のとおりです。 データセットがある場合、最初に一連の機能的または分布的な仮定(たとえば、分布全体ではなく瞬間条件)を作成してモデルを設定します。モデルにはいくつかのパラメーターがあり(パラメトリックモデルであると仮定)、これらのパラメーターを一貫して推定する方法を見つける必要があります。うまくいけば、推定器の分散が低く、その他の優れた特性を持つことになります。SSE、LAD、またはその他の目的関数を最小化するかどうかにかかわらず、これらは一貫した推定量を取得するための異なる方法だと思います。この論理に従って、最小二乗法を使用する人は1)モデルの一貫した推定量を生成する必要があると思った2)私が知らない他の何か。 計量経済学では、線形回帰モデルでは、誤差項の予測子の平均条件が0であり、等分散性と誤差が互いに相関していないと仮定すると、二乗和の最小化によりモデルの一貫した推定量が得られることがわかりますパラメーターとガウスマルコフの定理により、この推定量は青です。したがって、これは、SSEではない他の目的関数を最小化することを選択した場合、モデルパラメーターの一貫した推定値を取得する保証がないことを示唆します。私の理解は正しいですか?それが正しい場合、他の目的関数ではなくSSEを最小化することは一貫性によって正当化できます。実際には、2次関数の方が良いと言うよりも許容できます。 実際には、実際に完全なモデル、たとえば誤差項の分布仮定(モーメント仮定)を最初に明確に指定せずに、二乗誤差の合計を直接最小化する多くのケースを見ました。これは、この方法のユーザーは、データが「モデル」にどれだけ近いかを見たいと思うようです(モデルの仮定はおそらく不完全なので、引用符を使用します)。 関連する質問(このWebサイトにも関連)は、なぜ、相互検証を使用して異なるモデルを比較しようとするとき、判断基準としてSSEを再び使用するのですか?つまり、SSEが最小のモデルを選択しますか?なぜ別の基準がないのですか?

2
PCAと漸近PCAの違いは何ですか?
1986年と1988年の2つの論文で、コナーとコラジクは資産の収益をモデル化するアプローチを提案しました。これらの時系列は、通常、期間の観測よりも多くの資産を持っているため、資産収益の断面共分散に対してPCAを実行することを提案しました。彼らは、このメソッドを漸近主成分分析(APCA、PCAの漸近特性を聴衆がすぐに考えるため、かなり混乱します)と呼びます。 方程式を作成しましたが、2つのアプローチは数値的には同等に見えます。収束はではなくで証明されるため、漸近性はもちろん異なります。私の質問は、APCAを使用してPCAと比較した人はいますか?具体的な違いはありますか?もしそうなら、どれ?T → ∞N→ ∞N→∞N \rightarrow \inftyT→ ∞T→∞T \rightarrow \infty
23 pca  econometrics 

5
分位点回帰がOLSより悪いのはいつですか?
条件付き平均関係を絶対に理解しなければならないいくつかのユニークな状況とは別に、研究者が分位点回帰よりもOLSを選択すべき状況は何ですか? OLSの代替として中央値回帰を使用することができるため、「テール関係を理解するのに役に立たない場合」と答えたくありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.