タグ付けされた質問 「causality」

原因と結果の関係。

1
Anova()とdrop1()がGLMMに異なる回答を提供したのはなぜですか?
次の形式のGLMMがあります。 lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 私が使用している場合drop1(model, test="Chi")、私は私が使用している場合とは異なる結果を得るAnova(model, type="III")車のパッケージからかsummary(model)。後者の2つは同じ答えを与えます。 大量の偽造データを使用して、これらの2つの方法は通常違いがないことがわかりました。それらは、平衡線形モデル、不平衡線形モデル(異なるグループでnが等しくない場合)、および平衡一般化線形モデルに対して同じ答えを示しますが、平衡一般化線形混合モデルに対しては同じ答えを与えません。したがって、ランダムな要素が含まれている場合にのみ、この不一致が現れます。 これらの2つの方法の間に違いがあるのはなぜですか? GLMMを使用する場合は必要がありますAnova()かdrop1()使用できますか? これらの2つの違いは、少なくとも私のデータでは、かなりわずかです。どちらを使用するかは問題ですか?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

4
差異の差異で制御変数を使用する理由
次の標準方程式を使用した差分のアプローチについて質問があります: は、扱うグループと投稿のダミー変数です。 y= a + b1治療+ b2投稿+ b3御馳走⋅ ポスト+ Uy=a+b1御馳走+b2役職+b3御馳走⋅役職+あなた y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post} + u さて、私の質問は簡単です:なぜほとんどの論文はまだ追加の制御変数を使用しているのですか?並行トレンドの仮定が正しければ、追加の制御について心配する必要はないはずだと思いました。制御変数を使用する理由として考えられるのは、次の2つだけです。 それらがなければ、トレンドは平行しません DnD仕様は、治療時の治療グループとコントロールグループ間の傾向の違いを介入に起因するため(つまり、交互作用項トリート*ポスト)-他の変数を制御しない場合、交互作用の係数が終了する可能性があります-/控えめに 誰かがこの問題についていくつかの光を当てることができますか?私の理由1)または2)はまったく意味がありますか?DnDでの制御変数の使用を完全には理解していません。

3
線形回帰における線形性の仮定は単に
線形回帰を修正しています。 グリーンによる教科書はこう述べている: ここで、もちろん、線形回帰モデルにはなどの他の仮定があります。この仮定と線形性の仮定(実際にはdefinesを定義する)を組み合わせると、モデルに構造が適用されます。E(ϵ|X)=0E(ϵ|X)=0E(\epsilon|X)=0ϵϵ\epsilon しかし、直線性の仮定自体によっては以来、私たちのモデルにどのような構造を入れていません完全に任意でよいです。変数X 、yについては、2つの関係が何であれ、線形性の仮定が成り立つようにϵを定義できます。したがって、線形性「仮定」は、仮定ではなく、実際にはϵの定義と呼ばれるべきです。ϵϵ\epsilonX,yX,yX, yϵϵ\epsilonϵϵ\epsilon したがって、私は不思議に思っています: グリーンはだらしないですか?彼は、実際に書かれている必要があります:?これは実際にモデルに構造を置く「線形性の仮定」です。E(y|X)=XβE(y|X)=XβE(y|X)=X\beta それとも私は、直線性の仮定がモデルに構造を置いていないことを受け入れなければならないだけ定義します他の仮定はのその定義に使用する、εをモデルに構造を置くことを?ϵϵ\epsilonϵϵ\epsilon 編集:他の仮定については混乱があるようですので、ここに仮定の完全なセットを追加しましょう: これはグリーン、計量経済分析、第7版からです。p。16。

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
(ロジスティック)回帰に「予測」という単語を使用するのはどの程度公平ですか?
私の理解は、回帰でさえ因果関係を与えないということです。これは、y変数とx変数の間の関連付けと、場合によっては方向のみを与えることができます。私は正しいですか?ほとんどのコースの教科書やオンラインのさまざまなコースページでも、「xはyを予測する」に似たフレーズをよく見かけます。また、リグレッサを予測子、yを応答と呼ぶことがよくあります。 線形回帰にそれを使用することはどれほど公平ですか? ロジスティック回帰はどうですか?(確率tを比較できるしきい値tがある場合)

1
傾向スコアの重み付けによる平均治療効果の信頼区間?
傾向スコアの重み付け(具体的にはIPTW)を使用して、観測データから平均治療効果を推定しようとしています。私はATEを正しく計算していると思いますが、逆の傾向スコアの重みを考慮しながら、ATEの信頼区間を計算する方法がわかりません。 以下は、平均治療効果を計算するために使用する方程式です(参照Stat Med。Sep 10、2010; 29(20):2137–2148。): ここで、被験者の総数、治療状態、結果状態、および傾向スコア。ATE=1N∑1NZiYipi−1N∑1N(1−Zi)Yi1−piATE=1N∑1NZiYipi−1N∑1N(1−Zi)Yi1−piATE=\frac1N\sum_1^N\frac{Z_iY_i}{p_i}-\frac1N\sum_1^N\frac{(1-Z_i)Y_i}{1-p_i}N=N=N=Zi=Zi=Z_i=Yi=Yi=Y_i=pi=pi=p_i= 重みを考慮して、平均治療効果の信頼区間を計算するRパッケージを知っている人はいますか?でしたsurveyここでパッケージのヘルプ?これがうまくいくかどうか疑問に思っていました: library(survey) sampsvy=svydesign(id=~1,weights=~iptw,data=df) svyby(~surgery=='lump',~treatment,design=sampsvy,svyciprop,vartype='ci',method='beta') #which produces this result: treatment surgery == "lump" ci_l ci_u No 0.1644043 0.1480568 0.1817876 Yes 0.2433215 0.2262039 0.2610724 比率間の差の信頼区間(平均治療効果など)を見つけるために、ここからどこへ行くべきかわかりません。

3
予測モデルの伝達​​関数-解釈
私はARIMAモデリングに夢中になっていて、プロモーションモデリングの目的で外因性変数が追加されており、ビジネスユーザーに説明するのに苦労しています。場合によっては、ソフトウェアパッケージは単純な伝達関数、つまりパラメーター*外生変数で終わることがあります。この場合、解釈は簡単です。つまり、プロモーションアクティビティX(外因性のバイナリ変数で表されます)は、従属変数(たとえば、需要)にYの量で影響します。したがって、ビジネス用語では、プロモーション活動XはYユニットによる需要の増加をもたらすと言えます。 伝達関数がより複雑になる場合があります。たとえば、多項式*外生変数の除算です。私ができることは、すべての動的回帰係数を見つけるために多項式の除算を行い、たとえば、プロモーション活動は、それが発生する期間中の需要だけでなく、将来の期間にも影響を与えると言うことです。しかし、ソフトウェアパッケージは多項式の除算として出力伝達関数を出力するため、ビジネスユーザーは直感的な解釈を行うことができません。除算せずに複雑な伝達関数について言えることはありますか? 関連するモデルのパラメータと関連する伝達関数を以下に示します。 定数= 4200、AR(1)、プロモーション活動係数30、Num1 = -15、Num2 = 1.62、Den1 = 0.25 ですから、この期間にプロモーション活動を行うと、需要のレベルが30単位増えると思います。また、伝達関数(多項式の除算)が存在するため、プロモーション活動は現在の期間だけでなく、その後の期間にも影響を与えます。問題は、プロモーションの影響を受ける将来の期間の数と、需要単位での期間あたりの影響をどのように見つけることができるかです。

1
同定から推定まで
私は現在、因果関係についてパールの作品(Pearl、2009、第2版)を読んでおり、モデルのノンパラメトリックな同定と実際の推定との間のリンクを確立するのに苦労しています。残念ながら、パール自身はこのトピックについて非常に沈黙しています。 例として、因果パスと、すべての変数w → x、w → zおよびw → yに影響を与える交絡因子を持つ単純なモデルを念頭に置いています。さらに、xとyは観測されていない影響x ← → yによって関連付けられます。do計算の規則により、介入後(離散)の確率分布が次の式で与えられることがわかりました。x→z→yx→z→yx \rightarrow z \rightarrow yw→xw→xw \rightarrow xw→zw→zw \rightarrow zw→yw→yw \rightarrow yxxxyyyx←→yx←→yx \leftarrow \rightarrow y P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]].P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]]. P(y \mid do(x)) = \sum_{w,z}\bigl[P(z\mid w,x)P(w)\sum_{x}\bigl[P(y\mid w,x,z)P(x\mid w)\bigr]\bigr]. (ノンパラメトリックに、またはパラメトリックな仮定を導入することによって)この量をどのように推定できるのか不思議に思っています。特に、が複数の交絡変数のセットであり、対象となる量が連続している場合は特にそうです。データの合同介入前分布を推定することは、この場合非常に非現実的であるように見えます。誰かがこれらの問題に対処するパールの方法の応用を知っていますか?ポインタをいただければ幸いです。 www

3
ランダム割り当て:なぜわざわざ?
ランダム割り当ては、治療を潜在的な結果から独立させることができるため、価値があります。それが、平均治療効果の公平な推定につながる方法です。しかし、他の割り当てスキームも、治療の潜在的な結果からの独立性を体系的に保証することができます。では、なぜランダムな割り当てが必要なのでしょうか。別の言い方をすれば、不偏推論につながる非ランダム割り当て方式よりもランダム割り当ての利点は何ですか? ましょう各要素が0(治療に割り当てられていない単位)または1(治療に割り当てられた単位)である処置の割り当てのベクトルです。JASAの記事で、Angrist、Imbens、およびRubin(1996、446-47)は、場合、処理割り当てはランダムであると述べていすべての\ mathbf {c}および\ mathbf {c'}に対して、\ iota ^ T \ mathbf {c} = \ iota ^ T \ mathbf {c '}である場合、\ iotaはaすべての要素が1に等しい列ベクトル。ZZ\mathbf{Z}Z私ZiZ_icPr (Z = c)= Pr (Z = c』)Pr(Z=c)=Pr(Z=c′)\Pr(\mathbf{Z} = \mathbf{c}) = \Pr(\mathbf{Z} = \mathbf{c'})cc\mathbf{c} ι T C = ι T C ' ιc』c′\mathbf{c'}ιTc = ιTc』ιTc=ιTc′\iota^T\mathbf{c} = \iota^T\mathbf{c'}ιι\iota 言い換えると、処理へのm個の割り当てを含む割り当てのベクトルが、処理へのm個の割り当てを含む他のベクトルと同じである場合、割り当てZ私ZiZ_iはランダムであるという主張です。メートルmmメートルmm ただし、治療の割り当てからの潜在的な結果の独立性を確保するには、研究の各ユニットが治療への割り当ての確率が等しいことを確認するだけで十分です。そして、ほとんどの治療割り当てベクトルが選択される確率がゼロであっても、それは簡単に起こります。つまり、ランダムでない割り当てでも発生する可能性があります。 …

4
どのようにして因果関係を検証しますか?
2つの量が相関していることを示した後、関係が因果関係であるとどのように推測しますか?そしてさらに、どれが何を引き起こすのですか?理論的には、2つの変数の間に存在する可能性のある事故のきずなを破るために、「ランダムな割り当て」(正しい単語が何であれ)を使用できます。しかし、これができない場合もあります。たとえば、1週間にたばこで測定した人が喫煙する頻度と、年で測定した平均余命を比較します。2つのグループをランダムに選択できます。片方のグループを煙にして、もう片方を煙にしない 割り当てはランダムであるため、これはそれらの間の他の関係を壊すはずです。しかし、これはもちろん多くの異なる理由で行うことができません。それで、使用できるテクニックのいくつかは何ですか?

4
因果関係の数学的定義
ましょうおよび、ランダムな変数です。の条件付き平均である与えられた。私たちは言う因果に関連していない場合に依存しないそれはに等しい意味し、。さて、因果関係のこの定義に少し触れましょう。反復期待の法則により、です。これは、がに依存しない場合、それが等しい場合、ことを意味します。X E (Y | X )Y X Y X E (Y | X )X E (Y )E (X E (Y | X ))= E (E (X Y | X ))= E (X Y )E (Y | X )X E (Y )YYYXXXE(Y|X)E(Y|X)E(Y|X)YYYXXXYYYXXXE(Y|X)E(Y|X)E(Y|X)XXXE(Y)E(Y)E(Y)E(XE(Y|X))=E(E(XY|X))=E(XY)E(XE(Y|X))=E(E(XY|X))=E(XY)E(XE(Y|X)) = E(E(XY|X)) = E(XY)E(Y|X)E(Y|X)E(Y|X)XXXE(Y)E(Y)E(Y)E(X)E(Y)=E(XY)E(X)E(Y)=E(XY)E(X)E(Y) = E(XY) 言い換えると: とが因果関係がない場合、とは無相関です!-これは意味がなく、私はこれが間違っているに違いないことを知っています。因果関係を誤って定義しましたか?何が悪いのでしょうか?Y X …

1
傾向スコア分析で、非常に小さいまたは大きい傾向を処理するためのオプションは何ですか?
\newcommand{\P}{\mathbb{P}}治療の割り当てを非常によく説明できる観測データに関心があります。たとえば、のロジスティック回帰 P(A=1 | X)= (1 + exp(− (Xβ)))− 1P(A=1|X)=(1+exp⁡(−(Xβ)))−1\P(A =1 |X) = (1+ \exp(-(X\beta)))^{-1} wehre あAA治療割り当てとバツXX共変量は、非常に高いテストと非常に良好なフィット感があるA UC> .80AUC>.80AUC >.80、さらには> .90>.90>.90。これは傾向モデルの精度にとって朗報ですが、傾向スコアの推定につながりますπ^=(1 + exp(− (Xβ^)))− 1π^=(1+exp⁡(−(Xβ^)))−1\hat{\pi} = (1+ \exp(-(X \hat{\beta})))^{-1}閉じる000または111。これらは、結果の期待値の逆確率重み付け推定量などの推定量で使用される大きな逆確率重みπ^− 1π^−1\hat{\pi}^{-1}および(1- \ hat {\ pi})^ {-1}につながりますY_1(観察中の観察):(1 − π^)− 1(1−π^)−1(1-\hat{\pi})^{-1}Y1Y1Y_1 ん− 1Σ私π私^− 1あ私Y1 i。n−1∑iπi^−1AiY1i.n^{-1} \sum_i \hat{\pi_i}^{-1} A_i Y_{1i}. これにより、推定値の分散が非常に大きくなると思います。 非常に差別的な傾向スコアモデルが極端な重みにつながるのは悪循環のようです。 私の質問:この分析をより堅牢にするために利用可能なオプションは何ですか?傾向スコアモデルを適合させる代替手段はありますか、またはモデルが適合した後に大きな重みを処理する方法はありますか?

1
原因分析にLASSOを使用することの長所と短所は何ですか?
統計学習とその結果は現在、社会科学に広まっています。数か月前、グイド・インベンス氏は次のように述べています。 私は機械学習を少し勉強しましたが、その主な目標は予測であることを知っています。レオ・ブライマンの統計の2つの文化の違いにも同意します。したがって、私の見解では、因果関係はある程度予測に反対しています。 科学は通常因果関係を特定して理解しようとすることを考えると、機械学習はこの目標に役立ちますか?特に、因果分析におけるLASSOの利点は何ですか? これらの質問に対処する研究者(および論文)はいますか?

1
差異の差異(複数期間)回帰を視覚化する最良の方法は何ですか?
バイナリー処理と連続処理の両方で差異の違いを視覚化する最良の方法は何ですか? コントロールのセットで結果変数を後退させますが、治療変数を除外し、各グループの残差をプロットしますか(バイナリケース)? ATEパラメータの「ダイナミクス」を経時的に確認する方法はありますか? 並行トレンドの仮定が妥当であることを示したいと思います。

2
余分な変数を調整すると、OLSの推定にバイアスがかかりますか?
OLSの余分な変数を調整するための通常の教科書の扱いでは、推定量はまだ偏っていませんが、分散が大きい可能性があります(たとえば、Greene、Econometric Analysis、第7版、58ページを参照)。 先日、Judea Pearlによるシンプソンのパラドックスの扱いと、「制御変数を回帰モデルに段階的に含めることで、すべてのステップで推定因果関係の兆候が切り替わる」ことをシミュレートする素晴らしいWebページを偶然見つけました。私にとって、これは上記のステートメントとはどういうわけか矛盾しています。これは非常に微妙な(非常に重要ですが)問題になる可能性があるので、他の文献へのポインタがあれば非常に役立ちます。特に私を驚かせるものは、グリーンが彼の評価の証拠を持っていると主張していることです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.