タグ付けされた質問 「meta-analysis」

精度と外部妥当性の向上を期待して、さまざまな研究の結果を対比して組み合わせることに焦点を当てた方法。

1
オッズ比のメタ分析は本質的に絶望的ですか?
最近の論文でノートンら。(2018)は[ 1 ][1]^{[1]} オッズ比の推定値をもたらす統計モデルの説明変数が異なる場合、各モデルには異なる任意のスケーリング係数があるため、同じスタディの異なるオッズ比は比較できません。異なるサンプルと異なるモデル仕様には異なる任意のスケーリング係数があるため、ある研究のオッズ比の大きさを別の研究のオッズ比の大きさと比較することもできません。さらに、複数の研究における特定の関連性のオッズ比の大きさをメタ分析で合成することはできません。 小さなシミュレーションがこれを示しています(Rコードは質問の下部にあります)。真のモデルは次のようになります: さらに、上記のモデルによって生成された同じデータが、ロジスティック回帰を使用して4人の異なる研究者によって分析されることを想像してください。研究者1には共変量としてのみが含まれ、研究者2にはと両方が含まれます。4人の研究者ののオッズ比の平均シミュレーション推定値は次のとおりです。l o g i t( y私)= 1 + ログ(2 )x1 i+ ログ(2.5 )x2 i+ ログ(3 )x3 i+ 0 x4 ilog私t(y私)=1+ログ⁡(2)バツ1私+ログ⁡(2.5)バツ2私+ログ⁡(3)バツ3私+0バツ4私 \mathrm{logit}(y_{i})=1 + \log(2)x_{1i} + \log(2.5)x_{2i} + \log(3)x_{3i} + 0x_{4i} バツ1バツ1x_{1}バツ1バツ1x_{1}バツ2バツ2x_{2}バツ1バツ1x_{1} res_1 res_2 res_3 res_4 1.679768 1.776200 2.002157 2.004077 研究者3と4だけが約正しいオッズ比を得るのに対して、研究者1と2はそうではないことは明らかです。これは線形回帰では発生せず、同様のシミュレーションで簡単に表示できます(ここでは示していません)。この問題はよく知られているように思えますが、この結果は私にとって非常に驚くべきものだったことを告白しなければなりません。ヘルナンら。(2011)は、これをバイアスではなく「数学的な奇妙」と呼んでいます。222[ 2 ][2]^{[2]}[ 3 ][3]^{[3]} 私の質問: オッズ比が基本的に研究およびモデル間で比較できない場合、バイナリの結果について異なる研究の結果をどのように組み合わせることができますか? …

2
2つの正規分布変数の比率、または1つの逆数をパラメーター化する方法は?
問題: ベイズのメタ分析で事前分布およびデータとして使用する分布をパラメーター化しています。データは文献で要約統計として提供されており、ほぼ独占的に正規分布していると想定されています(ただし、変数は0未満にはならず、一部は比率、一部は質量など)。 解決策がない2つのケースに遭遇しました。対象のパラメーターは、データの逆数または2つの変数の比率である場合があります。 例: 2つの正規分布変数の比率: データ:窒素と炭素の割合の平均とsd パラメーター:窒素と炭素の比率。 正規分布変数の逆: データ:質量/面積 パラメーター:面積/質量 私の現在のアプローチは、シミュレーションを使用することです: たとえば、平均xbar.n、c、分散:se.n、c、およびサンプルサイズ:nn、ncの炭素と窒素のパーセントデータのセットの場合: set.seed(1) per.c <- rnorm(100000, xbar.c, se.c*n.c) # percent C per.n <- rnorm(100000, xbar.n, se.n*n.n) # percent N ratio.cn = perc.c / perc.nをパラメーター化したい # parameter of interest ratio.cn <- perc.c / perc.n 次に、事前分布に対して範囲の最適な分布を選択します0→∞0→∞0 \rightarrow \infty library(MASS) dist.fig <- list() …

2
メタ回帰の独立変数として効果サイズを含めることはできますか?
私の質問は、メタ回帰で、効果サイズを従属変数として使用し、別の効果サイズを独立変数として使用できるかどうかです。XXXYYY たとえば、飲酒問題における運動の影響についてメタ分析を実施したところ、有意な結果と高い不均一性が見つかりました。メタ回帰を行い、不安へのそれらの介入の効果サイズを独立変数として使用し、飲酒問題の効果サイズを従属変数として使用したい(各研究が不安と飲酒問題の両方を評価し、その効果を計算した場合)ヘッジのとしてのサイズ)。ggg これはあなたにとって意味がありますか?

2
部分的にシミュレーションされたデータに対してメタ分析を実行しないのはなぜですか?
バックグラウンド: 心理学の典型的なメタ分析は、2つの変数XとYの間の相関をモデル化しようとする場合があります。分析には、通常、サンプルサイズとともに、関連する相関のセットを文献から取得することが含まれます。次に、式を適用して加重平均相関を計算できます。次に、分析を実行して、ランダムサンプリングの単なる影響によって暗示される以上に、研究間で相関が変化するかどうかを確認できます。 さらに、分析ははるかに複雑にすることができます。推定値は、信頼性、範囲制限などに合わせて調整できます。相関関係を組み合わせて使用​​して、メタ構造方程式モデリングやメタ回帰などを調べることができます。 ただし、これらすべての分析は、入力データとして要約統計量(相関、オッズ比、標準化された平均差など)を使用して実行されます。これには、要約統計量を受け入れる特別な式と手順を使用する必要があります。 メタ分析への代替アプローチ したがって、生データを入力として使用するメタ分析の代替アプローチについて考えていました。つまり、相関の場合、入力データは相関を形成するために使用される生データになります。明らかに、ほとんどのメタ分析では、実際の生データのほとんどではないにしても、いくつかは利用できません。したがって、基本的な手順は次のようになります。 生データを求めるすべての公開された著者に連絡し、提供されている場合は実際の生データを使用してください。 生データを提供しない作成者の場合は、生データをシミュレートして、報告されたものと同じ要約統計を持つようにします。このようなシミュレーションには、生データから得られた知識を組み込むこともできます(たとえば、変数が歪んでいることがわかっている場合など)。 そのようなアプローチにはいくつかの利点があるかもしれないように私には思えます: 生データを入力として使用する統計ツールを分析に使用できます 少なくともいくつかの実際の生データを取得することにより、メタ分析の作成者は、実際のデータに関連する問題(たとえば、外れ値、分布など)を考慮する必要があります。 質問 真の生データと、既存の公開された研究と同一の要約統計量を持つようにシミュレーションされたデータの組み合わせでメタ分析研究を実行することに問題はありますか? このようなアプローチは、要約統計量のメタ分析を実行する既存の方法よりも優れているでしょうか? このアプローチについて議論、支持、批判している既存の文献はありますか?

1
rのフィッシャーzへの変換はメタ分析にメリットがありますか?
通常、はフィッシャーzに変換され、2つのr値の差をテストします。しかし、メタ分析を実行する場合、なぜそのようなステップを踏む必要があるのでしょうか。測定誤差または非サンプリング誤差を修正しますか?また、rが母相関の不完全な推定であると仮定する必要があるのはなぜですか?rrrzzzrrrrrr

3
Pを形質転換するためのこれらの式は、正確な又は膨張/控えめな見積もりとしてLSD、MSD、SEへHSD、CI、
バックグラウンド 以前に公開されたデータを含むメタ分析を行っています。多くの場合、処理間の差異は、P値、最小有意差(LSD)、およびその他の統計で報告されますが、分散の直接的な推定値は提供されません。 私が使用しているモデルのコンテキストでは、分散の過大評価は問題ありません。 問題 これはへの変換のリストです。ここでS E = √SESESE(Saville 2003)私が検討していること、フィードバックは高く評価されています。以下、私は仮定するα=0.05ので、1- α / 2=0.975 及び変数は通常、特に明記しない限り、分散されています。SE=MSE/n−−−−−−−√SE=MSE/nSE=\sqrt{MSE/n} α=0.05α=0.05\alpha=0.051−α/2=0.9751−α/2=0.9751-^{\alpha}/_2=0.975 質問: 所与の、N、および処理手段ˉ X 1及びˉ X 2 S E = ˉ X 1 - ˉ X 2PPPnnnX¯1X¯1\bar X_1X¯2X¯2\bar X_2 SE=X¯1−X¯2t(1−P2,2n−2)2/n−−−√SE=X¯1−X¯2t(1−P2,2n−2)2/nSE=\frac{\bar X_1-\bar X_2}{t_{(1-\frac{P}{2},2n-2)}\sqrt{2/n}} αα\alphannnbbbbbbn=bn=bn=bSE=LSDt(0.975,n)2bn−−−√SE=LSDt(0.975,n)2bnSE = \frac{LSD}{t_{(0.975,n)}\sqrt{2bn}} nnnαα\alpha2n−22n−22n-2 SE=MSDt(0.975,2n−2)2–√SE=MSDt(0.975,2n−2)2SE = \frac{MSD}{t_{(0.975, 2n-2)}\sqrt{2}} αα\alphannn SE=CIt(α/2,n)SE=CIt(α/2,n)SE = \frac{CI}{t_{(\alpha/2,n)}} nnnqqqSE=HSDq(0.975,n)SE=HSDq(0.975,n)SE = \frac{HSD}{q_{(0.975,n)}} …

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
メタ分析における固定効果モデルと変量効果モデルの正当化
私は、「不均一性が低かったため、固定効果モデルが選択された」という記述に沿って、固定効果モデルの使用を正当化しようとするいくつかの出版物を読みました。しかし、それはまだデータ分析への不適切なアプローチかもしれないと心配しています。 これが間違いであるかどうか、またなぜそうであるかを論じる理由や出版物はありますか?

2
精度に基づく(つまり、逆分散)重み付けはメタ分析に不可欠ですか?
精度ベースの重み付けはメタ分析の中心ですか?ボレンシュタイン等。(2009)メタ分析を可能にするために必要なことはすべて以下のとおりです: 研究では、単一の数値として表現できる点推定を報告しています。 そのポイント推定に対して分散を計算できます。 (2)が厳密に必要な理由はすぐにはわかりません。しかし、実際、広く受け入れられているメタ分析の方法はすべて、精度に基づく(つまり、逆分散)重み付けスキームに依存しており、各研究の効果サイズの分散の推定が必要です。ヘッジの方法(Hedges&Olkin、1985; Hedges&Vevea、1998)とハンターとシュミットの方法(Hunter&Schmidt、2004)はどちらも基本的にサンプルサイズの重み付けを使用していますが、これらの方法は正規化された平均差にのみ適用されるため、他の場所の標準偏差。各研究の分散に反比例する重みが全体的な効果サイズ推定器の分散を最小化することは理にかなっているので、この重み付けスキームはすべての方法の必須の機能ですか? 各効果サイズの分散にアクセスせずに系統的レビューを実施し、その結果をメタ分析と呼ぶことは可能ですか?サンプルサイズは、分散が利用できない場合の精度のプロキシとしての可能性があるようです。たとえば、効果サイズが生の平均差として定義された研究でサンプルサイズの重み付けを使用できますか?結果の平均効果サイズの一貫性と効率にどのように影響しますか?

1
PET-PEESEとメタ分析へのマルチレベルアプローチの間で引き裂かれた:幸せな媒体はありますか?
現在、メタ分析に取り組んでいます。そのため、サンプル内にネストされた複数の効果サイズを分析する必要があります。他の可能な戦略の一部とは対照的に、Cheung(2014)の3レベルのメタ分析アプローチによる依存効果サイズのメタ分析(たとえば、依存関係の無視、研究内の効果サイズの平均化、1つの効果サイズの選択、または分析単位のシフト)。私の依存するエフェクトサイズの多くは相関関係であり、かなり独特の(ただし、局所的に関連する)変数が含まれているため、それらを平均しても概念的に意味がありません。 ただし、同時に、メタ分析の影響を推定する過程で、出版バイアスに対処するためのStanley&Doucouliagos(2014)の方法を使用することにも興味があります。簡単に言うと、メタ回帰モデルを当てはめて、それぞれの分散(精度効果テスト、PET)またはそれぞれの標準誤差(標準誤差を含む精度効果推定、またはPEESE)によって研究効果サイズを予測します。PETモデルの切片の重要性に応じて、PETモデルからの切片(PET切片p > .05の場合)またはPEESEモデル(PET切片p <.05の場合)を推定されたパブリケーションとして使用します。バイアスのない平均効果サイズ。 私の問題は、しかし、スタンレーとドゥクーリアゴス(2014)のこの抜粋に起因します。 私たちのシミュレーションでは、原因不明の過剰な異質性が常に含まれています。したがって、従来の慣例では、REE [ランダム効果推定量]はFEE [固定効果推定量]よりも優先されます。ただし、出版物の選択がある場合、従来の方法は間違っています。統計的有意性の選択により、REEは常にFEEよりバイアスされます(表3)。この予測可能な劣等性は、REE自体が最大の出版バイアスを持つ単純平均とFEEの加重平均であるという事実によるものです。 この一節から、変量効果/混合効果メタ分析モデルでPET-PEESEを使用するべきではないと信じるようになりましたが、マルチレベルのメタ分析モデルには変量効果推定量が必要なようです。 私は何をすべきかについて引き裂かれています。依存しているすべての効果サイズをモデル化できるようにしたいのですが、同時にこの特定の方法で出版バイアスを補正しています。3レベルのメタ分析戦略をPET-PEESEと合法的に統合する方法はありますか? 参考文献 Cheung、MWL(2014)。3レベルのメタ分析による依存効果サイズのモデリング:構造方程式モデリングアプローチ。心理的方法、19、211から229まで。 Stanley、TD、&Doucouliagos、H.(2014)。出版物選択バイアスを減らすためのメタ回帰近似。研究の合成方法、5、60から78。

1
metaforパッケージを使用したRでのメタ分析
次の小さなメタ分析の実際の例で結果を取得するにはrma、metaforパッケージから関数を構文化する方法を教えてください。(変量効果、要約統計SMD) study, mean1, sd1, n1, mean2, sd2, n2 Foo2000, 0.78, 0.05, 20, 0.82, 0.07, 25 Sun2003, 0.74, 0.08, 30, 0.72, 0.05, 19 Pric2005, 0.75, 0.12, 20, 0.74, 0.09, 29 Rota2008, 0.62, 0.05, 24, 0.66, 0.03, 24 Pete2008, 0.68, 0.03, 10, 0.68, 0.02, 10
10 r  meta-analysis 

3
母集団のr二乗変化の信頼区間を取得する方法
簡単な例のために、2つの線形回帰モデルがあると仮定します モデル1は、3つの予測因子を持っているx1a、x2bと、x2c モデル2には、モデル1からの3つの予測子と2つの追加の予測子がx2aあり、x2b 母集団の分散が説明人口回帰式がある モデル1及びρ 2 (2 )増分分散がある集団におけるモデル2によって説明するモデル2についてΔは、ρ 2 = ρ 2 (2 ) - ρ 2 (1 )ρ2(1)ρ(1)2\rho^2_{(1)}ρ2(2)ρ(2)2\rho^2_{(2)}Δρ2=ρ2(2)−ρ2(1)Δρ2=ρ(2)2−ρ(1)2\Delta\rho^2 = \rho^2_{(2)} - \rho^2_{(1)} 私は、の推定のための標準誤差と信頼区間を得ることに興味を持ってい。例にはそれぞれ3および2の予測子が含まれていますが、私の研究対象は、さまざまな数の予測子(たとえば、5および30)に関係しています。私が最初に考えたのは使用していた Δ R 2 、A D J = R 2 のD J (2 ) - R 2 次元J (1 )推定量として、それをブートストラップが、私は確かに、これは適切であるかどうかではなかったです。Δρ2Δρ2\Delta\rho^2Δr2adj=r2adj(2)−r2adj(1)Δradj2=radj(2)2−radj(1)2\Delta r^2_{adj} = r^2_{adj(2)} - r^2_{adj(1)} ご質問 されたの合理的な推定量Δは、ρ …

1
では、どのようにベイズ推定をメタ分析に含めますか?
この質問、特に「問題3」に触発されました。 事後分布は、分布の頻出者によるパラメトリックな説明が提供されていない限り、メタ分析に組み込むのがいくらか困難です。 メタアナリシスをベイジアンモデルに組み込むことについて、最近はかなりのことを考えていました。ベイジアン分析が実際に普及し、既存のコードに組み込むのが非常に簡単になった場合(SAS 9.2以降のBAYESステートメントが頭に浮かぶ)、より頻繁にベイジアン推定の効果を文献で取得する必要があります。 ベイズ分析を実行することを決定した応用研究者がいると仮定してみましょう。私がこの質問で使用したのと同じシミュレーションコードを使用して、頻度主義のフレームワークを使用した場合、彼らは次の頻度主義者の推定値になります。 log relative risk = 1.1009, standard error = 0.0319, log 95% CI = 1.0384, 1.1633 標準の、すべてデフォルトで情報のない事前のBAYESステートメント分析を使用すると、対称的な信頼区間または標準誤差が対称になる理由はありません。この場合、事後は正規分布でかなり簡単に説明できるので、それをそのように説明して「十分に近い」ものにすることができますが、誰かがベイズ効果の推定と非対称の信頼できる間隔を報告するとどうなりますか?それを標準のメタ分析に含める簡単な方法はありますか、または推定値をパラメトリックに記述された分布にできるだけ近いものに戻す必要がありますか?または、他の何か?

1
標準エラー(SE)を使用しない代替ファンネルプロット
メタ分析を提出する前に、ファネルプロットを作成して、異質性とパブリケーションのバイアスをテストします。-1から+1までの値を取る、プールされた効果サイズと各研究からの効果サイズがあります。各研究の患者とコントロールのサンプルサイズn1、n2があります。標準誤差(SE)を計算できないため、エッガーの回帰を実行できません。縦軸にSEまたはprecision = 1 / SEを使用できません。 ご質問 横軸の効果サイズと縦軸の合計サンプルサイズn(n = n1 + n2)を使用してファンネルプロットを作成できますか? そのようなファンネルプロットはどのように解釈されるべきですか? いくつかの公開された論文は、縦軸に合計サンプルサイズを指定したこのようなファンネルプロットを示しました(公開されたPMID:10990474、10456970)。また、ウィキペディアのファンネルプロットwikiもこれに同意しています。しかし、最も重要なのは、BMJ 1999に関するMathhias Eggerの論文(PubMed PMID:9451274)がそのようなファンネルプロットを示しており、SEがなく、縦軸にサンプルサイズしかないことです。 さらに質問を 標準誤差が不明な場合、そのようなプロットは受け入れられますか? 垂直軸索にSEまたはpresicion = 1 / SEを設定した従来のファンネルプロットと同じですか? その解釈は異なりますか? 正三角形を作成するには、どのように線を設定すればよいですか?

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.