タグ付けされた質問 「meta-analysis」

精度と外部妥当性の向上を期待して、さまざまな研究の結果を対比して組み合わせることに焦点を当てた方法。

3
ロジスティック回帰の95%信頼区間を手動で計算することと、Rでconfint()関数を使用することに違いがあるのはなぜですか?
皆さん、私は説明できない奇妙なことに気づきました、できますか?要約すると、ロジスティック回帰モデルで信頼区間を計算する手動のアプローチとR関数confint()は異なる結果をもたらします。 Hosmer&LemeshowのApplied Logistic Regression(第2版)を行ってきました。第3章には、オッズ比と95%の信頼区間を計算する例があります。Rを使用すると、モデルを簡単に再現できます。 Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

3
大規模な研究で小さな効果を見つけることが出版バイアスを示すのはなぜですか?
いくつかの方法論論文(eg Egger et al 1997a、1997b)では、以下のようなファンネルプロットを使用して、メタ分析によって明らかにされた出版バイアスを議論しています。 1997bの論文は続けて、「出版バイアスが存在する場合、発表された研究のうち、最大のものが最小の効果を報告することが予想される」と述べています。しかし、それはなぜですか?これはすべて、私たちがすでに知っていることであることが証明されるように思えます。小さな影響は、大きなサンプルサイズでのみ検出可能です。未発表のままの研究については何も言わずに。 また、引用された研究は、ファンネルプロットで視覚的に評価される非対称性は、「大きなメリットの少ない小規模試験の選択的非公開があったことを示している」と主張しています。しかし、再び、私はどのように理解していない任意の研究の特徴をされた公表はおそらく私たちにされた作品については何も(私たちは推論を行うことができ)伝えることができない、公開を! 参考文献 Egger、M.、Smith、GD、&Phillips、AN(1997)。メタ分析:原則と手順。BMJ、315(7121)、1533-1537。 Egger、M.、Smith、GD、Schneider、M。、およびMinder、C。(1997)。単純なグラフィカルテストによって検出されたメタ分析のバイアス。BMJ、315(7109)、629-634。

3
すべてが「統計的に有意ではない」研究のメタ分析は、「有意な」結論に導くことができますか?
メタ分析には多数の研究が含まれており、そのすべてで0.05を超えるP値が報告されています。全体的なメタ分析で0.05未満のP値を報告することは可能ですか?どんな状況で? (答えはイエスだと確信していますが、参照または説明が欲しいです。)

3
p <.05での公開されたp値の分布の不連続の原因は何ですか?
最近の論文で、Masicampo and Lalande(ML)は、多くの異なる研究で発表された多数のp値を収集しました。彼らは、正準臨界レベル5%でp値のヒストグラムに奇妙なジャンプを観察しました。 Wasserman教授のブログで、このML現象についての素晴らしい議論があります。 http://normaldeviate.wordpress.com/2012/08/16/p-values-gone-wild-and-multiscale-madness/ 彼のブログには、ヒストグラムがあります。 5%レベルは自然法則であり、自然法則ではないため、公開されたp値の経験的分布のこの動作の原因は何ですか? 選択バイアス、正準臨界レベルのすぐ上のp値の体系的な「調整」、または何?

2
統計フォレンジック:ベンフォード以降
サードパーティが作成した科学作品の詐欺、異常、不正行為などを検出するための広範な方法はありますか?(最近のMarc Hauser事件でこれを尋ねる動機がありました。)通常、選挙と会計詐欺のために、ベンフォードの法則のいくつかの変種が引用されています。ベンフォードの法則では、数値がほぼ対数均一であることが求められているため、これがたとえばマークハウザーの場合にどのように適用できるかはわかりません。 具体例として、多数の統計的検定のp値を引用した論文があると仮定します。これらをログの均一性に変換してから、ベンフォードの法則を適用できますか?このアプローチにはあらゆる種類の問題があるようです(たとえば、いくつかの帰無仮説は合法的に偽である可能性があり、統計コードはほぼ正しいだけのp値を与える可能性があり、テストは均一なp値のみを与える可能性がありますヌルの下で漸近的になど)

2
複数の研究からの情報を組み合わせて、正規分布データの平均と分散を推定する-ベイジアンとメタ分析のアプローチ
私は一連の論文をレビューしました。各論文は、既知のサイズそれぞれのサンプルにおける測定値の観測平均とSDを報告しています。私が設計している新しい研究で同じ測定値の可能性のある分布について可能な限り推測し、その推測にどの程度の不確実性があるかを考えたいと思います。)と仮定してうれしいです。N X 〜N (μ 、σ 2バツバツXnnnX∼N(μ 、σ2X∼N(μ、σ2X \sim N(\mu, \sigma^2 私の最初の考えはメタ分析でしたが、モデルは通常、ポイント推定と対応する信頼区間に焦点を当てています。ただし、の完全な分布について何か言いたいことがあります。この場合、分散について推測することも含まれます。 σ 2バツバツXσ2σ2\sigma^2 私は、事前の知識に照らして、特定の分布のパラメーターの完全なセットを推定するための可能なBayeisanアプローチについて読んでいます。これは一般的に私には理にかなっていますが、ベイジアン分析の経験はゼロです。これは、歯を切るのが簡単で比較的単純な問題のようにも思えます。 1)私の問題を考えると、どのアプローチが最も理にかなっており、なぜですか?メタ分析またはベイジアンアプローチ? 2)ベイジアンアプローチが最適だと思う場合、これを実装する方法を教えていただけますか(できればRで)。 関連する質問 編集: 私は、これを「単純な」ベイジアン様式だと思う方法で解決しようとしています。 上で述べたように、私は推定された平均でなく、事前情報、すなわちを考慮した分散にも興味があります。μμ\muσ2σ2\sigma^2P(μ 、σ2| Y)P(μ、σ2|Y)P(\mu, \sigma^2|Y) 繰り返しになりますが、実際のベイジアンについては何も知りませんが、平均と分散が未知の正規分布の事後分布は、正規逆ガンマ分布の共役を介した閉形式解を持っていることを見つけるのに時間がかかりませんでした。 問題はとして再定式化されます。P(μ 、σ2| Y)= P(μ | σ2、Y)P(σ2| Y)P(μ、σ2|Y)=P(μ|σ2、Y)P(σ2|Y)P(\mu, \sigma^2|Y) = P(\mu|\sigma^2, Y)P(\sigma^2|Y) P(μ | σ2、Y)P(μ|σ2、Y)P(\mu|\sigma^2, Y)は正規分布で推定されます。逆ガンマ分布のP(σ2| Y)P(σ2|Y)P(\sigma^2|Y)。 それはそれのまわりで私の頭を取得するために私にしばらく時間がかかったが、これらのリンクから(1、2、私はR.でこれを行う方法をソートするために、私が思うに、できました) 33個のスタディ/サンプルそれぞれの行と、平均、分散、サンプルサイズの列から構成されるデータフレームから始めました。事前情報として、1行目の最初の調査の平均、分散、サンプルサイズを使用しました。次に、次の調査の情報でこれを更新し、関連するパラメーターを計算し、正規逆ガンマからサンプリングしておよび分布を取得しました。これは、33の研究すべてが含まれるまで繰り返されます。μμ\muσ2σ2\sigma^2 # Loop start values values i &lt;- 2 …

5
ベイジアン統計はメタ分析を時代遅れにしますか?
メタ分析が時代遅れになった場合、ベイジアン統計が最初の研究から最後まで結果的に適用されるのではないかと思っています。 たとえば、異なる時点で行われた20の研究を想定しましょう。最初の研究の推定または分布は、情報価値のない事前分布で行われました。2番目の研究では、事後分布を事前分布として使用します。新しい事後分布は、3番目の研究の前などとして使用されます。 最後に、以前に行われたすべての推定値またはデータを含む推定値があります。メタ分析を行うのは理にかなっていますか? 興味深いことに、この分析の次数を変更すると、最後の事後分布の推定値も変更されると思います。

2
データベースの品質保証および品質管理(QA / QC)ガイドライン
バックグラウンド 私は一次文献からデータベースへのデータの入力を監督しています。特に、ユーザーが実験計画を解釈し、グラフィックと表からデータを抽出し、結果を標準化された単位に変換する必要があるため、データ入力プロセスはエラーが発生しやすくなります。 データは、Webインターフェイスを介してMySQLデータベースに入力されます。これまでに、20を超える変数、100を超える種、および500を超える引用からの1万を超えるデータポイントが含まれています。可変データだけでなく、各データポイントに関連付けられた種、研究の場所など、ルックアップテーブルに含まれるデータの品質のチェックを実行する必要があります。 データ入力が進行中のため、QA / QCを断続的に実行する必要があります。データはまだ公開されていませんが、今後数か月以内に公開する予定です。 現在、私のQA / QCには3つの手順が含まれています。 2人目のユーザーが各データポイントをチェックします。 外れ値の各変数のヒストグラムを視覚的に検査します。 ユーザーは、誤った結果が得られた後に疑わしいデータを報告します。 ご質問 このデータベースの堅牢なQA / QC手順の開発に使用できるガイドラインはありますか? 最初のステップは最も時間がかかります。これをより効率的にするためにできることはありますか?

2
結果変数の多重代入
農業試験に関するデータセットがあります。私の応答変数は応答率です:log(treatment / control)。私は違いを媒介するものに興味があるので、REメタ回帰を実行しています(重みなし、効果の大きさは推定値の分散と無相関であることが明らかだからです)。 各研究では、穀物収量、バイオマス収量、またはその両方が報告されています。研究されたすべての植物が穀物に役立つわけではないので(例えばサトウキビが含まれているため)、バイオマス収量だけを報告する研究から穀物収量を推定することはできません。しかし、穀物を生産する各植物にはバイオマスもありました。 不足している共変量については、反復回帰代入を使用しています(Andrew Gelmanの教科書の章に続きます)。合理的な結果が得られるようで、プロセス全体は一般的に直感的です。基本的に、欠損値を予測し、それらの予測値を使用して欠損値を予測し、各変数がほぼ収束するまで(分布で)各変数をループします。 同じプロセスを使用して欠落した結果データを補完できない理由はありますか?穀物の反応率、作物の種類、および私が持っている他の共変量を考えると、おそらくバイオマスの反応率の比較的有益な補完モデルを形成できます。次に、係数とVCVを平均し、標準的な方法に従ってMI補正を追加します。 しかし、結果自体が帰属する場合、これらの係数は何を測定しますか?係数の解釈は共変量の標準MIとは異なりますか?考えてみると、これが機能しないことを納得することはできませんが、よくわかりません。資料を読むための考えや提案を歓迎します。

4
2つの信頼区間/ポイント推定値の組み合わせ
同じ母集団からの2つの独立したサンプルがあり、2つのサンプルで異なる方法を使用して、ポイント推定と信頼区間を導出するとします。些細なケースでは、賢明な人は2つのサンプルをプールし、1つのメソッドを使用して分析を行いますが、現時点では、欠損データなどのサンプルの1つの制限のために別のメソッドを使用する必要があるとします。これらの2つの別々の分析は、関心のある母集団属性の独立した等しく有効な推定値を生成します。直観的には、これらの2つの推定値を、ポイント推定値と信頼区間の両方の観点から適切に組み合わせて、推定手順を改善する方法があるはずだと思います。私の質問は、それを行う最善の方法は何ですか?各サンプルの情報/サンプルサイズに応じて、ある種の加重平均を想像できますが、信頼区間はどうですか?

4
メタ分析の入門的な治療法を探しています
(統計学者ではない)同僚は、医学雑誌でレビューする論文でメタ分析に遭遇し、自分自身を教育できるように、入門レベルの優れた治療法を探しています。推奨事項はありますか?お気に入り?書籍、モノグラフ、非技術的な調査記事はすべて問題ありません。 (はい、彼はWikipediaのエントリと、Jerry Dallalの素敵な小さな記事など、Google検索で簡単にアクセスできる他のものに精通しています。)

3
メタ分析の長所と短所
私は進化論の特定の分野でメタ分析を行うことを検討してきましたが、先に進む前に知りたいと思います。プロセスのプラスとマイナスは何ですか?たとえば、実用的な実験の必要はないという利点(時間とお金)がありますが、出版バイアス(よりエキサイティングな結果が発行される)があり、それは不利です。 統計ジャーナルのどの論文でメタ分析の長所と短所が議論されていますか?

2
頻繁な結果からベイジアンを事前にする
頻繁な結果をベイジアン事前に変換するにはどうすればよいですか? 次はかなり一般的なシナリオを考えてみましょう:実験は、過去に行われた、いくつかのパラメータの結果測定しました。分析は、頻繁な方法論で行われました。ϕの信頼区間が結果に示されています。ϕϕ\phiϕϕ\phi 私は今、私は、いくつかの他のパラメータを測定し、両方の言いたいいくつかの新しい実験行ってるとφを。私の実験は以前の研究とは異なります---それは同じ方法論では実行されません。私は、ベイジアン解析を行いたい、と私は上の場所の事前分布にする必要がありますθとφ。θθ\thetaϕϕ\phiθθ\thetaϕϕ\phi 以前の測定は実行されていないので、情報のない(たとえばその均一な)をその前に配置します。 θθ\theta 上述したように、のために前の結果がある信頼区間として与えられるが、。現在の分析でその結果を使用するには、分析の前に、以前の頻度の高い結果を有益な情報に変換する必要があります。 ϕϕ\phi この構成されたシナリオでは利用できない1つのオプションは、ベイジアン方式で測定に至る前の分析を繰り返すことです。 私はこれを行うことができれば、φは、私はその後、私の前として使用することを前の実験から後部を持っているでしょうし、何の問題もないでしょう。ϕϕ\phi ϕϕ\phi 分析のために、頻度の高いCIをベイジアン事前分布に変換するにはどうすればよいですか?換言すれば、どのように私は彼らにfrequentest結果を翻訳でき上の後部にφ私はその後、私の分析では前のように使用すること?ϕϕ\phiϕϕ\phi この種の問題について議論する洞察や参考文献は歓迎します。

1
メタ分析での効果サイズの事前指定
私の質問は、エフェクトサイズの事前分布に関するものです。私のプロジェクトでは、尺度はCohenのです。文献を読むことで、よく知られている8つの学校の階層的なベイジアンメタ分析の例のように、あいまいな事前定義がよく使用されるようです。8校の例では、私のような、ムーの推定に使用漠然と前を見てきました μ θ〜ノーマル(0 、100 )。DDDμθ〜正常(0 、100 )μθ〜正常⁡(0、100)\mu_{\theta} \sim \operatorname{normal}(0, 100) 私の専門分野は心理学で、通常、効果のサイズは小さいです。そのため、私はこの前を使用して検討していた:。前、このような厳しいための私の根拠は、事前分布の私の理解から、私はことを95%の事前確率置いています、つまりμ θが間-1 1に、その-1または1大きい影響については5%事前確率を残しているし。μθ〜正常( 0 、.5 )μθ〜正常⁡(0、.5)\mu_{\theta} \sim \operatorname{normal}(0, .5)μθμθ\mu_{\theta} 効果がこれほど大きいことはめったにありませんが、これは正当なものですか?

2
マルチレベルのモデリングなしで、研究が複製の単位であるメタ分析で研究内複製を処理する方法は?
研究の説明: 研究内複製の処理に関して、メタ分析に共通のエラーが見られました。仮定が述べられているときにエラーが研究を無効にするかどうかは私には明らかではありません。しかし、私が理解しているように、これらの仮定は統計の基本的な前提に違反しています。 例として、研究では、化学物質が反応Yに及ぼす影響をテストします。バツバツXYYY 治療の比率:分析は、対数応答率に行われる(存在下でのX制御する)Y 0(NO Xを):Y+ XY+バツY_{+X}バツバツXY0Y0Y_{0}バツバツX R = ln( Y+ XY0)R=ln⁡(Y+バツY0)R = \ln(\frac{Y_{+X}}{Y_{0}}) メタ分析に含まれる研究の中には、異なるレベルや化学形態など、複数の処理が含まれています。各治療のために、異なる値が存在するが、常に同じ値の使用。バツバツXR Y 0RRRRRRY0Y0Y_0 メソッドの状態: 単一の研究内の異なる治療(レベルと形態)に対する反応は、独立した観察とみなされました。バツバツX 質問: これは疑似複製ではありませんか? メソッドに独立違反が記載されていても不適切ですか? 研究の複製内で処理するための簡単な方法(単純なメタ分析ソフトウェアパッケージの機能内など)は何でしょうか? 最初の考え: 各研究の結果を要約します。例えば、平均応答をとることにより アプリオリの基準に基づいて各研究から1つの治療のみを選択します(最高用量、最初の測定など)。 他の解決策はありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.