タグ付けされた質問 「likelihood-ratio」

尤度比は、2つのモデル(または単一モデル内のnullおよび代替パラメーター値)の尤度の比であり、モデルの比較またはテストに使用できます。いずれかのモデルが完全に指定されていない場合、すべての自由パラメーターに対するその最大尤度が使用されます-これは、一般化尤度比と呼ばれることもあります。


1
ガウス線形モデルのF検定が最も強力なのはなぜですか?
線形モデルガウス用μは、いくつかのベクトル空間にあると仮定されると標準正規分布で有するの統計のための検定ここで、はベクトル空間であり、逸脱統計量の増加する1対1関数です: f = \ phi \ left(2 \ log \ frac {\ sup _ {\ mu \ in W、\ sigma> 0} L(\ mu、\ sigma | y)} {\ sup _ {\ mu \ in U、\ sigma> 0} L(\ mu、\ sigma | y)} \ right)。 この統計がH_0の最も強力なテストを提供することをどのようにして知ることができますかY=μ+σGY=μ+σGY=\mu+\sigma Gμμ\muG R N F H 0:{ …

2
ネストされていないモデルに尤度比テストを使用できないのはなぜですか?
具体的には、なぜ尤度比検定は漸近的に持っていないんモデルが入れ子になっている場合には分配をするが、これはもはや、ネストしていない機種の場合ですか?私はこれがウィルクスの定理に基づいていることを理解していますが、残念ながらその証拠を理解していません。χ2χ2\chi^2

1
尤度比検定の規則性条件は何ですか
尤度比検定の漸近分布の規則性条件は何か教えてもらえますか? 私が見ているところはどこでも、「規則性の下」または「確率的規則性の下」と書かれています。正確な条件は何ですか?最初と2番目の対数尤度導関数が存在し、情報行列がゼロでないこと それとも完全に別のものですか?

2
より多くのデータが収集されると、尤度比はどうなりますか?
ましょう、及び密度も、あなたが持っていると仮定し、。尤度比 はどうなりますか?(収束しますか?何に?)GのHは、xはiは〜H I ∈ N N Πは iは= 1 fは(X I)fffggghhhxi∼hxi∼hx_i \sim hi∈Ni∈Ni \in \mathbb{N} n→∞∏i=1nf(xi)g(xi)∏i=1nf(xi)g(xi) \prod_{i=1}^n \frac{f(x_i)}{g(x_i)} n→∞n→∞n \rightarrow \infty たとえば、と仮定します。一般的なケースも興味深いです。h=gh=gh = g

1
尤度比検定の「望ましい」統計的特性は何ですか?
その方法が完全に尤度比検定に基づいている記事を読んでいます。著者は、一方的な代替案に対するLRテストはUMPであると述べています。彼はそれを主張することによって進みます 「... [LRテスト]が一律で最も強力であると示すことができない場合でも、LRテストは望ましい統計的特性を備えていることがよくあります。」 ここでどのような統計的特性が意味されているのでしょうか。筆者がこれらを言及していることを考えると、それらは統計学者の間の共通の知識であると思います。 私がこれまでに見つけるために管理している唯一の望ましい特性はの漸近カイ二乗分布である(いくつかの規則性の条件の下で)、λは LR比です。− 2 ログλ−2log⁡λ-2 \log \lambdaλλ\lambda 私は、それらの望ましい特性について読むことができる古典的なテキストへの参照にも感謝します。

3
カウントデータの回帰モデルの比較
私は最近、同じ予測子/応答データに対して4つの多重回帰モデルを当てはめました。私がポアソン回帰で近似した2つのモデル。 model.pois <- glm(Response ~ P1 + P2 +...+ P5, family=poisson(), ...) model.pois.inter <- glm(Response ~ (P1 + P2 +...+ P5)^2, family=poisson(), ...) 私が負の二項回帰で近似するモデルの2つ。 library(MASS) model.nb <- glm.nb(Response ~ P1 + P2 +...+ P5, ...) model.nb.inter <- glm.nb(Response ~ (P1 + P2 +...+ P5)^2, ...) これらのモデルを比較するために使用できる統計検定はありますか?私はAICをフィットの尺度として使用してきましたが、これは実際のテストを表すものではありません。

2
非ネストモデルの一般化対数尤度比検定
2つのモデルAとBがあり、AがBにネストされている場合、いくつかのデータが与えられれば、MLEを使用してAとBのパラメーターを近似し、一般化対数尤度比検定を適用できることを理解しています。特に、テストの分布は自由度である必要があります。ここで、はとが持つパラメーターの数の差です。 N N A Bχ2χ2\chi^2んnnんnnあAABBB ただし、とのパラメーター数が同じで、モデルがネストされていない場合はどうなりますか?つまり、それらは単に異なるモデルです。尤度比検定を適用する方法はありますか、それとも何か他のことができますか?BあAABBB

1
尤度比検定とWald検定は、Rのglmに異なる結論を提供します
一般化モデル、線形モデル、混合モデルの例を再現しています。私のMWEは以下のとおりです。 Dilution <- c(1/128, 1/64, 1/32, 1/16, 1/8, 1/4, 1/2, 1, 2, 4) NoofPlates <- rep(x=5, times=10) NoPositive <- c(0, 0, 2, 2, 3, 4, 5, 5, 5, 5) Data <- data.frame(Dilution, NoofPlates, NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(Dilution), family=binomial("logit"), data=Data) summary(object=fm1) 出力 Call: glm(formula = NoPositive/NoofPlates ~ log(Dilution), family = binomial("logit"), …

1
観測48で革新的な異常値をARIMAモデルに組み込むにはどうすればよいですか?
私はデータセットに取り組んでいます。いくつかのモデル識別手法を使用した後、私はARIMA(0,2,1)モデルを思いつきました。 R detectIOのパッケージの関数を使用して、元のデータセットの48回目の観測で革新的な外れ値(IO)TSAを検出しました。 この外れ値をモデルに組み込んで、予測に使用するにはどうすればよいですか?Rではそれから予測を行うことができない可能性があるため、ARIMAXモデルを使用したくありません。これを行う方法は他にありますか? これが私の値です。 VALUE <- scan() 4.6 4.5 4.4 4.5 4.4 4.6 4.7 4.6 4.7 4.7 4.7 5.0 5.0 4.9 5.1 5.0 5.4 5.6 5.8 6.1 6.1 6.5 6.8 7.3 7.8 8.3 8.7 9.0 9.4 9.5 9.5 9.6 9.8 10.0 9.9 9.9 9.8 9.8 9.9 9.9 9.6 9.4 …
10 r  time-series  arima  outliers  hypergeometric  fishers-exact  r  time-series  intraclass-correlation  r  logistic  glmm  clogit  mixed-model  spss  repeated-measures  ancova  machine-learning  python  scikit-learn  distributions  data-transformation  stochastic-processes  web  standard-deviation  r  machine-learning  spatial  similarities  spatio-temporal  binomial  sparse  poisson-process  r  regression  nonparametric  r  regression  logistic  simulation  power-analysis  r  svm  random-forest  anova  repeated-measures  manova  regression  statistical-significance  cross-validation  group-differences  model-comparison  r  spatial  model-evaluation  parallel-computing  generalized-least-squares  r  stata  fitting  mixture  hypothesis-testing  categorical-data  hypothesis-testing  anova  statistical-significance  repeated-measures  likert  wilcoxon-mann-whitney  boxplot  statistical-significance  confidence-interval  forecasting  prediction-interval  regression  categorical-data  stata  least-squares  experiment-design  skewness  reliability  cronbachs-alpha  r  regression  splines  maximum-likelihood  modeling  likelihood-ratio  profile-likelihood  nested-models 

3
尤度比とWald検定
私が読んでいることから、とりわけUCLA統計コンサルティンググループの尤度比テストとウォルドテストのサイトでは、2つのglmモデルがデータセットの適合度に有意差を示すかどうかをテストすることは非常に似ています(言い訳少しずれているかもしれません)。本質的に、2つのモデルを比較して、2番目のモデルが最初のモデルよりもはるかに良い適合を示しているか、モデル間に違いがないかをテストできます。 そのため、LRテストとWaldテストは、同じ回帰モデルに対して同じ大まかなp値を示すはずです。少なくとも同じ結論が出るはずです。 今、私はRで同じモデルに対して両方のテストを行い、大きく異なる結果を得ました。これは、1つのモデルに対するRの結果です。 > lrtest(glm(data$y~1),glm(data$y~data$site_name,family="poisson")) Likelihood ratio test Model 1: data$y ~ 1 Model 2: data$y ~ data$site_name #Df LogLik Df Chisq Pr(>Chisq) 1 2 -89.808 2 9 -31.625 7 116.37 < 2.2e-16 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 > …

1
200万の回帰を実行しただけ-統合された可能性
私は現在、「I Just Ran 200 illion Regressions」というタイトルの人気のある論文で使用されている方法を実装しようとしています。その背後にある基本的な考え方は、モデルに含める必要のあるコントロールが明確でない特定のケースがあるということです。このような場合にできることの1つは、ランダムにコントロールを描画し、何百万もの異なる回帰を実行してから、対象の変数がどのように反応したかを確認することです。すべての仕様で一般に同じ符号を持つ場合、符号が常に変化する変数よりも堅牢であると考えることができます。 ほとんどの論文は非常に明確です。ただし、このペーパーでは、これらすべての異なる回帰に次のように重みを付けています。特定の仕様の統合された尤度を、すべての仕様のすべての統合された尤度の合計で割ります。 私が抱えている問題は、統合された尤度が、実行したいOLS回帰にどのように関連しているかがわからないことです(スタタで)。「スタタ統合尤度」などのグーグルトピックは、混合効果のロジスティック回帰などに遭遇し続けているため、行き止まりになっています。これらのモデルは複雑すぎて理解できないと自白しています。 私の現在の回避策は、私が理解している(種類の)理解している文献で使用されているさまざまな重み付けスキームがあることです。たとえば、尤度比インデックスに基づいて各回帰に重みを付けることができます。lriを重みとして使用するRパッケージもあります。もちろん、オリジナルも実装したいと思います。 何かアドバイス? 紙のリンク:http : //down.cenet.org.cn/upfile/34/2009112141315178.pdf

2
Benjamini-Hochberg依存関係の仮定は正当化されますか?
約50の異なる変数に関して3つの母集団間の有意差をテストするデータセットがあります。これは、一方でKruskal-Wallis検定を使用し、もう一方では、入れ子のGLMモデルフィット(独立変数としての人口の有無にかかわらず)の尤度比検定によって行います。 その結果、一方ではクラスカル・ウォリスの値のリストがあり、もう一方ではLRT比較からのカイ2乗のp値だと思います。pppppp > 50の異なるテストがあるため、いくつかの形式の複数のテスト修正を行う必要があります。Benjamini-HochbergFDRが最も賢明な選択のようです。 ただし、変数はおそらく独立しておらず、それらのいくつかの「氏族」が相関しています。問題はそれです:私の値の基礎となる統計のセットが、Benjamini-HochbergプロシージャがFDRに引き続きバインドされるために必要な正の依存性の要件を満たしているかどうかはどうすればわかりますか?ppp 2001年のBenjamini-Hochberg-Yekutieli論文では、PRDS条件は多変量正規分布とスチューデント化分布に当てはまると述べています。モデル比較のための尤度比検定のカイ二乗値はどうですか?クラスカル・ウォリス検定の値はどうなりますか?ppp 依存関係に何も仮定しないBenjamini-Hochberg-Yekutieliの最悪の場合のFDR補正を使用できますが、この場合は保守的すぎるため、いくつかの関連する信号を見落とす可能性があります。

1
ポアソン/対数線形モデルの尤度比検定のためにゼロカウントを調整する必要がありますか?
分割表に0がありglm、尤度比検定用にネストされたポアソン/対数線形モデル(R 関数を使用)を近似している場合、glmモデルを近似する前にデータを調整する必要があります(たとえば、すべてに1/2を追加します)カウント)?明らかに、いくつかのパラメータは調整なしでは推定できませんが、調整/調整の欠如はLRテストにどのように影響しますか?

2
2つの分布を組み合わせるモデルでの適合度の測定
モデル化しようとしている二重ピークのあるデータがあり、それらを個別に処理することができないほどピーク間に十分なオーバーラップがあります。データのヒストグラムは次のようになります。 このために2つのモデルを作成しました。1つは2つのポアソン分布を使用し、もう1つは2つの負の二項分布を使用します(過剰分散を説明するため)。どのモデルがデータに正確に適合するかを判断する適切な方法は何ですか? 私の最初の考えは、コルモゴロフ・スミルノフ検定を使用して各モデルをデータと比較し、次に尤度比検定を行って、1つが非常に優れているかどうかを確認することです。これは理にかなっていますか?もしそうなら、私は尤度比検定を実行する方法を正確に知りません。カイ二乗は適切ですか、そして私にはいくつの自由度がありますか? それが役立つ場合、モデルの一部の(非常に簡略化された)Rコードは次のようになります。 ## inital data points a <- read.table("data") #create model data model.pois = c(rpois(1000000,200),rpois(500000,250)) model.nb = c(rnbinom(1000000,200,0.5),rnbinom(500000,275,0.5) #Kolmogorov-Smirnov test #use ks.boot, since it's count data that may contain duplicate values kpois = ks.boot(model.pois,a) knb = ks.boot(model.nb,a) #here's where I'd do some sort of likelihood ratio test # …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.