タグ付けされた質問 「generalized-linear-model」

「リンク関数」を介して非線形関係を可能にし、応答の分散を予測値に依存させることができる線形回帰の一般化。(通常の線形モデルを一般的な共分散構造と多変量応答に拡張する「一般線形モデル」と混同しないでください。)

3
負の二項GLMからの「整数でない」警告に対処する方法は?
負の二項モデルを使用して、Rのホストに影響を与える寄生虫の平均強度をモデル化しようとしています。私は次のような50以上の警告を受け続けます: In dpois(y, mu, log = TRUE) : non-integer x = 251.529000 どうすればこれに対処できますか?私のコードは次のようになります: mst.nb = glm.nb(Larvae+Nymphs+Adults~B.type+Month+Season, data=MI.df)

1
回帰モデルで「ネストされた」変数をどのように処理しますか?
変数と変数responseについて条件付きで記述したい変数があり、ネストされた変数が説明変数の特定の値の意味のある変数としてのみ発生する統計的な問題について考えます。説明変数が意味のあるネストされた変数を許可しない場合、後者は通常、データセットのようにコーディングされるか、値でコーディングされている場合、その値は意味のある解釈のない単なるプレースホルダーです。explanatorynestedNA この状況は、モノの存在を示す説明変数と、そのモノの特性を説明する1つ以上のネストされた変数がある場合に必ず発生します。統計的な問題におけるこの種の状況のいくつかの例は次のとおりです。 説明変数は、調査の参加者がであるかどうかの指標でmarriedあり、ネストされた変数は一部ですcharacteristic of the spouse(例:教育、年齢など)。 説明変数はpresence of an itemスペース内ののインジケーターであり、ネストされた変数はいくつかのcharacteristic of the itemサイズ(たとえば、サイズ、距離など)です。 説明変数はの発生のインジケーターでeventあり、ネストされた変数はいくつかの説明ですcharacteristic of the event(たとえば、期間、大きさなど)。 このような状況では、応答変数と他の変数との関係を記述する回帰型モデル(GLM、GLMMなどを含む広い意味で)を構築することがよくあります。このタイプのモデルでネストされた変数の処理方法は明らかではありません。 質問:nestedこのタイプのモデルで変数をどのように処理しますか? 注:この質問は、回帰のネストされた変数に関するCV.SEで繰り返し発生する質問に対する一般化された回答を提供することを目的としています(たとえば、ここ、ここ、ここ、およびここを参照)。この質問は、この問題の一般化されたコンテキストに依存しない例を示すことを目的としています。

2
ロジスティックモデルのRMSE(二乗平均平方根誤差)
RMSE(二乗平均平方根誤差)を使用してさまざまなロジスティックモデルを比較することの妥当性について質問があります。応答のいずれかである0か1との予測が間確率でありますか0- 1? 以下に適用される方法は、バイナリ応答でも有効ですか? # Using glmnet require(glmnet) load(url("https://github.com/cran/glmnet/raw/master /data/BinomialExample.RData")) cvfit = cv.glmnet(x, y, family = "binomial", type.measure = "mse") A <- predict(cvfit, newx = x, s = "lambda.min", type = "response") RMSE1 <- mean((y - A)^2) # 0.05816881 # glm mydata <- read.csv("https://stats.idre.ucla.edu/stat/data/binary.csv") mydata$rank <- factor(mydata$rank) mylogit <- glm(admit ~ …

3
glm in R-どのpvalueがモデル全体の適合度を表すか?
私はG(一般化線形モデル)でglmsを実行しています。私はpvalueを知っていると思いました-glmの要約を呼び出しても、モデル全体を表すオーバーライドpvalueが得られないことがわかるまでは、少なくとも線形モデルの場合はそうではありません。 これは、係数の表の一番上にある切片のp値として指定されているかどうか疑問に思っています。したがって、次の例では、Wind.speed..knotsとcanopy_densityはモデルにとって重要である可能性がありますが、モデル自体が重要であるかどうかをどのように知ることができますか?これらの値を信頼するかどうかはどうすればわかりますか?(切片)のPr(> | z |)がモデルの重要性を表していると思いますか?このモデルは重要な人々ですか??? ありがとう! 2項式族でF検定を実行することは不適切であるというエラーメッセージが表示されるため、F検定を実行してもp値は得られないことに注意してください。 Call: glm(formula = Empetrum_bin ~ Wind.speed..knots. + canopy_density, family = binomial, data = CAIRNGORM) Deviance Residuals: Min 1Q Median 3Q Max -1.2327 -0.7167 -0.4302 -0.1855 2.3194 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 1.8226 1.2030 1.515 0.1298 Wind.speed..knots. -0.5791 0.2628 -2.203 0.0276 …

1
bayesglm(アーム)とMCMCpack
どちらも、bayesglm()MCMCpackパッケージ内の各種機能(アームRパッケージで)一般化線形モデルのベイズ推定を行うことを目的としているが、私は、彼らが実際には同じことを計算しているかわかりません。MCMCpack関数は、マルコフ連鎖モンテカルロを使用して、モデルパラメーターの後方結合から(依存)サンプルを取得します。bayesglm()一方、生成します。よくわかりません。 bayesglm()完全なベイジアン推定ではなくMAP(最大事後)推定となる点推定を生成するように見えますが、sim()事後描画を取得するために使用できるように見える関数があります。 誰かが2つの使用目的の違いを説明できますか?bayesglm() + sim()真の後部ドローを生成できますか、それとも何らかの近似ですか?

1
尤度比検定とWald検定は、Rのglmに異なる結論を提供します
一般化モデル、線形モデル、混合モデルの例を再現しています。私のMWEは以下のとおりです。 Dilution <- c(1/128, 1/64, 1/32, 1/16, 1/8, 1/4, 1/2, 1, 2, 4) NoofPlates <- rep(x=5, times=10) NoPositive <- c(0, 0, 2, 2, 3, 4, 5, 5, 5, 5) Data <- data.frame(Dilution, NoofPlates, NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(Dilution), family=binomial("logit"), data=Data) summary(object=fm1) 出力 Call: glm(formula = NoPositive/NoofPlates ~ log(Dilution), family = binomial("logit"), …

1
単純なR lmモデルから対数尤度を再計算する
私は単純にdnorm()を使用して、lmモデル(R)からのlogLik関数によって提供される対数尤度を再計算しようとしています。 大量のデータ(n = 1000など)でも(ほぼ完全に)機能します。 > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n, 0, 2) > mod <- glm(y ~ x, family = gaussian) > logLik(mod) 'log Lik.' -2145.562 (df=3) > sigma <- sqrt(summary(mod)$dispersion) > sum(log(dnorm(x = y, mean = predict(mod), …

3
バグ、JAGSの加重一般化回帰
では、weightsパラメータを使用しRてglm回帰を「事前に重み付け」できます。例えば: glm.D93 <- glm(counts ~ outcome + treatment, family = poisson(), weights=w) JAGSまたはBUGSモデルでこれをどのように達成できますか? これについて議論している論文を見つけましたが、どれも例を示していません。私は主にポアソンとロジスティック回帰の例に興味があります。

1
従属変数をログ変換しました。LOGリンク機能でGLM正規分布を使用できますか?
一般化線形モデル(GLM)について質問があります。私の従属変数(DV)は連続的で、正常ではありません。だから私はそれをログに変換しました(まだ正常ではありませんが改善されました)。 DVを2つのカテゴリ変数と1つの連続共変数に関連付けます。このため、GLMを実施したい(私はSPSSを使用しています)が、選択する分布と機能をどのように決定するかわかりません。 Leveneのノンパラメトリック検定を実施し、分散の均一性があるため、正規分布を使用する傾向があります。線形回帰の場合、データは正常である必要はなく、残差はそうであると私は読みました。そのため、各GLMからの線形予測子の標準化されたピアソン残差と予測値を個別に出力しました(GLMの通常の同一性関数と通常の対数関数)。私は、正規性テスト(ヒストグラムとShapiro-Wilk)を実行し、予測値に対して残差をプロットしました(ランダム性と分散をチェックするため)。恒等関数の残差は正常ではありませんが、対数関数の残差は正常です。ピアソン残差は正規分布しているため、ログリンク関数で正規を選択する傾向があります。 だから私の質問は: すでにログ変換されているDVで、LOGリンク機能を備えたGLM正規分布を使用できますか? 正規分布を使用して正当化するには、分散均一性検定で十分ですか? 残差チェック手順は、リンク関数モデルの選択を正当化するために正しいですか? 左側はDV分布の画像、右側はログリンク関数を使用したGLM正規分布の残差。

1
どちらがより正確なglmまたはglmnetですか?
R glmとglmnetは異なるアルゴリズムを使用します。 両方を使用すると、推定された係数間に重要な違いがあることに気づきました。 どちらがより正確であるか、そして解決/精度のトレードオフの時間に興味があります。 具体的には、glmnet stでlambda = 0を設定した場合について言及しています。これは、glmと同じことを推定しています。

4
回帰モデルが適切かどうかを確認する方法
'glm'を使用してロジスティック回帰モデルの精度を見つける1つの方法は、AUCプロットを見つけることです。連続応答変数(ファミリー= 'ガウス')で見つかった回帰モデルについて同じことを確認するにはどうすればよいですか? 回帰モデルがデータにどの程度適合しているかを確認するためにどのような方法が使用されていますか?


2
ロジット変換線形回帰、ロジスティック回帰、およびロジスティック混合モデルの違いは何ですか?
私には10人の生徒がいて、それぞれが20の数学の問題を解こうとしているとします。問題は(longdataで)正解または不正解としてスコアリングされ、各学生のパフォーマンスは(subjdataで)精度測定によって要約できます。以下のモデル1、2、および4は異なる結果を生成するように見えますが、同じことを行っていると理解しています。なぜ結果が異なるのですか?(参考のためにモデル3を含めました。) library(lme4) set.seed(1) nsubjs=10 nprobs=20 subjdata = data.frame('subj'=rep(1:nsubjs),'iq'=rep(seq(80,120,10),nsubjs/5)) longdata = subjdata[rep(seq_len(nrow(subjdata)), each=nprobs), ] longdata$correct = runif(nsubjs*nprobs)<pnorm(longdata$iq/50-1.4) subjdata$acc = by(longdata$correct,longdata$subj,mean) model1 = lm(logit(acc)~iq,subjdata) model2 = glm(acc~iq,subjdata,family=gaussian(link='logit')) model3 = glm(acc~iq,subjdata,family=binomial(link='logit')) model4 = lmer(correct~iq+(1|subj),longdata,family=binomial(link='logit'))

1
Anova()とdrop1()がGLMMに異なる回答を提供したのはなぜですか?
次の形式のGLMMがあります。 lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) 私が使用している場合drop1(model, test="Chi")、私は私が使用している場合とは異なる結果を得るAnova(model, type="III")車のパッケージからかsummary(model)。後者の2つは同じ答えを与えます。 大量の偽造データを使用して、これらの2つの方法は通常違いがないことがわかりました。それらは、平衡線形モデル、不平衡線形モデル(異なるグループでnが等しくない場合)、および平衡一般化線形モデルに対して同じ答えを示しますが、平衡一般化線形混合モデルに対しては同じ答えを与えません。したがって、ランダムな要素が含まれている場合にのみ、この不一致が現れます。 これらの2つの方法の間に違いがあるのはなぜですか? GLMMを使用する場合は必要がありますAnova()かdrop1()使用できますか? これらの2つの違いは、少なくとも私のデータでは、かなりわずかです。どちらを使用するかは問題ですか?
10 r  anova  glmm  r  mixed-model  bootstrap  sample-size  cross-validation  roc  auc  sampling  stratification  random-allocation  logistic  stata  interpretation  proportion  r  regression  multiple-regression  linear-model  lm  r  cross-validation  cart  rpart  logistic  generalized-linear-model  econometrics  experiment-design  causality  instrumental-variables  random-allocation  predictive-models  data-mining  estimation  contingency-tables  epidemiology  standard-deviation  mean  ancova  psychology  statistical-significance  cross-validation  synthetic-data  poisson-distribution  negative-binomial  bioinformatics  sequence-analysis  distributions  binomial  classification  k-means  distance  unsupervised-learning  euclidean  correlation  chi-squared  spearman-rho  forecasting  excel  exponential-smoothing  binomial  sample-size  r  change-point  wilcoxon-signed-rank  ranks  clustering  matlab  covariance  covariance-matrix  normal-distribution  simulation  random-generation  bivariate  standardization  confounding  z-statistic  forecasting  arima  minitab  poisson-distribution  negative-binomial  poisson-regression  overdispersion  probability  self-study  markov-process  estimation  maximum-likelihood  classification  pca  group-differences  chi-squared  survival  missing-data  contingency-tables  anova  proportion 

1
EMアルゴリズムを使用して、ゼロ膨張ポアソンモデルの潜在変数定式化のMLEをどのように計算しますか?
ゼロ膨張ポアソン回帰モデルは、サンプルに対してによって 定義され そしてさらに、パラメーターおよび満たすと仮定しますYは、iが = { 0の確率でのp I + (1 - P I)E - λ I kの確率で(1 - P I)E - λ I、λはk個のI / Kを!λ = (λ 1、... 、λ N)P =(y1,…,yn)(y1,…,yn)(y_1,\ldots,y_n)Yi={0kwith probability pi+(1−pi)e−λiwith probability (1−pi)e−λiλki/k!Yi={0with probability pi+(1−pi)e−λikwith probability (1−pi)e−λiλik/k! Y_i = \begin{cases} 0 & \text{with probability} \ p_i+(1-p_i)e^{-\lambda_i}\\ k & \text{with …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.