タグ付けされた質問 「logistic」

一般に、ロジスティック関数を使用する統計的手順、最も一般的にはさまざまな形式のロジスティック回帰を指します。

1
バグでベイジアン混合効果モデルを指定する方法
私はこれを週の初めに投稿し、人々の時間を無駄にしたくない、良い情報源を見つけたときに質問を撤回しました。残念ながら、あまり進歩していません。ここで善良な市民になろうとすることで、問題をできるだけ明確にします。テイカーは少ないと思います。 RIにBUGSまたはRで分析したいデータフレームがあります。これは長い形式です。これは、120人の複数の観測値からなり、合計885行です。カテゴリカルな結果の発生について調査していますが、ここではあまり関係ありません。問題は、より深いものについてです。 ここまで使ってきたモデルは mymodel<-gee(Category ~ Predictor 1 + Predictor 2..family=binomial(link="logit"), data=mydata, id=Person) 限界モデルは基本的に患者のクラスタリングを説明します。次に調べた mymodel<-gee(Category ~ Predictor 1 + Predictor 2.. , family=binomial(link="logit"), corstr = "AR-M", data=mydata, id=Person) 個々の人々の観察の時間順を説明するため。 これはあまり変わりませんでした。 次に、次の一連のMCMCPackコマンドを使用してモデル化を試みました。 mymodel<-MCMCglmm(category~ Predictor1 + Predictor2.., data=mydata, family=binomial(link="logit")) 出力の調査はスリル満点で、多くの予測因子に統計的有意性を示しました。私は、患者の中の反復測定を考慮に入れていなかったことに気づくまで、新しく改宗したベイズ人として自分を称賛しました。 私はそれを説明しなければならないことを理解しています。これは、各個人にハイパープライアを適合させることを意味する可能性があることを理解しています-それは正しいですか?バグではこれはどのような形になりますか? 基本的なログ登録モデルは次のとおりです:(kudos to Kruschke、J.、Indiana) model { for( i in 1 : nData ) …

3
ロジスティック回帰における交互作用項の有意性と信頼区間
私はWinBugsにベイジアンロジスティック回帰を適合させました。これには相互作用項があります。このようなもの: P R O B(y私= 1 )=L O G I T− 1(a +b1∗バツ私+b2∗w私+b3∗バツ私∗w私)Prob(yi=1)=logit−1(a+b1∗xi+b2∗wi+b3∗xi∗wi)\mathrm{Prob}(y_{i}=1) = \mathrm{logit}^{-1} (a + b_{1}*x_{i} + b_{2}*w_{i} + b_{3}*x_{i}*w_{i}) ここで、は標準化された連続変数、はダミー変数です。実際にはモデルはもっと複雑ですが、私は物事を単純に保ちたいです。バツxxwww 相互作用の項は「有意」ですが、単一の予測子ではありません。例えば、 mは電子nは(b1)= − .2mean(b1)=−.2\mathrm{mean}(b_{1}) = -.2および分位数:および959595%(− 1.3(−1.3(-1.3.7 ).7).7) mは電子nは(b2)= − .4mean(b2)=−.4\mathrm{mean}(b_{2}) = -.4および分位数: -および959595%(−1.3(−1.3(-1.3.5).5).5) mean(b3)=1.4mean(b3)=1.4\mathrm{mean}(b_{3}) = 1.4および分位数:(.および959595%(.4(.4(.42.5)2.5)2.5) この発見にどう反応するかについてアドバイスはありますか?場合、影響全体に対して95%の信頼区間を計算できると思いました。これは次のようになります。xの合計効果の95%値、条件付き: -およびxxxw=1w=1w=1w=1w=1w=1(−1.3+.4(−1.3+.4(-1.3+.4.7+2.5)=(−.9+3.2).7+2.5)=(−.9+3.2).7+2.5) = (-.9 + 3.2) これは正しいです?そうでない場合、どうすればよいですか?この件に関する参考資料はありますか?

1
MATLABでのロジスティック回帰のための名義予測子と連続予測子の間の相互作用のコーディング
したがって、データは次のように構成されています。 我々は持っています MMM参加者は、各参加者を3つのグループ(G ∈ A 、B 、C∈A,B,C\in {A,B,C})、そして参加者ごとに NNN連続変数のサンプル。また、0または1の値を予測しようとしています。 これらの値を予測する際に、MATLABを使用して連続変数とカテゴリ変数間の相互作用をテストするにはどうすればよいでしょうか。

1
betareg coefの解釈
結果は、ある地域で機械によって2日間別々に観察された種の割合であるというデータがあります。結果は比率であり、0または1が含まれていないので、モデルを適合させるためにベータ回帰を使用しました。温度は独立変数として使用されます。これがおもちゃのRコードです。 set.seed(1234) library(betareg) d <- data.frame( DAY = c(1,1,1,1,2,2,2,2), Proportion = c(.4,.1,.25, .25, .5,.3,.1,.1), MACHINE = c("A","B","C","D","H","G","K","L"), TEMPERATURE = c(rnorm(8)*100) ) b <- betareg(Proportion ~ TEMPERATURE, data= d, link = "logit", link.phi = NULL, type = "ML") summary(b) ## Call: ## betareg(formula = Proportion ~ TEMPERATURE, data = d, link …

1
ロジスティック回帰は「セミ​​パラメトリック」モデルですか?
最近、質問の回答に「セミパラメトリック」という用語が含まれていますが、この用語の意味がよくわかりません。 ウィキペディアは言う 統計では、セミパラメトリックモデルは、パラメトリックコンポーネントとノンパラメトリックコンポーネントを持つ統計モデルです。 また、例としてコックス比例ハザードモデルを示します。 Cox比例ハザードモデルとロジスティック回帰は非常に似ていると思いますが、なぜ1つはセミパラメトリックであるが、もう1つではないと言うのですか? ところで私はこの答えを見つけました、GLMはセミパラメトリックモデルではないと言います。

2
Rの二項GLM:同じデータですが、2つの異なるモデル
これらのデータのロジスティック回帰を検討してください: X1 X2 Y 1 0 0 1 0 1 0 1 0 0 1 0 0 1 0 0 1 1 1 1 1 Rは、データの3つの異なる表現を受け入れます。テーブルエントリごとに1行、および2つの圧縮表現(1つは重み付け、1つは成功と失敗)です。私の考えでは、これらの3つの仕様はすべて数学的に同じである必要があります。データは同じ7つの観測値であり、それらは異なる形式でRに提示されます。 data1 <- data.frame(x1=c(1,1,0,0,0,0,1), x2=c(0,0,1,1,1,1,1), y=c(0,1,0,0,0,1,1)) data2 <- data.frame(x1=c(0,1,0,1), x2=c(0,0,1,1), y=c(0,0.5,0.25,1), w=c(0,2,4,1)) data3x <- data.frame(x1=c(0,1,0,1), x2=c(0,0,1,1)) data3y <- cbind(c(0,1,1,1), c(0,1,3,0)) model1 <- glm(y~x1+x2, data=data1, family="binomial") …
8 r  logistic 

1
Python Scikit Learnは、ロジスティック回帰の線形分離問題をどのように処理しますか?
このようなロジスティック回帰と線形分離を扱うRからの警告に関する投稿はすでにあります。Python Scikit Learnでこの問題がすべて最適化関数のL1 / L2正則化部分によって解決されるかどうかを確認したいだけです。言い換えれば、ユーザーは無限のMLE推定警告をから取得しないと言っても安全sklearn.linear_model.LogisticRegressionですか?

2
このタイプの質問に対する正しい分析は何ですか?(条件付きロジスティック回帰?)
次の実験を踏まえて、以下の質問に答えるための正しい統計的方法は何ですか? 参加者は写真が連続して表示され、各写真の後にオブジェクトまたは顔のどちらを見たかに応答する必要があります。各試行(画像のプレゼンテーション)では、表示された画像(210の個別の顔の1つまたは210の個別のオブジェクトの1つ)に、一定量のランダムノイズ(5%から98%の間)が重ねられます。各トライアルで提示される画像はかなり小さいため、各トライアルにも背景があります。背景は黒、大きなオブジェクト、または大きな顔のいずれかです。個々の画像が一致します。つまり、個々の画像は合計3回表示されます。1回は黒い背景で、1回は大きなオブジェクトを背景として、1回は大きな顔を背景として表示されます。個々の画像に重ねられるランダムノイズの量は、3つの異なる背景条件にわたって一定に保たれます。大きなオブジェクトの背景にあるオブジェクトは変化せず、提示された210個の個別オブジェクト画像の1つに含まれていません。同様に、大きな顔の背景の顔は変化せず、表示される210個の個別の顔写真の1つには含まれません。背景にノイズは追加されません。 私が回答したいのは、3つの異なる背景条件間で、顔、オブジェクト、または両方の知覚が大きく異なるかどうかです。 回答したい質問の詳細については、下の質問5を参照してください つまり、最後に、次のようなデータテーブルがあります。 + ------------- + ------------- + ------------- + ------- ------ + ------------- + ------------- + | 参加者| カテゴリー| Pic ID | 騒音レベル| 背景| レスポンス* | + ------------- + ------------- + ------------- + ------- ------ + ------------- + ------------- + | 1 | 0 | 1 | …

2
ロジスティック回帰BIC:正しいNは何ですか?
TL; DR:ロジスティック回帰にBICのために正しい、凝集二項またはベルヌーイ?NNNNNN 最下部の更新 ロジスティック回帰を適用するデータセットがあるとします。例として、参加者がそれぞれm = 100のj=5j=5j=5グループがm=100m=100m=100、合計n=500n=500n=500であると想定します。結果は0または1です。たとえば、次のデータセット(Rコード): library(dplyr) library(tidyr) set.seed(45) d <- tibble(y = rbinom(500, 1, .5), x = factor(rep(LETTERS[1:5], each = 100))) これを表すには2つの方法があります。上記のとおり、すべての観測をベルヌーイ確率変数として扱うか、グループ内の観測を集計して各観測を二項として扱います。データセットの行数は、最初のインスタンスでは500、2番目のインスタンスでは5になります。 集約されたデータセットを構築できます: d %>% group_by(x, y) %>% summarise(n = n()) %>% spread(y, n) %>% rename(f = `0`, s = `1`) %>% mutate(n = s + f) -> d_agg …

3
後部が適切であることの確認
ある事後分布の妥当性を検証するように求める教科書に宿題の問題があり、少し問題があります。セットアップは、1つの予測子を持つロジスティック回帰モデルがあり、よりも前に不適切な均一モデルを持っていることです。R2R2\mathbb{R}^2 以下のために具体的には、想定その そう可能性は 問題は、この事後が実際に不適切であると私が思うことです。i=1,…,ki=1,…,ki=1,\ldots,kyi∣α,β,xi∼Binomial(n,invlogit(α+βxi)),yi∣α,β,xi∼Binomial(n,invlogit(α+βxi)), y_i \mid \alpha, \beta,x_i \sim \text{Binomial}(n,\text{invlogit}(\alpha + \beta x_i)), p(y∣α,β,x)=∏i=1k[invlogit(α+βxi)]yi[1−invlogit(α+βxi)]n−yi.p(y∣α,β,x)=∏i=1k[invlogit(α+βxi)]yi[1−invlogit(α+βxi)]n−yi. p(y \mid \alpha, \beta, x ) = \prod_{i=1}^k [\text{invlogit}(\alpha + \beta x_i)]^{y_i}[1-\text{invlogit}(\alpha + \beta x_i)]^{n-y_i}. の特定の状況で、変数の変更およびを使用すると、 アスタリスクのある行では、0 <y <nであると想定していますが、そうでない場合は、同じ結果になります。k=1k=1k=1s1=invlogit(α+βx)s1=invlogit(α+βx)s_1 = \text{invlogit}(\alpha + \beta x)s2=βs2=βs_2 = \beta∬R2p(y∣α,β,x)dαdβ=∬R2[invlogit(α+βx)]y[1−invlogit(α+βx)]n−ydαdβ=∫∞−∞∫10sy−11(1−s1)n−y−1ds1ds2=B(y,n−y)∫∞−∞1ds2=∞.(*)∬R2p(y∣α,β,x)dαdβ=∬R2[invlogit(α+βx)]y[1−invlogit(α+βx)]n−ydαdβ=∫−∞∞∫01s1y−1(1−s1)n−y−1ds1ds2(*)=B(y,n−y)∫−∞∞1ds2=∞.\begin{align*} \iint_{\mathbb{R}^2}p(y \mid \alpha, \beta, x ) \text{d}\alpha \text{d}\beta &= \iint_{\mathbb{R}^2}[\text{invlogit}(\alpha …

2
なぜ治療コーディングはランダムな傾きと切片の間の相関をもたらすのですか?
実験的処理変数に2つのレベル(条件)がある被験者内および項目内の要因計画を考えます。をm1最大モデルとm2非ランダム相関モデルにします。 m1: y ~ condition + (condition|subject) + (condition|item) m2: y ~ condition + (1|subject) + (0 + condition|subject) + (1|item) + (0 + condition|item) Dale Barr はこの状況について次のように述べています。 編集(2018年4月20日):Jake Westfallが指摘したように、次のステートメントはこの Webサイトの図1および2に示されているデータセットのみを参照しているようです。ただし、基調講演は変わりません。 偏差コーディング表現(条件:-0.5 vs. 0.5)m2では、被験者のランダムな切片が被験者のランダムな傾きと無相関である分布が可能です。最大モデルのみm1が、2つが相関している分布を許可します。 治療コーディング表現(条件:0対1)では、被験者のランダム切片が被験者のランダムな傾きと無相関であるこれらの分布は、無作為相関モデルを使用してフィッティングできません。治療コード表現における勾配と切片。 なぜ治療コーディングは 常に ランダムな傾きと切片の間に相関関係が生じますか?

2
ランダムな予測子を使用したロジスティック回帰から均一なp値分布が得られないのはなぜですか?
以下のコードは、周囲に二項ノイズを含む一連の「信号」確率で構成されるテストデータのセットを生成します。次に、コードは5000組の乱数を「説明的な」系列として使用し、それぞれについてロジスティック回帰のp値を計算します。 ランダムな説明シリーズは、57%のケースで5%レベルで統計的に有意であることがわかりました。以下の投稿の長い部分を読んだ場合、これはデータに強い信号が存在することに起因します。 だから、ここに主な質問があります:データに強い信号が含まれているときに説明変数の統計的有意性を評価するときに、どの検定を使用すべきですか?単純なp値は誤解を招くようです。 問題の詳細な説明は次のとおりです。 予測子が実際には単なる乱数のセットであるときに、ロジスティック回帰のp値を取得した結果に戸惑っています。私の最初の考えは、この場合、p値の分布はフラットでなければならないということでした。以下のRコードは、実際には低いp値で大きなスパイクを示しています。これがコードです: set.seed(541713) lseries <- 50 nbinom <- 100 ntrial <- 5000 pavg <- .1 # median probability sd <- 0 # data is pure noise sd <- 1 # data has a strong signal orthogonalPredictor <- TRUE # random predictor that is orthogonal to the true …

1
なぜいくつかの式はロジスティック回帰の尤度の前に係数を持っていますが、いくつかは持っていませんか?
私はロジスティック回帰の可能性を導き出しています。私は2つの異なるバージョンを見てきました。 f(y|β)=∏i=1Nniyi!(ni−yi)!πyii(1−πi)ni−yi(1)(1)f(y|β)=∏i=1Nniyi!(ni−yi)!πiyi(1−πi)ni−yi\begin{equation} f(y|\beta)={\displaystyle \prod_{i=1}^{N} \frac{n_i} {y_i!(n_i-y_i)!}} \pi_{i}^{y_i}(1-\pi_i)^{n_i - y_i} \tag 1 \end{equation} またはこれ L(β0,β1)=∏i=1Np(xi)yi(1−p(xi))1−yi(2)(2)L(β0,β1)=∏i=1Np(xi)yi(1−p(xi))1−yi\begin{equation} L(\beta_0,\beta_1)= \displaystyle \prod_{i=1}^{N}p(x_i)^{y_i}(1-p(x_i))^{1-y_i} \tag 2 \end{equation} 式1 に\ frac {n_i} {y_i!(n_i-y_i)!}があるのはなぜniyi!(ni−yi)!niyi!(ni−yi)!\frac{n_i} {y_i!(n_i-y_i)!}ですか? 出典: 最初:https : //czep.net/stat/mlelr.pdf(3ページequ。2) 2番目:http : //www.stat.cmu.edu/~cshalizi/uADA/12/lectures/ch12.pdf(5ページequ。12.6) 注:この質問は、実際には「尤度は比例関係の乗数定数までしか定義されない」とはどういう意味ですか?どのように行われたかを見た後、二項分布への答えをたどることができます。しかし、その投稿の質問がこの質問に対する答えであることを誰も知らなかっただろう。

2
バイナリ分類のモデルとしてロジスティック関数を使用する動機は何ですか?
バイナリ分類で使用されるロジスティック回帰は、結果変数の潜在的な確率のモデルとしてロジスティック関数を使用します。 このようなモデルをフィッティングするために有用で不可欠ないくつかのプロパティがあります。たとえば、単調に増加し、xが無限大になる傾向があると1になる傾向があり、xが無限大になる傾向があると0になる傾向があります。ただし、これらのプロパティを満たす関数には他のオプションがあります。 それでは、ロジスティック関数は単に便宜上使用されているのでしょうか、それともロジスティック関数が「正しい」または使用するのに適切な関数である理由が他にあるのでしょうか。

1
検量線の解釈
私は段階的に導出されたバイナリロジスティック回帰モデルを持っています。R calibrate(, bw=200, bw=TRUE)のrmsパッケージの関数を使用して、将来のキャリブレーションを推定しました。出力を以下に示します。これは、バックワードステップダウンロジスティックモデルのブートストラップ過適合が補正された検量線推定を示しています。しかし、私はそれをどのように解釈するかわかりません。 キャリブレーションとは、将来の予測確率が観測された確率と一致するかどうかを指すことを理解しています。予測モデルは、新しい被験者の予測が極端すぎる(つまり、結果の観測確率が低リスク被験者の予測よりも高く、高リスク被験者の予測よりも低い)ことに悩まされています。これは、リスクの低いグループの理想(破線)よりも高く、リスクの高いグループの理想よりも低い点線の曲線をトレースするとわかります。 同じ推論を使用すると、バイアスが補正された曲線は、さらに極端な確率を生成するという意味で、より悪くなります。私の解釈は正しいですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.