タグ付けされた質問 「logistic」

一般に、ロジスティック関数を使用する統計的手順、最も一般的にはさまざまな形式のロジスティック回帰を指します。

2
順序ロジスティック回帰モデルを指定して、応答カテゴリをどのように予測しますか?
健康上の問題を予測したい。「正常」、「軽度」、「重度」の3つの結果カテゴリがあります。これを2つの予測変数、テスト結果(連続、間隔共変量)およびこの問題の家族歴(はいまたはいいえ)から予測したいと思います。私のサンプルでは、​​確率は55%(正常)、35%(軽度)、および10%(重度)です。この意味で、私は常に「正常」を予測し、55%の確率で正しいことができますが、個々の患者に関する情報は得られません。私は次のモデルに適合します: (yのカットポイント ≥ 1 )ˆ(yのカットポイント ≥ 2 )ˆβ^t e s tβ^fa m i l y h i s t o r y = − 2.18= − 4.27= 0.60= 1.05のカットポイント (y≥1)^=−2.18のカットポイント (y≥2)^=−4.27β^test=0.60β^fam私ly h私story=1.05\begin{align} \text{the cut point for }\widehat{(y \ge 1)} &= -2.18 \\ \text{the cut point for }\widehat{(y \ge 2)} &= …

4
ロジスティック回帰の結果を報告する
次のロジスティック回帰出力があります。 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 0.5716 0.1734 3.297 0.000978 *** R1 -0.4662 0.2183 -2.136 0.032697 * R2 -0.5270 0.2590 -2.035 0.041898 * 次の方法で報告するのが適切ですか? ベータ係数、オッズ比、Z値、P値。はいの場合、オッズ比はどのように取得できますか?
13 logistic 

3
分散が大きい予測子は「より良い」ですか?
「基本統計」の概念に関する質問があります。学生として、私はこれが完全に間違っていると考えているかどうか、そしてそうである場合、その理由を知りたい: レッツは、私が仮に離婚を「怒りの管理の問題」との関係を見て、言うことをしようとしていますと言う(はい/いいえ)ロジスティック回帰で、私は二つの異なる怒りの管理スコアを使用するオプションがある- 100の両方で スコア1をアンケート評価ツール1と他の選択肢から得られます。スコア2は別のアンケートから得られます。仮に、怒りの管理の問題が離婚を引き起こすと以前の研究から信じる理由があります。 私の500人のサンプルで、スコア1の分散がスコア2の分散よりもはるかに高い場合、スコア1がその分散に基づいて離婚の予測子として使用するのに適したスコアであると信じる理由はありますか? 私には、これは本能的に正しいように思えますが、そうですか?

5
段階的なロジスティック回帰とサンプリング
SPSSのデータセットに段階的なロジスティック回帰を当てはめています。手順では、モデルをランダムなサブセットに近似しています。合計サンプルの60%、約330ケースです。 おもしろいと思うのは、データをリサンプリングするたびに、最終モデルでさまざまな変数が出入りするということです。最終モデルには常に少数の予測変数が存在しますが、サンプルに応じて他の予測変数が表示されます。 私の質問はこれです。これを処理する最良の方法は何ですか?予測変数の収束を見たいと思っていましたが、そうではありません。一部のモデルは、運用の観点からはるかに直感的な意味を持ち(意思決定者に説明する方が簡単です)、他のモデルはデータによりやや適合しています。 要するに、変数はシャッフルされているので、私の状況に対処することをどのようにお勧めしますか? 事前に感謝します。

2
AICとシュワルツ基準を理解する
ロジスティックモデルを実行しています。実際のモデルデータセットには10​​0を超える変数がありますが、約25の変数があるテストデータセットを選択しています。その前に、8〜9個の変数を持つデータセットも作成しました。AICとSCの値を使用してモデルを比較できると言われています。変数のp値が低い場合(ex。0053)でも、モデルのSC値が高いことがわかりました。私の直感では、有意水準が高い変数を持つモデルは、SCとAICの値が低くなるはずです。しかし、それは起きていません。誰かがこれを明確にしてください。要するに、私は次の質問をしたい: 変数の数はSC AICと関係がありますか? p値または低いSC AIC値に集中すべきですか? SC AIC値を減らす典型的な方法は何ですか?

1
Rの二項GLMの応答の入力形式
でR、使用してロジスティック回帰のための入力データをフォーマットするための3つの方法があるglm関数は: データは、観測ごとに「バイナリ」形式にすることができます(たとえば、観測ごとにy = 0または1)。 データは「Wilkinson-Rogers」形式(例:)で、y = cbind(success, failure)各行が1つの処理を表します。または データは、観測ごとに加重形式にすることができます(たとえば、y = 0.3、加重= 10)。 3つのアプローチはすべて同じ係数推定値を生成しますが、自由度と結果の逸脱値とAICスコアが異なります。最後の2つの方法では、観測値の数ごとに各処理を使用するのに対し、最初の方法では観測値の数ごとに各観測値を使用するため、観測値が少なくなります(したがって自由度)。 私の質問:ある入力形式を別の入力形式よりも使用することには、数値的または統計的な利点がありますか?私が見る唯一の利点はR、モデルで使用するためにデータを再フォーマットする必要がないことです。 私はglmのドキュメントを見て、ウェブで検索し、このサイトで接線的に関連する投稿を見つけましたが、このトピックに関するガイダンスはありません。 この動作を示すシミュレーション例は次のとおりです。 # Write function to help simulate data drc4 <- function(x, b =1.0, c = 0, d = 1, e = 0){ (d - c)/ (1 + exp(-b * (log(x) - log(e)))) } # simulate …

4
ニューラルネットワークの各ニューロンが基本的にロジスティック回帰関数である場合、なぜ多層が優れているのでしょうか?
CouseraのDeepAIコース(Week3ビデオ1 "Neural Networks Overview")で説明します。AndrewNgは、ニューラルネットワークの各レイヤーが単なるロジスティック回帰の1つである方法を説明していますが、より正確な方法については説明していません。 それでは、2層ネットワークで、ロジスティックを複数回計算すると、どのように正確になりますか?

2
ロジスティック回帰のP> 0.5カットオフが「最適」ではないのはなぜですか?
序文:カットオフを使用するかどうかのメリット、またはカットオフを選択する方法については気にしません。私の質問は純粋に数学的で、好奇心によるものです。 ロジスティック回帰は、クラスAとクラスBの事後条件付き確率をモデル化し、事後条件付き確率が等しい超平面に適合します。したがって、理論的には、0.5の分類ポイントは、事後確率をモデル化するため(一貫して同じクラス比に遭遇すると仮定)、セットバランスに関係なく合計誤差を最小化することを理解しました。 私の実際の例では、分類カットオフとしてP> 0.5を使用すると非常に低い精度(約51%の精度)が得られます。ただし、AUCを見ると0.99を超えています。そのため、いくつかの異なるカットオフ値を調べたところ、P> 0.6で98%の精度(小さいクラスで90%、大きいクラスで99%)が得られました。 クラスは非常に不均衡であり(1:9)、高次元の問題です。ただし、クラスを各交差検定セットに均等に割り当てたため、モデルの適合と予測の間でクラスのバランスに違いが生じないようにしました。また、モデルの適合と予測で同じデータを使用してみましたが、同じ問題が発生しました。 0.5がエラーを最小化しない理由に興味があります。クロスエントロピー損失を最小化することでモデルが適合している場合、これは設計によるものだと考えました。 なぜこれが起こるのかについてのフィードバックはありますか?それは罰則の追加によるものですか、もしそうなら、誰かが何が起こっているのか説明できますか?

3
ロジスティック回帰のWoE(証拠の重み)による変数の置換
これは、同僚の何人かが従う練習や方法に関する質問です。ロジスティック回帰モデルの作成中に、カテゴリ変数(またはビニングされた連続変数)をそれぞれの証拠の重み(WoE)に置き換える人々を見てきました。これは、リグレッサーと従属変数の間に単調な関係を確立するために行われると思われます。私の知る限り、モデルが作成されると、方程式の変数はデータセットの変数ではありません。むしろ、方程式の変数は、従属変数を分離する際の変数の重要性や重みのようなものになりました! 私の質問は、どのようにモデルまたはモデル係数を解釈するのですか?たとえば、次の方程式の場合: ログ( p1 − p) =β0+ β1バツ1ログ⁡(p1−p)=β0+β1バツ1 \log\bigg(\frac{p}{1-p}\bigg) = \beta_0 + \beta_1x_1 は、変数 1単位増加に対する比の相対的増加であると言えます。exp(β1)exp⁡(β1)\exp(\beta_1) バツ1バツ1x_1 しかし、変数がそのWoEに置き換えられた場合、解釈は次のように変更されます。 私はインターネットでこの実践を見てきましたが、この質問の答えはどこにも見つかりませんでした。このコミュニティ自体からのこのリンクは、誰かが書いた似たようなクエリに関連しています: WoEは、ロジスティック回帰の従属変数であるオッズ比の自然対数との線形関係を表示します。したがって、変数の実際の値の代わりにWoEを使用する場合、ロジスティック回帰ではモデルの誤指定の問題は発生しません。 しかし、まだ説明がわかりません。不足しているものを理解してください。

4
ROC曲線の解釈方法は?
SASのデータにロジスティック回帰を適用しました。これがROC曲線と分類表です。 私は分類表の数値に満足していますが、roc曲線とその下の領域が何を示すのか正確にはわかりません。どんな説明でも大歓迎です。

3
ロジスティック回帰の切片項
次のロジスティック回帰モデルがあるとします。 logit(p)=β0+β1x1+β2x2logit(p)=β0+β1x1+β2x2\text{logit}(p) = \beta_0+\beta_{1}x_{1} + \beta_{2}x_{2} であるイベントのオッズとき、X 1 = 0とX 2 = 0?言い換えれば、x 1とx 2が最低レベルにあるときのイベントのオッズです(これが0でなくても)。たとえば、x 1とx 2が値2と3のみをとる場合、それらを0に設定することはできません。β0β0\beta_0x1=0x1=0x_1 = 0x2=0x2=0x_2=0x1x1x_1x2x2x_2x1x1x_1x2x2x_2222333

1
Firth Logistic Regressionの理論的理解を求めて
Firthロジスティック回帰(ロジスティック回帰で完全/完全または準完全な分離を処理する方法)を理解しようとしているので、他の人に簡単に説明できます。FLETHの推定がMLEにどのような変更を加えているかについて、だれかが軽duした説明を持っていますか? Firth(1993)を読みましたが、スコア関数に修正が適用されていることを理解しています。私は、補正の起源と正当化、およびスコア関数がMLEで果たす役割についてあいまいです。 これが初歩的な知識であれば申し訳ありません。私がレビューした文献は、私が持っているよりもはるかに深いMLEの理解を必要とするようです。

2
階層ロジスティック回帰のベルヌーイパラメーターにベータ分布を使用する理由
現在、クルシュケの優れた「Doing Bayesian Data Analysis」本を読んでいます。ただし、階層ロジスティック回帰の章(第20章)はやや混乱を招きます。 図20.2は、ベルヌーイパラメーターがシグモイド関数で変換された係数の線形関数として定義されている階層ロジスティック回帰を示しています。これは、他のオンラインソースでも見たほとんどの例で、階層ロジスティック回帰が行われる方法のようです。たとえば、http://polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug ただし、予測子が名義の場合、階層にレイヤーを追加します。ベルヌーイパラメーターは、muおよびkappaによって決定されるパラメーターを持つベータ分布(図20.5)から描画されます。ここで、muは係数の線形関数のS字変換です、およびkappaはガンマ事前分布を使用します。 これは合理的で、第9章のコインフリッピングの例に似ていますが、名目予測子がベータ分布の追加とどう関係するのかわかりません。メトリック予測変数の場合にこれを行わないのはなぜですか。また、公称予測変数にベータ分布が追加されたのはなぜですか 編集:私が言及しているモデルの明確化。まず、メトリック予測子を使用したロジスティック回帰モデル(ベータ事前なし)。これは、上記のバグの例など、階層ロジスティック回帰の他の例に似ています。 yi∼Bernoulli(μi)μi=sig(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ)yi∼Bernoulli⁡(μi)μi=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(Mβ,Tβ) y_i \sim \operatorname{Bernoulli}(\mu_i) \\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\ \beta_0 \sim N(M_0, T_0) \\ \beta_j \sim N(M_\beta, T_\beta) \\ 次に、名目上の予測子を使用した例。ここで、階層の「下位」レベルの役割(ロジスティックな結果を2項式の前にベータに組み込む)の役割と、メトリックの例とは異なる理由をよく理解できません。 z私〜ビン(θ私、N)θ私〜ベータ( aj、 bj)aj= μjκbj= (1 − μj) κκ 〜Γ ( Sκ、 Rκ)μj= sig( β0+∑jβjバツj i)β0〜N(M0、T0)βj〜N(0 、τβ)τβ=1/σ2βσ2β∼folded t(Tt,DF)zi∼Bin⁡(θi,N)θi∼Beta⁡(aj,bj)aj=μjκbj=(1−μj)κκ∼Γ(Sκ,Rκ)μj=sig⁡(β0+∑jβjxji)β0∼N(M0,T0)βj∼N(0,τβ)τβ=1/σβ2σβ2∼folded …

1
Rでのロジスティック回帰出力の解釈
私はを使用してRの多重ロジスティック回帰に取り組んでいますglm。予測変数は連続的でカテゴリカルです。モデルの要約の抜粋は次を示しています。 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 2.451e+00 2.439e+00 1.005 0.3150 Age 5.747e-02 3.466e-02 1.658 0.0973 . BMI -7.750e-02 7.090e-02 -1.093 0.2743 ... --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 信頼区間: 2.5 % 97.5 % (Intercept) 0.10969506 1.863217e+03 Age 0.99565783 …

3
ロジスティック回帰(または他の形式の回帰)での非線形性のテスト
ロジスティック回帰の前提の1つは、ロジットの線形性です。したがって、モデルを立ち上げて実行したら、Box-Tidwellテストを使用して非線形性をテストします。私の連続予測変数(X)の1つは、非線形性が陽性であることをテストしました。次に何をするつもりですか? これは仮定の違反であるため、予測変数(X)を取り除くか、非線形変換(X * X)を含める必要があります。または、変数をカテゴリカルに変換しますか?あなたが参照を持っているなら、あなたも私にそれを指し示すことができますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.