タグ付けされた質問 「logistic」

一般に、ロジスティック関数を使用する統計的手順、最も一般的にはさまざまな形式のロジスティック回帰を指します。

4
単変量ロジスティック回帰のサンプルサイズ計算
対象のコホートに手術時に測定された単一の連続変数があり、その後2年後に機能的転帰または障害転帰として分類される研究に必要なサンプルサイズをどのように計算しますか。 その測定が悪い結果を予測できたかどうかを確認したいと思います。ある時点で、連続変数のカットポイントを導出したい場合があります。これを超えると、結果が損なわれる可能性を減らすために介入しようとします。 何か案は?Rの実装。

4
複数のカイ2乗検定
2 x 2 x 6の表に分類されたデータがあります。寸法responseをAと呼びましょうB。モデルを使用して、データにロジスティック回帰を適合させますresponse ~ A * B。そのモデルの逸脱の分析は、用語とその相互作用の両方が重要であることを示しています。 ただし、データの比率を見ると、Bこれらの重要な影響の原因となっているのはわずか2レベル程度です。どのレベルが犯人であるかを確認するためにテストしたいと思います。現在、私のアプローチは、2 x 2のテーブルで6つの2乗検定を実行しresponse ~ A、それらの検定からのp値を(ホルム調整を使用して)多重比較のために調整することです。 私の質問は、この問題へのより良いアプローチがあるかどうかです。より原理的なモデリング手法、または複数のカイ二乗検定比較手法はありますか?

1
SVMを分類確率として解釈することが間違っているのはなぜですか?
私のSVMの理解は、それがロジスティック回帰(LR)に非常に似ていることです。つまり、特徴の重み付けされた合計がクラスに属する確率を得るためにシグモイド関数に渡されますが、クロスエントロピー(ロジスティック)損失ではありません。関数、ヒンジ損失を使用してトレーニングが実行されます。ヒンジ損失を使用する利点は、カーネル化をより効率的にするために、さまざまな数値トリックを実行できることです。ただし、欠点は、結果のモデルの情報が、対応するLRモデルの情報よりも少ないことです。そのため、例えば、(線形カーネルを使用して)kernelisationずにSVMの決定境界はまだLRう出力0.5の確率と同じ場所になり、しかし 1は、クラスに属する確率が離れてからの減衰どのように迅速に伝えることはできません決定境界。 私の2つの質問は次のとおりです。 上記の私の解釈は正しいですか? ヒンジ損失を使用すると、SVMの結果を確率として解釈することが無効になりますか?

1
R / mgcv:なぜte()とti()テンソル積が異なる表面を生成するのですか?
のmgcvパッケージにRは、テンソル積の相互作用をフィッティングするための2つの関数がte()ありti()ます。私は2つの作業の基本的な分業を理解しています(非線形の相互作用を当てはめるか、この相互作用を主効果と相互作用に分解するか)。私が理解していないのは、なぜte(x1, x2)、そしてti(x1) + ti(x2) + ti(x1, x2)(わずかに)異なる結果を生成するのかということです。 MWE(から適応?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f + rnorm(n)*0.2 par(mfrow = c(2,2)) # …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
L1損失関数を使用してRの(ロジスティック?)回帰をどのようにトレーニングしますか?
私は中ロジスティック回帰を訓練することができますR使用して glm(y ~ x, family=binomial(logit))) しかし、IIUCでは、これにより対数尤度が最適化されます。 線形(L1L1L_1)損失関数(この場合、総変動距離と同じ)を使用してモデルをトレーニングする方法はありますか? 数値ベクトル与えられ、すなわち、xxxおよびビット(論理)ベクトルyyy、私は単調な(実際には、増加)機能構築したいfffよう∑|f(x)−y|∑|f(x)−y|\sum |f(x)-y|最小化されます。 こちらもご覧ください L1損失関数を使用してRでロジスティック回帰をどのようにトレーニングしますか?
11 logistic 

2
ロジスティック回帰:連続変数の解釈
ロジスティック回帰における連続変数のオッズ比の解釈について、いくつか質問がありました。これらはロジスティック回帰に関する基本的な質問だと思います(おそらく一般的な回帰に関する質問です)。答えがわからないのは少し恥ずかしいのですが、自分のプライドを飲み込んで質問するので、未来! これが私の状況です...私は、保護観察の一環として、職業生活のスキルトレーニングプログラムに参加している、裁判にかけられた若者のサンプルを見ています。彼らがプログラムから解放された年齢が、プログラムから解放されてから6か月後の雇用をどの程度予測したかを見たかったのです。 (また、モデルには他の予測子があることを覚えておいてください。ただし、統計的に有意ではなく、これをできるだけ明確にしたいので、除外しました。) 予測因子:トレーニングプログラムからのリリースの年齢(平均年齢= 17.4、SD = 1.2、範囲14.3-20.5) 結果:雇用されているかどうか(雇用されている= 1、雇用されていない= 0) 結果:オッズ比3.01(p <.005)(オッズ比の解釈についてのみ回答を求めているので、適合度の統計などは除外しました。モデルの適合性、CIの評価で快適に感じています。 、など) 言葉で言えば、年齢が1歳増えると、退院後6か月間雇用される確率が3単位増えます。 質問: 1)「年齢が1年上がると…」と言うと、年齢の原点は何ですか? 年齢はゼロから始まりますか?たとえば、「年齢が0から増加するにつれて(つまり、このモデルをグラフに配置した場合の最低年齢)...」 年齢は、サンプルの年齢範囲の中で最も低い年齢から始まりますか?たとえば、「年齢が14.3から上がるにつれて...」 または 年齢はサンプルの平均年齢から始まりますか?たとえば、「年齢が17.4から増加するにつれて...」、 2)センタリングはこの結果を解釈するのに役立ちますか、それともy-intの解釈にのみ効果がありますか?それが役立つ場合、サンプルの他のすべての年齢から範囲内の最低年齢を中心にするか、または差し引くことを意味することを考えていました。助言がありますか? 3)最後に、14歳の若者と比較して、17歳の若者は9倍雇用される可能性が高いと言えますか?私は、ロジスティック回帰がS字型の関係を前提としていることを知っているので、この3単位のオッズの増加が回帰直線に沿った任意の点で一貫しているのかどうか知りたいので、質問します。 本当にありがとう! アーロン

2
ロジスティック回帰の連続変数を変換する
大規模な調査データ、バイナリ結果変数、およびバイナリと連続を含む多くの説明変数があります。私はモデルセット(GLMと混合GLMの両方で実験)を構築し、情報理論的アプローチを使用して最上位モデルを選択しています。説明(連続およびカテゴリの両方)について相関関係を注意深く調べ、ピアソンまたはフィコール係数が0.3未満の同じモデルの説明のみを使用しています。すべての連続変数に、最上位モデルと競合するための公正な機会を与えたいと思います。私の経験では、必要なものをスキューに基づいて変換すると、それらが参加するモデルが改善されます(AICが低下します)。 私の最初の質問は次のとおりです。変換はロジットの線形性を改善するため、この改善はありますか?または、スキューを修正することで、データをより対称にすることで、説明変数のバランスがどういうわけか改善されますか?私はこれの背後にある数学的理由を理解したいと思いますが、今のところ、誰かがこれを簡単な言葉で説明できればそれは素晴らしいでしょう。私が使用できる参照があれば、私はそれを本当に感謝します。 多くのインターネットサイトでは、正規性はバイナリロジスティック回帰の仮定ではないため、変数を変換しないでください。しかし、変数を変換しないことにより、他のものと比較して不利な点を残し、トップモデルが何であるかに影響を与え、推論を変更する可能性があると感じています(まあ、通常はそうではありませんが、一部のデータセットではそうです)。いくつかの変数は、対数変換された場合、2乗された場合(スキューの方向が異なる場合)、および一部が変換されない場合にパフォーマンスが向上します。 ロジスティック回帰の説明変数を変換するときに注意すべき点をガイドラインで教えてもらえますか。それができない場合は、なぜそうしないのですか?

2
ベイジアンロジットモデル-直感的な説明?
私は以前、学部生や卒業生のクラスでその用語を聞いたことがないことを告白しなければなりません。 ロジスティック回帰がベイジアンであるとはどういう意味ですか?次のような通常のロジスティックからベイジアンロジスティックへの移行に関する説明を探しています。 これは、線形回帰モデルでの式である:。E(y)=β0+β1x1+...+βnxnE(y)=β0+β1x1+...+βnxnE(y) = \beta_0 + \beta_1x_1 + ... + \beta_nx_n これはロジスティック回帰モデルの方程式です:。これは、yがカテゴリカルの場合に行われます。ln(E(y)1−E(y))=β0+β1x1+...+βnxnln⁡(E(y)1−E(y))=β0+β1x1+...+βnxn\ln(\frac{E(y)}{1-E(y)}) = \beta_0 + \beta_1x_1 + ... + \beta_nx_n 私たちが行っていることは、変更されるへのln (E (Y )E(y)E(y)E(y)。ln(E(y)1−E(y))ln⁡(E(y)1−E(y))\ln(\frac{E(y)}{1-E(y)}) では、ベイジアンロジスティック回帰のロジスティック回帰モデルはどうなりますか?方程式とは関係ないのではないかと思います。 この本のプレビューは定義しているようですが、私にはよくわかりません。この以前の可能性のすべては何ですか?とは?本の一部またはベイジアンロジットモデルを別の方法で誰かが説明してもらえますか?αα\alpha 注:これは以前に尋ねられましたが、あまりよく答えられていないと思います。

2
多重ロジスティック回帰で有意な予測子が有意でなくなる
2つの別個の(単変量)ロジスティック回帰モデルで変数を分析すると、次の結果が得られます。 Predictor 1: B= 1.049, SE=.352, Exp(B)=2.85, 95% CI=(1.43, 5.69), p=.003 Constant: B=-0.434, SE=.217, Exp(B)=0.65, p=.046 Predictor 2: B= 1.379, SE=.386, Exp(B)=3.97, 95% CI=(1.86, 8.47), p<.001 Constant: B=-0.447, SE=.205, Exp(B)=0.64, p=.029 しかし、それらを単一の多重ロジスティック回帰モデルに入力すると、次のようになります。 Predictor 1: B= 0.556, SE=.406, Exp(B)=1.74, 95% CI=(0.79, 3.86), p=.171 Predictor 2: B= 1.094, SE=.436, Exp(B)=2.99, 95% CI=(1.27, …

1
まれなイベントのロジスティック回帰のカットオフ確率を選択する方法
私は100の観測値(9つのダミー指標変数)を持ち、1000のポジティブを持っています。この場合、ロジスティック回帰は問題なく機能するはずですが、カットオフの可能性に戸惑います。 一般的な文献では、1と0を予測するために50%カットオフを選択しています。モデルの最大値が1%以下であるため、これを行うことはできません。したがって、しきい値は0.007またはその付近のいずれかになります。 ROC曲線と、曲線の下の領域が同じデータセットの2つのLRモデルを選択するのにどのように役立つかを理解しています。ただし、ROCは、サンプル外のデータでモデルをテストするために使用できる最適なカットオフ確率を選択するのに役立ちません。 私は単に最小化するカットオフ値を使用する必要がありmisclassification rateますか?(http://www2.sas.com/proceedings/sugi31/210-31.pdf) 追加->このように低いイベントレートの場合、誤分類率は膨大な数の誤検知の影響を受けます。全体のユニバースサイズも大きいので、全体の比率は良好に見えますが、私のモデルはそれほど多くの誤検知があってはなりません(これは投資収益モデルであるため)。5/10係数は重要です。

3
マルチクラス分類器の混同行列を作成するにはどうすればよいですか?
6つのクラスに問題があります。したがって、私は次のようにマルチクラス分類子を作成します。クラスごとに、One vs. Allを使用して1つのロジスティック回帰分類子があります。つまり、6つの異なる分類子があります。 分類子ごとに混同行列を報告できます。しかし、ここで多くの例を見てきたように、すべての分類子の混同行列を報告したいと思います。 どうすればできますか?One vs. AllではなくOne vs. Oneアルゴリズムを使用して分類戦略を変更する必要がありますか?これらの混同行列では、レポートは各クラスの誤検知を示しているためです。 マルチクラス混同行列の例 誤分類されたアイテムの数を調べたいのですが。最初の行には、クラス1に分類されたクラス1の例が137個あり、クラス2に分類されたクラス1の例が13個あります。この番号を取得するには?

2
指数ロジスティック回帰係数が「オッズ比」と見なされるのはなぜですか?
ロジスティック回帰は、イベントのログオッズをいくつかの予測子のセットとしてモデル化します。つまり、log(p /(1-p))で、pは何らかの結果の確率です。したがって、いくつかの変数(x)の生のロジスティック回帰係数の解釈は、対数オッズスケールでなければなりません。つまり、x = 5の係数の場合、結果が発生する対数オッズスケールで、x対応の1単位の変化から5単位の変化への変化がわかります。 ただし、指数化されたロジスティック回帰係数をオッズ比として解釈する人がよくいます。しかし、明らかにexp(log(p /(1-p)))= p /(1-p)であり、これはオッズです。私が理解している限り、オッズ比は、1つのイベントが発生するオッズ(たとえば、イベントAのp /(1-p))が別のイベントが発生するオッズ(たとえば、イベントのp /(1-p))に対するオッズです。 B)。 ここで何が欠けていますか?指数ロジスティック回帰係数のこの一般的な解釈は正しくないようです。

2
Lassoロジスティック回帰における係数の有意性のテスト
[同様の質問がここで行われ、回答はありませんでした] L1正則化(Lassoロジスティック回帰)を使用してロジスティック回帰モデルを適合させ、適合した係数の有意性をテストし、p値を取得したいと考えています。Waldのテスト(たとえば)が正則化なしの完全回帰で個々の係数の有意性をテストするオプションであることは知っていますが、Lassoでは、通常のWaldの公式を適用できない問題がさらに発生すると思います。たとえば、検定に必要な分散推定は、通常の式に従いません。元のなげなわ紙 http://statweb.stanford.edu/~tibs/lasso/lasso.pdf 係数の分散を推定するためのブートストラップベースの手順を提案します。これも(やはり、私は)テストに必要になる可能性があります(セクション2.5、ページ272の最後の段落と273の最初): 1つのアプローチは、ブートストラップを使用することですを修正するか、ブートストラップサンプルごとにを最適化することができます。修正することは、(機能の)最良のサブセットを選択し、そのサブセットの最小二乗標準誤差を使用することに類似していますt tttttttttt 私が理解していることは、正則化パラメーターの最適値(これはブートストラップの一部ではない)が見つかるまでLasso回帰をデータセット全体に繰り返し当てはめ、次にLassoによって選択された機能のみを使用してOLS回帰をサブサンプルに当てはめるデータの計算を行い、通常の式を適用して、それらの各回帰からの分散を計算します。(そして、各係数の最終的な分散の推定値を取得するために、各係数のそれらすべての分散をどうすればよいですか?) さらに、通常の有意性検定(たとえば、推定されたベータと分散を使用するWaldの検定)を、係数のLasso推定とブートストラップ推定の分散で使用することは正しいですか?私はそれがそうではないと確信していますが、どんな助け(別のテストを使うか、もっと簡単なアプローチを使うか、何でも...)は歓迎以上のものです。 ここでの回答によると、推論とp値が得られないのではないかと思います。私の場合、p値は外部要件です(ただし、L1正則化の使用が私の選択でした)。 どうもありがとう 編集 以前のLassoロジスティック回帰の実行で選択された変数のみを使用してOLSロジスティック回帰を近似するとどうなりますか?どうやら(こちらをご覧ください)、 交差検証を行った後、モデルを再度実行する必要はありません(cv.glmnetの出力から係数を取得するだけです)。実際、ペナルティなしで新しいロジスティック回帰モデルを当てはめると、使用する目的が無効になります。なげなわ しかし、変数の数を低く抑えながらp値を計算できるようにすることを唯一の目的としてこれを行うとどうなりますか?それは非常に汚いアプローチですか?:-)

1
自己相関バイナリ時系列のモデリング
バイナリ時系列をモデル化するための通常のアプローチは何ですか?これを扱った紙や教科書はありますか?強い自己相関を持つバイナリプロセスについて考えます。ゼロから始まるAR(1)プロセスの記号のようなもの。セイと ホワイトノイズの。次に、定義され たバイナリ時系列 が自己相関を示します。これは、次のコードで説明します。バツ0= 0X0=0X_0 = 0バツt + 1= β1バツt+ ϵt、Xt+1=β1Xt+ϵt, X_{t+1} = \beta_1 X_t + \epsilon_t, εtϵt\epsilon_t(Yt)T ≥ 0(Yt)t≥0(Y_t)_{t \ge 0}Yt= 記号(Xt)Yt=符号(バツt) Y_t = \text{sign}(X_t) set.seed(1) X = rep(0,100) beta = 0.9 sigma = 0.1 for(i in 1:(length(X)-1)){ X[i+1] =beta*X[i] + rnorm(1,sd=sigma) } acf(X) acf(sign(X)) バイナリデータを取得し、重要な自己相関があることがわかっている場合、テキストブック/通常のモデリングアプローチとは何ですか?YtYtY_t 外部のリグレッサや季節的なダミーの場合、ロジスティック回帰を実行できると思いました。しかし、純粋な時系列アプローチとは何ですか? 編集:正確に言うと、sign(X)が最大4つのラグに対して自己相関していると仮定しましょう。これは次数4のマルコフモデルであり、それでフィッティングおよび予測できますか? 編集2:その間、私は時系列のグラムを偶然見つけました。これらは、説明変数が遅れた観測と外部リグレッサであるglmsです。ただし、これはポアソンおよび負の二項分布カウントに対して行われるようです。ポアソン分布を使用してベルヌーイを近似できます。これに対する明確な教科書的アプローチはないのでしょうか。 …

3
RBF SVMの使用例(対ロジスティック回帰とランダムフォレスト)
放射状ベース関数カーネルを備えたサポートベクターマシンは、汎用の教師付き分類器です。 私はこれらのSVMの理論的な基盤とその長所を知っていますが、それらが推奨される方法である場合については知りません。では、RBF SVMが他のML技術よりも優れているクラスの問題はありますか?(スコア、またはその他-堅牢性、開始の容易さ、解釈可能性など) 私のデフォルトのアプローチはロジスティック回帰(おそらくいくつかの相互作用による)、ランダムフォレスト、および少しのニューラルネットワークに集中しているので、私は尋ねています。私のMLをしている友達(Kaggleの勝者もいます)はSVMユーザーではありません(ただし、私のコミュニティのアーティファクトであるか、彼らが対処する問題である可能性があります)。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.