タグ付けされた質問 「logistic」

一般に、ロジスティック関数を使用する統計的手順、最も一般的にはさまざまな形式のロジスティック回帰を指します。

2
ロジスティック回帰の信頼区間の計算
私は二項ロジスティック回帰分析を使用して、ユーザーが何かをクリックする可能性にさらされているhas_xか、has_y影響を与えているかどうかを特定しています。私のモデルは次のとおりです。 fit = glm(formula = has_clicked ~ has_x + has_y, data=df, family = binomial()) これは私のモデルからの出力: Call: glm(formula = has_clicked ~ has_x + has_y, family = binomial(), data = active_domains) Deviance Residuals: Min 1Q Median 3Q Max -0.9869 -0.9719 -0.9500 1.3979 1.4233 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) -0.504737 …

1
glmnetロジスティック回帰は、ダミー変数を必要とせずに因子(カテゴリ)変数を直接処理できますか?[閉まっている]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のクロス検証済みのため。 閉じた3年前。 私は関数でLASSO法を使用してRにロジスティック回帰を構築していますcv.glmnet選択するlambdaとglmnet、最終的なモデルのため。 私はすでに自動モデル選択に関するすべての欠点を知っていますが、とにかくそれをする必要があります。 私の問題は、ファクター(カテゴリ)変数をモデルに含める必要があることです。ダミー変数を大量に作成せずにそれを行う方法はありますか?この変数はほとんどすべて文字列であり、数値ではありません。


3
サポートベクターマシンと超平面の直観
私のプロジェクトでは、バイナリ分類(1または0)を予測するためのロジスティック回帰モデルを作成します。 15個の変数があり、そのうち2個はカテゴリ変数で、残りは連続変数と離散変数の混合です。 ロジスティック回帰モデルに適合するために、SVM、パーセプトロンまたは線形プログラミングのいずれかを使用して線形分離可能性をチェックすることをお勧めします。これは、線形分離性のテストに関するここでの提案と関連しています。 機械学習の初心者として、私は上記のアルゴリズムに関する基本的な概念を理解していますが、概念的には非常に多くの次元(この場合は15)を持つデータを分離する方法を視覚化するのに苦労しています。 オンライン資料のすべての例は、通常、2つの数値変数(高さ、重量)の2Dプロットを示しています。これは、カテゴリ間の明確なギャップを示し、理解しやすくしますが、実際のデータは通常、はるかに高い次元です。Irisデータセットに引き戻され続け、3つの種に超平面を当てはめようとしています。2つの種の間でそうすることが不可能ではないにしても、特に難しい方法です。 さらに高次元の場合、どのようにこれを達成しますか?この分離可能性を達成するためにカーネルを使用して高次元空間にマッピングする特定の数の特徴を超えると仮定されますか? また、線形分離可能性をテストするために、使用されるメトリックは何ですか?SVMモデルの精度、つまり混同マトリックスに基づく精度ですか? このトピックをよりよく理解するための助けをいただければ幸いです。また、以下はデータセット内の2つの変数のプロットのサンプルであり、これらの2つの変数だけが重なり合っていることを示しています。

1
exp(係数)からオッズ比まで、および要因を使用したロジスティック回帰でのその解釈
私は、SATスコアおよび家族/民族的背景に対する大学への受け入れの線形回帰を実行しました。データは架空のものです。これは、すでに回答済みの前の質問のフォローアップです。この質問は、SATスコアを単純化するために脇に置いておくときのオッズ比の収集と解釈に焦点を当てています。 変数はAccepted(0または1)およびBackground( "red"または "blue")です。「赤」の背景を持つ人々が入る可能性が高くなるようにデータを設定しました。 fit <- glm(Accepted~Background, data=dat, family="binomial") exp(cbind(Odds_Ratio_RedvBlue=coef(fit), confint(fit))) Odds_Ratio_RedvBlue 2.5 % 97.5 % (Intercept) 0.7088608 0.5553459 0.9017961 Backgroundred 2.4480042 1.7397640 3.4595454 質問: 「青い」背景の人の奇数比は0.7ですか?私がこれを求めているのはBackgroundblue、代わりに次のコードを実行すると、「」に対して0.7も得られるからです。 fit <- glm(Accepted~Background-1, data=dat, family="binomial") exp(cbind(OR=coef(fit), confint(fit))) 「赤」のオッズ比()だけの逆数ではありません:(O d d s B l u e = 1 / O d d s R e …
14 r  regression  logistic 

3
ロジスティック回帰の係数には意味がありますか?
いくつかの機能からバイナリ分類の問題があります。(正規化された)ロジスティック回帰の係数には解釈可能な意味がありますか? 特徴が事前に正規化されていれば、影響の大きさを示すことができると思いました。しかし、私の問題では、係数は選択した機能に敏感に依存するようです。係数の符号でさえ、入力として選択された異なる特徴セットによって変化します。 係数の値を調べ、最も意味のある係数を見つけて、その意味を言葉で述べる正しい方法は何ですか?一部の適合モデルと係数の符号は間違っていますか?たとえデータに適合した場合でも? (機能間で最も高い相関関係は0.25だけですが、それは確かに役割を果たしますか?)

2
McNemarのテストと条件付きロジスティック回帰の関係
ペアの観測値のバイナリ応答データのモデリングに興味があります。グループでの事前事後介入の有効性について推論し、潜在的にいくつかの共変量を調整し、介入の一部として特に異なるトレーニングを受けたグループによる効果の変更があるかどうかを判断することを目指します。 次の形式のデータを指定します。 id phase resp 1 pre 1 1 post 0 2 pre 0 2 post 0 3 pre 1 3 post 0 そして、ペア応答情報の分割表:2 × 22×22 \times 2 役職正しい間違っているプレ正しいac間違っているbdプレ正しい間違っている役職正しいab間違っているcd\begin{array}{cc|cc} & & \mbox{Pre} & \\ & & \mbox{Correct} & \mbox{Incorrect} \\ \hline \mbox{Post} & \mbox{Correct} & a & b&\\ & \mbox{Incorrect} …

2
glmアルゴリズムを使用して多項ロジスティック回帰を実行できますか?
私は自分のプロジェクトの統計分析にspotfire(S ++)を使用しており、大きなデータセットに対して多項ロジスティック回帰を実行する必要があります。最良のアルゴリズムはmlogitでしたが、残念ながらs ++では使用できません。ただし、この回帰にはglmアルゴリズムを使用するオプションがあります。ここで2つのことを明確にしたいと思います。 1. glmは多項ロジスティック回帰を実行するためにも使用できるという私の理解は正しいですか? 前の質問に対する答えが「はい」の場合、glm algoで使用するパラメーターは何ですか? おかげで、

2
ロジスティック回帰に関する質問
バイナリロジスティック回帰を実行して、10年間(1997年から2006年)にわたって独立変数のセットからの競合(従属変数)の有無をモデル化し、毎年107回の観測を行います。私の独立者は: 土地の劣化(2種類の劣化のカテゴリ); 人口増加(0- no; 1-yes); 生計タイプ(0-タイプ1、1-タイプ2); 人口密度(3レベルの密度); NDVI連続(最大野菜生産性); NDVI t − 1(前年の野菜の減少-0-いいえ、1-はい)およびt − 1t−1_{t-1} およびNDVI t − 2(過去2年からの野菜の減少-0-いいえ、1-はい)。トン- 2t−2_{t-2} 私は全く新しいです-これは私の講師が私に与えたプロジェクトです-だから私はいくつかのアドバイスやガイダンスに感謝するでしょう。私はすでにマルチコリニリティについてテストしました。 基本的に、私のデータは10年間(合計1070)をカバーする107の観測単位(空間領域)に分割され、観測単位ごとに、その単位内のその時点の独立変数の条件の「スナップショット」値になります(領域)。ロジスティック回帰(またはテーブル)を設定して、各年の107個の値を個別に認識して、異なる単位年間の一時的なNDVIの変化を評価できるようにする方法を知りたいですか?


4
異なる従属変数を持つモデルのロジスティック係数を比較しますか?
これは私が数日前に尋ねた質問からのフォローアップ質問です。私はそれが問題に別の傾斜を置くと思うので、新しい質問をリストしました。 問題は、異なる従属変数を持つモデル間で係数の大きさを比較できますか?たとえば、単一のサンプルで、経済が下院での票または大統領の票のより強力な予測因子であるかどうかを知りたいと言います。この場合、2つの従属変数は下院での投票(民主党に1、共和党に0をコード化)と大統領(民主党に1、共和党に0)の投票であり、独立変数は経済です。私は両方のオフィスで統計的に有意な結果を期待していますが、どのように一方が他方よりも「大きな」効果があるかをどのように評価しますか?これは特に興味深い例ではないかもしれませんが、私は比較する方法があるかどうか興味があります。係数の「サイズ」だけを見ることができないことは知っています。そう、異なる従属変数を持つモデルの係数を比較することは可能ですか?そして、もしそうなら、どのようにそれを行うことができますか? これのいずれかが意味をなさない場合、私に知らせてください。すべてのアドバイスとコメントを歓迎します。

2
健全な段階的回帰?
バイナリ分類子を作成するとします。私は数千の機能と数十のサンプルしか持っていません。ドメインの知識から、クラスラベルは少数の機能のみを使用して正確に予測できると信じるに十分な理由がありますが、どの機能かはわかりません。また、最終決定ルールを解釈/説明しやすくし、さらにいくつかの機能を必要とします。私の機能の特定のサブセットは高度に相関しているため、最も予測の少ない少数を個別に選択しても機能しません。また、自分の機能に対して仮説検定を有意義に実行できるようにしたいと考えています。 これらの条件下で、次の段階的な回帰手順は妥当ですか? モデルに既に存在する特徴(または最初の反復での切片のみ)が与えられると、モデルに追加されたときに最大の対数尤度比を生成する特徴を選択します。尤度比カイ二乗検定を使用して、この選択で実行された各仮説検定の名目P値を計算します。ここでのヌルは、追加の変数をモデルに追加しても追加の予測機能が提供されないことです。代替手段は、予測能力を高めることです 各反復のステップ1でテストされた仮説を家族として扱い、Benjamini-Hochbergのようなものを使用して、最小のP値(選択した特徴)の誤検出率を計算します。 いくつかの停止基準が満たされない限り、1に移動します。 個々のフィーチャの誤検出率を報告しますが、モデル全体のP値は報告しません(これは大幅に膨張するため)。これらの複数のテストで修正されたP値のそれぞれは、以前にモデルに追加されたすべての機能を考慮して、その機能の統計的有意性を表します。 これらの状況下でこのようなことをすることで、ステップワイズ回帰の典型的な批判をすべてうまく回避できますか?この方法で誤検出率は合理的に計算されていますか?

3
固定効果ロジスティック回帰のRパッケージ
RChamberlainの1980推定器を使用して、個々の固定効果(個別インターセプト)を使用してロジットモデルの係数を推定するためのパッケージを探しています。チェンバレンの固定効果ロジット推定器としてよく知られています。 (少なくとも計量経済学で)バイナリの結果パネルデータを扱う場合、これは古典的な見積もりツールですが、CRANに関連するものは何も見つかりません。 どんな手掛かり?

1
ロジスティック回帰におけるインターセプトモデルの有無の違い
ロジスティック回帰における切片モデルの有無の違いを理解したい インターセプトでは係数がベースライングループと比較してlog(オッズ比)を考慮し、インターセプトなしではlog(odds)を考慮することを除いて、それらの間に違いはありますか?私が見たものから、係数は両方のケースで同じですが、重要性は常に同じではなく、なぜそれが理解されていない..さらに、どのケースで切片なしでモデルを使用するのが正しいでしょうか? これが私のモデルglm(NeverReturn ~ factor(Network) * TotalPrice , family = binomial)です。「実際の単語」では合計価格が50以下になることはないので、インターセプトを除外するかどうかはわかりませんが、確率は0ではなく1になるので混乱しています。

2
ロジスティック回帰予測の出力
次のコードを使用してロジスティック回帰を作成しました。 full.model.f = lm(Ft_45 ~ ., LOG_D) base.model.f = lm(Ft_45 ~ IP_util_E2pl_m02_flg) step(base.model.f, scope=list(upper=full.model.f, lower=~1), direction="forward", trace=FALSE) 次に、出力を使用して最終モデルを作成しました。 final.model.f = lm(Ft_45 ~ IP_util_E2pl_m02_flg + IP_util_E2_m02_flg + AE_NumVisit1_flg + OP_NumVisit1_m01_flg + IP_TotLoS_m02 + Ft1_45 + IP_util_E1_m05_flg + IP_TotPrNonElecLoS_m02 + IP_util_E2pl_m03_flg + LTC_coding + OP_NumVisit0105_m03_flg + OP_NumVisit11pl_m03_flg + AE_ArrAmb_m02_flg) 次に、予測関数を使用して、異なるデータセットの結果を予測しました。 log.pred.f.v <- …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.