タグ付けされた質問 「intercept」

9
線形回帰モデルで切片を削除しても大丈夫ですか?
私は線形回帰モデルを実行しており、インターセプト項を削除するための条件は何かと考えています。 一方が切片を持ち、もう一方が切片を持たない2つの異なる回帰の結果を比較すると、切片のない関数のがはるかに高いことがわかります。インターセプト項の削除が有効であることを確認するために従うべき特定の条件または仮定はありますか?R2R2R^2

2
統計的に有意な切片項を削除すると、線形モデルのが増加します
単一の説明変数を持つ単純な線形モデルでは、 αi=β0+β1δi+ϵiαi=β0+β1δi+ϵi\alpha_i = \beta_0 + \beta_1 \delta_i + \epsilon_i 切片項を削除すると、近似が大幅に改善されることがわかりました(値は0.3から0.9になります)。ただし、切片の項は統計的に有意であると思われます。R2R2R^2 インターセプトあり: Call: lm(formula = alpha ~ delta, data = cf) Residuals: Min 1Q Median 3Q Max -0.72138 -0.15619 -0.03744 0.14189 0.70305 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 0.48408 0.05397 8.97 <2e-16 *** delta 0.46112 0.04595 10.04 <2e-16 *** …


1
LASSOでカテゴリカル予測子を処理する方法
いくつかのカテゴリ変数予測子といくつかの連続予測子を持つLASSOを実行しています。カテゴリ変数について質問があります。私が理解する最初のステップは、それぞれをダミーに分割し、公正な罰則のために標準化してから退行することです。ダミー変数の処理には、いくつかのオプションがあります。 各要因のダミーのうち1つを除くすべてを含め、その1つを参照レベルとして残します。ダミー係数の解釈は、除外された「参照」カテゴリに関連しています。インターセプトは、参照カテゴリの平均応答です。 各要因の変数をグループ化して、それらがすべて除外されるか、すべてが1つだけ含まれるようにします。私はそれが@Glen_bがここで提案していることだと信じています: 通常、はい、あなたはあなたの要因をすべて一緒に保ちます。glmnetなど、これを行うことができるいくつかのRパッケージがあります。 ここで @Andrew Mが示唆するように、すべてのレベルを含めます。 デフォルトのコントラスト関数を変更することもできます。デフォルトでは、各因子の1レベルが除外されます(治療のコーディング)。しかし、投げ縄のペナルティのため、これは識別可能性のためにもはや必要ではなく、実際、選択された変数の解釈をより複雑にします。これを行うには、設定します contr.Dummy <- function(contrasts, ...){ conT <- contr.treatment(contrasts=FALSE, ...) conT } options(contrasts=c(ordered='contr.Dummy', unordered='contr.Dummy')) 現在、因子のどのレベルが選択されている場合でも、これらの特定のレベルが重要であり、省略されたすべてのレベルではないことを示唆していると考えることができます。機械学習では、ワンコーディングと呼ばれるこのコーディングを見てきました。 質問: これらの各アプローチでの切片と係数の解釈は何ですか? それらの1つを選択する際の考慮事項は何ですか? ダミー係数のスケールを解除してから、オフからオンへの変化として解釈しますか?

4
勾配ブースティングマシンの精度は、反復回数が増えると低下します
caretR のパッケージを介して勾配ブースティングマシンアルゴリズムを試しています。 小さな大学入学データセットを使用して、次のコードを実行しました。 library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = 'cv', number = 5, summaryFunction=defaultSummary) grid <- expand.grid(n.trees = seq(5000,1000000,5000), interaction.depth = 2, shrinkage …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

1
ロジスティック回帰におけるインターセプトモデルの有無の違い
ロジスティック回帰における切片モデルの有無の違いを理解したい インターセプトでは係数がベースライングループと比較してlog(オッズ比)を考慮し、インターセプトなしではlog(odds)を考慮することを除いて、それらの間に違いはありますか?私が見たものから、係数は両方のケースで同じですが、重要性は常に同じではなく、なぜそれが理解されていない..さらに、どのケースで切片なしでモデルを使用するのが正しいでしょうか? これが私のモデルglm(NeverReturn ~ factor(Network) * TotalPrice , family = binomial)です。「実際の単語」では合計価格が50以下になることはないので、インターセプトを除外するかどうかはわかりませんが、確率は0ではなく1になるので混乱しています。

3
ロジスティック回帰の切片項
次のロジスティック回帰モデルがあるとします。 logit(p)=β0+β1x1+β2x2logit(p)=β0+β1x1+β2x2\text{logit}(p) = \beta_0+\beta_{1}x_{1} + \beta_{2}x_{2} であるイベントのオッズとき、X 1 = 0とX 2 = 0?言い換えれば、x 1とx 2が最低レベルにあるときのイベントのオッズです(これが0でなくても)。たとえば、x 1とx 2が値2と3のみをとる場合、それらを0に設定することはできません。β0β0\beta_0x1=0x1=0x_1 = 0x2=0x2=0x_2=0x1x1x_1x2x2x_2x1x1x_1x2x2x_2222333


2
起源による回帰
:我々は、以下の点持っ どのようにして、点を通る最適な直線を見つけることができますか?私の計算機には、これらの点を通る最適な直線を見つけるオプションがあります。Yが= Xを(0,0)(1,51.8)(1.9,101.3)(2.8,148.4)(3.7,201.5)(4.7,251.1)(5.6,302.3)(6.6,350.9)(7.5,397.1)(8.5,452.5)(9.3,496.3)(0,0)(1,51.8)(1.9,101.3)(2.8,148.4)(3.7,201.5)(4.7,251.1)(5.6,302.3)(6.6,350.9)(7.5,397.1)(8.5,452.5)(9.3,496.3) (0,0)(1,51.8)(1.9,101.3)(2.8,148.4)(3.7,201.5)(4.7,251.1) \\ (5.6,302.3)(6.6,350.9)(7.5,397.1)(8.5,452.5)(9.3,496.3) y=axy=axy=axy=ax+by=ax+by=ax+b y= 53.28 x + 0.37y=53.28x+0.37y = 53.28x + 0.37 最適なを見つけるにはどうすればよいですか?私はを補正せずにを削除できないのではないかと思います。0.37 ay= a xy=axy=ax0.370.370.37aaa


1
インターセプトが統計パッケージで1として入力されるのはなぜですか(R、Python)
統計ソフトウェアを使用する場合、線形モデルを定義するときに、切片が「const」や「intercept」などではなく1として入力されるのはなぜですか。1にはどのような意味がありますか? 歴史的な理由はありますか?または、これは私が理解できない何らかの方法で論理的ですか?切片は任意の数にすることができます。 Pythonのstatsmodelsライブラリの例: model = smf.ols('Height ~ 1', data = height_sample_data) Rのlmerパッケージは非常によく似ています。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.