タグ付けされた質問 「regression」

1つ(または複数)の「従属」変数と「独立」変数の間の関係を分析する手法。

1
Error In Variables Modelの偏りのない推定値よりも良い結果を達成する回帰のバイアス推定器
私はいくつかの研究のために、Error In Variableモデルのいくつかの合成データに取り組んでいます。現在、単一の独立変数があり、従属変数の真の値の分散を知っていると仮定しています。 したがって、この情報を使用して、従属変数の係数の不偏推定量を実現できます。 モデル: x~=x+e1x~=x+e1\tilde{x} = x + e_1 y=0.5x−10+e2y=0.5x−10+e2y = 0.5x -10 + e_2 ここで、 e1~N(0,σ2)e1~N(0,σ2)e_1\text{~}N(0,\sigma^2)のためのいくつかのσσ\sigma e2~N(0,1)e2~N(0,1)e_2\text{~}N(0,1) 値はここでy,x~y,x~y,\tilde{x}唯一各サンプル、またの真の値の標準偏差のために知られているxxxのサンプルのために知られている:σxσx\sigma_x。 私は偏っ(取得β OLSを使用して)係数をした後、使用して調整を行います。β^β^\hat{\beta} β′=β^∗σ^2x~σ2xβ′=β^∗σ^x~2σx2\beta' = \hat{\beta} * \frac{\hat{\sigma}_\tilde{x}^2}{\sigma_x^2} このモデルでは、係数の新しい不偏推定量がはるかに優れている(実際の値に近い)ことがわかりますが、バイアス推定量を使用するよりもMSEが悪化しています。 何が起こっている?偏った推定器よりも、偏った推定器よりも良い結果が得られると期待していました。 Matlabコード: reg_mse_agg = []; fixed_mse_agg = []; varMult = 1; numTests = 60; for dataNumber=1:8 reg_mses = []; fixed_mses = []; …

3
なぜのトレース
モデルではy=Xβ+ϵy=Xβ+ϵ{y} = X \beta + \epsilon、我々は推定できたββ\beta正規方程式を使用して: β^=(X′X)−1X′y,β^=(X′X)−1X′y,\hat{\beta} = (X'X)^{-1}X'y,我々は得ることができ、Y =X βを。y^=Xβ^.y^=Xβ^.\hat{y} = X \hat{\beta}. 残差のベクトルは、 ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,ϵ^=y−Xβ^=(I−X(X′X)−1X′)y=Qy=Q(Xβ+ϵ)=Qϵ,\hat{\epsilon} = y - X \hat{\beta} = (I - X (X'X)^{-1} X') y = Q y = Q (X \beta + \epsilon) = Q \epsilon, ここで、Q=I−X(X′X)−1X′.Q=I−X(X′X)−1X′.Q = I - X (X'X)^{-1} X'. 私の質問は、tr(Q )= n …

3
どちらがより優れた最尤法または限界尤度であり、なぜですか?
以下からの定義に従えば、回帰の実行中:部分尤度、プロファイル尤度、および限界尤度の違いは何ですか? つまり、最尤法は L(β、θ| data)を最大化するβとθを見つけます。 一方、限界尤度 我々は、βを条件とするθの確率分布を特定できるという事実を活用することにより、尤度方程式からθを統合します。 最大化するのに適した方法論とその理由はどれですか?

1
R:線形モデルの残差の正規性のテスト-使用する残差
線形モデルの残差に対してShapiro WilkのW検定とKolmogorov-Smirnov検定を実行して、正規性を確認したいと思います。私はこれにどの残差を使用すべきかと思っていました-生の残差、ピアソンの残差、スチューデント化された残差、または標準化された残差?Shapiro-WilkのW検定の場合、生およびピアソンの残差の結果は同一であるように見えますが、他の結果はそうではありません。 fit=lm(mpg ~ 1 + hp + wt, data=mtcars) res1=residuals(fit,type="response") res2=residuals(fit,type="pearson") res3=rstudent(fit) res4=rstandard(fit) shapiro.test(res1) # W = 0.9279, p-value = 0.03427 shapiro.test(res2) # W = 0.9279, p-value = 0.03427 shapiro.test(res3) # W = 0.9058, p-value = 0.008722 shapiro.test(res4) # W = 0.9205, p-value = 0.02143 KSについても同じ質問です。また、次のように残差を正規分布(pnorm)に対してテストする必要があるかどうか ks.test(res1, "pnorm") # …

5
時系列をトレンド除去するにはどうすればよいですか?
時系列をトレンド除去するにはどうすればよいですか?最初の違いを取得してDickey Fullerテストを実行しても大丈夫ですか?それが静止している場合は問題ありませんか? また、オンラインで、Stataでこれを行うことで時系列をトレンドダウンできることを発見しました。 reg lncredit time predict u_lncredit, residuals twoway line u_lncredit time dfuller u_lncredit, drift regress lags(0) 時系列をトレンド除去するための最良のアプローチは何ですか?

2
回帰の当てはめに直交多項式を使用しない理由はありますか?
一般に、高次変数で回帰を近似するときに直交多項式を使用しない方が良いのではないかと思っています。特に、Rの使用には疑問があります。 場合poly()とraw = FALSE同じ近似値を生成するpoly()とraw = TRUE、とpolyしてraw = FALSE解く多項式回帰に関連する問題のいくつかは、その後べきpoly()でraw = FALSE 常に多項式回帰を当てはめるために使用すること?どのような状況で使用しない方が良いでしょうpoly()か?

1
なぜRのlm()は私の教科書とは異なる係数推定値を返すのですか?
バックグラウンド モデルのフィッティングのコースの最初の例を理解しようとしています(これはばかげて単純に見えるかもしれません)。私は手作業で計算を行っており、例と一致していますが、Rでそれらを繰り返すと、モデル係数はオフになります。Rは標本分散()を使用しているのに対し、母分散()を使用している教科書に違いがあるのではないかと考えましたが、これらが計算でどこで使用されているかわかりません。たとえば、どこかで使用している場合 、メモに関するヘルプセクション:σ2σ2\sigma^2S2S2S^2lm()var()var() 分母n-1が使用され、iid観測の(共)分散の不偏推定量が得られます。 私は両方のコードを見てlm()おりlm.fit()、どちらも使用していませんが、そのデータをコンパイルされたCコード()に渡しますがvar()、アクセスできません。lm.fit()z <- .Call(C_Cdqrls, x, y, tol, FALSE) 質問 Rが異なる結果を出している理由を誰でも説明できますか?サンプルの使用と母集団の分散に違いがある場合でも、係数の推定値が異なるのはなぜですか? データ 学校の成績から靴のサイズを予測するために線を合わせます。 # model data mod.dat <- read.table( text = 'grade shoe 1 1 2 5 4 9' , header = T); # mean mod.mu <- mean(mod.dat$shoe); # variability mod.var <- sum((mod.dat$shoe - mod.mu)^2) # model coefficients …
13 r  regression  self-study  lm 

2
部分最小二乗(PLS)回帰のモデル仮定
PLS回帰の仮定に関する情報(単一)を見つけようとしています。特に、OLS回帰の前提に関するPLSの前提の比較に興味があります。 yyy PLSのトピックに関する多くの文献を読んだり、読み飛ばしたりしました。Wold(Svante and Herman)、Abdi、および他の多くの論文ですが、満足できる情報源は見つかりませんでした。 ウォルド等。(2001)PLS回帰:ケモメトリックスの基本ツールはPLSの仮定に言及していますが、それだけに言及しています Xは独立している必要はありませんが、 システムは、いくつかの潜在的な潜在変数の関数です。 システムは分析プロセス全体で均一性を示す必要があります。 測定誤差は許容範囲です。 バツバツX 観測されたデータの要件やモデルの残差に関する言及はありません。誰もがこれに対処するソースを知っていますか?(と間の共分散を最大化する目的で)基礎となる数学がPCAに類似していると考えると、多変量正規性は仮定ですか?モデルの残差は分散の均一性を示す必要がありますか?yyyバツバツX( y、 X)(y、バツ)(y, X) また、観測は独立している必要はないことをどこかで読んだと思います。これは、反復測定研究の意味で何を意味しますか?


1
モデルがスケーリングされたデータに適合したときに予測を行うために、新しい観測をスケーリングする方法は?
データ行列をスケーリングして線形回帰モデルで使用する概念を理解しています。たとえば、Rでは次を使用できます。 scaled.data <- scale(data, scale=TRUE) 私の唯一の質問は、出力値を予測する新しい観測値について、それらをどのように正しくスケーリングするかです。そうでしょうscaled.new <- (new - mean(data)) / std(data)か?

1
切片の標準誤差は、が0からさらに増加するのはなぜですか?
切片用語の標準誤差()においてによって与えられる ここで\バー{X}はありますx_iの平均。、Y=β1X+β0+εSE( β 0)2=σ2[1β^0β^0\hat{\beta}_0y=β1x+β0+εy=β1x+β0+εy=\beta_1x+\beta_0+\varepsilonˉXXISE(β^0)2=σ2[1n+x¯2∑ni=1(xi−x¯)2]SE(β^0)2=σ2[1n+x¯2∑i=1n(xi−x¯)2]SE(\hat{\beta}_0)^2 = \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\right]x¯x¯\bar{x}xixix_i 私が理解したことから、SEは不確実性を定量化します。たとえば、サンプルの95%で、区間[β^0−2SE,β^0+2SE][β^0−2SE,β^0+2SE][\hat{\beta}_0-2SE,\hat{\beta}_0+2SE]には真の\ beta_0が含まれます。β0β0\beta_0。SE(不確実性の尺度)が\ bar {x}とともにどのように増加するかを理解できませんx¯x¯\bar{x}。x¯=0x¯=0\bar{x}=0になるようにデータを単純にシフトすると、不確実性は下がりますか?それは不合理なようです。 類似の解釈は-データの非中心バージョンでは、β^0β^0\hat{\beta}_0はx=0x=0x=0での予測に対応し、中心データでは、β^0β^0\hat{\beta}_0はx = \での予測に対応しますbar {x}x=x¯x=x¯x=\bar{x}。したがって、これはx=0x=0x=0での予測に関する不確実性がx = \ bar {x}での予測に関する不確実性よりも大きいことを意味しx=x¯x=x¯x=\bar{x}ますか?それも理にかなっていないようで、エラーϵϵ\epsilonはxのすべての値に対して同じ分散を持っているxxxので、私の予測値の不確実性はすべてのxに対して同じでなければなりませんxxx。 私の理解にはギャップがあると思います。誰かが私が何が起こっているのか理解するのを手伝ってもらえますか?

1
一般化線形モデルの幾何学的解釈
線形モデルの場合は:、我々はOLSを経由して推定されたモデルの素敵な幾何学的な解釈ができ、Y = X β + Eを。yが xで張られる空間へと残留y= X β+ ey=バツβ+ey=x\beta+ey^= X β^+ e^y^=バツβ^+e^\hat{y}=x\hat{\beta}+\hat{e}y^y^\hat{y}この空間に垂直であるxで張ら。e^e^\hat{e} さて、私の質問は次のとおりです。一般化線形モデル(ロジスティック回帰、ポアシオン、サバイバル)の幾何学的解釈はありますか?私は推定バイナリロジスティック回帰モデルの解釈方法については非常に興味がありますP = ロジスティック(X βを)線形モデルと同様の方法で、幾何学的に。エラー用語さえありません。 p^= ロジスティック(X β^)p^=ロジスティック(バツβ^)\hat{p} = \textrm{logistic}(x\hat{\beta}) 一般化線形モデルの幾何学的解釈についての話を見つけました。http://statweb.stanford.edu/~lpekelis/talks/13_obs_studies.html#(7) 。残念ながら、図は入手できず、想像するのは非常に困難です。 ヘルプ、参照、および提案は大歓迎です!!!

1
MLEとOLSの使用
通常の最小二乗法の代わりに最尤推定法を使用することが望ましいのはいつですか?それぞれの長所と制限は何ですか?一般的な状況でそれぞれを使用する場所に関する実用的な知識を収集しようとしています。

3
Rを使用して重回帰の各予測子によって説明される分散を計算します
モデル全体が重要であり、分散の約13%を説明する重回帰を実行しました。ただし、重要な各予測子によって説明される分散の量を見つける必要があります。Rを使用してこれを行うにはどうすればよいですか? サンプルデータとコードは次のとおりです。 D = data.frame( dv = c( 0.75, 1.00, 1.00, 0.75, 0.50, 0.75, 1.00, 1.00, 0.75, 0.50 ), iv1 = c( 0.75, 1.00, 1.00, 0.75, 0.75, 1.00, 0.50, 0.50, 0.75, 0.25 ), iv2 = c( 0.882, 0.867, 0.900, 0.333, 0.875, 0.500, 0.882, 0.875, 0.778, 0.867 ), iv3 = c( …
13 r  regression  variance 


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.