GLMが変換された変数を持つLMと異なる理由


16

このコースの配布資料(ページ1)で説明されているように、線形モデルは次の形式で記述できます。

y=β1x1++βpxp+εi,

ここで、yは応答変数、 xiith説明変数です。

多くの場合、テストの前提を満たす目的で、応答変数を変換できます。たとえば、各yi対数関数を適用します。応答変数の変換は、GLMの実行と同等ではありません。

GLMは、次の形式で記述できます(コースの配布資料(3ページ)から

g(u)=β1x1++βpxp+εi,

ここで、は単なる別の記号であり、コースの配布資料の2ページから理解できます。はリンク関数と呼ばれます。uyg()

コース内のスライドから変換された変数を使用したGLMとLMの違いを本当に理解していません。それで私を助けてもらえますか?


2
バイナリの結果のすべての変換がアフィンであるという事実を考慮することは明らかになるかもしれません。それにより、通常の最小二乗回帰に制限されます。これは明らかに、ロジスティック回帰(バイナリ応答の標準GLM)が達成していることではありません。(証明:結果の値はとして符号化とする及びY 1およびlet φ任意の変換であるライティング。Z 0 = φ Y 0、Z 1 = φ Y 1我々は発見φは、上に同意{ Yy0y1ϕz0=ϕ(y0)z1=ϕ(y1)ϕ Y λ Y + μ(のアフィン変換であり、 Y)ここで、 λ = Z 1 - Z 0/Y 1 - Y 0 μ = Z 0 - λ Y 0)。{y0,y1}yλy+μyλ=(z1z0)/(y1y0)μ=z0λy0
whuber

回答:


15

線形回帰を行う前に応答を変換すると、次のようになります。

E(g(Y))β0+β1x1++βpxp

ここで、は特定の関数であり、g Y には特定の分布(通常は正規分布があると仮定します。gg(Y)

一般化線形モデルがこれを実行しています:

g(E(Y))β0+β1x1++βpxp

ここで、は以前と同じであり、Yには所定の分布があると仮定します(通常は正規ではありません)。gY


方程式のEは何ですか?
user1406647

1
の期待値の標準表記で XE(X)X
マーカスPS

私もこれが役に立ちました:christoph-scherber.de/content/PDF%20Files/…–
アディティア

22

これがあなたにとって完全な答えを構成するかどうかはわかりませんが、概念的なログジャムを解消するのに役立つかもしれません。

アカウントに2つの誤解があるようです。

  1. 通常の最小二乗(OLS-'linear')回帰、一般化線形モデルの特殊なケースであることに注意してください。したがって、「[t]応答変数の変換はGLMの実行と同じではありません」と言うとき、これは正しくありません。線形モデルの適合または応答変数の変換と線形モデルの適合の両方が、「GLMの実行」を構成します。

  2. uμXuy「これも間違っています。OLSの定式化では、 Y ランダム変数および/または y の実現値です Y 観察/学習ユニット用 。あれは、y(より一般的に)パラメーターではなくデータを表します

    (私は間違いを心配するつもりはありませんが、これらがあなたの混乱を引き起こしているのではないかと疑っています。)

  3. また、一般化線形モデルには、言及していない別の側面もあります。それは、応答分布を指定することです。OLS回帰の場合、応答分布はガウス(正規)であり、リンク関数は恒等関数です。たとえば、ロジスティック回帰の場合(人々がGLMについて考えるときに最初に考えるものかもしれません)、応答分布はベルヌーイ(/二項)であり、リンク関数はロジットです。変換を使用してOLSの前提条件が満たされていることを確認する場合、条件付き応答分布を許容できるほど正常にしようとすることがよくあります。ただし、このような変換では、ベルヌーイ分布は許容できるほど正常になりません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.