「他の変数をどのように」制御するのでしょうか?


141

この質問の動機付けになった記事は次のとおりです。

私はこの記事が好きで、問題の2つの変数間の真の関係を最もよく分離するために、「他の変数の制御」(IQ、キャリア、収入、年齢など)の概念をうまく示しています。

典型的なデータセットの変数を実際にどのように制御する説明していただけますか?

たとえば、同じ焦りとBMIを持ち、収入が異なる2人の場合、これらのデータをどのように扱いますか?それらを、同様の収入、忍耐、BMIを持つ異なるサブグループに分類しますか?しかし、最終的に制御する変数(IQ、キャリア、収入、年齢など)は数十個あります。これらの(潜在的に)100のサブグループをどのように集約しますか?実際、私はこのアプローチが間違ったツリーをbarえていると感じています。

ここ数年、私が最後までやりたいと思っていたことに光を当ててくれてありがとう...!


3
Epi&Bernd、これに答えてくれてありがとう。残念ながら、これらの答えは私の質問から大きく飛躍したものであり、私の頭上にあります。たぶん、Rの経験はなく、基本的なStatistics 101の基礎だけです。あなたの教えへのフィードバックのように、BMI、年齢、焦りなどから「共変」などに抽象化すると、あなたは完全に私を失いました。疑似データの自動生成も、概念を明確にするのに役立ちませんでした。実際、事態はさらに悪化しました。説明されている原則を既に知っている場合を除き、固有の意味を持たないダミーデータで学ぶことは困難です(つまり、教師がiを知っている
-JackOfAll

7
@JackOfAllという根本的に重要な質問をしてくれてありがとう-これらの線に沿って質問がなければサイトは不完全だろう-私はこれを「お気に入り」にした。ここでの回答は、私にとって非常に役立ちました。これを熟考した後、あなた自身の答えが役に立ったと評価していました(またはそれに答えた場合はすべてのあなたの質問が)、私はあなたがあなたのupvotesを使用すると、あなたはそれが決定的な発見した場合の答えを受け入れることを奨励します。これは、回答とチェックマークの隣にある小さな上向きのベルカーブをクリックすることで実行できます。
マクロ

4
これは完全な答えでも何でもありませんが、Chris Achenの「ゴミ箱回帰とゴミ缶プロビットを入れましょう」を読む価値があると思います。(PDFリンク:http : //qssi.psu.edu/files/Achen_GarbageCan.pdf)これは、ベイジアンアプローチとフリークエンティストアプローチの両方に等しく適用されます。セットアップに用語を投げるだけでは、効果を「制御」するのに十分ではありませんが、悲しいことに、これは多くの文献で制御に合格しています。
エリー

9
コンピューターソフトウェアがどのようにすべての変数を同時に 数学的に制御するか」を尋ねます。また、「式を含まない答えが必要です」とも言います。同時に両方を実際に実行する方法がわかりません。少なくともあなたに欠陥のある直観を残す重大なリスクがないわけではない。
Glen_b 14

2
この質問がこれ以上注目されていないことに驚いています。サイトに関する他の質問は、ここで提起された特定の問題を正確にカバーしていないというOPのコメントに同意します。@Jen、あなたの(2番目の)質問への非常に短い答えは、複数の共変量は、あなたが説明するように反復的にではなく、実際に同時に分割されるということです。次に、これらの質問に対するより詳細で直感的な答えがどのようになるかを考えます。
ジェイクウェストフォール14

回答:


124

変数を制御するには多くの方法があります。

最も簡単な方法は、同様の特性を持つサブグループを持つようにデータを階層化することです。これらの結果をまとめて単一の「答え」を得る方法があります。これは、制御したい変数の数が非常に少ない場合に機能しますが、正しく発見したように、データをますます小さなチャンクに分割すると、これは急速にばらばらになります。

より一般的なアプローチは、制御する変数を回帰モデルに含めることです。たとえば、次のように概念的に説明できる回帰モデルがある場合:

BMI = Impatience + Race + Gender + Socioeconomic Status + IQ

Impatienceで得られる推定値は、他の共変量のレベル内のImpatienceの効果になります-回帰により、データがあまりない場所(層別化アプローチの問題)で本質的に滑らかになりますが、これを行う必要があります注意して。

他の変数を制御するためのさらに洗練された方法がありますが、誰かが「他の変数を制御する」と言うとき、それらは回帰モデルに含まれていたことを意味します。

さて、あなたはこれがどうなるかを見るために、あなたが取り組むことができる例を求めました。順を追って説明します。必要なのは、インストールされたRのコピーだけです。

まず、いくつかのデータが必要です。以下のコードの塊を切り取ってRに貼り付けます。これはその場で作成した不自然な例ですが、プロセスを示していることに注意してください。

covariate <- sample(0:1, 100, replace=TRUE)
exposure  <- runif(100,0,1)+(0.3*covariate)
outcome   <- 2.0+(0.5*exposure)+(0.25*covariate)

それがあなたのデータです。結果、露出、共変量の間の関係はすでにわかっていることに注意してください-これが多くのシミュレーション研究のポイントです(これは非常に基本的な例です。まず、既知の構造から始めて、あなたに正しい答えを取得します。

次に、回帰モデルに移ります。次を入力します。

lm(outcome~exposure)

インターセプト= 2.0および露出= 0.6766を取得しましたか?または、データにランダムな変動がある場合、それに近いものですか?良い-この答えは間違っています。私たちはそれが間違っていることを知っています。なぜ間違っているのですか?結果と暴露に影響する変数を制御できませんでした。これはバイナリ変数です。性別、喫煙者/非喫煙者など、お好きなものにしてください。

次に、このモデルを実行します。

lm(outcome~exposure+covariate)

今回は、切片= 2.00、露出= 0.50、共変量0.25の係数を取得する必要があります。私たちが知っているように、これは正しい答えです。他の変数を制御しました。

さて、必要なすべての変数を処理したかどうかわからない場合はどうなりますか(実際には実行しません)。これは残差交絡と呼ばれ、ほとんどの観察研究で懸念されています-私たちが不完全に制御していること、そして私たちの答えは、正確に近いものの、正確ではありません。それはもっと役立ちますか?


ありがとう。誰でも簡単な回帰ベースの例をオンラインまたは教科書で知っていますか?
JackOfAll

@JackOfAllおそらくそのような例は何百もあります。どの分野/タイプの質問に興味があり、どのソフトウェアパッケージを使用できますか?
フォマイト

まあ、アカデミック/考案された例は私によって大丈夫です。多変数回帰を実行できるExcelがありますか?または、これを行うにはRのようなものが必要ですか?
JackOfAll

10
+1私が使用する否定性なしでこれに答えてください。:)典型的な用語では、他の変数を制御するということは、著者がそれらを回帰に投げ込んだことを意味します。変数が比較的独立していること、およびモデル構造全体(通常、ある種のGLM)が十分に根拠があることを検証していない場合、それが意味することを本当に意味するわけではありません。要するに、私の考えでは、誰かがこのフレーズを使用するときはいつでも、統計に関する手がかりがほとんどないことを意味し、提供した層別化方法を使用して結果を再計算する必要があります。
イテレーター

7
@SibbsGambling元の質問者簡単な作業例を求めたことがわかります。
フォミテ

56
  1. 前書き

    @EpiGradの回答(+1)は気に入っていますが、別の観点から見てみましょう。以下では、このPDF文書について言及しています。「多重回帰分析:推定」「多重回帰の「部分的なアウト」解釈」(p。83f。)のセクションがあります。残念ながら、この章の著者は誰なのかわかりません。REGCHAPTERと呼びます。同様の説明は、Kohler / Kreuter(2009)の「Stataを使用したデータ分析」、8.2.3章「「制御下」とはどういう意味ですか?」に記載されています。

    @EpiGradの例を使用して、このアプローチを説明します。Rコードと結果は付録に記載されています。

    「他の変数の制御」は、説明変数が中程度に相関している場合(共線性)にのみ意味があることにも注意してください。前述の例では、exposureとの間のProduct-Moment相関covariateは0.50です。つまり、

    > cor(covariate, exposure)
    [1] 0.5036915
    
  2. 残差

    回帰分析の残差の概念について基本的な理解があると思います。ここでWikipediaの説明は:「1は、いくつかのデータの回帰を実行した場合は、当てはめ関数からの従属変数の観測値の偏差は残差があります」。

  3. 「制御下」とはどういう意味ですか?

    変数の制御covariateexposureon の効果(回帰重み)はoutcome次のように説明できます(私はずさんで、ほとんどのインデックスとすべての帽子をスキップします。正確な説明については上記のテキストを参照してください)。

    β1=residi1yiresidi12

    residi1は、で回帰exposureしたときの残差ですcovariate。つまり、

    exposure=const.+βcovariatecovariate+resid

    「残差[..]は、と無相関の部分です。したがって、は、が実行された後のとサンプル関係を測定します。部分的に除外」(登録者84)。「部分的にアウト」とは、「制御対象」を意味します。xi1xi2β^1yx1x2

    @EpiGradのサンプルデータを使用してこのアイデアを示します。まず、に回帰exposurecovariateます。残差にのみ関心があるためlmEC.resid、出力は省略します。

    summary(lmEC <- lm(exposure ~ covariate))
    lmEC.resid   <- residuals(lmEC)
    

    次のステップはoutcome、これらの残差の回帰(lmEC.resid)です。

    [output omitted]
    
    Coefficients:
                Estimate Std. Error t value Pr(>|t|)    
    (Intercept)  2.45074    0.02058 119.095  < 2e-16 ***
    lmEC.resid   0.50000    0.07612   6.569 2.45e-09 ***
    ---
    Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 
    
    [output omitted]
    

    ご覧のように、この単純な回帰の回帰重みlmEC.resid(推定列、参照)重回帰重みに等しく、これも(@EpiGradの回答またはR出力を参照)未満)。βlmEC.resid=0.50covariate0.50

付録

Rコード

set.seed(1)
covariate <- sample(0:1, 100, replace=TRUE)
exposure <- runif(100,0,1)+(0.3*covariate)
outcome <- 2.0+(0.5*exposure)+(0.25*covariate)

## Simple regression analysis
summary(lm(outcome ~ exposure))

## Multiple regression analysis
summary(lm(outcome ~ exposure + covariate))

## Correlation between covariate and exposure
cor(covariate, exposure)

## "Partialling-out" approach
## Regress exposure on covariate
summary(lmEC <- lm(exposure ~ covariate))
## Save residuals
lmEC.resid <- residuals(lmEC)
## Regress outcome on residuals
summary(lm(outcome ~ lmEC.resid))

## Check formula
sum(lmEC.resid*outcome)/(sum(lmEC.resid^2))

R出力

> set.seed(1)
> covariate <- sample(0:1, 100, replace=TRUE)
> exposure <- runif(100,0,1)+(0.3*covariate)
> outcome <- 2.0+(0.5*exposure)+(0.25*covariate)
> 
> ## Simple regression analysis
> summary(lm(outcome ~ exposure))

Call:
lm(formula = outcome ~ exposure)

Residuals:
      Min        1Q    Median        3Q       Max 
-0.183265 -0.090531  0.001628  0.085434  0.187535 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.98702    0.02549   77.96   <2e-16 ***
exposure     0.70103    0.03483   20.13   <2e-16 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 

Residual standard error: 0.109 on 98 degrees of freedom
Multiple R-squared: 0.8052,     Adjusted R-squared: 0.8032 
F-statistic: 405.1 on 1 and 98 DF,  p-value: < 2.2e-16 

> 
> ## Multiple regression analysis
> summary(lm(outcome ~ exposure + covariate))

Call:
lm(formula = outcome ~ exposure + covariate)

Residuals:
       Min         1Q     Median         3Q        Max 
-7.765e-16 -7.450e-18  4.630e-18  1.553e-17  4.895e-16 

Coefficients:
             Estimate Std. Error   t value Pr(>|t|)    
(Intercept) 2.000e+00  2.221e-17 9.006e+16   <2e-16 ***
exposure    5.000e-01  3.508e-17 1.425e+16   <2e-16 ***
covariate   2.500e-01  2.198e-17 1.138e+16   <2e-16 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 

Residual standard error: 9.485e-17 on 97 degrees of freedom
Multiple R-squared:     1,      Adjusted R-squared:     1 
F-statistic: 3.322e+32 on 2 and 97 DF,  p-value: < 2.2e-16 

> 
> ## Correlation between covariate and exposure
> cor(covariate, exposure)
[1] 0.5036915
> 
> ## "Partialling-out" approach
> ## Regress exposure on covariate
> summary(lmEC <- lm(exposure ~ covariate))

Call:
lm(formula = exposure ~ covariate)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.49695 -0.24113  0.00857  0.21629  0.46715 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  0.51003    0.03787  13.468  < 2e-16 ***
covariate    0.31550    0.05466   5.772  9.2e-08 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 

Residual standard error: 0.2731 on 98 degrees of freedom
Multiple R-squared: 0.2537,     Adjusted R-squared: 0.2461 
F-statistic: 33.32 on 1 and 98 DF,  p-value: 9.198e-08 

> ## Save residuals
> lmEC.resid <- residuals(lmEC)
> ## Regress outcome on residuals
> summary(lm(outcome ~ lmEC.resid))

Call:
lm(formula = outcome ~ lmEC.resid)

Residuals:
    Min      1Q  Median      3Q     Max 
-0.1957 -0.1957 -0.1957  0.2120  0.2120 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  2.45074    0.02058 119.095  < 2e-16 ***
lmEC.resid   0.50000    0.07612   6.569 2.45e-09 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 

Residual standard error: 0.2058 on 98 degrees of freedom
Multiple R-squared: 0.3057,     Adjusted R-squared: 0.2986 
F-statistic: 43.15 on 1 and 98 DF,  p-value: 2.45e-09 

> 
> ## Check formula
> sum(lmEC.resid*outcome)/(sum(lmEC.resid^2))
[1] 0.5
> 

5
その章は、ベイビー・ウォルドリッジ(別名計量経済学:ジェフリーM.ウォルドリッジによる現代的アプローチ)
ディミトリV.マスターフ

2
私は何かを誤解しているかもしれませんが、共変量の結果も回帰し、最後にエクスポージャー残差の結果残差を回帰する必要はありませんか?
hlinee

@hlineeは正しい。なぜそうしないのか説明できますか?
パルセルタン

41

もちろん、いくつかの数学が関係しますが、それはあまり重要ではありません。ユークリッドはそれをよく理解していたでしょう。本当に知っておく必要があるのは、ベクターを追加および再スケーリングする方法です。これは最近では「線形代数」という名前になっていますが、2次元で視覚化するだけで済みます。 これにより、線形代数の行列機構を回避し、概念に集中することができます。


幾何学的なストーリー

最初の図では、はとの合計です 。(数値係数スケーリングされたベクトル ;ギリシャ文字の(アルファ)、(ベータ)、および(ガンマ)は、そのような数値スケール係数を指します。)yは1つの α X 1 、X 1 α α β γyy1αx1x1ααβγ

図1

この図は、実際には元のベクトル(実線で表示)および始まりました。 の最小二乗の「一致」は、図の平面で最も近いの倍数を取ることによって見つけられます。 それが発見方法です。このマッチをから取り去って、、に関するの残差を残しました。(ドット「」は、一貫して「一致」、「取り出し」、「制御対象」のベクトルを示します。)、Y 、Y 、X 1つの、X 1のY αのY軸Y 1、Y 、X 1x1yyx1x1yαyy1yx1

他のベクトルを一致させることができます。ここでピクチャであるに適合した倍数としてそれを発現する、のプラスその残留。X 2 X 1つの β X 1 、X 2 1x1x2x1βx1x21

図2

(とを含む平面がとを含む平面と異なる可能性はありません。これら2つの図は互いに独立して取得されます。共通することが保証されているのはベクトルです。)同様に、ベクトルに一致させることができます。x 2 x 1 y x 1 x 3x 4x 1x1x2x1yx1x3,x4,x1

次に、2つの残差およびを含む平面を考えます。私は作るために絵を向けるだろう私が作るために、前の写真を指向と同じように、水平この時間ので、水平マッチャーの役割を果たします。y1x21x21x1x21

図3

3つのケースのそれぞれで、残差が一致に対して垂直であることに注意してください。 (そうでなければ、マッチを調整して、、またはにさらに近づけることができます。)yx2y1

重要な考え方は、最後の図に到達するまでに、関係する両方のベクトル(および)が構築によりにすでに垂直になっていることです。したがって、に対するその後の調整には、すべて垂直な変更が含まれます。その結果、新しい一致と新しい残余はに対して垂直のままです。x21y1x1y1x1γx21y12x1

(他のベクトルが関与する場合、同じ方法でそれらの残差をに一致させます。)x31,x41,x2

もう1つ重要な点があります。この構造は、と両方に垂直な残余を生成しました。これは、がおよびまたがる空間(3次元ユークリッド領域)の残差であることを意味します。つまり、残差のマッチングと取得のこの2段階プロセスは、最も近い平面内の位置を見つけたに違いありません。この幾何学的記述では、とどちらが最初に来たかは関係ないため、次のように結論付けます。、X 1 、X 2 、Y 12、X 1X 2Y 、X 1X 2、Y 、X 1 、X 2 、X 2 X 1y12x1x2y12x1,x2,yx1,x2yx1x2プロセスは、他の順序で行われていた場合で始まるマッチャーなどして、使用して、結果は同じだっただろう。x2x1

(追加のベクターがある場合、これらのベクターのそれぞれがマッチャーになる順番になるまで、この「マッチャーの取り出し」プロセスを続行します。どの場合でも、操作はここに示すものと同じであり、常に飛行機。)


重回帰への適用

数値の列は幾何ベクトルとまったく同じように機能するため、この幾何プロセスには直接重回帰解釈があります。 それらはベクトルに必要なすべてのプロパティを(公理的に)持っているため、完璧な数学的精度と厳密さで同じ方法考えて操作することができます 変数を設定し、複数の回帰では、、および、目的はの組み合わせを見つけることですと(などに最も近い)。幾何学的に、とそのようなすべての組み合わせ(などX 2Y X 1 X 2 Y X 1 X 2 X 1X 2X1X2,YX1X2YX1X2)スペースのポイントに対応します。 多重回帰係数のあてはめは、ベクトルの投影(「マッチング」)にすぎません。幾何学的な議論は、X1,X2,

  1. マッチングは順次行うことができ、

  2. マッチングが行われる順序は重要ではありません。

他のすべてのベクトルを残差で置き換えることによりマッチャーを「取り出す」プロセスは、マッチャーの「制御」と呼ばれることがよくあります。図で見たように、マッチャーが制御されると、後続のすべての計算はそのマッチャーに垂直な調整を行います。必要に応じて、「制御」を「他のすべての変数に対するマッチャーの寄与/影響/効果/関連付けのアカウンティング(最小二乗)」と考えることもできます。


参照資料

https://stats.stackexchange.com/a/46508の回答で、データと作業コードを使用してこのすべての動作を確認できます。その答えは、飛行機の写真よりも算術を好む人にとってより魅力的かもしれません。(それでも、マッチャーが順次導入されるときに係数を調整する算術は簡単です。)マッチングの言語は、Fred MostellerとJohn Tukeyからです。


1
これらの線に沿ったイラストは、ウィッケンの著書「The Geometry of Multivariate Statistics」(1994)にあります。この答えにはいくつかの例があります
カラカル14

2
@Caracal参照していただきありがとうございます。私はもともと、あなたの答えのような図を使用する答えを想像していました-これは私の答えの素晴らしい補足になりますが、それらを作成した後、擬似3Dの数字は完全に適切ではないほど複雑で曖昧かもしれないと感じました。引数が平面内の最も単純なベクトル演算に完全に削減できることを発見できてうれしく思いました。非ゼロの定数ベクトルを含めることで処理されるため、データの予備的なセンタリングが不要であることも指摘する価値があります。xi
whuber

1
代数よりもはるかに直観を与えるため、この答えが大好きです。ところで、この男のyoutubeチャンネルをチェックしたかどうかはわかりません。私はそれをとても楽しんだ
Haitao Du

3

「他の変数を制御する」手段としての共変量調整に関するこれまでの優れた議論があります。しかし、それは物語の一部にすぎないと思います。実際、多くの(他の)設計、モデル、および機械学習ベースの戦略があり、多くの交絡変数の影響に対処しています。これは、いくつかの最も重要な(調整前の)トピックの簡単な調査です。調整は、他の変数の「制御」の最も広く使用されている手段ですが、優れた統計学者は、他のプロセスおよび手順のコンテキストで調整が行う(および行わない)ことを理解する必要があります。

マッチング:

マッチングは、観測を2つのセットにグループ化するペア分析を設計する方法です。2つのセットは、他の点では最も重要な側面が類似しています。たとえば、教育、収入、職業歴、年齢、配偶者の有無などは一致しているが、焦りの点では一致しない2人の個人をサンプリングできます。バイナリ露出の場合、すべての一致する機能を制御するBMIの平均差をテストするには、単純なペアのtテストで十分です。連続的な露出をモデル化する場合、類似の尺度は、差の原因を通る回帰モデルになります。カーリン2005を参照

E[Y1Y2]=β0(X1X2)

重み付け

重み付けは、連続またはバイナリの予測子と結果間の関連をモデル化する別の単変量解析であり、曝露レベルの分布がグループ間で均一になるようにします。これらの結果は通常、2か国またはいくつかの病院の年齢標準化死亡率などの標準化されたものとして報告されます。間接標準化は、参照対象集団の層の分布に投影される「対照」または「健康な」集団で得られた割合から、予想される結果の分布を計算します。直接的な標準化は他の方法で行われます。これらのメソッドは通常、バイナリの結果に使用されます。傾向スコアの重み付けYXYバイナリ露出の確率のアカウントとその点でのそれらの変数のコントロール。暴露の直接標準化に似ています。Rothman、Modern Epidemiology 3rd editionを参照してください。

ランダム化と準ランダム化

微妙な点ですが、実際に特定の実験条件に合わせて人をランダム化できる場合、他の変数の影響は軽減されます。他の変数が何であるかを知る必要さえないので、それは非常に強い状態です。その意味で、あなたは彼らの影響を「コントロール」しました。これは観察研究では不可能ですが、傾向スコア法は、準ランダム化研究と同じ方法で分析できるように、参加者に重み、調整、または一致を可能にする曝露の単純な確率的尺度を作成することがわかります。Rosenbaum、Rubin 1983を参照してください。

マイクロシミュレーション

ランダム化されたスタディから得られたデータをシミュレートする別の方法は、マイクロシミュレーションを実行することです。ここでは、モデルのようなより大きくより洗練された機械学習に実際に注意を向けることができます。Judea Pearlが私が気に入った造語は「Oracle Models」です。これは、多くの機能と結果の予測と予測を生成できる複雑なネットワークです。そのようなオラクルモデルの情報を「折り畳み」、ランダム化コホートを代表するバランスのとれたコホートで結果をシミュレートし、「制御変数」分布でバランスを取り、単純なt検定ルーチンを使用して評価することができます。起こりうる違いの大きさと精度。Rutter、Zaslavsky、Feuer 2012をご覧ください

回帰モデルのマッチング、重み付け、共変量調整はすべて同じ関連を推定するため、他の変数を「制御」する方法であると主張できます


完全に私の頭の上。
JackOfAll

これは尋ねられた質問に対する答えです。これまでのところ、良い議論は多変量モデルでの調整を支持する一方的なものです。
AdamO

多変量モデル、マッチングなどはすべて有効な手法ですが、研究者は通常、ある手法を別の手法よりも頻繁に使用しますか?
mnmn

-1

ソフトウェアは、文字通り変数を制御しません。回帰 行列表記に精通している場合、最小二乗解がことを覚えているかもしれません。そのため、ソフトウェアは計算線形代数法を使用してこの式を数値的に評価します。B = X T X - 1 X T YY=Xβ+εb=(XTX)1XTY


4
この情報を提供する機会を与えてくれてありがとう。質問で与えられたニーズに答えるための答えのために、2番目の表現の素数の意味と2番目の表現の意味を知る必要があります。傾きは、一方の軸の変化ともう一方の軸の変化との違いであることを理解しています。記法は、元々非表記の語彙を使用して作成および学習された特別な言語であることに注意してください。言語が他の単語を使用することを必要とすることを知らない人々に達することは、学問を越えて知識をもたらすことの継続的な挑戦です。
ジェン14

2
多変量回帰に入ると、線形代数なしで先に進む方法はありません。Wikiリンクには、変数のすべての説明があります。ここで、は行列の転置を意味すると言うことができます。設計マトリックスがどのように構築されるかを学ぶ必要があります。ここで説明するには長すぎます。私が投稿したWikiを読んでください。多くの情報があります。線形代数を理解していなければ、意味のある方法で質問に答えることはできないでしょう、私は恐れています。 XXX
アクサカル14
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.