2つのランダム変数とηが与えられると、それらの「相関係数」cを計算し、これら2つのランダム変数間の最適なラインを形成できます。私の質問はなぜですか?
1)ランダム変数、とηがあります。これらは最悪の方法で依存しています。つまり、ξ = f (η )であり、c = 0です。線形回帰に沿って考えるだけなら、これに完全に盲目になるでしょう。
2)特に線形なのはなぜですか?ランダム変数間に存在できる他の種類の関係があります。なぜ他のすべてからその1つを選抜するのですか
2つのランダム変数とηが与えられると、それらの「相関係数」cを計算し、これら2つのランダム変数間の最適なラインを形成できます。私の質問はなぜですか?
1)ランダム変数、とηがあります。これらは最悪の方法で依存しています。つまり、ξ = f (η )であり、c = 0です。線形回帰に沿って考えるだけなら、これに完全に盲目になるでしょう。
2)特に線形なのはなぜですか?ランダム変数間に存在できる他の種類の関係があります。なぜ他のすべてからその1つを選抜するのですか
回答:
すべての関係がそれ自体線形ではないことに同意しますが、かなり多くの関係を線形近似することができます。テイラー級数やフーリエ級数などの数学でこのようなケースが多く見られます。ここで重要なのは、geomatt22がコメントで述べたように、一般に非線形データを変換し、基底関数で何らかの変換を適用し、関係。大学が「複数の線形回帰モデル」(単純回帰モデルを含む)のみに対処する理由は、それらが線形でもあるより高度なレベルのモデルの構成要素であるためです。
数学的に言えば、特定の線形近似がヒルベルト空間で密であることを証明できれば、その近似を使用して空間内の関数を表すことができます。
参照しているモデルである単純な線形回帰、別名「最適な線」(ここではモデルと推定方法を混同しています)は、確かに非常に単純です(名前のとおり)。なぜ勉強するのですか?多くの理由がわかります。以下では、ランダム変数の概念が少なくとも非公式に導入されたと仮定します。これは、質問で言及したためです。
さらなる理由は、回帰が統一された処理を提供する素敵な方法です ANOVAのようなテクニックのをです。私にとって、ANOVAの通常の「基本的な」治療法はかなりあいまいに見えますが、回帰ベースの治療法は非常に明確です。これは、回帰モデルが「基本的な」処理では暗黙的で未検査であるといういくつかの仮定を明示的に行う方法と関係があると思われます。さらに、このような統一された視点によって提供される概念の明確さには、統計ソフトウェアにメソッドを実装するときが来ると、同様の実際的な利点が伴います。
この原則は、ANOVAだけでなく、制限付き3次スプラインのような拡張機能にも適用されます。これは、特に2番目の質問に対処します。