回帰の定義


8

ウィキペディアから:

統計モデリングでは、回帰分析は変数間の関係を推定するための統計プロセスです。従属変数と1つ以上の独立変数(または「予測子」)の間の関係に焦点が当てられている場合、いくつかの変数をモデル化および分析するための多くの手法が含まれます。

分類は同じではありませんか?結局、それは機械学習の目的ではないでしょうか?


回答:


14

回帰は、分類や機械学習よりも目的と範囲がはるかに広いです(ただし、後者は理解できるかもしれません)。ただし、多くの重複があります。

関係

回帰によって分析される関係は、

  • 協会

  • 依存

  • 因果関係

分類は最初の2つに関する情報を提供しますが、因果関係については触れていません。因果関係についての結論を導くために、回帰と機械学習の両方が(時には成功し、しばしば問題を含む)使用されています。

回帰の目的

  1. 多変量データの概要を取得します。

  2. 問題を混乱させる可能性のある変数の影響を回避するため。

  3. 原因分析の試みに貢献してください。

  4. エフェクトのサイズを測定します。

  5. 数学または経験則を発見してみてください。

  6. 予測。

  7. xx

(Mosteller&Tukeyの後、データ分析と回帰、第12B章)

分類はこれらの目的のほとんどを達成しません。 限られた方法で、それはある種の要約(1)を提供し、発見を助ける(5)かもしれません。

機械学習は、ほぼ排他的に予測(6)を目的としています。 ランダムフォレストからニューラルネットワークを介してベクトルモデルをサポートする機械学習のほとんどの手法は、理解に不透明です。これらは、特にデータの要約(1)、交絡変数の影響の除去(2および7)、または支援を目的としていません。私たちは経験則で具現化できる規則性を発見します(5)。


この投稿は、私が最近行った回帰の学期コースの紹介プレゼンテーションを少し拡張したものです。 そこには、回帰の目的と実践に関する多くの資料が用意されています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.