回答:
線形回帰は、独立変数と従属変数の間の線形関係を前提としています。モデルがどのように適合しているかはわかりません。最小二乗近似は、単に可能性の1つです。線形モデルをトレーニングする他の方法はコメントにあります。
非線形最小二乗法が一般的です(https://en.wikipedia.org/wiki/Non-linear_least_squares)。たとえば、一般的なLevenberg–Marquardtアルゴリズムは次のような問題を解決します。
これは最小二乗最適化ですが、モデルは線形ではありません。
彼らは同じものではありません。
@Student Tの正解に加えて、最小二乗は最適化問題の潜在的な損失関数であり、線形回帰は最適化問題であることを強調したいと思います。
特定のデータセットが与えられた場合、線形回帰を使用して可能な限り最良の線形関数を見つけ、変数間の関係を説明します。
この場合、「最適な」可能性は損失関数によって決定され、線形関数の予測値とデータセットの実際の値を比較します。最小二乗は可能な損失関数です。
最小二乗に関するウィキペディアの記事では、右側に次のような線形回帰以外の問題に対して最小二乗を使用している写真も表示されています。
ウィキペディアの記事からの次のgifは、最小二乗法を使用してデータセットに適合したいくつかの異なる多項式関数を示しています。そのうちの1つだけが線形です(多項式1)。これは、ドイツ語版ウィキペディアの記事からこのトピックへの引用です。