線形回帰の仮定が現実的でないことは事実です。ただし、これはすべての統計モデルに当てはまります。「すべてのモデルは間違っていますが、一部は有用です。」
より複雑なモデルを使用できる場合、線形回帰を使用する理由はないという印象を受けていると思います。一般に、より複雑なモデルはオーバーフィットに対してより脆弱であり、より多くの計算リソースを使用するため、これは真実ではありません。たとえば、組み込みプロセッサまたはWebサーバーで統計を実行する場合は重要です。単純なモデルは、理解と解釈も簡単です。対照的に、ニューラルネットワークなどの複雑な機械学習モデルは、おおよそブラックボックスになる傾向があります。
線形回帰がいつか実用的でなくなったとしても(近い将来、非常に起こりそうにないように思われます)、より複雑なモデルは基礎として線形回帰に基づいて構築される傾向があるため、理論的には重要です。たとえば、正規化された混合効果のロジスティック回帰を理解するには、最初に単純な古い線形回帰を理解する必要があります。
これは、より複雑で、より新しく、より光沢のあるモデルが役に立たなかったり、重要でないと言っているわけではありません。それらの多くはそうです。しかし、より単純なモデルはより広く適用可能であるため、より重要であり、さまざまなモデルを提示する場合は、最初に提示するのが明らかに理にかなっています。「データサイエンティスト」などと呼ばれるが、信頼区間が実際にどのようなものであるかなど、基礎的なものすら知らない人々によって、最近行われた多くの不正なデータ分析があります。統計にならないでください!