実際に大きな違いがありますが、これはあなたが述べた技術的な違いに関連しています。ロジスティック回帰は、ベルヌーイ分布の平均の関数を線形方程式としてモデル化します(平均はベルヌーイイベントの確率pに等しくなります)。ロジットリンクを平均(p)の関数として使用することにより、オッズの対数(log-odds)を分析的に導出し、いわゆる一般化線形モデルの応答として使用できます。このGLMのパラメーター推定は、モデルパラメーターのp値と信頼区間を生成する統計プロセスです。予測に加えて、これにより、因果推論でモデルを解釈できます。これは、線形パーセプトロンでは達成できないものです。
パーセプトロンは、ロジスティック回帰のリバースエンジニアリングプロセスです。yのロジットを取る代わりに、wxの逆ロジット(ロジスティック)関数を取り、モデルとそのパラメーター推定のどちらにも確率的仮定を使用しません。オンライントレーニングでは、モデルの重み/パラメーターについてまったく同じ推定値が得られますが、p値、信頼区間、および基礎となる確率モデルがないため、それらを因果推論で解釈することはできません。
簡単に言えば、ロジスティック回帰は予測と推論を実行できるGLMですが、線形パーセプトロンは予測しか達成できません(この場合、ロジスティック回帰と同じように実行されます)。この2つの違いは、統計モデリングと機械学習の基本的な違いでもあります。