線形回帰では、xを推定する尤度推定の最大化(MLE)ソリューションには、次の閉形式のソリューションがあります(Aが完全な列ランクの行列であると仮定します)。
x^lin=argminx∥Ax−b∥22=(ATA)−1ATb
これは「目的関数を最小化するを見つける、」と読みます。この方法で線形回帰目的関数を表現することの良いところは、すべてを行列表記で保持し、を手で解くことができることです。Alex R.が言及しているように、実際には直接考慮ことはありません。計算が非効率的であり、がフルランク基準を満たさないことが多いためです。代わりに、Moore-Penrose疑似逆関数を使用します。擬似逆問題の計算的解決の詳細には、コレスキー分解または特異値分解が含まれます。x∥Ax−b∥22X LIN(A T A )- 1 Ax^lin(ATA)−1A
あるいは、ロジスティック回帰の係数を推定するためのMLEソリューションは次のとおりです。
x^log=argminx∑i=1Ny(i)log(1+e−xTa(i))+(1−y(i))log(1+exTa(i))
ここで(データの各サンプルが行ごとに保存されると仮定):
xは回帰係数を表すベクトルです
a(i ) i t h Aは、データ行列のサンプル/行を表すベクトルです私t hA
y(i )でスカラー、及びに対応するラベルサンプル{ 0 、1 }私t h私t h
Nは、データサンプル数/データ行列行数です。A
繰り返しますが、これは「目的関数を最小化するを見つける」と読みます。バツ
必要に応じて、さらに一歩進んで、をマトリックス表記で次のように表すことができます。バツ^ログ
バツ^ログ= argminバツ⎡⎣⎢⎢1⋮1(1 − y(1 ))⋮(1 − y(N))⎤⎦⎥⎥[ ログ(1 + e− xTa(1 ))ログ(1 + eバツTa(1 ))。。。。。。ログ(1 + e− xTa(N))log(1+exTa(N))]
しかし、これを行っても何も得られません。ロジスティック回帰には閉形式の解がなく、行列表記で表現することで線形回帰と同じ利点が得られません。を解くには、勾配降下法やニュートンラプソン法などの推定手法が使用されます。これらの手法のいくつか(つまり、Newton-Raphson)を使用して、は近似され、マトリックス表記で表されます(Alex Rが提供するリンクを参照)。x^logx^log