(参考までに、私はケビンPマーフィーの本「機械学習:確率論的展望」を使用しており、MATLANを使用して実装しています-ツールボックスなし)
私は392サンプル(行)のデータセットを持っています。各サンプルには8つの特徴(列)があり、そのうちの1つがクラスを定義します(つまり、特徴の列1は3つのクラスを定義する3つの等しいビンに分割されます-低、中、高)。
サンプルをこれら3つのクラスのいずれかに分類するためのロジスティック回帰モデルを作成する方法を理解するのに本当に苦労しています。
重みベクトルの通常の最小二乗(閉じた形)ソリューションと勾配降下(開いた形)ソリューションの両方について学習した線形回帰モデルの学習と作成を終えたところです。しかし、私のデータは重みベクトルのOLSソリューションで完全にうまくフィットしたため、勾配降下法を実装したことはありません。
ロジスティック回帰の重みベクトルの作成方法が非常に混乱しています。閉じた形のソリューションがないため、勾配降下法を使用する必要があることを理解しています。重みを計算するためのニュートン法についても読みましたが、まったく理解できません。
そして、これらのメソッドを使用して重みを計算した後、サンプルデータに重みをどのように適用しますか?線形回帰では、単純に重みに機能(および高次線形回帰の高次機能)を掛けただけでしたが、ロジスティック回帰でも同じですか?
さらに、これまでの私の理解は、このモデルはバイナリ分類でのみ機能するということです。したがって、3つのクラスでどのようにそれを行うのですか?
基本的に私の質問はこれに要約されます:
(勾配降下法またはニュートン法のいずれか簡単な方を使用して)ロジスティック回帰の重みベクトルをどのように正確に見つけ、サンプルに重みベクトルを適用して、3つのクラス(2つだけではない)から分類を取得する方法。