私は現在、1対すべての分類器の制約のない主形式を調べています
どこ
はインスタンスの数、 N Kはクラスの数、 N Fは特徴の数、 Xは N K × N Fのデータ行列、 yはクラスラベルのベクトル、 Wは N K × N 1つのクラスを残りのクラスから分割する超平面の重みにそれぞれが対応する行列 I、 Lは任意の損失関数です。
私の理解では、上記の汎関数は、関連するクラス内のサンプルと他のすべてのサンプルとの間の距離を最大化する各クラスの超平面を見つけようとします。超平面が正しく、その後に配置されている場合は常に、負でなければなりませんwがyの私 ⋅ X 私は常に正でなければなりませんし、私たちの損失関数がかなり低く戻ってくるはずです。
私はこの場合、結局はヒンジ損失を使用してこれを実装しようとしています
ただし、上記では、超平面がすべてのサンプルをすべてのクラスに属するものとして分類する状況に陥ることはありませんでした。たとえば、1という条件で、クラス1を他のすべてのクラスから分離する超平面を見ている場合その場合、が誤ったクラスとして分類されていても、発生した損失は0になります。
どこが間違っているのですか?または、がより高いスコアで終わるという条件で、が負であるか正であるかは関係ありませんか?ここで説明したヒンジ機能の使用は正しくないと感じていますが、今日のGoogleの使用は混乱を招いているだけです。
関連するメモで、上記の機能に1があるのはなぜですか?影響は少ないと思います。