我々はデータがあるとここで、X I ∈ R nは入力ベクトルであるとY I ∈ { 赤、青、緑}(x1,y1),…,(xk,yk)バツ私∈ Rny私∈ { 赤、青、緑}分類です。
バイナリの結果の分類子を作成する方法を知っているので、これを3回行います。結果を、{ blue、red or green }、{ green、blue or red }にグループ化します{ 赤、青、緑}{ 青、赤、緑}{ 緑、青、赤}ます。
各モデルは、関数の形式を取り、それぞれf R、f B、f Gと呼びます。これは、各モデルに関連付けられた超平面から符号付き距離への入力ベクトルを取ります。ここで、正の距離は、f Bの場合は青、f Rの場合は赤、f Gの場合は緑の予測に対応します。基本的に、f G(x )が正であるほど、モデルはxf:Rn→ RfR、fB、fGfBfRfGfG(x )バツ緑色、およびその逆です。出力が確率である必要はなく、モデルがどれだけ自信があるかを測定できればよいだけです。
入力された所定の、我々は、に応じて分類ARGMAX C F C(X )そうであれば、fはG(X )の中で最大である{ F G(X )、F B(X )、F R(X )}我々は希望xの緑を予測します。バツargmaxc fc(x )fG(x ){ fG(x )、fB(x )、fR(x )}バツ
この戦略は「1対すべて」と呼ばれ、ここでそれについて読むことができます。