実際には、「3B」テクニックの1つ、つまり、バギング、ブースト、またはブレンドに要約されます。
バギングでは、オブジェクトのさまざまなサブセットで多くの分類子をトレーニングし、回帰と分類の投票のために平均で回答を組み合わせます(より複雑な状況には他のオプションがありますが、スキップします)。通常、個々の分類子は独立していると見なされるため、投票の割合/分散は誤差近似として解釈できます。実際、RFはバギングアンサンブルです。
ブースティングはより広い方法のファミリですが、その主なポイントは、前者の残差に次の分類器を構築することです。したがって、予測は通常、それらを合計することによって結合されます。xのテイラー級数の要素の値を合計してxの関数の値を計算するようなものです。
最も人気のあるバージョンは、(確率論的)勾配ブースティング(数学的基盤を備えています)およびAdaBoost(よく知られている、実際にはGBの特定のケース)です。全体的な観点から見ると、決定木は些細なピボット分類子を後押ししています。
ブレンディングは、分類子をネストするという考え方です。つまり、他の分類子の予測から作成された情報システムで1つの分類子を実行します。そのため、これは非常に可変的なメソッドであり、確かに定義されたアルゴリズムではありません。多くのオブジェクトが必要な場合があります(ほとんどの場合、 "blender"分類器は、恥ずかしいオーバーフィットを避けるために、部分分類器の構築に使用されなかったオブジェクトのセットでトレーニングする必要があります)。
部分分類器の予測は、ブレンダーによって予測される情報システムにそれらを融合することによって明らかに結合されます。