回答:
いいえ、現在の形式ではありません。問題は、凸損失関数を外れ値による汚染に対して堅牢にすることができないことです(これは70年代以来よく知られている事実ですが、定期的に再発見され続けています。たとえば、最近の再発見についてはこのペーパーを参照してください):
http://www.cs.columbia.edu/~rocco/Public/mlj9.pdf
さて、回帰木の場合、CARTが周辺(または単変量の投影)を使用するという事実を使用できます。sd基準がより堅牢な対応物(MADまたはそれ以上)で置き換えられたCARTのバージョンを考えることができます。 Qn推定量)。
私は最近、上記のアプローチを実装した古い論文に出くわしました(MADの代わりに堅牢なM推定器を使用)。これにより、CART / RFの「y」外れ値にロバスト性が付与されます(ただし、モデルのハイパーパラメーターの推定に影響する設計スペースにある外れ値には影響しません)。
Galimberti、G.、Pillati、M。、およびSoffritti、G。(2007)。M推定量に基づく堅牢な回帰ツリー。Statistica、LXVII、173–190。
ブライマンのバギングの使用を検討するか、ランダムフォレストます。1つの良いリファレンスは、Breimanの「Bagging Predictors」(1996)です。統計ハンドブックのClifton Suttonの「分類および回帰ツリー、バギング、ブースティング」にも要約されています。
randomForestパッケージに関するAndy LiawとMatthew Wiener R Newsの議論もご覧ください。
Rの「gbm」パッケージ(一般化された勾配ブースティング)をチェックアウトすると、「ブースティング」は必ずしも二乗誤差を意味しない損失関数を使用します。これは、関数 'gbm()'の 'distribution'引数に表示されます。したがって、ブースティングによるツリーの精緻化は、M-estimatorの動作と同様に、外れ値に対して耐性があります。
あなたはここから始めるかもしれません。
別のアプローチは、通常の方法でツリーを構築することです(SSEに基づくパーティション)が、ロバストな適合尺度でクロス検証を使用してツリーを剪定します。rpartのxpredは(さまざまな異なるツリーの複雑さの)相互検証された予測子を提供し、平均絶対値などのエラーの独自の尺度を適用できると思います。