アンサンブルメソッドはどのようにすべての構成要素よりも優れていますか?


16

私はアンサンブル学習について少し混乱しています。簡単に言うと、k個のモデルを実行し、これらのk個のモデルの平均を取得します。k個のモデルの平均がどのモデルよりも優れていることをどのように保証できますか?バイアスが「広がる」または「平均化される」ことを理解しています。しかし、アンサンブルに2つのモデルがあり(つまりk = 2)、一方が他方よりも悪い場合、アンサンブルはより良いモデルよりも悪くないでしょうか?



このスレッドには興味がありますが、答えた以上の質問が寄せられています。使用しているこれらすべての単語をより厳密に定義するために、もう少し多くのを使用できますか?LATEバツ
テイラー

回答:


23

保証されていません。あなたが言うように、アンサンブルは個々のモデルよりも悪い可能性があります。たとえば、真のモデルと悪いモデルの平均を取ると、かなり悪いモデルになります。

モデルが相互に(ある程度)独立している場合にのみ、モデルの平均は改善されます。たとえば、バギングでは、各モデルはデータのランダムサブセットから構築されるため、ある程度の独立性が組み込まれます。または、機能のさまざまな組み合わせを使用してモデルを構築し、平均化によって組み合わせることもできます。k

また、モデルの平均化は、個々のモデルの分散が大きい場合にのみ機能します。そのため、非常に大きな木を使用してランダムフォレストが構築されます。一方、一連の線形回帰モデルを平均すると、まだ線形モデルが得られます。これは、最初に使用したモデルよりも優れているとは思われません(試してみてください!)

ブースティングやブレンディングなどの他のアンサンブル手法は、個々のモデルからの出力をトレーニングデータとともに大きなモデルへの入力として取得することで機能します。この場合、実際にはより複雑であり、トレーニングデータを使用しているため、個々のモデルよりもうまく機能することがよくあります。


RFは、大きな分散を達成するために多数のツリーを使用するという意味ではありませんか?木が大きくなると、それらはほとんどの特徴にまたがり、モデル間の分散は小さくなると思います。
イタマル

いいえ、@ Floundererは正しいです。決定木は不安定モデルと呼ばれます。データをわずかに変更すると、非常に異なるツリーになります。ランダムフォレストは、それらを安定させる手段です。データのサンプルがわずかに異なる2つのRFをトレーニングすると、同様のモデルが生成されます。
リカルドクルーズ

「一連の線形回帰モデルを平均化しても線形モデルが得られる」<-ここで平均するとはどういう意味ですか?また、どの変動について話しているのですか?
テイラー

6

この例では、2つのモデルのアンサンブルは、単一のモデル自体よりも悪化する可能性があります。しかし、あなたの例は人為的なものであり、通常、アンサンブルで2つ以上を構築します。

アンサンブルモデルが個々のモデルよりも優れたパフォーマンスを発揮するという絶対的な保証はありませんが、それらの多くを構築し、個々の分類器が弱い場合です。全体的なパフォーマンスは、個々のモデルよりも優れている必要があります。

機械学習では、複数のモデルのトレーニングは通常、単一のモデルのトレーニングよりも優れています。これは、調整するパラメーターが多いためです。


2

この文脈ではめったに議論されない何かを投げたいだけで、それはあなたに思考の糧を与えるはずです。

Ensembleは人間にも使用できます!

人間の予測を平均すると、個々の予測よりも優れた予測が得られることが観察されています。これは群衆の知恵として知られています。

さて、あなたはそれは一部の人々が異なる情報を持っているからだと主張することができます。したがって、あなたは事実上情報を平均化しています。ただし、これは、jarファイル内のBeanの数を推測するなどのタスクにも当てはまります。

これについて書かれた本や実験がたくさんありますが、この現象は依然として研究者を困惑させます。

@Floundererが指摘したように、これは、各観測が通常決定境界に影響を与える決定ツリーなどのいわゆる不安定なモデルから得られる本当の利益です。通常、リサンプリングはサポートベクターに大きな影響を与えないため、SVMのようなより安定したものはそれほど得られません。


1
だからこそ、私と同じではない人を常に雇おうとしたのです。柔軟で効果的なチームを構築するための良いアドバイス。
マシュードゥルーリー

0

実際には、単一のモデルがアンサンブルよりも優れている可能性があります。

モデルの一部が過大評価され、一部が過小評価されるポイントがデータにない場合(その場合、平均誤差が否定されることを期待するかもしれません)、最も一般的な損失関数(平均二乗損失など)のいくつかはペナルティを課していますいくつかの中程度の偏差を超える単一の大きな偏差。平均化するモデルが多少異なる場合は、平均化により顕著な偏差がなくなるため、分散が「小さくなる」ことを期待できます。おそらくそれで説明可能です


0

はい、そうかもしれませんが、アンサンブルのアイデアは、異なるアンサンブルからデータの異なる特性をキャプチャしながら、オーバーフィットを避けるために、より単純なモデルをトレーニングすることです。もちろん、同じトレーニングデータでトレーニングされている間に、アンサンブルモデルが単一のモデルよりも優れているという保証はありません。アンパフォーマンスモデルは、アンサンブルモデルとブースト(AdaBoostなど)を組み合わせることで得られます。ブーストすると、各データポイントに重みを割り当て、エラーに応じてそれらを更新することにより、次の各アンサンブルモデルをトレーニングします。したがって、これを座標降下アルゴリズムと考えると、一定の平均モデルの複雑さを維持しながら、反復ごとにトレーニングエラーを減らすことができます。全体として、これはパフォーマンスに影響を与えます。沢山あります

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.