単一の決定木を追加することによるオンラインランダムフォレスト


13

ランダムフォレスト(RF)は、ディシジョンツリー(DT)のアンサンブルによって作成されます。バギングを使用することにより、各DTは異なるデータサブセットでトレーニングされます。したがって、新しいデータにさらに決定的な要素を追加して、オンラインランダムフォレストを実装する方法はありますか?

たとえば、10,000個のサンプルがあり、10個のDTをトレーニングします。その後、1Kサンプルを取得し、完全なRFを再度トレーニングする代わりに、新しいDTを追加します。予測は、10 + 1 DTのベイジアン平均によって行われます。

さらに、以前のデータをすべて保持する場合、新しいDTは主に新しいデータでトレーニングできます。この場合、サンプルが選択される確率は、既に選択された回数に応じて重み付けされます。

回答:


8

このテーマオンラインランダムフォレストに関する最近の論文があります。これはコンピュータービジョンに基づいています。ここに実装とプレゼンテーションがあります:10分でオンラインのランダムフォレスト


あなたが言及した実装は、モンドリアンの森(arxiv.org/abs/1406.2673)のようなツリー成長戦略に従います。したがって、木の数は一定ですが、分割の数は増えます。私の質問は、以前にトレーニングしたツリーに手を加えずに、新しいサンプルのツリー数を増やすことです。
tashuhka 14年

1
同様に、この?必要に応じて木を落としたくありませんか?
エムール14年

ありがとうございました。これは私が探しているものに似ています。この場合、時変信号の特徴選択にRFを使用します。ただし、メソッドの具体的な実装と有効性は非常に不明確です。彼らが何かを公開したかどうかを知っていますか(Googleは助けにならなかった)。
tashuhka 14年


リンクをありがとう!ツリー成長戦略を使用して実際に以前のツリーをすべて更新していることがわかります。古いツリーを変更せずに、新しいデータを使用して新しいDTを作成することに興味があります。
tashuhka 14年
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.