私はcognitiveclass.aiのRコースの機械学習を完了し、ランダムフォレストの実験を開始しました。
Rの「randomForest」ライブラリを使用してモデルを作成しました。モデルは、goodとbadの2つのクラスに分類されます。
モデルがオーバーフィットである場合、モデル自体のトレーニングセットからのデータに対してはうまく機能しますが、サンプル外のデータに対してはうまく機能しないことを知っています。
モデルをトレーニングしてテストするために、データセット全体をシャッフルして、トレーニング用に70%とテスト用に30%に分割しました。
私の質問:テストセットで行われた予測から100%の精度を得ています。これは悪いですか?それは本当であるには余りにも良いようです。
目的は、4つの波形を相互に依存する波形認識です。データセットの機能は、ターゲット波形を含む波形のダイナミックタイムワーピング分析のコスト結果です。
サイトへようこそ!ノイズデータを予測してみましたか?
—
Toros91 2018
改造、トレーニング、テストするたびに、精度は100%ですか?
—
アレックス
@アレックス正確ではないが、98,55%と非常に高い状態が続く
—
ミラノファン
@アレックス11.35%は「大丈夫」、88.65%は「悪い」
—
ミラノファン
それはかなり不均衡です。リサンプリング(繰り返しサンプリング)を使用して、トレーニングセットのバランスをOKクラス(たとえば、30%にする)に傾け、テスト/検証セットで11/89の比率を維持します。何を手に入れますか?
—
アレックス