最小しきい値一般化精度を得るために分類器(この場合はLDA)をトレーニングするために必要なトレーニングサンプル数を決定するために使用される一般的な方法はありますか?
ブレインとコンピューターのインターフェイスで通常必要なキャリブレーション時間を最小限にしたいので、私は尋ねています。
最小しきい値一般化精度を得るために分類器(この場合はLDA)をトレーニングするために必要なトレーニングサンプル数を決定するために使用される一般的な方法はありますか?
ブレインとコンピューターのインターフェイスで通常必要なキャリブレーション時間を最小限にしたいので、私は尋ねています。
回答:
探している検索用語は「学習曲線」です。これは、トレーニングサンプルサイズの関数として(平均)モデルのパフォーマンスを提供します。
学習曲線は多くのことに依存します。例えば
(2クラスのLDAの場合、理論上のパワー計算を導き出すことができるかもしれませんが、決定的な事実は、データが実際に「等しいCOV多変量正規」の仮定を満たしているかどうかです。既存のデータの仮定とリサンプリング)。
有限サンプルサイズ(通常)でトレーニングされた分類器のパフォーマンスには2つの側面があります。
考慮する必要があるもう1つの側面は、通常、適切な分類器をトレーニングするだけでは十分ではないことですが、分類器が優れている(または十分である)ことを証明する必要もあります。そのため、所定の精度で検証に必要なサンプルサイズも計画する必要があります。これらの結果を非常に多くのテストケース(例:生産者または消費者の精度/精度/感度/正の予測値)の成功率の一部として与える必要があり、基礎となる分類タスクがかなり簡単な場合、良いモデル。
経験則として、トレーニングでは、サンプルサイズは通常、モデルの複雑さ(ケースの数:変量の数)に関連して説明されますが、テストサンプルサイズの絶対境界は、パフォーマンス測定の必要な精度のために指定できます。
ここに論文があり、これらのことをより詳細に説明し、学習曲線を構成する方法についても議論します
。分類モデル用。アナルチムアクタ、2013、760、25-33。
DOI:10.1016 / j.aca.2012.11.007
はarXivの原稿を受け入れました:1211.1323
これは、簡単な分類問題を示す「ティーザー」です(実際には、分類問題にはこのような簡単な区別が1つありますが、他のクラスははるかに区別が困難です)。

テストサンプルサイズがボトルネックであり、トレーニングサンプルサイズが大きくなるとより複雑なモデルを構築できるため、より大きなトレーニングサンプルサイズに外挿して、さらに多くのトレーニングケースが必要かどうかを判断しようとしませんでした。私が持っているデータセットの種類については、これに繰り返しアプローチし、多数の新しいケースを測定し、どれだけ改善されたかを示し、さらに多くのケースを測定します。
これはあなたによって異なる場合がありますが、この論文には、必要なサンプル数を推定するために、より大きなサンプルサイズへの外挿を使用した論文への参考文献が含まれています。
サンプルサイズのトレーニングについて質問することは、モデルの検証のためにデータを保留することを意味します。これは、膨大なサンプルサイズを必要とする不安定なプロセスです。多くの場合、ブートストラップによる強力な内部検証が推奨されます。そのパスを選択した場合、1つのサンプルサイズのみを計算する必要があります。@cbeleitesが非常にうまく述べているように、これは多くの場合「候補変数ごとのイベント」評価ですが、調べる対象がない場合でも、バイナリ結果の確率を正確に予測するには最低96の観測が必要です[これは達成することですY = 1である実際の限界確率を推定する際の0.15の誤差の0.95信頼マージン。
正確性評価のための適切なスコアリングルール(例:ブリアスコアおよび対数尤度/偏差)を考慮することが重要です。また、メンバーシップ確率を推定するのではなく、観測値を本当に分類したいことを確認してください。後者はグレーゾーンを許可するため、ほとんど常により便利です。