私はいくつかのロジスティック回帰の問題を見ています。(「通常」および「条件付き」)。
理想的には、glmがより低い重みのケースを誤って分類する可能性を犠牲にしてより高い重みのケースをより正確に予測することに焦点を合わせるように、各入力ケースに重みを付けたいと思います。
確かにこれは以前に行われたことです。誰かが私をいくつかの関連文献に向けることができますか(またはおそらく修正された尤度関数を提案します)。
ありがとう!
1
予測ではなく、分類が目標であると想定しています。確率を最適に推定するために、何も再重み付けする必要はありません。「偽陰性」と「偽陽性」は強制選択でのみ発生し、通常、純粋なバイナリ選択を強制することはありません。
—
フランクハレル2011
@フランクあなたは良い点を作ります。最終的に、このプロジェクトの目標は、今後のイベントの結果を予測することです。(つまり、トレーニングデータを含む機械学習の味と考えることができます。)一部の結果は他の結果よりも「重要」であるため、それに応じて重み付けする方法を探していました。尤度関数に関するニックの提案は理にかなっており、コードに実装するのはかなり簡単なはずです。
—
ノア
重みを必要としない確率モデルが正確に必要なように聞こえます。
—
フランクハレル2011
正しい; コスト関数を接続し、予測された確率を使用すると、最適な決定ができます。
—
フランクハレル2015年
よく調整された確率モデルでは「エラー」はなく、予測できないランダム性があるだけです。最適な決定は、予測される確率と、行動するためのさまざまな決定を行うためのコスト関数の関数です。
—
フランクハレル