回帰モデルの評価


9

分類の問題については、ニューラルネットワークを使用して、このリソースミラー)に従って混同行列とその測定値を使用してタイプIおよびIIのエラーを測定してきました。これは非常に簡単です。

推定の問題に直面した場合、モデルのパフォーマンスをどのように評価しますか?クラスがなく、出力が実際の形式で解釈されると仮定します。距離測定基準の平均化を超えて、それは多くの洞察を与えません。


3
「推定問題」を明確にしてください。モデルは何をしますか?入力と出力は何ですか?
Trisoloriansunscreen 2014年

したがって、正規化された実数値の入力ベクトルの場合、実数値の出力が期待されます。したがって、たとえば、出力は電力強度を推定することができます。
ジャックH

回答:


13

あなたが投稿したリンクには、私が提案するテクニックの多くが含まれていますが、さらに学習曲線をプロットすることも役立ちます。これは、絶対的なパフォーマンスだけでなく、最適なパフォーマンスからどれだけ離れているかを理解するのに役立ちます。

学習曲線:交差検証(cv)エラーとトレーニングセットのエラー率とトレーニングセットのサイズをプロットすると、多くのことを学ぶことができます。2つの曲線が低いエラー率で互いに近づいていれば、問題はありません。

曲線が互いに近づき始め、両方の方向が低くなっている場合は、より多くのデータが必要です。

CVカーブが高いままで、トレーニングセットカーブが低いままである場合は、分散の状況が高くなります。より多くのデータを取得するか、正規化を使用して一般化を改善できます。

cvが高いままで、トレーニングセットカーブがそれを満たすようになっている場合は、バイアスが高くなっています。この場合、モデルに詳細を追加します。


ちなみに、こちらは学習曲線を非常によく説明するCourseraビデオです。
John Yetter、2014年

それは今日YouTubeで見つけることができます:youtu.be/g4XluwGYPaA
fdelia

3

推定においてモデルのパフォーマンス基準を定義するには、複数の方法があります。ほとんどの人は、モデルがデータにどれだけ適合しているかを使用します。したがって、回帰の場合は、「モデルによってどの程度の分散が説明されるか」になります。ただし、モデルに含まれるパラメーターの数を制御する必要がある変数選択を(LASSOなどで)実行する場合は、このような回帰に注意する必要があります。おそらく公平な推定モデルのパフォーマンスをもたらす、説明付きの分散の交差検証バージョンを使用できます。


3

参照scikit-学ぶドキュメンテーション(機械学習のためのPythonベースのパッケージ)、r2_scoreと人気のある選択肢はexplained_variance_scoreです。mean_squared_errorやmean_absolute_errorなどの距離測定とは異なり、これらのメトリックは、予測がどの程度良いか悪いかを示します(1に近いほど=>より良い予測)。[ちなみに、距離メジャーを使用する場合は、大きさを予測と比較できるように、MSE(平均二乗誤差)ではなくRMSE(二乗平均平方根誤差)をお勧めします]

または、ピアソンの相関係数(線形モデルの場合)を使用して、リグレッサの予測値と真のターゲット変数値の間の相関係数を計算するか、スピアマンの順位相関係数(線形モデルを想定しておらず、外れ値の影響を受けにくいため)を使用することもできます。 )。

John Yetterの回答で提案されている学習曲線も良い方法ですが、上記のメトリックはパフォーマンスを評価する方が簡単な場合があります。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.