「Leave-one-out」クロス検証は、トレーニングフォールドの大きな重なりのために、分散が大きいことを繰り返し読みました。ただし、その理由はわかりません。トレーニングセットがほぼ同一であるため、相互検証のパフォーマンスが非常に安定(分散が小さい)である必要はありませんか。または、「分散」の概念を完全に間違って理解していますか?
また、LOOがどのように偏りがないかを完全には理解していませんが、大きなばらつきがありますか?LOO推定値が期待値の真の推定値に等しい場合、どのようにして高い分散を得ることができますか?
注:ここに同様の質問があることを知っています: なぜエラーの平均推定値に関するleave-one-out cross-validation(LOOCV)分散が高いのですか?しかし、答えた人はコメントの後半で、賛成にもかかわらず彼の答えが間違っていることに気付いたと言っています。