Saya membaca berulang-ulang bahwa validasi silang "Leave-one-out" memiliki varian yang tinggi karena tumpang tindih yang besar dari lipatan pelatihan. Namun saya tidak mengerti mengapa itu adalah: Tidak seharusnya kinerja validasi silang menjadi sangat stabil (varian rendah) justru karena set pelatihan hampir identik? Atau apakah saya memiliki pemahaman yang salah tentang konsep "varian" sama sekali?
Saya juga tidak sepenuhnya mengerti bagaimana LOO bisa tidak bias, tetapi memiliki varian yang tinggi? Jika estimasi LOO sama dengan nilai estimator sebenarnya dalam ekspektasi - bagaimana bisa kemudian memiliki varians tinggi?
Catatan: Saya tahu bahwa ada pertanyaan serupa di sini: Mengapa varians silang validasi-tinggalkan (satu-keluar-keluar) tentang estimasi rata-rata untuk kesalahan tinggi? Namun orang yang telah menjawab mengatakan kemudian dalam komentar bahwa meskipun dia mengalami peningkatan, dia menyadari bahwa jawabannya salah.