K-fold cross-validation (CV) secara acak memecah data Anda menjadi partisi K, dan Anda pada gilirannya memegang salah satu bagian K tersebut sebagai kasus uji, dan menyatukan bagian K-1 lainnya sebagai data pelatihan Anda. Leave One Out (LOO) adalah kasus khusus di mana Anda mengambil item data N Anda dan melakukan N-lipat CV. Dalam beberapa hal, Tahan adalah kasus khusus lain, di mana Anda hanya memilih salah satu lipatan K Anda sebagai tes dan tidak memutar semua lipatan K.
Sejauh yang saya tahu, CV 10 kali lipat adalah de rigueur, karena menggunakan data Anda secara efisien dan juga membantu menghindari pilihan partisi yang tidak beruntung. Hold Out tidak memanfaatkan data Anda secara efisien, dan LOO tidak sekuat (atau sesuatu seperti itu), tetapi 10-ish-fold tepat.
Jika Anda tahu bahwa data Anda mengandung lebih dari satu kategori, dan satu atau lebih kategori jauh lebih kecil daripada yang lain, beberapa partisi K acak Anda mungkin bahkan tidak mengandung kategori kecil sama sekali, yang akan menjadi buruk. Untuk memastikan setiap partisi cukup representatif, Anda menggunakan stratifikasi: pisahkan data Anda ke dalam kategori dan kemudian buat partisi acak dengan memilih secara acak dan proporsional dari setiap kategori.
Semua variasi ini pada K-fold CV pilih dari data Anda tanpa penggantian. Bootstrap memilih data dengan penggantian, sehingga datum yang sama dapat dimasukkan beberapa kali dan beberapa data mungkin tidak disertakan sama sekali. (Setiap "partisi" juga akan memiliki item N, tidak seperti K-fold, di mana setiap partisi akan memiliki item N / K.)
(Saya harus mengakui bahwa saya tidak tahu persis bagaimana bootstrap akan digunakan dalam CV. Namun, prinsip pengujian dan CV adalah memastikan Anda tidak menguji data yang Anda latih, sehingga Anda mendapatkan ide yang lebih realistis tentang bagaimana teknik + koefisien Anda dapat bekerja di dunia nyata.)
EDIT: Mengganti "Tahan tidak efisien" dengan "Tahan tidak membuat penggunaan data Anda efisien" untuk membantu memperjelas, sesuai komentar.