Yang pertama dapat 'ditafsirkan' sebagai berikut: jika prediktor penting dalam model Anda saat ini, maka menetapkan nilai-nilai lain untuk prediktor itu secara acak tetapi 'realistis' (yaitu: membubuhkan nilai-nilai prediktor ini pada dataset Anda), harus memiliki pengaruh negatif pada prediksi, yaitu: menggunakan model yang sama untuk memprediksi dari data yang sama kecuali untuk satu variabel, harus memberikan prediksi yang lebih buruk.
Jadi, Anda mengambil ukuran prediktif (MSE) dengan dataset asli dan kemudian dengan dataset 'permutasi', dan Anda membandingkannya entah bagaimana. Satu cara, terutama karena kami berharap MSE asli selalu lebih kecil, perbedaan dapat diambil. Akhirnya, untuk membuat nilai-nilai sebanding dengan variabel, ini diskalakan.
Untuk yang kedua: di setiap pemisahan, Anda dapat menghitung berapa banyak pemisahan ini mengurangi ketidakmurnian simpul (untuk pohon regresi, memang, perbedaan antara RSS sebelum dan sesudah pemisahan). Ini dijumlahkan di atas semua pembagian untuk variabel itu, di atas semua pohon.
Catatan: bacaan yang baik adalah Elemen Pembelajaran Statistik oleh Hastie, Tibshirani dan Friedman ...
?importance
? Ada penjelasan di sana tentang apa arti kedua tindakan ...