Arti asli "Ablasi" adalah pengangkatan jaringan tubuh secara bedah . Istilah "studi Ablasi" berakar pada bidang neuropsikologi eksperimental tahun 1960-an dan 1970-an, di mana bagian-bagian otak hewan dihilangkan untuk mempelajari efek yang terjadi pada perilaku mereka.
Dalam konteks pembelajaran mesin, dan khususnya jaringan saraf yang kompleks, "studi ablasi" telah diadopsi untuk menggambarkan prosedur di mana bagian-bagian tertentu dari jaringan dihapus, untuk mendapatkan pemahaman yang lebih baik tentang perilaku jaringan.
Istilah ini telah mendapat perhatian sejak tweet oleh Francois Chollet , penulis utama kerangka belajar dalam Keras, pada Juni 2018:
Studi ablasi sangat penting untuk penelitian pembelajaran mendalam - tidak bisa cukup menekankan hal ini. Memahami hubungan sebab akibat dalam sistem Anda adalah cara paling mudah untuk menghasilkan pengetahuan yang dapat diandalkan (tujuan dari penelitian apa pun). Dan ablasi adalah cara yang sangat mudah untuk melihat kausalitas.
Jika Anda mengambil pengaturan eksperimental pembelajaran mendalam yang rumit, kemungkinan Anda dapat menghapus beberapa modul (atau mengganti beberapa fitur terlatih dengan yang acak) tanpa kehilangan kinerja. Singkirkan kebisingan dalam proses penelitian: lakukan studi ablasi.
Tidak dapat sepenuhnya memahami sistem Anda? Banyak bagian yang bergerak? Ingin memastikan alasan kerjanya benar-benar terkait dengan hipotesis Anda? Coba hapus barang-barang. Habiskan setidaknya ~ 10% dari waktu percobaan Anda pada upaya yang jujur untuk menyanggah tesis Anda.
Sebagai contoh, Girshick dan rekan (2014) menjelaskan sistem deteksi objek yang terdiri dari tiga "modul": Yang pertama mengusulkan daerah gambar di mana untuk mencari objek menggunakan algoritma Pencarian Selektif ( Uijlings dan rekan 2012 ), yang feed ke jaringan saraf convolutional besar (dengan 5 lapisan convolutional dan 2 lapisan terhubung sepenuhnya) yang melakukan ekstraksi fitur, yang pada gilirannya dimasukkan ke dalam set mesin vektor dukungan untuk klasifikasi. Untuk lebih memahami sistem, penulis melakukan studi ablasi di mana bagian-bagian yang berbeda dari sistem dihapus - misalnya menghapus satu atau kedua lapisan CNN yang sepenuhnya terhubung menghasilkan sedikit sekali kehilangan kinerja, yang memungkinkan penulis untuk menyimpulkan
Sebagian besar kekuatan representasi CNN berasal dari lapisan konvolusionalnya, bukan dari lapisan yang jauh lebih besar yang terhubung secara padat.
OP meminta detail / bagaimana / untuk melakukan studi ablasi, dan untuk referensi yang komprehensif. Saya tidak percaya ada jawaban "satu ukuran cocok untuk semua" untuk ini. Metrik cenderung berbeda, tergantung pada aplikasi dan jenis model. Jika kita mempersempit masalah hanya ke satu jaringan saraf yang dalam maka relatif lurus ke depan untuk melihat bahwa kita dapat menghapus lapisan dengan cara berprinsip dan mengeksplorasi bagaimana ini mengubah kinerja jaringan. Selain itu, dalam praktiknya, setiap situasi berbeda dan di dunia aplikasi pembelajaran mesin besar yang kompleks, ini akan berarti bahwa pendekatan unik mungkin diperlukan untuk setiap situasi.
Dalam konteks contoh dalam OP - regresi linier - studi ablasi tidak masuk akal, karena semua yang dapat "dihapus" dari model regresi linier adalah beberapa prediktor. Melakukan ini dengan cara "berprinsip" hanyalah prosedur pemilihan bertahap terbalik, yang umumnya disukai - lihat di sini , di sini dan di sini untuk detailnya. Prosedur regularisasi seperti Lasso, adalah pilihan yang jauh lebih baik untuk regresi linier.
Referensi:
Girshick, R., Donahue, J., Darrell, T. dan Malik, J., 2014. Hirarki fitur yang kaya untuk deteksi objek yang akurat dan segmentasi semantik. Dalam Prosiding konferensi IEEE pada visi komputer dan pengenalan pola (hal. 580-587).
Uijlings, JR, Van De Sande, KE, Gevers, T. dan Smeulders, AW, 2013. Pencarian selektif untuk pengenalan objek. Jurnal internasional visi komputer, 104 (2), hlm.154-171.