Perbandingan antara SHAP (Penjelasan Shapley Additive) dan LIME (Penjelasan Agnostik Model Lokal yang Dapat Diartikan)


20

Saya membaca tentang dua teknik interpretabilitas model post hoc yang populer: LIME dan SHAP

Saya mengalami kesulitan memahami perbedaan utama dalam kedua teknik ini.

Untuk mengutip Scott Lundberg , otak di balik SHAP:

Nilai SHAP datang dengan keunggulan estimasi kotak hitam lokal LIME, tetapi juga dilengkapi dengan jaminan teoretis tentang konsistensi dan akurasi lokal dari teori permainan (atribut dari metode lain yang kami satukan)

Saya mengalami kesulitan memahami apa ' jaminan teoritis tentang konsistensi dan akurasi lokal dari teori permainan ' ini. Karena SHAP dikembangkan setelah LIME, saya menganggapnya mengisi beberapa celah yang gagal ditangani oleh LIME. Apa itu?

Buku Christoph Molnar dalam bab tentang Estimasi Shapley menyatakan:

Perbedaan antara prediksi dan prediksi rata-rata terdistribusi secara adil di antara nilai-nilai fitur dari instance - properti efisiensi shapley. Properti ini menetapkan nilai Shapley terpisah dari metode lain seperti LIME. LIME tidak menjamin untuk mendistribusikan efek dengan sempurna. Mungkin menjadikan nilai Shapley satu-satunya metode untuk memberikan penjelasan lengkap

Membaca ini, saya mendapatkan pengertian bahwa SHAP bukan lokal tetapi penjelasan glocal dari titik data. Saya bisa saja salah di sini dan perlu beberapa pengertian tentang apa arti kutipan di atas. Untuk meringkas pertanyaan saya: LIME menghasilkan penjelasan lokal. Apa perbedaan penjelasan SHAP dengan LIME?


2
Pertanyaan yang bagus (+1), saya akan mencoba menjawabnya ketika saya punya waktu tetapi hal yang jelas untuk diperhatikan adalah bahwa LIME tidak menawarkan penjelasan yang konsisten secara global sementara SHAP melakukannya. Juga, SHAP pasti telah dikembangkan sebelum LIME. SHAP sangat bergantung pada karya Strumbelj & Kononenko dari latE 00's / awal 10-an serta bekerja pada ekonomi pada game koperasi utilitas yang dapat ditransfer (misalnya Lipovetsky & Conklin (2001)). Selain itu, banyak pekerjaan pada pengukuran analisis sensitivitas (misalnya Indeks Sobol) juga berjalan seperti itu. Gagasan Core SHAP umumnya dikenal sebelum NIPS 2017.
usεr11852 mengatakan Reinstate Monic

2
(Hanya untuk memperjelas bagian kedua dari komentar saya di atas: Saya tidak menyarankan bahwa makalah NIPS 2017 adalah produk plagiarisme atau apa pun yang seperti itu dari jarak jauh. Hanya saja, saya sering melihat orang mengabaikan banyak pekerjaan sebelumnya pada sebuah lapangan dan memperlakukan penampang baru-baru ini dari evolusi organik dari bidang pengetahuan sebagai terobosan metodologis utama.Dalam kasus khusus ini: teori permainan algoritmik telah ada selama beberapa dekade sebagai bagian dari AI, sekarang menjadi semi- dingin . )
usεr11852 mengatakan Reinstate Monic

1
@ usεr11852 Menunggu jawaban Anda. Silakan berkontribusi ide-ide Anda dalam hal ini.
user248884

2
Belum punya semua waktu yang diperlukan; Saya telah menulis sekitar 400 kata tetapi perlu setidaknya 6-7 jam kerja karena saya harus membaca ulang beberapa makalah dan mengencangkan teks saya - menjelaskan SHAP tanpa membuat penyederhanaan yang berlebihan agak sedikit menantang (bagi saya setidaknya). Mungkin saya akan membuatnya sebelum pertengahan Desember ... :)
usεr11852 mengatakan Reinstate Monic

1
@ usεr11852 Tentu. Akan menunggu :)
user248884

Jawaban:


8

LIME membuat model pengganti secara lokal di sekitar unit yang prediksi yang ingin Anda pahami. Karena itu sifatnya lokal. Nilai-nilai cantik 'mendekomposisi' prediksi akhir ke dalam kontribusi setiap atribut - inilah yang oleh beberapa orang diartikan sebagai 'konsisten' (nilai-nilai tersebut ditambah dengan prediksi aktual dari model yang sebenarnya, ini bukan sesuatu yang Anda dapatkan dengan LIME). Tetapi untuk benar-benar mendapatkan nilai-nilai bentuk ada beberapa keputusan yang harus dibuat tentang apa yang harus dilakukan / bagaimana menangani nilai-nilai atribut 'ditinggalkan', ini adalah bagaimana nilai-nilai itu sampai pada. Dalam keputusan ini ada beberapa pilihan yang bisa mengubah interpretasi. Jika saya 'meninggalkan' atribut, apakah saya memberi rata-rata semua kemungkinan? Apakah memilih 'garis dasar'?

Jadi Shapely benar-benar memberi tahu Anda, dengan cara tambahan, bagaimana Anda mendapatkan skor Anda, tetapi ada beberapa pilihan tentang 'titik awal' (yaitu keputusan tentang atribut yang dihilangkan).

LIME hanya memberi tahu Anda, dalam arti lokal, apa atribut paling penting di sekitar titik data yang menarik.


Bisakah Anda juga menambahkan bagaimana masing-masing model membuat skor mereka (misalnya skor shap) - Saya menemukan skor ini cukup menjengkelkan karena tidak normal dan saya tidak mengerti apa artinya!
user4581
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.