Apakah ambang keputusan hiperparameter dalam regresi logistik?


13

Kelas yang diprediksi dari regresi logistik (biner) ditentukan dengan menggunakan ambang pada probabilitas keanggotaan kelas yang dihasilkan oleh model. Seperti yang saya pahami, biasanya 0,5 digunakan secara default.

Tetapi memvariasikan ambang akan mengubah klasifikasi yang diprediksi. Apakah ini berarti ambangnya adalah hiperparameter? Jika demikian, mengapa (misalnya) tidak mungkin untuk dengan mudah mencari kisi ambang menggunakan metode scikit-learn GridSearchCV(seperti yang Anda lakukan untuk parameter regularisasi C).


1
"Seperti yang saya pahami, biasanya 0,5 digunakan secara default." Tergantung pada arti kata "tipikal". Dalam praktiknya, tidak ada yang harus melakukan ini.
Matthew Drury


Sebenarnya Anda tidak bermaksud regresi logistik, maksud Anda menggunakan satu regresi logistik dengan ambang batas untuk klasifikasi biner (Anda juga bisa melatih satu regresi untuk masing-masing dari dua kelas, dengan sedikit keacakan acak atau pembobotan untuk menghindarkan mereka dari ketergantungan linear).
smci

Jawaban:


12

Ambang keputusan membuat pertukaran antara jumlah positif yang Anda prediksi dan jumlah negatif yang Anda prediksi - karena, secara tautologis, meningkatkan ambang keputusan akan mengurangi jumlah positif yang Anda prediksi dan meningkatkan jumlah negatif yang Anda prediksi Anda memprediksi.

Ambang keputusan bukan parameter-hiper dalam arti penyetelan model karena tidak mengubah fleksibilitas model.

Cara Anda berpikir tentang kata "tune" dalam konteks ambang keputusan berbeda dari bagaimana parameter-hiper disetel. Mengubah C dan parameter hyper model lainnya mengubah model(misalnya, koefisien regresi logistik akan berbeda), sementara menyesuaikan ambang hanya dapat melakukan dua hal: menukar TP untuk FN, dan FP untuk TN. Namun, modelnya tetap sama, karena ini tidak mengubah koefisien. (Hal yang sama berlaku untuk model yang tidak memiliki koefisien, seperti hutan acak: mengubah ambang batas tidak mengubah apa pun tentang pohon.) Jadi dalam arti yang sempit, Anda benar bahwa menemukan trade-off terbaik di antara kesalahan adalah "tuning," tetapi Anda salah dalam berpikir bahwa mengubah ambang batas terkait dengan parameter-parameter model lain dengan cara yang dioptimalkan oleh GridSearchCV.

Dengan kata lain, mengubah ambang keputusan mencerminkan pilihan Anda tentang berapa banyak Positif Salah dan Negatif Palsu yang ingin Anda miliki. Pertimbangkan hipotesis bahwa Anda menetapkan ambang keputusan ke nilai yang sepenuhnya tidak masuk akal seperti -1. Semua probabilitas adalah non-negatif, jadi dengan ambang ini Anda akan memprediksi "positif" untuk setiap pengamatan. Dari perspektif tertentu, ini bagus, karena tingkat negatif palsu Anda adalah 0,0. Namun, tingkat positif palsu Anda juga pada tingkat paling tinggi 1,0, jadi dalam hal itu pilihan Anda untuk ambang -1 adalah mengerikan.

Yang ideal, tentu saja, adalah memiliki TPR 1,0 dan FPR 0,0 dan FNR 0,0. Tapi ini biasanya tidak mungkin dalam aplikasi dunia nyata, jadi pertanyaannya kemudian menjadi "berapa banyak FPR yang bersedia saya terima untuk berapa banyak TPR?" Dan ini adalah motivasi dari kurva .


Terima kasih atas jawaban @ Scorax. Anda hampir meyakinkan saya. Tetapi tidak bisakah kita memformalkan gagasan "berapa banyak FPR yang bersedia saya terima untuk berapa banyak TPR"? misalnya menggunakan matriks biaya. Jika kita memiliki matriks biaya maka tidakkah diinginkan untuk menemukan ambang optimal melalui penyetelan, karena Anda akan menyetel hyperparameter? Atau adakah cara yang lebih baik untuk menemukan ambang batas optimal?
Nick

1
CGridSearchCV

@ Scorax Bukankah ambang dan intersep (istilah bias) pada dasarnya melakukan hal yang sama? Yaitu Anda dapat menjaga ambang batas tetap di 0,5 tetapi mengubah intersep sesuai; ini akan "mengubah model" (sesuai komentar terakhir Anda) tetapi akan memiliki efek yang identik dalam hal prediksi biner. Apakah ini benar? Jika demikian, saya tidak yakin perbedaan ketat antara "mengubah model" dan "mengubah aturan keputusan" sangat berarti dalam kasus ini.
Amoeba berkata Reinstate Monica

@amoeba Ini adalah komentar yang membangkitkan semangat. Saya harus mempertimbangkannya. Saya kira saran Anda sama dengan "menjaga ambang batas pada 0,5 dan memperlakukan intersep sebagai hyperparameter, yang Anda sesuaikan." Secara matematis tidak ada yang menghentikan Anda melakukan hal ini, kecuali pengamatan bahwa model tidak lagi memaksimalkan kemungkinannya. Tetapi mencapai MLE mungkin bukan prioritas dalam beberapa konteks tertentu.
Sycorax berkata Reinstate Monica

10

Tetapi memvariasikan ambang akan mengubah klasifikasi yang diprediksi. Apakah ini berarti ambangnya adalah hiperparameter?

Ya, itu agak aneh. Ini adalah hiperparameter dari aturan keputusan Anda , tetapi bukan regresi yang mendasarinya.

Jika demikian, mengapa (misalnya) tidak mungkin untuk dengan mudah mencari kisi ambang menggunakan metode GridSearchCV scikit-learn (seperti yang akan Anda lakukan untuk parameter regularisasi C).

Ini adalah kesalahan desain di sklearn. Praktik terbaik untuk sebagian besar skenario klasifikasi adalah menyesuaikan model yang mendasarinya (yang memprediksi probabilitas) menggunakan beberapa ukuran kualitas probabilitas ini (seperti log-loss dalam regresi logistik). Setelah itu, ambang batas keputusan tentang probabilitas ini harus disesuaikan untuk mengoptimalkan beberapa tujuan bisnis dari aturan klasifikasi Anda. Perpustakaan harus membuatnya mudah untuk mengoptimalkan ambang keputusan berdasarkan beberapa ukuran kualitas, tapi saya tidak percaya itu melakukannya dengan baik.

Saya pikir ini adalah salah satu tempat sklearn yang salah. Perpustakaan mencakup metode predict,, pada semua model klasifikasi yang ambang di 0.5. Metode ini tidak berguna, dan saya sangat menganjurkan untuk tidak pernah memohonnya. Sangat disayangkan bahwa sklearn tidak mendorong alur kerja yang lebih baik.


Saya juga berbagi skeptisisme Anda predicttentang pilihan default metode 0,5 sebagai cutoff, tetapi GridSearchCVmenerima scorerobjek yang dapat menyetel model sehubungan dengan kehilangan cross-entropy out-of-sample. Apakah saya kehilangan poin Anda?
Sycorax berkata Reinstate Monica

Benar, disepakati itu adalah praktik terbaik, tetapi itu tidak mendorong pengguna untuk menyempurnakan ambang keputusan.
Matthew Drury

Kena kau. Aku mengerti apa yang kamu maksud!
Sycorax berkata Reinstate Monica

1
@ Scorax mencoba mengedit untuk memperjelas!
Matthew Drury
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.