Menentukan ambang aturan keputusan biner yang optimal dari pengamatan dengan prior yang tidak diketahui?


8

Diberikan hanya pengamatan sinyal biner yang terganggu oleh noise Gaussian dengan informasi sebelumnya yang tidak diketahui, bagaimana saya bisa memperkirakan ambang keputusan optimal?

(Tidak, ini bukan pertanyaan pekerjaan rumah)

Secara khusus, saya berpikir tentang model berikut: Y adalah dua negara (H0,H1) Variabel acak :

  • P(Y|H0)N(μ0,σ)
  • P(Y|H1)N(μ1,σ),μ0<μ1
  • P(H0)=π0
  • P(H1)=1-π0

dengan parameter yang tidak diketahui :μ0,μ1,σ,π0.

Ambang kemungkinan Log Logikel Posteriori Maksimum dapat dihitung dari parameter tersebut jika saya mengetahuinya. Saya awalnya berpikir tentang cara memperkirakan parameter terlebih dahulu untuk mencapai ambang batasYt. Tapi saya pikir mungkin lebih kuat untuk memperkirakan secara langsungYt.

Pikiran: Normalisasi pengamatan (mengurangi mean sampel dan membaginya dengan standar deviasi) mengurangi ruang parameter menjadi 2 dimensi: π0 dan σμ1-μ0.


Masalah ini akan jauh lebih mudah jika Anda dapat berasumsi bahwa P0 adalah 0,5. :-)
Jim Clay

Mungkin pertanyaan ini agak terkait dengan ini: stackoverflow.com/questions/1504378/… atau stackoverflow.com/questions/5451089/…
hotpaw2

Apakah urutan pelatihan pengamatan tersedia untuk memperkirakan nilai rata-rata, varians, dll.? Atau apakah Anda hanya diberi urutan data di mana beberapa nilai berasalH0 dan beberapa dari H1tetapi Anda tidak tahu yang mana?
Dilip Sarwate

Jawaban:


6

Intuisi saya adalah bahwa akan sulit untuk mendapatkan ambang keputusan yang tepat yang Anda harapkan:

τ=12(μ0+μ1)-σ2μ0-μ12catatanπ1-π(μ0-μ1)

Dari statistik global yang Anda pertimbangkan (mean sampel: πμ0+(1-π)μ1; standar deviasi: ekspresi yang lebih kompleks tapi saya ragu itu akan melibatkan log).

Saya akan mendekati masalah dengan cara ini:

  1. Kalau asumsi itu σ kecil bisa dibuat

    Saya menyebutkan itu, karena perlu diingat bahwa ambang keputusan dipengaruhi oleh π hanya jika σcukup tinggi untuk memungkinkan kedua kelas tumpang tindih. JikaμJauh lebih dari beberapa σ, probabilitas kelas sebelumnya tidak ada artinya dalam proses pengambilan keputusan!

    • Jalankan k-means pada pengamatan Anda (σkecil dan dibagi oleh kedua kelas, sehingga k-means adalah dalam hal ini EM untuk model campuran). Jika Anda hanya ingin mem-binari pengamatan ini dan tidak ada data lain, Anda bisa berhenti di sini.
    • Jika Anda memiliki pengamatan baru untuk binarize, dan Anda tahu mereka dihasilkan oleh proses yang sama, Anda dapat menggunakan centroid kelas yang ditemukan dengan k-means pada data pelatihan Anda sebagai perkiraan μ, dan gunakan tengah sebagai ambang keputusan.
  2. Jika tidak ada asumsi tentang σ dapat di buat

    • Jalankan algoritma EM (dengan gabungan, kovarian diagonal) pada data pelatihan Anda. Gunakan variabel "keanggotaan kelas lunak" yang disimpulkan untuk membuat binari pengamatan Anda.
    • Hitung ambang keputusan τ dari parameter yang diberikan oleh EM untuk membuat binari data baru yang dihasilkan oleh proses yang sama.

2

Untuk meringkas Anda memiliki dua distribusi dengan parameter yang tidak diketahui dan pengukuran yang mungkin berasal dari proses stokastik. Ini biasanya disebut sebagai masalah asosiasi data dan sangat umum, dan dipelajari secara luas, dalam komunitas pelacakan. Anda mungkin mempertimbangkan untuk menggunakan algoritma Probability Data Association Filter (PDAF) atau Multi-Hypothesis Tracking (MHT). Ini harus memberi Anda perkiraan rata-rata dan varians untuk setiap distribusi.
Atau, karena suara Anda berwarna putih dan Gaussian, ML, MAP dan MMSE semuanya setara dan dapat ditemukan dengan meminimalkan kesalahan kuadrat rata-rata (fungsi biaya), seperti yang secara efektif dijelaskan oleh respons sebelumnya. Saya akan menggunakan pendekatan pemrograman dinamis untuk menemukan fungsi biaya minimum. Ini harus kurang kompleks (komputasional) dari metode EM / clustering yang dijelaskan sebelumnya. Satu komentar lagi: PDAF bersifat rekursif. Mengingat model sinyal sederhana itu harus bekerja sangat efektif dan apa yang saya harapkan adalah sebagian kecil dari kompleksitas komputasi dari algoritma EM. Semoga beruntung, -B


1

Ada algoritma dari pertengahan 1980-an oleh Kittler dan Illingworth yang disebut "Minimum Error Thresholding" yang memecahkan masalah ini untuk distribusi Gaussian. Baru-baru ini Mike Titterington (Universitas Glasgow) dan JH Xue (sekarang di UCL) telah menempatkan ini dalam kerangka kerja statistik yang lebih formal, lihat publikasi jurnal bersama mereka.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.