Pengujian hipotesis dan total variasi jarak vs divergensi Kullback-Leibler


10

Dalam penelitian saya, saya telah mengalami masalah umum berikut: Saya memiliki dua distribusi dan di domain yang sama, dan sejumlah besar sampel (tetapi terbatas) dari distribusi tersebut. Sampel didistribusikan secara independen dan identik dari salah satu dari dua distribusi ini (meskipun distribusi mungkin terkait: misalnya, mungkin campuran dan beberapa distribusi lainnya.) Hipotesis nol adalah bahwa sampel berasal dari , hipotesis alternatif adalah bahwa sampel berasal dari .PQQPPQ

Saya mencoba untuk mengkarakterisasi Tipe I dan Tipe kesalahan II dalam pengujian sampel, mengetahui distribusi dan . Terutama, saya tertarik berlari satu kesalahan diberikan yang lain, selain pengetahuan tentang dan .PQPQ

Saya telah mengajukan pertanyaan pada math.SE tentang hubungan jarak Variasi Total antara dan untuk pengujian hipotesis, dan menerima jawaban yang saya terima. Jawaban itu masuk akal, tetapi saya masih belum bisa membungkus pikiran saya di sekitar makna yang lebih dalam di balik hubungan Total Variation distance dan pengujian hipotesis yang berkaitan dengan masalah saya. Jadi, saya memutuskan untuk beralih ke forum ini.PQ

Pertanyaan pertama saya adalah: apakah variasi total terikat pada jumlah probabilitas kesalahan Tipe I dan Tipe II terlepas dari metode pengujian hipotesis yang digunakan seseorang? Intinya, selama ada probabilitas bukan nol bahwa sampel dapat dihasilkan oleh salah satu distribusi, probabilitas setidaknya satu kesalahan harus bukan nol. Pada dasarnya, Anda tidak dapat melepaskan diri dari kemungkinan bahwa penguji hipotesis Anda akan membuat kesalahan, tidak peduli berapa banyak pemrosesan sinyal yang Anda lakukan. Dan Total Variasi membatasi kemungkinan itu. Apakah pemahaman saya benar?

Ada juga hubungan lain antara kesalahan Tipe I dan II dan distribusi probabilitas yang mendasari dan : divergensi KL . Dengan demikian, pertanyaan kedua saya adalah: apakah KL-divergence terikat hanya berlaku untuk satu metode pengujian hipotesis tertentu (tampaknya banyak muncul di sekitar metode rasio log-likelihood) atau dapatkah seseorang menerapkannya secara umum di semua metode pengujian hipotesis? Jika itu berlaku di semua metode pengujian hipotesis, daripada mengapa tampaknya sangat berbeda dari Total Variasi terikat? Apakah itu berperilaku berbeda?QPQ

Dan pertanyaan mendasar saya adalah: apakah ada serangkaian keadaan yang ditentukan ketika saya harus menggunakan salah satu ikatan, atau apakah itu murni masalah kenyamanan? Kapan hasil harus diperoleh dengan menggunakan satu ikatan dengan yang lain?

Saya minta maaf jika pertanyaan ini sepele. Saya seorang ilmuwan komputer (jadi ini sepertinya masalah pencocokan pola mewah bagi saya :).) Saya tahu teori informasi dengan cukup baik, dan memiliki latar belakang lulusan dalam teori probabilitas juga. Namun, saya baru mulai mempelajari semua hal pengujian hipotesis ini. Jika perlu, saya akan melakukan yang terbaik untuk mengklarifikasi pertanyaan saya.

Jawaban:


8

Sastra: Sebagian besar jawaban yang Anda butuhkan tentu ada dalam buku karya Lehman dan Romano . Buku karya Ingster dan Suslina membahas topik-topik yang lebih maju dan mungkin memberi Anda jawaban tambahan.

Jawab: Namun, semuanya sangat sederhana: (atau ) adalah jarak "benar" untuk digunakan. Hal ini tidak nyaman untuk perhitungan formal (terutama dengan langkah-langkah produk, yaitu ketika Anda memiliki sampel iid ukuran ) dan jarak lainnya (yang batas atas dari ) dapat digunakan. Biarkan saya memberi Anda detailnya. T V n L 1L1TVnL1

Pengembangan: Mari kita tandai dengan

  • α 0 P 0 P 1g1(α0,P1,P0) kesalahan tipe II minimum dengan kesalahan tipe I untuk dan yang null dan alternatifnya.α0P0P1
  • t ( 1 - t ) P 0 P 1g2(t,P1,P0) jumlah minimal yang mungkin tipe I + tipe kesalahan II dengan dan nol dan alternatif.t(1t)P0P1

Ini adalah kesalahan minimal yang perlu Anda analisis. Persamaan (bukan batas bawah) diberikan oleh teorema 1 di bawah ini (dalam hal jarak (atau jarak TV jika Anda yang)). Ketidaksetaraan antara jarak dan jarak lainnya diberikan oleh Teorema 2 (perhatikan bahwa untuk membatasi kesalahan yang Anda butuhkan batas atas atau ). L 1 L 1 T VL1L1L1TV

Yang pasti akan digunakan kemudian adalah masalah kenyamanan karena seringkali lebih sulit untuk dihitung daripada Hellinger atau Kullback atau . Contoh utama dari perbedaan tersebut muncul ketika dan adalah ukuran produk yang muncul dalam kasus ketika Anda ingin menguji dibandingkan dengan ukuran sampel iid. Dalam hal ini dan yang lainnya diperoleh dengan mudah dari (sama untuk dan ) tetapi Anda tidak dapat melakukannya dengan ...L1χ2P1P0Pi=pin i=0,1p1p0nh(P1,P0)h(p1,p0)KLχ2L1

Definisi: Afinitas antara dua ukuran dan didefinisikan sebagai .A1(ν1,ν0)ν1ν2

A1(ν1,ν0)=min(dν1,dν0)

Teorema 1 Jika(setengah dist TV), lalu |ν1ν0|1=|dν1dν0|

  • 2A1(ν1,ν0)=(ν1+ν0)|ν1ν0|1 .
  • g1(α0,P1,P0)=supt[0,1/α0](A1(P1,tP0)tα0)
  • g2(t,P1,P0)=A1(tP0,(1t)P1)

Saya menulis buktinya di sini .

Teorema 2 Untuk distribusi probabilitas dan : P1P0

12|P1P0|1h(P1,P0)K(P1,P0)χ2(P1,P0)

Batas ini disebabkan oleh beberapa ahli statistik terkenal (LeCam, Pinsker, ...). adalah jarak Hellinger, divergensi KL dan divergensi chi-square. Mereka semua didefinisikan di sini . dan bukti batas-batas ini diberikan (hal-hal lebih lanjut dapat ditemukan dalam buku Tsybacov ). Ada juga sesuatu yang hampir merupakan batas bawah oleh Hellinger ...hKχ2L1


1
Terima kasih atas jawabannya, saya sekarang mencoba mencernanya. Dalam masalah saya, saya mengizinkan kesalahan Tipe I. Saya juga memiliki dua distribusi dan . Saya tahu bahwa TV di antara mereka (juga KL). Jadi, apa yang Anda katakan adalah bahwa TV memberikan batas bawah yang lebih ketat pada kesalahan Tipe II daripada KL, artinya saya harus menggunakan TV untuk analisis saya jika saya menginginkan seketat mungkin dari batas bawah? P0P1
MBM

Dan terima kasih atas saran buku Lehmann dan Romano, ini terlihat sangat membantu dan tidak terlalu berlebihan. Juga, perpustakaan saya memiliki salinan! :)
MBM

@Bullmoose yang Teorema 1 katakan di sini adalah bahwa TV (atau L1) terkait dengan kesetaraan dengan yang terkait dengan kesetaraan ke g_2 atau g_1 (jumlah kesalahan minimum atau kesalahan tipe II dengan tipe I yang dikontrol). Tidak ada ketidaksetaraan di sini. Ketidaksetaraan terjadi ketika Anda harus beralih dari L1 ke Kullback. A1
robin girard

Sayangnya, saya hanya memiliki latar belakang minimal dalam teori ukuran. Saya pikir saya agak mengerti apa itu dan , tapi saya tidak jelas tentang . Katakanlah saya memiliki dua distribusi Gaussian. TV (atau L1) di antara mereka adalah Tapi apa yang akan menjadi ? Dari definisi, sepertinya ...g1g2A1
12π|exp(x2/2σ12)σ1exp(x2/2σ22)σ2|dx
A1
12πmin(exp(x2/2σ12)σ1,exp(x2/2σ22)σ2)dx
MBM

... tetapi bagaimana memetakan ini dari peluru pertama dalam teorema? (ν1+ν2)
MBM

1

Jawab pertanyaan pertama Anda: Ya, satu minus jarak variasi total adalah batas bawah jumlah tingkat kesalahan Tipe I + Tipe II. Batas bawah ini berlaku apa pun algoritma pengujian hipotesis yang Anda pilih.

Pembenaran: The jawaban yang Anda punya di Math.SE memberikan bukti standar fakta ini. Perbaiki tes hipotesis. Biarkan menunjukkan himpunan hasil di mana tes ini akan menolak hipotesis nol (himpunan seperti itu harus selalu ada). Kemudian perhitungan dalam jawaban Math.SE membuktikan batas bawah.A

(Sebenarnya, garis penalaran ini mengasumsikan bahwa uji hipotesis Anda adalah prosedur deterministik. Tetapi bahkan jika Anda mempertimbangkan prosedur acak, masih mungkin untuk menunjukkan bahwa ikatan yang sama masih berlaku.)

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.