Saya sedang menulis skrip yang menganalisis waktu proses yang dijalankan. Saya tidak yakin distribusi mereka tetapi saya ingin tahu apakah suatu proses berjalan "terlalu lama". Sejauh ini saya telah menggunakan 3 standar deviasi dari waktu menjalankan terakhir (n> 30), tetapi saya diberitahu bahwa ini tidak memberikan sesuatu yang berguna jika datanya tidak normal (yang sepertinya tidak ada). Saya menemukan tes pencilan lain yang menyatakan:
Temukan rentang antar kuartil, yaitu IQR = Q3 - Q1, di mana Q3 adalah kuartil ketiga dan Q1 adalah kuartil pertama. Kemudian temukan dua angka ini:
a) Q1 - 1.5 * IQR b) Q3 + 1.5 * IQR
Intinya adalah pencilan jika <a atau> b
Data saya cenderung seperti 2sec, 3sec, 2sec, 5sec, 300sec, 4sec, .... di mana 300sec jelas merupakan outlier.
Metode mana yang lebih baik? Metode IQR atau metode deviasi std?