Hanya untuk mengklarifikasi tentang kaitannya dengan judul, kami tidak menggunakan distribusi-t untuk memperkirakan rata-rata (dalam arti estimasi titik setidaknya), tetapi untuk membangun interval untuk itu.
Tetapi mengapa menggunakan estimasi ketika Anda bisa mendapatkan interval kepercayaan diri Anda dengan tepat?
Ini adalah pertanyaan yang bagus (selama kita tidak terlalu bersikeras tentang 'tepatnya', karena asumsi untuk itu tepat t-didistribusikan tidak akan benar-benar berlaku).
"Anda harus menggunakan tabel distribusi-t ketika mengerjakan masalah ketika standar deviasi populasi (σ) tidak diketahui dan ukuran sampel kecil (n <30)"
Mengapa orang tidak menggunakan T-distribusi sepanjang waktu ketika standar deviasi populasi tidak diketahui (bahkan ketika n> 30)?
Saya menganggap saran itu sebagai - paling-paling - berpotensi menyesatkan. Dalam beberapa situasi, distribusi t masih harus digunakan ketika derajat kebebasan jauh lebih besar dari itu.
Di mana yang normal adalah perkiraan yang wajar tergantung pada berbagai hal (dan juga tergantung pada situasinya). Namun, karena (dengan komputer) sama sekali tidak sulit untuk hanya menggunakan t , bahkan jika df sangat besar, Anda harus bertanya-tanya mengapa perlu khawatir melakukan sesuatu yang berbeda pada n = 30.
Jika ukuran sampel benar-benar besar, itu tidak akan membuat perbedaan nyata pada interval kepercayaan, tapi saya tidak berpikir n = 30 selalu cukup dekat dengan 'sangat besar'.
Ada satu keadaan di mana mungkin masuk akal untuk menggunakan normal daripada t - saat itulah data Anda jelas tidak memenuhi kondisi untuk mendapatkan distribusi-t, tetapi Anda masih bisa berdebat untuk perkiraan normalitas rata-rata (jika n cukup besar). Namun, dalam keadaan itu, seringkali t adalah pendekatan yang baik dalam praktik, dan mungkin agak 'lebih aman'. [Dalam situasi seperti itu, aku mungkin cenderung menyelidiki melalui simulasi.]