Apakah ada cara yang lebih ilmiah untuk menentukan jumlah digit signifikan untuk dilaporkan dengan rata-rata atau interval kepercayaan dalam situasi yang cukup standar - misalnya kelas tahun pertama di perguruan tinggi.
Saya telah melihat Jumlah angka penting untuk dimasukkan ke dalam tabel , Mengapa kita tidak menggunakan angka signifikan dan Jumlah angka signifikan dalam chi square , tetapi ini tampaknya tidak menyentuh masalah.
Di kelas saya, saya mencoba menjelaskan kepada siswa saya bahwa membuang-buang tinta untuk melaporkan 15 digit signifikan ketika mereka memiliki kesalahan standar yang begitu luas dalam hasil mereka - firasat saya adalah bahwa itu harus dibulatkan ke sekitar suatu tempat dari urutan . Ini tidak jauh berbeda dari apa yang dikatakan oleh ASTM - Hasil Uji Pelaporan mengacu pada E29 di mana mereka mengatakan itu harus antara dan .
EDIT:
Ketika saya memiliki satu set angka seperti di x
bawah ini, berapa angka yang harus saya gunakan untuk mencetak mean dan standar deviasi?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
PERTANYAAN: Jabarkan secara terperinci apa presisi itu (ketika ada vektor angka presisi ganda) untuk mean dan standar deviasi dalam hal ini dan tuliskan fungsi pedagogis R sederhana yang akan mencetak mean dan standar deviasi ke sejumlah besar digit yang tercermin dalam vektor x
.
R
(dan juga hampir semua perangkat lunak), pencetakan dikendalikan oleh nilai global (lihat options(digits=...)
), bukan dengan pertimbangan presisi.