Pada dasarnya, ini bukan masalah besar, karena sebagian besar dari hal-hal ini akan keluar dalam pencucian. Pada umumnya, manipulasi eksplisit dari output estimasi akan menjadi negatif untuk proses tersebut. Perkiraan poin cerita bekerja paling baik ketika tim mengawasi bola - Anda memperkirakan kompleksitas relatif dari cerita versus cerita lain, dan selama Anda memiliki informasi historis untuk cerita yang selesai, Anda mungkin akan melihat hal-hal diselesaikan dalam jangka panjang. Inilah tempat di mana kohesi tim memberi manfaat, karena tim pada akhirnya akan menentukan metode dan referensi cerita untuk estimasi cerita.
Deflasi titik cerita bisa menjadi masalah ringan, meskipun, karena kisaran perkiraan titik Anda dikompresi, Anda mulai kehilangan informasi tentang fine tuning kecepatan, dan bahwa kompresi dapat memiliki efek negatif dalam memperkirakan panjang pengiriman pengiriman rilis jangka panjang. perencanaan (karena Anda akan melipatgandakan kesalahan yang diperkenalkan oleh kompresi semua cerita Anda ke dalam rentang yang sempit). Pada umumnya, Anda ingin hasil peningkatan kecepatan karena keahlian diungkapkan sebagai mengambil poin cerita lebih banyak daripada perkiraan turun. Cara untuk memerangi itu adalah dengan terus-menerus referensi perkiraan selesai sebelumnya dan pastikan Anda selalu memperkirakan kompleksitas. Jangan pernah menyatakan berapa lama Anda berpikir akan terjadi sesuatu, bandingkan saja keseluruhan kesulitan sebuah cerita dibandingkan dengan cerita sebelumnya. Membiarkan' katakanlah Anda memiliki aplikasi yang mendukung platform seluler, dan Anda harus porting ke yang lain. Apakah mirip dengan port sebelumnya? Lebih keras, karena platform memiliki tooling yang lebih buruk? Lebih mudah, karena Anda memiliki debugger yang lebih baik? Itu seharusnya menginformasikan perkiraan Anda, bukan fakta bahwa port ini kemungkinan akan berjalan lebih cepat karena tim Anda semakin mahir dalam memperkirakan. Berkonsentrasi pada kompleksitas harus membantu menyelesaikan masalah ini, sejauh ada satu.