Ini terlihat seperti salah satu kasus di mana simulasi (atau akses kode sumber ...> mendesah <) mungkin akan menjadi satu-satunya cara untuk melihat apa perilaku dengan tingkat kepercayaan apa pun.
Dokumentasi untuk entri log peristiwa untuk pembicaraan daur ulang kuota CPU tentang daur ulang adalah sebagai berikut:
Secara default, daur ulang kumpulan aplikasi tumpang tindih, yang berarti bahwa proses pekerja yang akan ditutup terus berjalan sampai setelah proses pekerja baru dimulai. Setelah proses pekerja baru dimulai, permintaan baru diteruskan ke sana. Proses pekerja lama dimatikan setelah selesai memproses permintaan yang ada, atau setelah batas waktu yang dikonfigurasi, mana yang lebih dulu. Cara daur ulang ini memastikan layanan tanpa gangguan kepada klien. Namun, jika aplikasi dalam kumpulan aplikasi tidak dapat menjalankan lebih dari satu instance itu sendiri pada suatu waktu, rotasi yang tumpang tindih dapat dinonaktifkan.
Tampaknya bagi saya bahwa, menurut definisi, menghentikan proses pekerja karena konsumsi CPU yang berlebihan akan berarti bahwa permintaan yang tertunda tidak akan diizinkan untuk diselesaikan (karena mereka menghabiskan kuota CPU).
Untuk berbicara dengan keprihatinan utama Anda: Saya tidak melihat apa pun yang membuat saya percaya bahwa proses pekerja baru tidak akan berputar secara otomatis. Pernyataan dalam tautan Stack Overflow Anda membuat saya mempertanyakan apakah algoritme yang digunakan oleh IIS mungkin, pada kenyataannya, mengikat daur ulang ke resolusi timer yang digunakan untuk mengukur kelelahan kuota CPU. Cara terbaik yang saya tahu untuk menentukan itu adalah dengan menulis komponen sisi server yang boros CPU, menyebarkannya ke lingkungan pengujian, dan melihat bagaimana perilaku daur ulangnya bekerja. Komponen sederhana yang berada di loop ketat selama beberapa detik dan kemudian mengembalikan string yang dikenal, dikombinasikan dengan klien yang menjalankan uji coba dengan sesuatu seperti kumpulan proses "wget" paralel mungkin sudah cukup.