Berapa suhu yang tepat untuk ruang server?


63

Ketika saya sedang bekerja di ruang server kami, saya perhatikan bahwa itu sangat dingin.

Saya tahu bahwa ruang server harus dingin untuk mengimbangi panas server, tetapi mungkin terlalu dingin.

Berapa suhu yang sesuai untuk menjaga ruang server kami?


1
Tergantung. Banyak server modern sangat senang dengan suhu operasi 45 derajat celcius. USV harus pergi keluar - baterai tidak suka itu. Tetapi untuk server ... itu mungkin ok. Mesin-mesin tua tersedak suhu itu.
TomTom

Jawaban:


53

Rekomendasi pada suhu ruang server sangat bervariasi.

Panduan ini mengatakan bahwa:

Rekomendasi umum menyarankan agar Anda tidak harus di bawah 10 ° C (50 ° F) atau di atas 28 ° C (82 ° F). Meskipun ini tampaknya beraneka ragam, ini adalah ekstrem dan jauh lebih umum untuk menjaga suhu sekitar 20-21 ° C (68-71 ° F). Untuk berbagai alasan, terkadang ini merupakan hal yang sulit.

Ini diskusi di Slashdot memiliki berbagai jawaban, tetapi kebanyakan mereka dalam rentang dikutip di atas.

Pembaruan : Seperti yang dikomentari oleh orang lain di bawah ini, Google merekomendasikan 26,7 ° C (80 ° F) untuk pusat data.

Juga American Society of Heating, pendingin dan AC Engineers (ASHRAE) baru-baru ini diperbarui rentang tempature direkomendasikan mereka berasal dari 18 ° C-27 ° C (64.4 ° F-80,6 ° F).

Namun artikel ini kembali menyoroti bahwa masih belum ada konsensus tentang masalah ini. Seperti yang disebutkan dalam artikel saya akan menyoroti bahwa:

... mendorong termostat lebih tinggi juga dapat menyisakan lebih sedikit waktu untuk pulih dari kegagalan pendinginan, dan hanya sesuai untuk perusahaan dengan pemahaman yang kuat tentang kondisi pendinginan di fasilitas mereka.

Sebagian besar perusahaan IMO tidak akan memiliki pemahaman yang kuat tentang kondisi pendinginan dan dengan demikian akan lebih aman dalam lingkungan bisnis kecil untuk menjalankan kamar sedikit lebih dingin.

NB: Penting untuk dicatat bahwa ada banyak faktor yang perlu dipertimbangkan di server / ruang data selain dari suhu, aliran udara & kelembaban misalnya juga merupakan masalah penting.


1
Google sebenarnya merekomendasikan melihat bahkan menabraknya hingga 80 ° F untuk penghematan energi. Ada artikel yang bagus di sini: datacenterknowledge.com/archives/2008/10/14/…
gharper

1
Terima kasih saya akan memperbarui jawaban untuk menyebutkan bahwa, jawaban asli saya lebih diarahkan pada ruang server kantor kecil sehari-hari - di mana IMO kelonggaran dalam hal kegagalan pendinginan mungkin diperlukan (atau fokus yang lebih besar pada aliran udara dll.
mundeep

36
Sesuatu yang penting untuk diingat adalah bahwa Google beroperasi pada model kegagalan yang diharapkan - alih-alih mahal, server toleran kesalahan seperti kebanyakan perusahaan miliki, Google malah menggunakan perangkat lunak toleran kesalahan yang sangat disesuaikan. Google sepenuhnya mengharapkan server-servernya mati secara teratur (tetapi agar perangkat lunak melakukan rute di sekitar kegagalan). Jadi dalam model penetapan biaya Google mungkin masuk akal untuk menjalankan ruang server mereka pada 80 derajat, karena peningkatan kegagalan perangkat keras (sangat murah) mudah diimbangi oleh penghematan energi. Apakah beberapa server mati seharga $ 6.000 bernilai penghematan listrik di perusahaan Anda?
David

apa yang salah dengan <50 & deg; F? Saya ingin tahu, karena saya tahu beberapa pusat data di lingkungan 'ekstrem' hanya curhat ke luar untuk pendinginan ... dan ada yang ingat Kryotech? perusahaan pertama yang mendapatkan PC konsumen 1Ghz tetapi mendinginkan prosesor Athlon 600Mhz menjadi -40 & deg;
warren

10

Praktik terbaik pusat data Google merekomendasikan 80 derajat:

Menaikkan suhu lorong dingin akan mengurangi penggunaan energi fasilitas. Jangan mencoba menjalankan lorong dingin Anda di 70F; atur suhu pada 80F atau lebih tinggi - hampir semua produsen peralatan mengizinkan ini.

Kami berlari di 72, tapi sekali lagi saya tidak percaya kamar kami dirancang dengan aliran udara dalam pikiran.


8

Seperti yang orang lain katakan, di suatu tempat di 70-an F baik. Namun, lebih penting lagi untuk memastikan rak dan perangkat keras di dalamnya dapat "bernafas". Jika udara panas terperangkap di rak - atau di sasis server - maka suhu rendah tidak akan ada gunanya.


4

Ruang server saya diatur ke 69 derajat. Kami memiliki satu unit pendingin udara yang melayani ruangan itu dan beroperasi 24/7 untuk menjaga ruangan tetap 69 derajat sepanjang tahun.


4

Semua ruang server yang saya lihat biasanya antara 20 ° C dan 25 ° C tetapi dari pengalaman saya perhatikan perangkat keras lebih sensitif terhadap variasi lebih dari suhu yang diberikan. Saya sering melihat perangkat keras gagal setelah benjolan, misalnya 4-5 ° C, meskipun itu dari 20 hingga 25.

Jadi kestabilan adalah kuncinya, juga aliran udara tentunya.


4

18 ° C (65 ° F). Agak lebih dingin dari yang seharusnya, tetapi jika sesuatu gagal itu memberi kita beberapa menit ekstra berharga untuk bereaksi sebelum menjadi sangat panas.


2

Ingatlah bahwa saran Google untuk 80 ° F sebenarnya termasuk tidak ada biaya untuk mematikan pusat data ketika terlalu panas karena beban yang tidak terduga atau kegagalan pendingin udara. Mereka juga termasuk kontrol yang lebih besar dari aliran udara terhadap komponen-komponen penting.


1

Kami ingin milik kami berada di antara 19C dan 23C dengan alarm pada 28C - kami adalah 98% tempat blade HP sehingga jika kami mencapai tingkat alarm itu server / lampiran tertentu 'turunkan sumbunya' untuk menurunkan daya imbang keseluruhan ( ini disebut thermalogic).


1

Dalam pengalaman saya, itu tergantung pada peralatannya. Saya tahu satu perusahaan memiliki tiga ruang server. Satu disimpan sekitar 80 ° F, yang lain, dengan server lebih sedikit, berada di sekitar 72 ° F, dan yang ketiga, dengan hanya dua server, berada di sekitar 65 ° F. Tidak pernah memiliki masalah pada saat saya berada di sana, tetapi, seperti yang dikatakan orang lain, 75 ° F atau sedikit di bawah mungkin yang terbaik, karena memberikan sedikit ruang siku jika AC padam.


0

Lebih dari 30c di saluran masuk udara yang kami temukan menyebabkan peringatan suhu (yang kami pantau), Secara umum itu berarti suhu ruangan ambien di bawah 25c.

Di Australia, sepertinya Emerson (Liebert) memutuskan bahwa 21c akan menjadi standar dan setiap ruangan yang saya kunjungi di sini telah disetel sama.

Jika ruangan Anda cukup besar lihatlah hot-aise / cold-aise, blanking tiles, dan sejenisnya, mereka benar-benar dapat meningkatkan efisiensi pendinginan.


0

Saya di Angkatan Laut. Di kapal kami, kami menyimpan kamar kami di bawah 65 derajat Fahrenheit. Kami akan berada di tengah Laut Merah dan akan berada 120 derajat di luar. Kami keluar dari ruang angkasa (62 derajat) dengan sweter, sarung tangan, mantel, dan peacoat, dan semua orang akan melihat kami seolah kami gila. Semua orang ditelanjangi ke kaos dan berkeringat seperti orang gila.

Masalahnya adalah, sistem pendingin kami tidak menghilangkan kelembaban dengan sangat baik. Jadi, jika lembab di luar dan suhu naik hingga 70 derajat atau lebih mulai lengket di ruang.


6
Halo Justin, selamat datang di ServerFault. Apa yang Anda tulis di sini adalah anekdot yang menyenangkan, tetapi itu bukan jawaban yang bagus untuk pertanyaan itu. Sebuah jawaban akan mencakup hal-hal untuk dipertimbangkan dan / atau rekomendasi praktik terbaik. Anda mungkin ingin melihat ini: serverfault.com/questions/how-to-answer
quux

0

Tidak ada jawaban yang sulit dan cepat untuk pertanyaan ini. Itu sangat tergantung pada jenis komputer dan desain pusat data.

Salah satu poin kunci yang dibuat dalam diskusi slashdot adalah bahwa kesulitan sebenarnya adalah berurusan dengan hotspot dan aliran udara .

Suhu ruang yang sejuk di dalam ruangan adalah cara mudah untuk mendinginkan ribuan titik panas di dalam ruangan. Tapi itu tidak efisien: Pusat data mendinginkan seluruh ruangan ketika semua yang benar-benar dibutuhkan adalah untuk mendinginkan bagian server yang panas (CPU, memori, penyimpanan, catu daya , dll). Banyak fasilitas colocation memiliki pelanggan dengan jenis perangkat keras yang berbeda (115V atau 208v, desain bagus, desain buruk).

Pusat data juga perlu mempertahankan udara dingin yang cukup untuk menyediakan penyangga jika terjadi pemadaman listrik . Penyangga udara dingin berarti UPS dan generator bekerja lebih sedikit. Bayangkan bahwa pusat data kehilangan daya 100% (Semua node turun, pendinginan juga turun) sekaligus. Node mungkin tidak memiliki daya, tetapi perangkat keras akan membutuhkan waktu untuk mendingin dan masih memancarkan panas untuk sementara waktu, dan ini dapat membuat pusat data sangat panas.

Organisasi dengan ruang server yang hangat sering menggunakan lemari tertutup dan saluran kerja mewah untuk mengarahkan udara dingin langsung ke node panas. Infrastruktur tenaga khusus dapat membantu mengurangi panas dari konversi daya. Ini membuat node cukup dingin, meskipun suhu di ruang server hangat. Organisasi-organisasi ini biasanya memiliki kontrol ketat terhadap sebagian besar aspek perangkat keras mereka, dan dapat merancang sendiri seluruh pusat data untuk kebutuhan mereka. Mereka dapat melakukan investasi dan menuai manfaat.


0

Pertama: di mana Anda mengukur suhu kamar? ;-) Apa suhu dingin pada rak? apa sisi rak panas di? apa suhu asupan A / C di?

Itu sangat tergantung pada perangkat. (rasakan panas yang keluar dari xbox) Manajemen termal adalah ilmu, Lihat Honda (dan banyak lainnya) mulai menyirami knalpot yang dingin ;-) ...

Saya akan memberitahukan ini kepada Anda, tentang pusat data yang pernah saya kunjungi:

Equnix tetap di sana dingin DC (membuat untuk 'pengalaman' yang baik ketika eksekutif tur)

RW membuat mereka tetap hangat / panas 80f atau lebih dengan udara yang cukup dingin keluar dari lantai (desain kamar / brankas yang lebih baik dan keseluruhan desain sistem dengan kualitas lebih tinggi)

Coresite (setidaknya di tempat saya berada) lebih dekat ke RW tetapi tergantung pada CR dan pelanggan. Beberapa CR di 80 beberapa di 70. (pulau dingin selalu dingin)



-2

Suhu yang Anda benar-benar ingin monitor adalah suhu server internal - bukan suhu lingkungan eksternal. Awasi suhu server Anda (semua server memiliki termometer internal yang melapor melalui antarmuka server) dan sesuaikan suhu sekitar Anda. Ini akan menjelaskan aliran udara, dll. Memiliki rencana pendinginan cadangan adalah ide yang bagus, bahkan unit A / C portabel dapat menjadi penyelamat jika ada kegagalan sistem pendingin primer.


7
Sebenarnya itu saran yang sangat buruk. Untung OP mungkin tidak akan melihatnya. Tetapi mengabaikan suhu lingkungan adalah cara yang bagus untuk mengubah semua server Anda menjadi penghenti pintu yang mahal ketika Anda mendinginkan ruangan di bawah titik embun dan mendapatkan kondensasi air pada semua permukaan logam. Saya sangat merekomendasikannya untuk operasi sabotase, karena sangat menghancurkan dan hampir tidak mungkin untuk membuktikan niat.
HopelessN00b

-5

Saya telah menemukan 19-21 suhu yang baik. Google menjalankan ruang servernya pada suhu yang sedikit lebih tinggi daripada yang Anda bayangkan karena mereka menemukan tingkat kegagalan yang sedikit lebih tinggi lebih baik daripada membayar ekstra dalam pendinginan.


9
Jangan lakukan itu. Jawab pertanyaan 3,5 tahun kemudian dengan tidak ada yang belum ada di jawaban lain.
HopelessN00b
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.