サーバールームの正しい温度は?


63

サーバールームで作業していたとき、非常に寒いことに気づきました。

サーバーの熱を相殺するために、サーバールームは冷たくなければならないことは知っていますが、おそらく冷たすぎます。

サーバールームを維持する適切な温度はどれくらいですか?


1
場合によります。最近のサーバーの多くは、摂氏45度の動作温度で完全に満足しています。USVは外出する必要があります-電池はそれを好みません。しかし、サーバーの場合...それは大丈夫かもしれません。古い機械はその温度で窒息します。
トムトム

回答:


53

サーバーの室温に関する推奨事項は大きく異なります。

このガイドによると:

一般的な推奨事項では、10°C(50°F)未満または28°C(82°F)を超えないようにすることをお勧めします。これは広い範囲に見えますが、これらは極端なものであり、周囲温度を20〜21°C(68〜71°F)に保つのがはるかに一般的です。さまざまな理由から、これは時には困難な場合があります。

スラッシュドットに関するこの議論にはさまざまな答えがありますが、それらのほとんどは上記の範囲内です。

更新:他の人が以下にコメントしているように、Googleはデータセンターに26.7°C(80°F)を推奨しています。

また、米国暖房冷暖房技術者協会(ASHRAE)は最近、推奨温度範囲を18°C-27°C(64.4°F-80.6°F)に更新しました

ただし、この記事では、このテーマについてはまだコンセンサスがないことを強調しています。記事で述べたように、私はそれを強調します:

...サーモスタットを高くすると、冷却障害から回復する時間が短くなる可能性があり、施設の冷却条件をよく理解している企業にのみ適しています。

IMOのほとんどの企業は、冷却条件についてそれほど深く理解していないため、小規模ビジネス環境では、部屋を少し涼しくする方が安全です。

注意:サーバー/データルームでは、たとえば温度、空気の流れ、湿度だけでなく重要な懸念事項よりも多くの要素を考慮する必要があることに注意することが重要です。


1
Googleは実際には、エネルギーを節約するために最大80°Fまで加熱することを検討することを推奨しています。ここで良い記事があります:datacenterknowledge.com/archives/2008/10/14/...
gharper

1
おかげで私はそれを言及するの答えを更新します、私のオリジナルの答えは、日常の小さなオフィスのサーバールームよりギヤードだった-失敗を冷却した場合のIMOより多くの余裕が必要な場合があります(または気流などに大きな注目...
mundeep

36
覚えておくべき重要なことは、Googleが予想される障害モデルで動作することです。ほとんどの企業が持っているような高価なフォールトトレラントサーバーの代わりに、Googleは高度にカスタマイズされたフォールトトレラントソフトウェアを使用します。Googleは、サーバーが定期的に停止することを完全に期待しています(ただし、ソフトウェアが障害を回避するため)。したがって、Googleのコストモデルでは、サーバールームを80度で実行するのが理にかなっています。なぜなら、(非常に安価な)ハードウェア障害の増加は、エネルギーの節約によって簡単に相殺されるからです。あなたの会社で電気を節約する価値のあるいくつかの死んだ6,000ドルのサーバーはありますか?
デビッド

<50°Fの何が問題になっていますか?「極端な」環境にあるいくつかのデータセンターが冷却のために外に出ているだけで、Kryotechを覚えている人がいるので、私は興味があります。Athlon 600Mhzプロセッサを-40°に過冷却する1GhzコンシューマPCを取得した最初の企業。
ウォーレン

10

Googleのデータセンターのベストプラクティスでは、80度を推奨しています。

コールドアイルの温度を上げると、施設のエネルギー消費が削減されます。70Fでコールドアイルを実行しようとしないでください。温度を80F以上に設定します。これは、ほぼすべての機器メーカーが許可しています。

私たちは72歳で走っていますが、私たち自身の部屋が空気の流れを念頭に置いて設計されているとはまったく信じていません。


8

他の人が言ったように、70年代の低いFのどこかが良いです。ただし、ラックとラック内のハードウェアが「呼吸」できることを確認することはさらに重要です。高温の空気がラック内またはサーバーシャ​​ーシ内に閉じ込められている場合、周囲温度が低くても実際には何の効果もありません。


4

サーバールームは69度に設定されています。その部屋にサービスを提供するエアコンユニットが1台あり、年中無休で部屋を69度に保つために年中無休で稼働しています。


4

私が見たすべてのサーバールームは通常20°Cから25°Cの間にありますが、経験から、ハードウェアは特定の温度以上の変動に敏感であることに気付きました。ハードウェアが20〜25であっても、4〜5°Cの上昇後にハードウェアが故障するのをよく目にします。

空気の流れだけでなく、安定性も重要です。


4

18°C(65°F)。本来よりも少し寒いですが、何かが失敗した場合、不快に熱くなる前に反応するための貴重な余分な時間が数分与えられます。


2

Googleの80°Fのアドバイスには、予期しない負荷や空調の障害が原因で過熱したときにデータセンターをシャットダウンするコストが実質的に含まれていないことに注意してください。また、重要なコンポーネントに対するエアフローの制御が強化されています。


1

私たちは、28Cのアラームで19Cから23Cの間にいることが好きです-私たちは98%HPのブレードの場所なので、特定のサーバー/エンクロージャーがそのアラームレベルに達した場合、全体的な消費電力を下げるために「芯を下げます」(サーマロジックと呼ばれます)。


1

私の経験では、それは機器に依存します。ある会社には3つのサーバールームがありました。1つは約80°Fに保たれ、もう1つはより少ないサーバーで約72°Fに保たれ、3つ目は2つのサーバーのみで約65°Fに保たれました。私がそこにいた時間に問題はなかったが、他の人が言ったように、75°Fまたはそれより少し下がおそらく最良です。


0

吸気口で30cを超えるものはすべて温度警告(監視します)を引き起こします。一般に、室温が25c未満の周囲温度を意味します。

オーストラリアでは、Emerson(Liebert)が21cを標準と決定し、私がここにいたすべての部屋は同じに設定されているようです。

部屋が十分に大きく、ホットエイズ/コールドエイズ、ブランキングタイルなどを見ると、冷却効率が大幅に向上します。


0

私は海軍にいます。船では、部屋を華氏65度未満に保ちました。私たちは紅海の真ん中にいて、外は120度になるでしょう。私たちは、セーター、手袋、コート、ピーコートを着て(62度で)空間から出て行き、誰もが私たちを狂ったように見ていました。他の人は皆、Tシャツに着替えられて、狂ったように汗をかきました。

問題は、私たちの冷却システムが湿度をあまりよく除去できないことです。そのため、外が湿度が高く、温度が70度以上になると、空間でべたつきが始まります。


6
こんにちはJustin、ServerFaultへようこそ。ここに書いたのは楽しい逸話ですが、それは質問に対する本当に良い答えではありません。答えには、考慮すべき事項やベストプラクティスの推奨事項が含まれていました。:あなたはこれを見て持っている場合がありますserverfault.com/questions/how-to-answer
quux

0

この質問に対する難しい答えはありません。コンピューターの種類とデータセンターの設計に大きく依存します。

そのスラッシュドットの議論でなされた重要なポイントの1つは、本当の困難はホットスポットと気流を扱うことです。

部屋の周囲温度を下げると、部屋の何千ものホットスポットを簡単に冷却できます。しかし、それは非効率的です。本当に必要なときにデータセンターが部屋全体を冷却するのは、サーバーの熱い部分(CPU、メモリ、ストレージ、電源など)を冷却することだけです。多くのコロケーション施設には、異なるタイプのハードウェア(115Vまたは208v、良いデザイン、悪いデザイン)の顧客がいます。

また、データセンターは、停電の場合にバッファを提供するのに十分な冷気を維持する必要があります。冷気のバッファは、UPSと発電機の動作が少ないことを意味します。データセンターが100%の電力を失う(すべてのノードがダウンし、冷却もダウンする)ことを想像してください。ノードに電力が供給されていない可能性がありますが、ハードウェアの冷却には時間がかかり、しばらく熱を放射し続けるため、データセンターが非常に高温になる可能性があります。

サーバールームが暖かい組織では、多くの場合、閉じたキャビネットと派手なダクトを使用して、冷たい空気をホットノードに直接送ります。特殊な電力インフラストラクチャは、電力変換からの熱を減らすのに役立ちます。これにより、サーバールームの周囲温度が暖かい場合でも、ノードが十分に冷却されます。これらの組織は通常、ハードウェアのほとんどの側面を厳密に制御しており、ニーズに合わせてデータセンター全体をカスタム設計できます。彼らは投資を行い、利益を得ることができます。


0

まず、室温はどこで測定していますか?;-)ラックの低温側温度は何℃ですか?ラックの高温側は何ですか?A / C摂取温度は何ですか?

本当にデバイスに依存します。(xboxから出てくる熱を感じる)熱管理は科学であり、Look Honda(および他の多く)が排気を冷やし始めています;-) ...

私がこれまでに行ってきたデータセットのこれについてお話しします。

EqunixはDCの寒さを抑えます(幹部がツアーに行くときの良い「経験」になります)

RWは床からかなり冷たい空気が出てくるので、80f程度の温かさ/温かさを保ちます(部屋/ボールトの設計を改善し、システム全体の品質を高めます)

Coresite(少なくとも私がいた場所)はRWに近いですが、CRと顧客に依存します。いくつかのCRは80で、いくつかは70である(冷たい島は常に寒い)



-2

本当に監視したいのは、外部の周囲温度ではなく、サーバーの内部温度です。サーバーの温度を監視し(すべてのサーバーにはサーバーインターフェースを介して報告する内部温度計があります)、それに応じて周囲温度を調整します。これにより、空気の流れなどが考慮されます。バックアップ冷却計画を立てることは良い考えです。プライマリ冷却システムに障害が発生した場合は、ポータブルA / Cユニットでさえも命を救うことができます。


7
それは実際にはかなり悪いアドバイスです。OPはおそらくそれを見ることができないでしょう。しかし、周囲温度を無視することは、露点より下の部屋を冷却し、すべての金属表面に水が凝縮する場合に、すべてのサーバーを高価な戸当たりに変える優れた方法です。それは破壊的であり、意図を証明することは事実上不可能であるため、破壊活動に強くお勧めします。
HopelessN00b

-5

私は19-21年が良い温度であることを発見しました。Googleは、冷却に余分な費用をかけるよりも故障率がわずかに高いことを発見したため、サーバールームを予想よりも少し高い温度で実行しています。


9
しないでください。3.5年後の質問に、他の回答にまだないものは何も答えずに答えてください。
HopelessN00b
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.