回答:
ほとんどのラックマウントサーバーが行うように、サーバーが前面から背面へのフロースルー冷却を使用している場合、隙間を残しておくと、実際に冷却が損なわれる可能性があります。サーバー自体を経由する場合を除き、冷気がホットアイルに到達する手段を持たないようにする必要があります。隙間を残す必要がある場合(電力の問題、床の重量の問題など)、ブランクパネルを使用して、サーバー間で空気が通過できないようにする必要があります。
キャビネット内のラックマウントデバイス間でラックユニットをスキップしたことはありません。製造元から、デバイス間でUをスキップするように指示されたとしても、そのような推奨事項は見たことがありません。
ラックマウント用に設計されたデバイスは、フロントパネルまたはリアパネルのいずれかから熱を放出すると予想されます。いくらかの熱はレールとシャーシの上下を通して伝導しますが、前面と背面からの放射に比べて非常に小さいと予想されます。
データセンターでは、ギャップを残していません。床から冷たい空気が出ており、隙間があると気流の問題が発生します。何らかの理由で隙間がある場合は、空白のプレートで覆います。ブランクプレートを追加すると、すぐにコールドアイルの上部が冷たくなり、ホットアイルが熱くなりました。
もうデータやグラフを持っているとは思いませんが、変更を開始するとすぐに違いがはっきりしました。ラックの上部にあるサーバーは過熱を停止しました。電源の調理を停止しました(週に約1回の割合で行っていました)。私たちのデータセンターのマネージャーがサングリーンのデータセンター博覧会から戻った後に変更が開始されたことを知っています。彼はそこで、冷却などに関するいくつかのセミナーに参加しました。これまでは、ラックの前後の床に隙間と部分的に満たされたラックと穴あきタイルを使用していました。
管理アームを設置したとしても、ギャップをなくすことはより効果的です。現在、室内のあらゆる場所のサーバー内部温度はすべて、仕様内に収まっています。これは、ケーブル管理を標準化し、ギャップをなくし、フロアタイルの配置を修正するまでは当てはまりませんでした。熱気をCRACユニットに戻すためにもっと努力したいのですが、まだ資金を得ることができません。
私たちをスキップしません。私たちは家賃を払います。
最近の暑さの理由はありません。冷気はすべて前面から出て、背面から出ます。上部に通気孔はもうありません。
Googleはサーバー間でUを離れることはなく、熱管理に懸念を持っていると思います。どんなに大きな選手が仕事をしているのかを見るのはいつも面白い。データセンターの1つのビデオを次に示します。http://www.youtube.com/watch? v = zRwPSFpLX8I&feature = player_embedded
4:21に直接移動して、サーバーを確認します。
床から冷たい空気が流れていて、未使用のスペースにブランクを使用している場合は、スペースを残さないでください。標準のA / Cユニットを使用したローテク冷却システムを使用している場合は、ホットサーバーが集中しているときにホットスポットを最小限に抑えるためにギャップを残すのが最善です。
コロケーション施設に3 1/2ラック相当のクラスターノードとそのストレージがあります。Uをスキップした唯一の場所は、コアクラスタスイッチが配置されている中央ラックにネットワークケーブルを配線する必要がある場所です。ラックはすでに電力に関して最大になっているため、スペースを節約する余裕があります。そのため、より多くのノードを詰め込むことはできません:)
これらのマシンは100%CPUで24時間年中無休で稼働し、一部のマシンには1Uボックスに最大16コア(4xクアッドコアXeon)が搭載されており、ほとんどの間にスペースを残さないことによる悪影響はまだ見ていません。
機器に適切に設計された空気経路がある限り、なぜそれが重要なのかわかりません。
3分の1ですが、それは管理の腕と熱ではなく回避する必要があるためです。これらのサーバーにはそれぞれ6本の Cat5ケーブルが接続されているという事実は役に立ちません。ホットアイルからの再循環を防ぐために、ブランキングパネルとラック上部のエアダムを多用しています。
また、データセンターに欠けていないものの1つはスペースです。7-10Uサーバーが標準であったときの拡張用に設計されました。ラック密度の高いESXクラスターを導入した今、そこはゴーストタウンです。
独自のデータセンターがあり、スペースに問題がなかった状況では、論理領域間でU(エアフローをブロックするスペーサー付き)をスキップしていました。Webサーバーには、セクション、データベース、ドメインコントローラー、電子メール、また、ファイルサーバーには別のサーバーがあり、ファイアウォールとルーターには別のサーバーがありました。離れたデスクトップ用のスイッチとパッチパネルは、それぞれのラックにありました。
冷却の理由でUをスキップしたのは1回だけです。これは高校のA / Vケーブルテレビループソリューションで、建物の1つのセクションにケーブルテレビシステムを提供する3つのユニットがありました。過熱のために2年ぶりにトップユニットを交換する必要があった後、3つのユニットの間に1 / 2Uのスペースを空けるために、ラックに「手術」を行って取り付け穴を開けました。合計1 Uの合計スペース)。
これで問題は解決しました。言うまでもなく、これは徹底的に文書化されており、余分な対策のために、隙間を空けてそれらの上部にシートをテープで貼り付けました。
ここには2つのレッスンがあります。
私は持っている1つのラックにそれらを積み重ねています。それに問題はなかったので、それらを配置する理由はありませんでした。人々が彼らを追い払う最大の理由は熱だと思います。
サーバー間のギャップを残すと、冷却に影響する可能性があります。多くのデータセンターは、スイートを「ホットアイル」「コールドアイル」ベースで運用しています。
サーバー間にギャップを残すと、効率的なエアフローと冷却に影響を与える可能性があります。
この記事は興味深いかもしれません: