it-swarm.dev

Ignorez-vous une unité de rack entre les serveurs?

Il semble qu'il y ait beaucoup de désaccords dans les mentalités lorsqu'il s'agit d'installer des serveurs montés en rack. Il y a eu des discussions sur les bras de câbles et autres accessoires de montage en rack, mais je suis curieux:

Laissez-vous une unité de rack vide entre vos serveurs lorsque vous les installez? Pourquoi ou pourquoi pas? Avez-vous des preuves empiriques pour soutenir vos idées? Quelqu'un est-il au courant d'une étude qui prouve de façon concluante que l'on est meilleur ou non?

70
Matt Simmons

Si vos serveurs utilisent un refroidissement à flux continu avant/arrière, comme le font la plupart des serveurs montés en rack, le fait de laisser des lacunes peut en fait nuire au refroidissement. Vous ne voulez pas que l'air froid puisse accéder à l'allée chaude sauf par le serveur lui-même. Si vous devez laisser des lacunes (pour des problèmes d'alimentation, des problèmes de poids au sol, etc.), vous devez utiliser des panneaux d'obturation afin que l'air ne puisse pas passer entre les serveurs.

81
jj33

Je n'ai jamais ignoré les unités de rack entre les périphériques montés en rack dans une armoire. Si un fabricant m'ordonnait de sauter les U entre les appareils, je le ferais, mais je n'ai jamais vu une telle recommandation.

Je m'attendrais à ce que tout appareil conçu pour un montage en rack évacue sa chaleur à travers les panneaux avant ou arrière. Une certaine chaleur va être conduite à travers le Rails et haut et bas du châssis, mais je m'attends à ce que ce soit très petit par rapport au rayonnement de l'avant et de l'arrière.

23
Evan Anderson

Dans notre centre de données, nous ne laissons pas de lacunes. Nous avons de l'air frais qui monte du sol et les interstices provoquent des problèmes de circulation d'air. Si nous avons un écart pour une raison quelconque, nous le couvrons avec une plaque vierge. L'ajout de plaques vierges a immédiatement rendu les sommets de nos allées froides plus froides et nos allées chaudes plus chaudes.

Je ne pense plus avoir les données ou les graphiques, mais la différence était très claire dès que nous avons commencé à apporter des modifications. Les serveurs en haut des racks ont cessé de surchauffer. Nous avons arrêté de cuire les blocs d'alimentation (ce que nous faisions à raison d'environ 1/semaine). Je sais que les changements ont commencé après le retour de notre responsable de centre de données d'une expo de centre de données Sun Green, où il a participé à des séminaires sur le refroidissement et autres. Avant cela, nous utilisions des vides et des racks partiellement remplis et des tuiles perforées dans le sol devant et derrière les racks.

Même avec les bras de gestion en place, l'élimination des lacunes a mieux fonctionné. Toutes les températures internes de nos serveurs partout dans la pièce sont maintenant bien conformes aux spécifications. Ce n'était pas le cas avant d'avoir normalisé notre gestion des câbles et éliminé les lacunes, et corrigé le placement de nos carreaux de sol. Nous aimerions faire davantage pour renvoyer l'air chaud vers les unités du CRAC, mais nous ne pouvons pas encore obtenir de financement.

22
Laura Thomas

Je ne nous saute pas. Nous louons et nous coûtons de l'argent.

Aucune raison de chauffer ces jours-ci. Tout l'air frais vient à l'avant et à l'arrière. Il n'y a plus de trous d'aération dans les sommets.

9
mrdenny

Google ne laisse pas U entre les serveurs, et je suppose qu'ils sont concernés par la gestion de la chaleur. Toujours intéressant de voir comment les gros joueurs font le travail. Voici une vidéo de l'un de leurs centres de données: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Allez directement à 4:21 pour voir leurs serveurs.

6
Mathieu Chateau

J'ai de grandes lacunes au-dessus de mon onduleur (pour l'installation d'une deuxième batterie à l'avenir) et au-dessus de ma bibliothèque de bandes (si j'en ai besoin d'une autre). En dehors de cela, je n'ai pas de lacunes et j'utilise des panneaux pour remplir les espaces vides afin de préserver la circulation de l'air.

5
pauska

Nous avons 3 1/2 racks de nœuds de cluster et leur stockage dans une installation de colocation. Le seul endroit où nous avons ignoré les U est l'endroit où nous devons acheminer le câblage réseau vers le rack central où se trouve le commutateur de cluster principal. Nous pouvons nous permettre de le faire en termes d'espace, car les racks sont déjà au maximum en termes de puissance, il ne serait donc pas possible d'y ajouter plus de nœuds :)

Ces machines fonctionnent 24h/24 et 7j/7 à 100% CPU, et certaines d'entre elles ont jusqu'à 16 cœurs dans une boîte 1U (4x quad core Xeons) et je n'ai pas encore vu d'effets négatifs de ne pas laisser d'espace entre la plupart d'entre eux.

Tant que votre équipement a une trajectoire d'air bien conçue, je ne vois pas pourquoi cela importerait.

5
Kamil Kisiel

Ne laissez pas d'espace si vous avez de l'air frais provenant du sol et utilisez également des blancs dans l'espace u inutilisé. Si vous avez juste un système de refroidissement de faible technologie utilisant une unité de climatisation standard, il est préférable de laisser des lacunes pour minimiser les points chauds lorsque les serveurs chauds sont regroupés.

5
user9925

Je ne laisserais pas d'espace entre les serveurs, mais je le ferai pour des choses comme les commutateurs LAN - cela me permet de mettre des barres de gestion de câbles 1U au-dessus et en dessous ... mais ce n'est certainement pas fait pour le refroidissement.

3
Mitch Miller

Chaque tiers, mais cela est dû à bras de gestion et à la nécessité de les contourner plutôt que de chauffer. Le fait que ces serveurs disposent chacun de 6 câbles Cat5 qui y vont n'aide pas. Nous utilisons beaucoup de panneaux d'obturation et de barrages d'air sur le dessus des racks pour empêcher la recirculation de l'allée chaude.

De plus, une chose dont nous ne manquons pas dans notre centre de données est l'espace. Il a été conçu pour une expansion à l'époque où les serveurs 7-10U étaient standard. Maintenant que nous avons opté pour des clusters ESX denses en rack, c'est une ville fantôme.

3
sysadmin1138

J'ai l'impression (peut-être à tort) que c'est une pratique plus populaire dans certains environnements de télécommunications où les allées chaudes/froides ne sont pas si largement utilisées.

Cependant, il n'est pas adapté à un centre de données à haute densité et bien géré.

2
Dan Carley

Pas de lacunes, sauf là où nous avons retiré un serveur ou autre chose et que nous n'avons pas pris la peine de le réorganiser. Je pense que nous sommes un peu plus petits que beaucoup de gens ici, avec 2 racks qui ne disposent que d'environ 15 serveurs plus quelques lecteurs de bande et commutateurs et onduleurs.

Pas de lacunes autres que lors de la planification de l'expansion des systèmes san ou des choses comme ça. Nous préférons placer les nouvelles armoires à proximité des contrôleurs réels.

Si vous disposez d'un refroidissement adéquat, laisser des espaces vides ne sera bénéfique que si le serveur est mal construit.

2
chankster

Dans une situation où nous avions notre propre centre de données et où l'espace n'était pas un problème, j'avais l'habitude de sauter un U (avec un espaceur pour bloquer le flux d'air) entre les zones logiques: les serveurs Web ont une section, une base de données, un contrôleur de domaine, un e-mail, et le serveur de fichiers en avait un autre, et les pare-feu et routeurs en avaient un autre. Les commutateurs et les panneaux de brassage pour les ordinateurs de bureau périphériques étaient dans leur propre rack.

Je me souviens exactement d'une occasion où j'ai sauté un U pour des raisons de refroidissement. Il s'agissait d'une solution de boucle de télévision par câble A/V dans une école secondaire, où il y avait trois unités qui étaient chacune chargées de desservir le système de télévision par câble dans une section du bâtiment. Après que l'unité supérieure ait dû être remplacée pour la troisième fois en deux ans en raison d'une surchauffe, j'ai effectué une "intervention chirurgicale" sur le rack pour faire des trous de montage afin de pouvoir laisser 1/2 d'espace entre chaque des trois unités (pour un total de 1 U d'espace total).

Cela a résolu le problème. Inutile de dire que cela a été soigneusement documenté, et pour une très bonne mesure, j'ai collé une feuille au sommet de l'un d'eux dans des lacunes expliquant pourquoi les choses étaient comme elles étaient là.

Il y a deux leçons ici:

  1. Laisser un espace pour le refroidissement ne se fait que dans des circonstances exceptionnelles.
  2. Utilisez un boîtier de bonne réputation ou un fournisseur de serveurs. Soyez prudent lorsque vous achetez de l'équipement qui essaie d'emballer 2U de chaleur dans 1U d'espace. Ce sera tentant, car le système 1U peut sembler beaucoup moins cher. Et faites attention à acheter un boîtier hors marque qui n'a pas correctement pris en compte le débit d'air.
1
Joel Coel

Je laisse généralement un RU vide après environ 5RU de serveurs (c'est-à-dire 5x1ru ou 1x2ru + 1x3ru) et cela dépendra de la configuration de refroidissement dans le centre de données de votre entrée. Si vous avez fait le refroidissement devant le rack (c'est-à-dire une grille dans devant le rack), l'idée est que l'air frais est poussé du sol et que vos serveurs aspirent l'air frais à travers eux. dans ce cas, vous obtiendrez généralement un meilleur refroidissement en ne laissant pas de logements vides (c.-à-d. utilisez un couvercle RU vierge. Mais si vous avez fait le refroidissement à travers le panneau de plancher de votre rack d'après mon expérience, vous obtenez un refroidissement plus efficace en interrompant les serveurs d'être empilés les uns sur les autres pour l'ensemble du rack

1
Brendan

Laisser des espaces entre les serveurs peut affecter le refroidissement. De nombreux centres de données exploitent des suites sur une base "allée chaude" "allée froide".

Si vous laissez des espaces entre les serveurs, vous pouvez affecter un flux d'air et un refroidissement efficaces.

Cet article peut vous intéresser:

L'alternance des allées froides et chaudes fournit un refroidissement plus fiable pour les batteries de serveurs

0
Kev

Je les ai empilés dans le seul rack que j'ai. Je n'ai jamais eu de problème avec ça, donc je n'ai jamais eu de raison de les espacer. J'imagine que la principale raison pour laquelle les gens les espacent est la chaleur.

0
John Browning

J'ai laissé 1/3 d'une EF entre deux commutateurs auparavant, principalement parce qu'ils mesuraient 1 1/3 d'UR chacun.

Si je les avais mis ensemble, le train plus haut aurait été hors de position de 1/3 de U.

En dehors de cela, je n'ai jamais laissé d'espace purement pour le refroidissement, seulement pour la croissance future.

0
Criggie