En termes de consommation d’électricité, un datacenter est un gouffre. Par nature, un datacenter tente en effet d’assurer la plus grande disponibilité possible des équipements informatiques qu’il héberge.
Pour exprimer cette fiabilité et la qualité d’un datacenter, l’organisme certificateur Uptime Institute (https://uptimeinstitute.com/tier-certification) a développé une norme de qualité à quatre niveaux, baptisée TIER Standard. Le meilleur niveau est TIER IV qui stipule l’existence de deux systèmes d’alimentation électrique pour une totale redondance. Tandis que le niveau TIER I, le moins bon, se contente d’une seule alimentation électrique.
Les datacenters de type TIER 4 assurent une disponibilité statistique des équipements de 99,995%, soit une indisponibilité de 0,5 heure par an. Tandis que les data centers TIER I se contentent d’une disponibilité de 99,671 %, soit 28,8 heures d’indisponibilité statistique annuelle.
Le datacenter DigiPlex dans la banlieue de Stockholm appelle une puissance électrique de 40 MW, entièrement couverte par une production d’électricité hydraulique norvégienne. ©PP
Pour atteindre ces niveaux de fiabilité, les datacenters contiennent force machines pour refroidir les serveurs, des onduleurs pour garantir la stabilité du courant électrique qui les alimente, des batteries et des groupes électrogènes pour les secourir en cas de défaillance du réseau, etc. Tout cela – serveurs, batteries, onduleurs, climatisation, … - consomme beaucoup d’électricité.
Pour exprimer l’efficacité énergétique d’un datacenter, le Green Grid a développé l’indicateur PUE pour Power Usage Effectiveness. Sa définition est assez simple, c’est le total de l’énergie consommée par le datacenter divisé par l’énergie utilisée par les équipements informatiques (serveurs, stockage de données, réseau de transmission, etc.). un datacenter mis en service il y a dix ans affiche un PUE de 2,5 : pour 1 kWh consommé par l’équipement informatique, 2,5 kWh sont consommés par la climatisation et les autres services.
Le PUE du datacenter DigiPlex, mis en chantier dans la banlieue de Stockholm en 2015, atteint seulement 1,2, grâce à une augmentation de la température de fonctionnement des serveurs, à un usage massif du free-cooling en dessous de 7°C extérieurs et à un système de refroidissement actif à base d’évaporation indirecte. Il a été primé à de nombreuses reprises pour sa vertitude. D'ailleurs, le mur est vert pour qu'il ne susbsiste aucun doute. ©PP
Le PUE et le niveau TIER atteint sont liés. Par exemple, le TIER IV avec ses deux alimentations électriques séparés implique que les onduleurs sont utilisés à une charge comprise entre 40 et 60% de leur charge nominale. Leur rendement à charge partielle est moins bon qu’à puissance nominale.
Plus le niveau TIER est élevé, plus la disponibilité importante des équipements impose des surconsommations d’électricité. On ne devrait donc toujours annoncer le PUE d’un datacenter en même temps que son TIER. Quoiqu’il en soit, le but de tous les exploitants de datacenter est de réduire leur PUE au maximum. D’autant que les dimensions et les consommations électriques des datacenters ne cessent de croître.
Il y a dix ans, un datacenter standard était un bâtiment de 10 000 m² avec une puissance électrique absorbée totale de 2 MW. Les nouveaux datacenters mis en chantier en France depuis deux ans atteignent plutôt 60 000 m² et 64 MW. Face à de tels monstres, réduire le PUE au maximum est un but louable.
Le datacenter de DigiPlex à Stockholm atteint le niveau TIER IV. Ce qui, en principe requiert des équipements électriques plus consommateurs que pour un datacenter TIER I. Il atteint tout de même des performances exceptionnelles. Pour réduire les coûts d’installation, DigiPlex a industrialisé des cellules d’alimentation électrique. Chaque cellule dessert une salle informatique de 500 m². ©PP
DigiPlex, constructeur et exploitant de datacenters, tente d’y parvenir en mettant en œuvre une stratégie particulière en trois mouvements. Premièrement, ils poussent de l’air à 24°C ± 2°C.
L’association américaine ASHRAE qui a publié 13 livres sur l’optimisation du fonctionnement des datacenters, préconise un soufflage à 27°C. DigiPlex est juste en dessous. Il y a dix ans, l’usage était de souffler l’air à 10-12°C. Plus la température de soufflage est élevée, moins les consommations d’électricité sont importantes.
Deuxièmement, DigiPlex ne construit ses datacenters que dans les pays nordiques : Suède, Norvège, Finlande et Danemark. Selon eux, à Stockholm par exemple, la moitié de l’année offre une température extérieure inférieure à 7°C, ce qui permet un free-cooling total.
Troisièmement, DigiPlex n’utilise pas de groupe froid à compression conventionnel, mais exclusivement des machines de traitement d’air OASIS du suédois Munters à évaporation indirecte. Ce qui réduit les consommations pour le rafraîchissement de l’air de 70% environ, par rapport à un groupe froid air/eau.
Les machines OASIS développées par Munters et DigiPlex sont installées à l’extérieur. Le datacenter est seulement rafraîchi par air : il n’y a pas d’eau au-dessus du rez-de-chaussée pour éviter toute possibilité de fuite dans des salles abritant des serveurs. L’air est soufflé dans toute la pièce par déplacement avec une faible vélocité de 5 m/seconde, soit environ 56l/seconde/kWh pour atteindre un ΔT de 13K entre l’air soufflé et l’air repris. C’est la valeur optimale pour le fonctionnement des machines Munters/DigiPlex. ©PP
La machine Munters/Digiplex fournit une puissance froid maximale de 230 kW. Elle est livrée en conteneur complet, prêt à poser. Digiplex les installe deux par deux et pratique un surdimensionnement de sécurité de 1 machine en attente pour deux en fonctionnement.
Le datacenter de la banlieue de Stockholm compte 9 machines pour 6 en fonctionnement. Ces machines fonctionnent selon 3 modes différents, tous avec un point commun. Ce sont des machines air/air avec une totale isolation entre les deux flux d’air. L’air soufflé dans le datacenter est en circuit fermé.
Le premier mode de fonctionnement est le free-cooling pour une température extérieure inférieure à 7°C. Un simple échange air/air suffit pour fournir de l’air soufflé à 24°C ± 2°C, avec un ΔT de 13 K entre l’air soufflé et l’air repris. Le free-cooling couvre environ la moitié des besoins annuels.
L’échangeur Air/Air est un simple polymère renforcé de fibres. Il ne se corrode pas, ce qui permet un ruissellement de l’eau sur sa paroi extérieure. ©PP
Le second mode est le rafraîchissement par évaporation indirecte. L’eau de pluie est recueillie sur le toit du datacenter, stockée dans deux réservoirs d’une capacité totale de 250 m3. Lorsque la température extérieure dépasse 7°C, l’eau de pluie est pompée, filtrée et ruisselle sur l’échangeur air/air dans les machines. Ce n’est pas un système adiabatique. Il n’y a pas de pulvérisation.
L’eau ruisselle en un film très fin, l’air extérieur soufflé sur l’échangeur l’évapore. Ce qui abaisse la température des parois extérieures de l’échangeur air/air et rafraîchit le flux d’air intérieur. L’eau est recueillie dans un bac en dessous de l’échangeur et réutilisée.
Lorsque l’eau de ruissellement est épuisée – trop chaude, trop chargée en minéraux après concentration par évaporations successives, … -, elle simplement reversée sur le toit. Elle y coule comme l’eau de pluie, ce qui la régénère et permet sa réutilisation dans le circuit d’évaporation. DigiPlex a le droit d’utiliser de l’eau de ville en cas de besoin, après deux années pleines d’exploitation, ce n’est pas encore arrivé.
La conception du système de rafraîchissement air/eau permet d’éviter toute canalisation d’eau au-dessus du rez-de-chaussée du datacenter. Les assureurs apprécient beaucoup. ©PP
Au cours des deux premières années d’exploitation, ces deux premiers modes – free-cooling et évaporation indirecte – ont couvert les besoins annuels, sauf durant une dizaine d’heures chaque année. Il faut donc un troisième mode de fonctionnement.
Les machines Munters/DigiPlex comportent un petit groupe froid air/air à expansion directe de 36 kW seulement. Il a été fait appel à eux pendant la dizaine d’heures de températures de pointe chaque année. Grâce à tout cela – fonctionnement des serveurs à 24°C ± 2°C, free-cooling et rafraîchissement par évaporation indirecte -, ce datacenter affiche un PUE de 1,2 seulement.
Toutes les salles informatiques ne sont pas encore occupées. Les machines Munters/DigiPlex ne fonctionnent pas encore à leur puissance optimale. DigiPlex a le ferme espoir de descendre son PUE à 1,1, voire 1,07 d’ici deux ans. La chaleur de l’air extrait à 35°C, passe par un échangeur air/eau, puis elle est vendue au réseau de chauffage urbain attenant. DigiPlex étudie une recompression de cette eau pour augmenter sa température.
Dans une si grande machine, on rouve seulement 36 kW de froid actif : une petite pompe à chaleur tertiaire. ©PP
Source : batirama.com / Pascal Poggi
- -
Bonjour, Article intéressant. Il convient de préciser que le PUE est à présent normalisé : ISO/IEC 30134-2:2016. Et que par conséquent on ne peut pas écrire " On ne devrait donc toujours annoncer le PUE d’un datacenter en même temps que son TIER." C'est également pour cette raison que le PUE à Stockholm ne peut pas être comparé à un PUE à Madrid, Marseille ou Milan. L'article décrit plutôt bien cette nuance majeure. Enfin il convient de corriger : "affiche un PUE de 2,5 : pour 1 kWh consommé par l’équipement informatique, [1,5 au lieu de 2,5 dans l'article] kWh sont consommés par la climatisation et les autres services." Bien Cordialement.