Datacenters et performance énergétique

Avec la numérisation continue de pans entiers de l’économie, la pérennisation du télétravail et la digitalisation des usages privés, les besoins en débit sont en augmentation constante, à près de 25 % chaque année. En France, les professionnels du datacenter ne constatent néanmoins qu’une très légère augmentation ou une quasi-stagnation des consommations liées à leurs infrastructures : 6 % d’augmentation seulement entre 2010 et 2018, quand la puissance de traitement a presque quintuplé sur la même période. Dans l’exploitation d’un datacenter, l’énergie est un enjeu central. Elle représentait en effet, avant l’augmentation des prix de l’électricité, environ 30 % des coûts. 

 

Les enjeux de performance énergétique des datacenters


Dans un datacenter, l’énergie représente une part importante des charges d’exploitation. Un datacenter consomme également d’autres ressources sensibles pour son refroidissement, comme l’eau et l’air. Son fonctionnement engendre aussi des émissions de gaz à effet de serre, qui varient selon le type d’énergie primaire utilisée dans la production d’électricité, les matériaux, la quantité d’équipements, etc.  Selon Olivier Michelli, PDG de l’opérateur européen Data4 et président de l’organisation professionnelle France Data Center : « la part de l’énergie dans les charges opérationnelles représentait 30 % en 2021, avant l’augmentation des prix de l’énergie, et devrait passer à 50 % d’ici 2023. » Sur cette période, les prix de l’électricité sont passés de 50 € à 500 € par mégawattheure, en raison du fort ralentissement de la production d’électricité nucléaire en France, obligeant les énergéticiens à produire de l’électricité à partir du gaz, dont le coût a bondi avec les tensions géopolitiques en Europe. La performance énergétique constitue donc un levier très important pour conserver les marges des opérateurs, principalement pour les plus petits acteurs, qui n’ont pas la possibilité de répercuter ces coûts sur leurs clients. L’enjeu est également sociétal et environnemental, car les datacenters sont à l’origine de près de 3 % des consommations énergétiques et 2 % des émissions de GES mondiales

Les opérateurs de datacenters n’ont pas attendu l’augmentation des prix de l’énergie pour s’atteler à l’enjeu de la performance énergétique de leurs installations. La filière a d’ailleurs montré un certain volontarisme depuis de nombreuses années : l’indicateur de performance énergétique, ou PUE (Power usage effectiveness), est le ratio de l’énergie totale consommée par l’énergie consommée par les équipements informatiques. Le PUE moyen est passé de 2 il y a dix ans à 1,5 aujourd’hui et poursuit son amélioration, notamment dans les centres de données les plus importants. 

L’énergie n’est pas la seule préoccupation des gestionnaires de centres de données. L’empreinte environnementale constitue désormais un enjeu et un argument de choix pour les entreprises les plus en avance. Des programmes portant sur l’analyse de cycle de vie des datacenters sont progressivement lancés, permettant de déterminer avec précision les émissions de CO2 des centres de données, du berceau à la tombe. Les postes les plus importants sont les émissions de CO2, ainsi que les consommations d’eau et d’air pour assurer le refroidissement des serveurs. Au-delà du PUE, de nouveaux indicateurs font donc leur apparition, à l’image du CUE (Carbon usage effectiveness) ou du WUE (Water usage effectiveness).

 

Les datacenters ont considérablement gagné en efficacité


Améliorer la performance des datacenters en phase opérationnelle est déterminante car cela ouvre la voie à des économies importantes. Entre 2010 et 2020, la puissance nécessaire pour traiter 1 téraoctet de données a été divisée par 9. 

Un autre levier de performance vient de l’urbanisation des salles de serveurs, c’est-à-dire leur conception pour gérer au mieux les échanges thermiques et énergétiques au sein des centres de données. Des allées chaudes et des allées froides permettent de mieux dissiper la chaleur et de refroidir là où c’est nécessaire, évitant ainsi de climatiser les salles dans leur ensemble.

Décider de relever la température des salles de serveurs contribue également à économiser de l’énergie, nécessaire au refroidissement. Il s’agit d’un axe important car accepter des plages de températures de fonctionnement plus élevées conduit à réduire les besoins en refroidissement. Les systèmes de refroidissement, indispensables pour maintenir les serveurs dans des conditions optimales de fonctionnement, « représentent en moyenne entre 30 et 50 % des dépenses en énergie des datacenters », selon la société de conseil et d’ingénierie spécialisée dans la conception et la réalisation de datacenters APL. Selon Olivier Michelli, « en relevant la température des salles de serveurs de 2 à 3 °C, comme préconisé pour cet hiver, cela revient à économiser entre 7 et 8 % de l’énergie nécessaire au refroidissement. » Selon la conception du datacenter et l’ancienneté des équipements, il est possible ou non d’augmenter ces régimes. 

 

Les solutions techniques pour aller plus loin


Pour aller plus loin dans la performance, le développement de nouvelles technologies et de nouvelles méthodes opérationnelles sont essentielles. 

Le refroidissement des serveurs, principal poste de consommation, fait l’objet de nombreuses expérimentations. Les solutions de refroidissement à l’eau ou Liquid Cooling, se développent. À Marseille, l’hébergeur de services Cloud Interxion a réutilisé une ancienne galerie canalisant de l’eau de ruissellement issue des mines de Gardanne, pour récupérer les frigories. Selon Linda Lescuyer, directrice Energie France d’Interxion, cette solution, baptisée River Cooling, « est 30 fois plus performante qu’un système de refroidissement classique. » De son côté, Microsoft a créé un prototype de datacenter immergé dans les fonds marins écossais. Après deux ans de fonctionnement entre 2018 et 2020, cette infrastructure d’un nouveau genre a tenu ses promesses. Sa performance, attribuable à l’absence d’intervention humaine, a même dépassé les attentes.

Au-delà de la dissipation de la chaleur produite par les serveurs, un autre enjeu majeur concerne la récupération de la chaleur fatale des datacenters. Il s’agit de la chaleur produite par les équipements, mais qui n’est pas récupérée pour un autre usage et considérée comme gaspillée. Ces processus de récupération de la chaleur fatale apporteraient un double bénéfice, en dissipant la chaleur émise par « simple » récupération, et en évitant à des infrastructures alentours d’en produire. On pourrait donc imaginer un quartier chauffé grâce à un datacenter voisin par exemple. Si différents types de démonstrateurs sont en cours d’expérimentation, la récupération de chaleur nécessite d’importantes études en amont des projets. La production de chaleur et les besoins récurrents dans les bâtiments périphériques doivent alors être déterminés avec précision pour mettre en œuvre des projets pertinents. De nombreux freins ne permettent pas, pour l’instant, le développement à grande échelle de ces technologies.  

Enfin, pour améliorer la performance des datacenters existants de manière simple et efficace, un pilotage efficace reste la solution privilégiée. Les logiciels DCIM (datacenter infrastructure management), qui permettent de piloter avec précision les équipements grâce au suivi de consignes, sont un moyen fiable et performant. Ils facilitent la gestion de l’alimentation en énergie, mais aussi la charge et la circulation des données dans les serveurs. 

Au-delà des technologies, les acteurs du datacenter doivent investir dans des compétences opérationnelles, concrètement en ressources humaines qualifiées, pour améliorer la performance énergétique de leurs infrastructures et analyser plus finement les comportements de leurs sites. La gestion performante d’un datacenter repose avant tout sur une expertise réelle des systèmes.