Free cooling en datacenter : limites et bonnes pratiques
- 10 févr.
- 11 min de lecture

Réduire la climatisation mécanique sans compromettre la disponibilité : c’est l’objectif du free cooling en datacenter.
Concrètement, le free cooling (ou “refroidissement gratuit”) consiste à exploiter des conditions extérieures favorables (air froid, eau froide, faible température de bulbe humide) pour dissiper la chaleur des serveurs en limitant, voire en évitant, le fonctionnement des compresseurs (groupes froids / DX). Bien dimensionné et bien piloté, c’est un levier majeur d’efficacité énergétique… mais il a des limites : climat réel, humidité, pollution, contraintes d’exploitation et exigences de continuité de service.
Dans cet article, nous faisons le tri entre promesses et réalité, puis nous détaillons des bonnes pratiques actionnables pour concevoir, sécuriser et exploiter un free cooling datacenter de manière fiable.
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Pourquoi le free cooling est devenu un sujet “incontournable” en datacenter
Les datacenters sont au cœur de la transformation numérique, et leur empreinte énergétique est désormais scrutée. À l’échelle mondiale, l’Agence internationale de l’énergie (IEA) estime la consommation électrique des datacenters (hors crypto) en 2022 entre 240 et 340 TWh, soit environ 1 à 1,3% de la demande finale d’électricité.
Au niveau d’un site, le poste “refroidissement” pèse souvent lourd : selon une synthèse du Pew Research Center s’appuyant sur des données IEA, l’énergie dédiée au refroidissement peut représenter ~7% dans les installations les plus efficaces et plus de 30% dans des sites moins performants (souvent plus anciens ou moins optimisés).
Réduire les kWh consommés par la production de froid améliore directement le PUE (Power Usage Effectiveness).
Réduire les besoins en eau est aussi un enjeu croissant, notamment lorsque des tours aéroréfrigérantes et des systèmes adiabatiques sont impliqués.
Réduire les contraintes électriques : moins de froid mécanique = moins de puissance appelée et parfois moins de redondance à installer côté froid.
Chez Score Group, nous abordons ces sujets en intégrateur global “Énergie, Digital et New Tech” : notre division Noor ITS intervient sur la conception et l’optimisation des datacenters, tandis que Noor Energy contribue via la gestion de l’énergie et la gestion du bâtiment (GTB/GTC) pour un pilotage fin et mesurable.
(<a href="https://www.iea.org/energy-system/digitalisation/data-centres-and-data-transmission-networks?utm_source=openai" target="_blank" rel="noopener noreferrer">iea.org</a>)
Comprendre le free cooling en datacenter : principes et grandes familles
Le principe : profiter d’une “source froide” externe
Dans un datacenter, la charge thermique est quasi continue. L’idée du free cooling est simple : si l’extérieur permet d’évacuer la chaleur (directement ou via échangeur), alors on réduit le recours aux compresseurs. Mais la simplicité s’arrête vite : la performance dépend des conditions psychrométriques (température, humidité, bulbe humide), des approches d’échange (ΔT possible), des pertes de charge (ventilateurs) et des contraintes d’air (pollution, corrosion).
Les principales architectures
Économiseur à air (air-side economizer) : introduction d’air extérieur (total ou partiel) pour refroidir la salle IT.
Économiseur à eau (water-side economizer) : production d’eau froide “sans compresseur” via dry cooler, tour + échangeur, ou boucle d’eau tempérée selon le design.
Free cooling indirect (indirect air economizer / échangeur air-air) : l’air extérieur refroidit l’air du datacenter sans mélange (réduction des risques de contamination).
Hybrides adiabatiques : ajout d’évaporation (directe ou indirecte) pour gagner des heures de fonctionnement lorsque l’air sec le permet, au prix d’une consommation d’eau.
Couplage avec liquid cooling (selon densités) : plus on remonte les températures d’eau, plus on “bascule” vers du rejet sec (dry coolers) et donc vers une logique de free cooling étendue.
Free cooling datacenter : ce que l’on peut (vraiment) attendre, et comment l’estimer sans se tromper
Il n’y a pas “un” gain universel : le climat et les consignes font la loi
Deux datacenters identiques n’obtiendront pas les mêmes résultats si :
l’un est en zone tempérée sèche (beaucoup d’heures favorables),
l’autre en zone chaude et humide (moins d’heures favorables, free cooling souvent “partiel” ou indirect/adiabatique),
les consignes d’air soufflé / air de reprise ne sont pas optimisées,
la distribution d’air (hot/cold aisle, confinement) n’est pas maîtrisée.
Un point clé mis en avant par le guide DOE/FEMP (révision juillet 2024) : pour économiser de l’énergie, l’air extérieur n’a pas besoin d’être plus froid que la consigne de soufflage ; il doit surtout être plus froid que l’air de reprise. Autrement dit, améliorer le management des flux d’air et augmenter la température de reprise peut augmenter le nombre d’heures où un économiseur (air ou eau) est utile.
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Méthode pragmatique pour dimensionner (sans “survendre”)
Fixer la cible thermique côté IT : températures d’entrée serveurs, marges, densités par baie, et compatibilité avec les recommandations (et garanties) constructeurs.
Choisir l’architecture (air direct, air indirect, water-side, hybride) selon air extérieur, risques de contamination, et contraintes d’exploitation.
Calculer les “heures free cooling” avec des données météo horaires (type TMY/EPW), en intégrant :
seuils de température (et/ou bulbe humide),
approches d’échange (ΔT échangeur, efficacité adiabatique),
stratégies de contrôle (locks sur point de rosée / humidité),
pénalités ventilateurs/pompes (kW additionnels).
Valider par simulation énergétique (ou au minimum par un bilan saisonnier) en tenant compte des rendements partiels et de la redondance.
Exemples chiffrés (retours et ordres de grandeur sourcés)
Le DOE/FEMP indique que le free cooling via économiseur à eau est “souvent” pertinent dans des climats présentant des températures de bulbe humide < 55°F (≈ 12,8°C) pendant 3 000 heures/an ou plus (valeur indicative : à confirmer par étude locale).
Un exemple de performance extrême : le datacenter ESIF du NREL a maintenu un PUE de 1,028 et annonce des économies d’eau de plus de 6,5 millions de gallons depuis l’introduction d’un système de refroidissement de type thermosiphon en 2018 (cas particulier, design très optimisé).
Sur l’efficience globale, Google publie un PUE annuel moyen 2024 de 1,09 sur sa flotte (indicateur utile pour se benchmarker, même si l’architecture et l’échelle sont spécifiques hyperscale).
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Les limites du free cooling en datacenter (et pourquoi elles comptent)
1) Qualité d’air et contamination : le point sensible de l’air-side
Introduire de l’air extérieur peut augmenter l’exposition aux particules et polluants. Une étude LBNL (2008) sur l’usage des économiseurs en datacenters en Californie souligne notamment qu’un économiseur à air peut exposer à une augmentation d’un ordre de grandeur des concentrations de particules en intérieur, avec un risque sur la fiabilité matériel difficile à quantifier (d’où l’importance de la filtration, du choix d’architecture et de la stratégie de maintenance).
(<a href="https://www.osti.gov/biblio/937579?utm_source=openai" target="_blank" rel="noopener noreferrer">osti.gov</a>)
2) Humidité, point de rosée et condensation
Le free cooling n’est pas seulement une affaire de degrés Celsius : l’humidité et le point de rosée déterminent le risque de condensation (et de corrosion). L’ASHRAE (Handbook) rappelle les classes et enveloppes recommandées/acceptables des équipements refroidis par air, avec une plage recommandée (classe A1 à A4) typiquement 18 à 27°C et des enveloppes “allowable” plus larges selon les classes.
(<a href="https://handbook.ashrae.org/Handbooks/A15/SI/a15_ch19/a15_ch19_si.aspx?utm_source=openai" target="_blank" rel="noopener noreferrer">handbook.ashrae.org</a>)
3) Variabilité météo et événements extrêmes
Canicules, feux de forêt (fumées), épisodes de poussières, embruns salins en zone côtière… Un design free cooling robuste doit intégrer :
des modes dégradés (retour au froid mécanique),
des seuils de bascule automatisés,
des capteurs et une supervision capables d’anticiper (tendances) plutôt que de subir (alarme tardive).
4) Consommation d’eau : l’envers du décor des solutions adiabatiques
Certains free cooling (notamment avec tours aéroréfrigérantes ou adiabatique) déplacent une partie de l’enjeu vers l’eau. Et cet enjeu est réel : aux États-Unis, des estimations synthétisées par Pew Research indiquent que les datacenters ont consommé directement environ 17 milliards de gallons d’eau en 2023 (avec une part majeure attribuée aux hyperscalers et colocations), et que la consommation des hyperscalers pourrait se situer entre 16 et 33 milliards de gallons/an d’ici 2028 (estimation issue d’un rapport Berkeley Lab 2024 cité par Pew).
(<a href="https://www.pewresearch.org/short-reads/2025/10/24/what-we-know-about-energy-use-at-us-data-centers-amid-the-ai-boom/?utm_source=openai" target="_blank" rel="noopener noreferrer">pewresearch.org</a>)
5) Complexité de contrôle : sans stratégie de pilotage, pas de performance durable
Le guide DOE/FEMP (2024) recommande notamment des stratégies de contrôle pour gérer les fluctuations de température et d’humidité, dont des schémas de lockout sur température de point de rosée pour éviter des charges inutiles d’humidification/déshumidification. Il mentionne aussi que l’utilisation de filtres MERV 13 peut réduire l’impact des polluants extérieurs dans une logique d’économiseur à air (à valider selon votre contexte).
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Bonnes pratiques de conception : sécuriser la performance (et la disponibilité)
1) Partir des besoins IT (densité, profils de charge, roadmap)
Avant de choisir un free cooling, il faut clarifier :
densité par rack (kW/rack) et zones à forte densité (IA/HPC),
tolérance aux variations (température / humidité) selon les classes d’équipements,
évolutivité (projections 3–5 ans : densification, liquid cooling partiel, etc.).
2) Optimiser l’air management : c’est le “multiplicateur” du free cooling
Sans séparation des flux, on gaspille des kWh en ventilateurs et on réduit les heures de free cooling utiles. Les leviers classiques restent très efficaces :
hot aisle / cold aisle correctement orientés,
confinement (allée froide ou chaude) selon contraintes,
obturateurs, brosses passe-câbles, colmatage des fuites,
augmentation maîtrisée des consignes (dans l’enveloppe recommandée / acceptable) pour gagner des heures d’économiseur.
3) Choisir une architecture adaptée au risque (air direct vs indirect vs water-side)
Le “meilleur” free cooling est celui qui respecte vos contraintes : disponibilité, qualité d’air, maintenance, contraintes d’eau, et capacité à opérer en mode hybride. Pour des environnements à air chargé (industrie, trafic, bord de mer), l’indirect ou le water-side simplifient souvent la maîtrise du risque.
Tableau comparatif des architectures de free cooling en datacenter
Architecture | Principe | Points forts | Limites / vigilances | Quand c’est pertinent |
|---|---|---|---|---|
Air-side economizer | Apport d’air extérieur pour refroidir la salle IT | Potentiel d’économies élevé en climat favorable, simplicité “thermique” | Pollution/particules, corrosion, filtration (pertes de charge), contrôle hygrométrique | Climats tempérés/froids, air extérieur “propre”, stratégie de filtration/lockouts solide |
Indirect air economizer | Échange air-air sans mélange des flux | Réduit le risque de contamination, plus robuste que l’air direct | Rendement échangeur/approche, encombrement, CAPEX plus élevé | Zones à air extérieur variable, exigences IT strictes |
Water-side economizer | Production d’eau froide sans compresseur (tour + échangeur, dry cooler, etc.) | Pas d’air extérieur dans la salle IT, intégration possible sur boucle eau | Bulbe humide/humidité, risques eau (entartrage, traitement, légionelles selon design), maintenance | Sites avec beaucoup d’heures à bulbe humide bas (ordre de grandeur cité DOE/FEMP) |
Hybride adiabatique | Évaporation pour “booster” le free cooling | Augmente les heures utiles en climat chaud/sec | Consommation d’eau, qualité d’eau, dérives sanitaires si mal géré | Climats secs, objectifs d’efficience élevés avec arbitrage eau/énergie |
Liquid cooling + rejet sec | Remonter la température d’eau pour rejeter à l’air via dry coolers | Très intéressant pour densités élevées, réduction de l’airflow global | Architecture plus complexe (CDU, boucles), stratégie de redondance à cadrer | IA/HPC, densification, besoins de stabilité thermique |
Note : ce tableau donne une lecture “décisionnelle”. Un dimensionnement fiable passe par une étude d’ingénierie (météo horaire, profils de charge, pertes de charge, et scénarios d’exploitation).
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
4) Concevoir la régulation et les modes de bascule (priorité à la résilience)
Un free cooling datacenter performant est un free cooling piloté. Quelques règles de base issues des retours terrain et des guides de bonnes pratiques :
Définir des seuils multi-critères : température, humidité/point de rosée, qualité d’air (si air-side), et capacité disponible.
Prévoir des lockouts pour éviter des cycles énergivores d’humidification/déshumidification (ex. logique point de rosée mentionnée par DOE/FEMP).
Fail-safe : en cas de défaut capteur/automate, revenir à un mode sûr (froid mécanique ou consigne conservatrice).
Mesurer : kW froid, kW ventilateurs/pompes, températures entrée/sortie, ΔT, PUE, et si pertinent WUE.
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
5) Instrumenter et superviser : capteurs, GTB/DCIM, et maintenance
Pour maintenir la performance dans le temps, il faut un socle de données. Chez Score Group, notre approche mobilise :
Noor Energy pour le suivi et l’optimisation via la gestion de l’énergie et la GTB/GTC,
Noor ITS pour l’architecture, l’exploitation et l’évolution des datacenters,
Noor Technology pour la donnée temps réel (IoT) via Smart Connecting : capteurs, alerting, tendance, et automatisation de certaines actions.
“Là où l’efficacité embrasse l’innovation…” Le free cooling n’est pas qu’un choix d’équipement : c’est une stratégie qui relie thermique, automatisme, supervision et exigences IT, pour une performance durable et auditable.
Bonnes pratiques d’exploitation : éviter les “gains papier”
Surveiller ce qui dégrade le free cooling
Filtres : colmatage = pertes de charge = hausse kW ventilateurs ; plan de maintenance + suivi ΔP.
Échangeurs : encrassement (air) / entartrage (eau) = baisse d’efficacité ; nettoyer et contrôler.
Consignes : dérive progressive des setpoints “pour être tranquille” = perte d’heures free cooling ; gouvernance de consignes.
Stratégies de bascule : éviter les oscillations (hystérésis, temporisations, priorités).
Mesurer avec des KPI standardisés
Le PUE reste un indicateur central. Pour cadrer la mesure et la comparabilité, l’ISO publie la série ISO/IEC 30134, dont une édition 2026 d’ISO/IEC 30134-2 sur le PUE. En complément, suivre un KPI eau (WUE) est pertinent dès qu’une partie du refroidissement mobilise de l’évaporation ou des tours.
(<a href="https://www.iso.org/standard/85172.html?utm_source=openai" target="_blank" rel="noopener noreferrer">iso.org</a>)
Ressources utiles (sources externes fiables)
U.S. DOE / FEMP – Best Practices Guide for Energy-Efficient Data Center Design (révisé juillet 2024)
ASHRAE Handbook – Data Centers and Telecommunication Facilities (classes environnementales)
LBNL – Energy Implications of Economizer Use in California Data Centers (2008)
Pew Research Center (2025) – Synthèse sur énergie/eau des datacenters (sources IEA / Berkeley Lab)
FAQ : questions fréquentes sur le free cooling en datacenter
Le free cooling est-il adapté à tous les datacenters ?
Non. Le free cooling est presque toujours “possible” sur le papier, mais pas toujours rentable ni simple à opérer. En air-side, la qualité d’air, les particules et la corrosion peuvent imposer une filtration et des stratégies de contrôle (humidité/point de rosée) qui réduisent le gain. En water-side, le potentiel dépend fortement du bulbe humide et du design de boucle (températures d’eau, échangeurs, approches). La bonne approche consiste à simuler les heures utiles avec une météo horaire et à intégrer les pénalités ventilateurs/pompes, plus les contraintes d’exploitation.
Quelles sont les principales limites d’un air-side economizer (free cooling à air extérieur) ?
Les limites majeures sont la contamination (particules, polluants gazeux), les épisodes extrêmes (fumées, poussières) et la gestion de l’humidité. Le DOE/FEMP souligne l’importance d’une conception et d’un contrôle adaptés, avec par exemple des logiques de lockout sur point de rosée pour éviter des charges d’humidification/déshumidification inutiles. Le même guide mentionne aussi qu’une filtration de type MERV 13 peut limiter l’impact des polluants, à valider selon contexte. Enfin, l’ajout d’un économiseur à air en retrofit peut être difficile à cause des gains et réseaux de conduits.
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Comment augmenter les “heures de free cooling” sans changer tout le système ?
Le levier le plus efficace est souvent l’optimisation des températures et des flux d’air. Le guide DOE/FEMP rappelle que l’extérieur n’a pas besoin d’être plus froid que la consigne : il doit être plus froid que l’air de reprise. En pratique, améliorer le confinement (allées chaudes/froides), réduire les recirculations et remonter des consignes dans l’enveloppe acceptable peut augmenter la température de reprise et donc élargir la fenêtre d’économiseur (air ou eau). Ensuite, affiner la régulation (hystérésis, temporisations, lockouts) évite les bascules inutiles qui détruisent la performance réelle.
(<a href="https://www.energy.gov/sites/default/files/2024-07/best-practice-guide-data-center-design_0.pdf" target="_blank" rel="noopener noreferrer">energy.gov</a>)
Free cooling et IA/HPC : est-ce compatible avec les fortes densités ?
Oui, mais rarement avec les mêmes recettes que pour un datacenter “classique”. Avec l’IA/HPC, la densité thermique augmente et la marge sur l’air peut se réduire. Le free cooling devient alors souvent plus efficace via des architectures indirectes, du water-side, ou une transition partielle vers le liquid cooling (direct-to-chip, CDU), afin de remonter les températures d’eau et maximiser le rejet sec (dry coolers). L’important est de concevoir une chaîne complète : boucle, redondance, qualité d’eau, instrumentation, et modes de repli vers du froid mécanique si les conditions extérieures ne suffisent pas.
Quels KPI suivre pour prouver les gains d’un projet de free cooling datacenter ?
Le PUE est le KPI le plus répandu pour quantifier l’“overhead” énergétique (dont le refroidissement). Pour fiabiliser les comparaisons, s’appuyer sur des définitions standardisées aide (ex. ISO/IEC 30134-2 sur le PUE). En parallèle, si votre architecture utilise de l’évaporation ou des tours, suivre un KPI eau (WUE) devient essentiel. Enfin, au niveau opérationnel, il est utile de suivre : kW ventilateurs/pompes, ΔT (air/eau), heures d’économiseur, taux de bascule vers compresseurs, et dérives de filtration (ΔP filtres) afin de relier performance, maintenance et disponibilité.
(<a href="https://www.iso.org/standard/85172.html?utm_source=openai" target="_blank" rel="noopener noreferrer">iso.org</a>)
Et maintenant ?
Si vous souhaitez évaluer le potentiel de free cooling pour votre infrastructure (nouveau projet ou optimisation d’un site existant), Score Group peut vous accompagner de l’étude jusqu’à l’exploitation : conception et optimisation via Noor ITS (Datacenters), pilotage et mesure via Noor Energy (Gestion de l’Énergie), supervision et capteurs via Noor Technology (Smart Connecting), et maintien en conditions opérationnelles via nos services managés. Pour démarrer, contactez-nous via notre page contact ou découvrez notre approche sur score-grp.com.



