AI Infrastructure 2026 : nouvelles exigences GPU, réseaux optiques et refroidissement immersif
- Cedric KTORZA
- 15 déc. 2025
- 9 min de lecture

Introduction : 2026 change l’échelle des infrastructures d’IA
2026 change l’échelle des infrastructures d’IA.
Entre GPUs toujours plus puissants, interconnexions optiques à 800 Gb/s et refroidissement immersif, les architectures classiques de data centers ne suffisent plus. L’« AI Infrastructure 2026 » impose de repenser puissance par rack, réseaux, alimentation et thermique pour supporter des clusters de plusieurs dizaines de milliers de GPU, tout en maîtrisant coûts et impact environnemental.
Chez Score Group, cette mutation fait écho à notre ADN : croiser l’énergie, le digital et les nouvelles technologies pour concevoir des infrastructures réellement prêtes pour l’IA générative. Cet article décrypte les nouvelles exigences techniques et opérationnelles, et comment les anticiper dès aujourd’hui.
Là où l’efficacité embrasse l’innovation… C’est exactement le défi posé par les infrastructures d’IA en 2026.
Pourquoi 2026 est un tournant pour l’infrastructure d’IA
Explosion de la densité GPU et puissance par rack
En quelques années, la densité GPU a changé d’échelle. Les générations GH200 et suivantes font déjà grimper la puissance par rack à 70 kW, et l’écosystème prépare des générations de GPU capables de porter ces densités vers 130 kW, voire plus de 200 kW par rack à l’horizon 2026, selon des projections relayées dans la presse spécialisée.forbes.com
Parallèlement, les standards OCP (Open Compute Project) et les alimentations ORv3 prévoient désormais des baies capables de supporter 50–100 kW et plus de puissance continue par rack, alors qu’une baie « classique » tournait encore autour de 5–10 kW quelques années plus tôt.advancedenergy.com Cette bascule impose :
Une distribution électrique haute densité (50–130 kW/rack et au-delà).
Des chemins de câbles et busways optimisés pour ces intensités.
Une stratégie de refroidissement liquide (direct-to-chip, immersion, rear-door liquides).
Du data center classique à l’« AI factory »
Les leaders du marché parlent désormais d’AI factories : des data centers conçus pour transformer de gigantesques volumes de données en modèles et services d’IA. Nvidia a par exemple publié des blueprints de centres de données pouvant atteindre le gigawatt de puissance IT, soit l’ordre de grandeur d’un réacteur nucléaire, pour des infrastructures entièrement dédiées à l’IA.tomshardware.com
Dans ce contexte, l’enjeu 2026 n’est plus seulement de « supporter » quelques nœuds GPU mais :
De concevoir des blocs modulaires de plusieurs mégawatts, scalables par pas rapides.
De garantir une latence réseau ultra-faible au sein de clusters massifs.
De maintenir une efficacité énergétique élevée (PUE bas) malgré ces densités extrêmes.
Nouvelles exigences côté GPU : densité, alimentation, intégration
De 10 kW à 100 kW+ par rack : un changement de paradigme
Les racks GPU destinés à l’entraînement de modèles de grande taille se situent déjà, pour les déploiements avancés, dans la fourchette 40–100 kW, avec des cas >130 kW intégrant du refroidissement liquide direct.michaelbommarito.com Cette tendance a des conséquences très concrètes :
Fin de l’air-only : au-delà de 25–30 kW/rack, l’air atteint ses limites physiques, même avec confinement et in-row.michaelbommarito.com
Hybridation forcée : combiner liquid cooling (GPU/CPU) et air pour les composants annexes.
Refonte de la distribution électrique : PSUs ORv3, 415 V tri, busways haute capacité, redondance adaptée à l’IA.
Alimentation et continuité de service pour l’IA
Les blocs GPU d’IA ne supportent ni microcoupures, ni variations thermiques brusques. La conception des futurs data centers d’IA implique donc :
Une architecture électrique modulaire et redondée (N+1, 2N) alignée sur les profils de charge IA.
Des UPS haute efficacité, couplés à des systèmes de stockage d’énergie et, de plus en plus, à des architectures 800 V DC inspirées des références MGX et OCP.nvidia.com
Une stratégie PRA/PCA spécifique aux clusters IA, distincte parfois du reste de l’IT.
C’est typiquement un domaine où la division Noor ITS de Score Group peut accompagner la conception de l’infrastructure IT et des plans de résilience, en articulation avec la stratégie énergétique globale pilotée par Noor Energy.
Réseaux optiques et fabrics haute performance pour l’IA
Du 100G au 800G (et plus) : le nouveau standard des fabrics IA
Les clusters GPU modernes ne sont efficaces que si le réseau suit. L’émergence de cartes réseau 800G dédiées aux data centers d’IA illustre cette transition : ces NIC exploitent PCIe Gen6 x16, des mécanismes avancés de RDMA, et ciblent explicitement les fabrics Ethernet d’IA à très grande échelle.techradar.com
En pratique, pour 2026, cela se traduit par :
Des topologies spine-leaf optiques en 400G/800G (voire 1,6T dans certains roadmaps).
Une convergence entre Ethernet hautes performances et fabrics spécialisés type InfiniBand.
Une attention accrue à la gigue, à la perte de paquets et aux mécanismes de congestion control.
Réseaux optiques et contraintes physiques
Les nouvelles densités et vitesses imposent aussi des contraintes « mécaniques » :
Câblage optique haute densité, gestion précise des longueurs et rayons de courbure.
Organisation stricte des allées pour limiter les pertes et simplifier la maintenance.
Risques accrus de points chauds au niveau des transceivers optiques, donc intégration au design de refroidissement.
Dans ce domaine, la division Noor ITS de Score Group peut concevoir des architectures réseaux alignées avec les besoins d’IA tout en intégrant les enjeux de cybersécurité et de résilience.
Refroidissement immersif et liquid cooling : de l’option au nouveau normal
Quand le liquide devient inévitable
Selon l’Uptime Institute, les systèmes de refroidissement liquide (direct-to-chip, immersion, solutions hybrides) sont désormais privilégiés dès que la puissance par rack dépasse 50 kW, les approches classiques par air restant cantonnées aux charges < 20–25 kW.intelligence.uptimeinstitute.com
Les études de marché montrent que le refroidissement immersif progresse rapidement, porté par les déploiements d’IA et d’HPC :
Un marché mondial de plusieurs centaines de millions de dollars dès 2024, avec une croissance à deux chiffres jusqu’en 2034.globalgrowthinsights.com
Une adoption tirée par les hyperscalers, la colocation et les projets IA fortement denses.futuremarketinsights.com
Pourquoi le refroidissement immersif séduit les projets IA
Le refroidissement immersif consiste à plonger serveurs et GPU dans un fluide diélectrique qui absorbe la chaleur beaucoup plus efficacement que l’air. Des retours d’expérience font état :
De capacités à gérer 100 kW/rack et plus sans points chauds.
De réductions de la consommation énergétique liée au refroidissement allant jusqu’à 40 % et de PUE approchant 1,03 dans certains cas.coolblock.com
D’une baisse des taux de panne grâce à des conditions thermiques plus stables.
Pour des projets IA 2026, la vraie question n’est plus « faut-il du liquide ? », mais « quel mix entre direct-to-chip et immersion est le plus pertinent » selon la densité visée, la stratégie de maintenance et les contraintes réglementaires locales.
Vers des racks AI-ready à 600 kW
Les roadmaps constructeurs laissent entrevoir des baies GPU intégralement pensées pour le refroidissement liquide, capables de soutenir plusieurs centaines de kilowatts par rack. Nvidia a, par exemple, annoncé un rack Rubin Ultra prévu pour 2027, doté d’un refroidissement liquide et d’une puissance estimée supérieure à 600 kW par rack équivalent.globenewswire.com
Ces chiffres donnent la mesure de ce qui attend les infrastructures d’IA à partir de 2026 : sans conception conjointe « énergie + refroidissement + réseau », il devient tout simplement impossible d’exploiter ces capacités.
Tableau de synthèse : de l’infrastructure 2024 à l’« AI Infrastructure 2026 »
Évolution des exigences techniques (ordre de grandeur)
Paramètre | Data center typique 2024 | Infrastructure d’IA 2026 (tendance) |
|---|---|---|
Puissance max par rack | 5–15 kW (IT généraliste) | 50–140 kW courant, 200 kW+ pour IA très dense |
Technologie de refroidissement dominante | Air (CRAC/CRAH, confinement) | Hybride air + liquide, montée en puissance de l’immersion |
Réseau datacenter | 25/40/100G Ethernet, peu de 400G | 400G/800G optique généralisé sur les fabrics IA |
Architecture électrique | AC classique, 10–20 kW/rack, busways standard | ORv3 haute densité, 50–130 kW/rack, préparation 800 V DC |
Refroidissement immersif | Pilotes et PoC isolés | Composant clé pour racks > 150–200 kW dans l’IA |
Objectifs d’efficacité | PUE 1,4–1,6 fréquent | PUE < 1,2 sur les blocs IA, recherche du heat reuse |
Ces ordres de grandeur synthétisent des tendances issues de multiples études (Uptime Institute, OCP, analyses de marché sur le refroidissement liquide et les data centers d’IA).intelligence.uptimeinstitute.com
Préparer son data center à l’AI Infrastructure 2026
1. Partir des cas d’usage IA, pas seulement du matériel
Dimensionner une infrastructure pour l’IA ne se limite pas à choisir des GPU. Il faut d’abord clarifier :
Les cas d’usage : entraînement intensif, inférence temps réel, RAG, traitement vidéo, etc.
Les besoins de continuité : tolérance aux pannes, fenêtres de maintenance, PRA/PCA.
Les contraintes réglementaires : localisation des données, sobriété énergétique, eau, bruit.
La division Étude et Ingénierie de Score Group peut intervenir dès cette phase amont pour aligner trajectoire IA et trajectoire d’infrastructure.
2. Repenser le couple énergie + refroidissement
Les infrastructures d’IA 2026 sont d’abord des projets énergétiques. Il faut donc :
Analyser la capacité du site à supporter des blocs de plusieurs mégawatts.
Étudier des solutions de production et d’optimisation énergétique (pilotage, effacement, stockage).
Choisir le bon mix de refroidissement (air confiné, rear-door, direct-to-chip, immersion).
Chez Score Group, la division Noor Energy se concentre sur ces sujets, en coordination étroite avec les équipes Noor ITS en charge des datacenters et de leur exploitation.
3. Intégrer nativement l’IA dans votre socle numérique
Une « AI Infrastructure 2026 » performante n’est pas un îlot isolé : elle s’intègre au cloud, aux systèmes métiers, au workplace numérique et aux pipelines de données. C’est l’objet de la division Noor Technology, qui adresse :
Les plateformes d’intelligence artificielle (MLOps, serveurs d’inférence, intégration applicative).
Les couches IoT et Smart Connecting pour instrumenter l’infrastructure (capteurs, télémétrie).
Les développements applicatifs exploitant ces capacités GPU.
4. Sécuriser, opérer et faire évoluer dans la durée
Plus l’infrastructure IA est dense, plus l’effet domino d’un incident est important. Il faut donc prévoir dès le design :
Une stratégie de PRA/PCA adaptée aux workloads IA.
Des services d’infrastructures managés pour maintenir performances et sécurité dans le temps.
Un modèle opérationnel clair entre facilities, IT et équipes IA.
Les offres de support SLA et de services managés de Score Group sont justement pensées pour accompagner ce type d’infrastructures critiques.
FAQ : infrastructures d’IA 2026, GPU, réseaux optiques et refroidissement immersif
Quelle puissance par rack faut-il prévoir pour une infrastructure d’IA en 2026 ?
Pour des déploiements IA ambitieux à horizon 2026, il devient prudent de viser des designs supportant au moins 50 kW par rack pour les nœuds GPU, avec une trajectoire possible vers 80–140 kW sur certains clusters. Les cas les plus extrêmes, notamment pour des racks entièrement optimisés et refroidis par liquide, peuvent dépasser 200 kW, voire davantage, mais concernent surtout hyperscalers et acteurs HPC.intelligence.uptimeinstitute.com Pour un data center d’entreprise ou de colocation, l’enjeu est surtout de prévoir une zone « haute densité » correctement alimentée et refroidie, au lieu de surdimensionner l’ensemble du site.
Les réseaux 800G sont-ils indispensables pour les clusters GPU d’IA ?
Ils ne sont pas indispensables dans l’absolu, mais deviennent rapidement souhaitables dès que les modèles et jeux de données grossissent. Les topologies 400G sont aujourd’hui suffisantes pour de nombreux projets, mais les roadmaps d’interconnexion GPU prévoient des fabrics 800G optimisés pour l’IA, capables d’améliorer bande passante et latence à grande échelle.techradar.com Pour un projet 2026, il est pertinent d’au moins préparer l’infrastructure physique (fibre, cheminement, énergie au rack) pour accueillir 400/800G, même si la première phase démarre en 100/200G.
Quand le refroidissement immersif devient-il pertinent dans un data center d’IA ?
la puissance par rack dépasse environ 150–200 kW, (
l’espace est contraint et l’on souhaite maximiser la densité, ou (
les objectifs de performance énergétique et de réduction du PUE sont très ambitieux. intelligence.uptimeinstitute.com Dans les autres cas, un mix direct-to-chip + air peut suffire. Toutefois, compte tenu des roadmaps GPU, beaucoup de projets amorcent dès aujourd’hui des pilotes immersifs pour ne pas être bloqués à la prochaine montée de puissance
Comment concilier haute densité GPU et objectifs de durabilité ?
La clé est de traiter le sujet comme un projet énergétique, pas uniquement IT. D’un côté, les GPU concentrent la consommation, mais de l’autre, les technologies de refroidissement liquide et immersif permettent de réduire fortement l’énergie dédiée à la climatisation et d’atteindre des PUE très bas.futuremarketinsights.com Il est aussi possible de valoriser la chaleur fatale (réseaux de chaleur, procédés industriels), de coupler les data centers IA à des énergies renouvelables et de piloter finement les charges via des systèmes de gestion énergétique et des algorithmes d’optimisation.
Par où commencer pour adapter un data center existant aux exigences 2026 ?
La démarche la plus efficace consiste à lancer un audit croisé énergie–IT–opérations. On évalue la capacité électrique disponible, la marge en refroidissement, la structure des réseaux et des salles, puis on identifie une ou deux zones « pilotes » pour accueillir des racks IA haute densité. Ces zones intègrent distribution électrique renforcée, liquid cooling ou immersion, et interconnexions optiques à haute capacité. Ensuite, on construit une feuille de route graduelle pour étendre ces blocs selon la croissance des besoins IA. L’accompagnement par un intégrateur global comme Score Group permet de garder cohérence et maîtrise des risques.
Et maintenant ? Préparer votre AI Infrastructure 2026 avec Score Group
Les infrastructures d’IA de 2026 exigent une vision unifiée de l’énergie, du numérique et des nouvelles technologies. En tant qu’intégrateur global, Score Group mobilise ses divisions Noor Energy, Noor ITS, Noor Technology et Noor Industry pour concevoir, déployer et exploiter des architectures GPU-ready, du design énergétique aux plateformes d’IA en passant par les solutions de cloud et d’hébergement. Pour explorer ce que cette transformation signifie pour votre organisation, découvrez notre univers sur score-grp.com et échangez avec nos équipes via la page Contact.



