Les demandes croissantes en intelligence artificielle poussent les centres de données de la région Asie-Pacifique à s’adapter
Alors que de plus en plus d’entreprises dans la région Asie-Pacifique adoptent l’intelligence artificielle (IA) pour améliorer leurs opérations, la pression sur les centres de données augmente rapidement. Les infrastructures traditionnelles, conçues pour des générations antérieures de calcul, peinent à répondre aux besoins énergétiques et de refroidissement des systèmes modernes d’IA. D’ici 2030, les charges de travail basées sur les unités de traitement graphique (GPU) pourraient pousser les densités de puissance des racks vers 1 MW, rendant les mises à niveau incrémentielles insuffisantes. Les opérateurs se tournent donc vers des centres de données spécifiquement conçus pour l’IA, appelés « usines de données AI ».
Une croissance explosive du marché
Le marché des centres de données pour l’IA devrait passer de 236 milliards € en 2025 à près de 934 milliards € d’ici 2030. Cette croissance est alimentée par l’adoption rapide de l’IA dans des secteurs tels que la finance, la santé et la fabrication. Ces secteurs ont besoin d’environnements de calcul haute performance alimentés par des clusters de GPU denses, nécessitant beaucoup plus d’énergie et de capacité de refroidissement que les serveurs traditionnels.
En Asie-Pacifique, cette demande est amplifiée par les investissements gouvernementaux dans la numérisation, l’expansion de la 5G et le déploiement d’applications cloud-native et génératives. Tout cela pousse les besoins en calcul à un niveau jamais atteint auparavant.
Défis liés au refroidissement et à l’alimentation
À mesure que les densités de rack augmentent de 40 kW à 130 kW, et potentiellement jusqu’à 250 kW d’ici 2030, le refroidissement et la distribution de l’énergie deviennent des enjeux cruciaux. Les méthodes de refroidissement par air traditionnelles ne suffisent plus dans ces conditions.
Pour y remédier, des systèmes de refroidissement hybrides sont en cours de développement, combinant refroidissement liquide direct au niveau des puces avec des solutions basées sur l’air. Ces systèmes peuvent s’adapter aux charges de travail changeantes, réduire la consommation d’énergie et maintenir la fiabilité.
– Systèmes de refroidissement hybrides
– Capacité d’ajustement en temps réel
– Réduction des pertes d’énergie
L’alimentation devient également plus complexe, les charges de travail de l’IA fluctuant rapidement. Les unités de distribution de puissance et les systèmes de bus sont en cours d’évolution pour gérer des tensions plus élevées et améliorer l’équilibrage des charges. La surveillance intelligente aide les opérateurs à gérer les charges plus efficacement, réduire la capacité gaspillée et prolonger le temps de disponibilité.
Nouveaux designs pour les centres de données AI
L’émergence de pods GPU refroidis par liquide et de racks de 1 MW signale un changement architectural plus profond. Au lieu de réaménager des installations anciennes, de nouveaux centres de données sont conçus spécifiquement pour soutenir l’IA.
Les infrastructures de prochaine génération intégreront le refroidissement, l’alimentation et la surveillance, allant du niveau de la puce au réseau électrique. Pour l’Asie-Pacifique, où les campus hyperscale se développent rapidement, ce type de design intégré est essentiel pour répondre aux attentes de performance et aux objectifs de durabilité.
Passer des mises à niveau incrémentielles aux centres de données AI
D’ici 2030, l’Asie-Pacifique devrait dépasser les États-Unis en capacité de centres de données, atteignant presque 24 GW de puissance commissionnée. Pour gérer cette croissance, les entreprises s’éloignent des mises à jour ad hoc au profit de centres de données « usines AI » à part entière.
– Planification intégrée
– Adoption de systèmes modulaires et préfabriqués
– Intégration de la durabilité à chaque étape
Le premier pas consiste à regrouper la gestion de la puissance, du refroidissement et de l’informatique, ce qui simplifie le déploiement et fournit une base solide pour l’évolutivité. Le second pas consiste à adopter des systèmes modulaires, permettant d’ajouter de la capacité par phases sans perturbations majeures.
Une priorité croissante pour la durabilité
Avec l’augmentation de la consommation d’énergie due à l’IA, les opérateurs de centres de données doivent faire face à des réglementations plus strictes et à des contraintes de réseau croissantes. Cela est particulièrement vrai en Asie du Sud-Est, où la fiabilité de l’alimentation et les tarifs varient largement.
Les systèmes de refroidissement hybrides peuvent réduire à la fois la consommation d’énergie et d’eau par rapport aux anciennes méthodes. Les entreprises doivent veiller à ce que la croissance alimentée par l’IA dans la région reste responsable et durable, tout en alignant leurs objectifs numériques et environnementaux à long terme.
Préparer l’avenir des centres de données
La montée en puissance de l’IA transforme la manière dont les centres de données sont construits et exploités en Asie-Pacifique. Alors que les charges de travail deviennent plus intenses et que les pressions de durabilité s’accroissent, les entreprises ne peuvent plus compter sur des infrastructures obsolètes. Le passage aux centres de données « usines AI », soutenus par des systèmes de refroidissement avancés, une alimentation en courant continu et des solutions modulaires, reflète le changement nécessaire pour s’adapter à la prochaine ère du calcul.
Avec ces évolutions, la région est sur le point de devenir un leader dans le domaine des centres de données, capable de répondre aux exigences d’un monde de plus en plus numérique et axé sur l’IA.
