Technologie

Pourquoi les centres de données d'IA consomment-ils autant d'énergie ?

Les centres de données d'IA consomment jusqu'à dix fois plus d'électricité que les installations traditionnelles, en raison des GPU énergivores, des systèmes de refroidissement massifs et du fonctionnement 24 heures sur 24. Alors que la demande mondiale d'électricité des centres de données devrait doubler d'ici 2030, l'empreinte énergétique de l'intelligence artificielle remodèle les réseaux électriques du monde entier.

R
Redakcia
4 min de lecture
Partager
Pourquoi les centres de données d'IA consomment-ils autant d'énergie ?

L'ampleur du problème

Chaque fois que quelqu'un pose une question à un chatbot d'IA, génère une image ou utilise un assistant intelligent, une réaction en chaîne de calcul se déclenche à l'intérieur d'un centre de données quelque part dans le monde. Cette simple requête d'IA consomme environ dix fois plus d'électricité qu'une recherche Google traditionnelle, soit environ 0,3 wattheure contre 0,0003 kilowattheure. Multipliez cela par des milliards de requêtes quotidiennes, et les chiffres deviennent stupéfiants.

La consommation mondiale d'électricité des centres de données a atteint environ 415 térawattheures (TWh) en 2024, représentant environ 1,5 % de la consommation totale d'électricité mondiale, selon l'Agence internationale de l'énergie (AIE). Aux États-Unis seulement, les centres de données ont consommé 183 TWh, soit plus de 4 % de la consommation nationale d'électricité. L'AIE prévoit que ce chiffre doublera d'ici 2030, augmentant d'environ 15 % par an, soit quatre fois plus vite que la demande d'électricité de tous les autres secteurs combinés.

Pourquoi les GPU sont-ils si énergivores ?

Le principal moteur est le matériel lui-même. Les serveurs traditionnels exécutant des sites web et des bases de données consomment entre 300 et 500 watts. Un serveur optimisé pour l'IA, équipé d'unités de traitement graphique (GPU), consomme 3 000 à 5 000 watts ou plus, soit jusqu'à dix fois plus de puissance, selon des chercheurs du MIT.

L'entraînement d'un grand modèle d'IA nécessite des milliers de GPU fonctionnant à près de pleine utilisation pendant des semaines ou des mois. Pendant l'entraînement, les GPU fonctionnent généralement à environ 93 % de leur capacité, maintenant une consommation d'énergie énorme et continue que les charges de travail informatiques traditionnelles n'ont jamais approchée. Même après l'entraînement, chaque réponse d'IA qu'un utilisateur reçoit nécessite une inférence, c'est-à-dire le processus d'exécution des données à travers le modèle fini, qui, collectivement, consomme encore plus d'énergie que l'entraînement lui-même à mesure que l'utilisation augmente.

Refroidissement : la taxe énergétique cachée

Les GPU et les CPU représentent environ 60 % de la facture d'électricité d'un centre de données. Une grande partie du reste est consacrée au refroidissement. Les serveurs génèrent une chaleur intense, et comme l'IA pousse la densité de puissance vers le haut, les besoins en refroidissement augmentent en conséquence.

La plupart des installations utilisent le refroidissement par évaporation, qui échange l'eau contre l'efficacité énergétique. Un seul grand centre de données peut consommer cinq millions de gallons d'eau par jour, ce qui équivaut aux besoins d'une ville de 50 000 habitants, selon la Brookings Institution. En Virginie du Nord, le plus grand corridor de centres de données au monde, les installations ont consommé près de deux milliards de gallons d'eau en 2023, soit une augmentation de 63 % par rapport à 2019.

Comment les grandes entreprises technologiques réagissent

L'industrie poursuit plusieurs stratégies pour gérer son empreinte croissante :

  • Énergie nucléaire : Meta a signé des accords pour plus de six gigawatts d'énergie nucléaire, ce qui est suffisant pour alimenter environ cinq millions de foyers. Microsoft et Amazon ont pris des engagements similaires.
  • Refroidissement avancé : Les technologies de refroidissement direct sur puce et par immersion peuvent réduire la consommation d'eau de 20 à 90 % et réduire les besoins en énergie des installations jusqu'à 18 %, selon le climat et la conception.
  • Efficacité logicielle : Des techniques telles que la quantification et la distillation des modèles réduisent la taille des modèles d'IA afin qu'ils nécessitent moins de calculs par requête, ce qui réduit la consommation d'énergie par réponse.
  • Approvisionnement en énergies renouvelables : Les principaux fournisseurs de services cloud se sont engagés à faire correspondre 100 % de leur consommation d'électricité avec des achats d'énergies renouvelables, bien que les critiques soulignent que cela repose souvent sur des compensations comptables plutôt que sur une énergie propre directe.

Quelles sont les prochaines étapes ?

La trajectoire est claire. L'AIE prévoit que les États-Unis et la Chine représenteront près de 80 % de la croissance mondiale de l'électricité des centres de données jusqu'en 2030, la consommation américaine augmentant à elle seule d'environ 130 %. Le campus Hyperion prévu par Meta en Louisiane nécessitera au moins cinq gigawatts, soit trois fois la consommation d'électricité de La Nouvelle-Orléans, ce qui incite le service public local à accélérer la construction de nouvelles centrales électriques au gaz.

Alors que l'IA s'intègre dans tous les domaines, du diagnostic médical aux véhicules autonomes, la question n'est plus de savoir si les centres de données vont remodeler les réseaux électriques, mais à quelle vitesse les sociétés peuvent construire l'infrastructure énergétique nécessaire pour suivre le rythme.

Cet article est également disponible dans d'autres langues :

Articles connexes