Site icon n-3DS.com

Consommation énergétique des IA : un véritable défi pour le secteur 

L’intelligence artificielle a le vent en poupe, notamment auprès des géants du net qui intègrent cette technologie à leurs outils. Cet essor fait exploser la consommation énergétique des IA au point que cet aspect est devenu un défi pour le secteur. Des solutions s’imposent pour remédier à ce problème. 

Selon l’Agence internationale de l’énergie (AIE), les centres de données utilisent en général près de 40% de leur électricité pour alimenter les serveurs et 40% pour les refroidir. Photography Andrey Semenov / Getty Images© 

La consommation énergétique des IA comme ChatGPT atteint des sommets 

L’intelligence artificielle utilise des centres de données ou data centers qui fonctionnent à l’électricité. Avant l’arrivée de cette technologie intelligente, ces data centers consommaient environ 1% de l’électricité mondiale. Ce niveau a augmenté de 2% suite à l’essor de l’intelligence artificielle et du secteur des cryptomonnaies. Dans le détail, les centres de données ont consommé environ 460 Twh d’électricité en 2022 seulement. D’ici 2026, la consommation énergétique des IA pourra atteindre les 1 000 Twh selon les experts. Cela correspond à toute l’électricité que consommera le Japon en une année, prévient l’Agence Internationale de l’Energie dans un rapport.  

Les data centers utilisent beaucoup d’énergie  

Si l’intelligence artificielle consomme autant d’électricité, c’est parce que son fonctionnement requiert des serveurs puissants. Des milliards de données nécessaires à l’entraînement des modèles de langage y sont stockés et utilisés à chaque requête. Ces serveurs sont hébergés dans des data centers qui tournent jour et nuit et consomment énormément d’électricité. Puisqu’ils chauffent régulièrement, ils ont aussi besoin d’être refroidis par des systèmes qui consomment, dans le même temps, de l’électricité. Une requête traitée sur un modèle de langage comme ChatGPT dépenserait 10 fois plus d’énergie qu’une requête Google selon des études. Cela démonte à quel point cette technologie est énergivore. Par extension, son niveau d’émissions de carbone est également très élevé.  

Le boum de l’intelligence artificielle engendre aussi des émissions de carbone importantes 

L’utilisation massive de l’intelligence artificielle pousse les grands noms de l’Internet à investir dans la création de data centers. Cela entraîne une hausse de l’utilisation de l’énergie, tout comme celle des émissions de carbone. Le rapport environnemental de Google démontre d’ailleurs d’une hausse de la pollution au CO2 de l’entreprise à hauteur de 48% en cinq ans avec le boum de l’intelligence artificielle ! La construction de nouveaux centres de données ainsi que leur modernisation sont loin d’améliorer la situation. Les professionnels comme Microsoft, Amazon et Google, qui s’engagent dans une démarche de construction de nouveaux data centers doivent donc réfléchir à des moyens de le rendre moins énergivores.   

Les géants de la tech envisagent l’usage des énergies renouvelables 

Face à un besoin croissant d’électricité, les professionnels de la tech se tournent de plus en plus vers les énergies renouvelables. Amazon Web Services (AWS) vise zéro émission de CO2 d’ici 2040, tandis que Google poursuit le même objectif d’ici 2030. Ces entreprises cherchent ainsi à réduire leur impact environnemental tout en répondant aux besoins énergétiques de leurs opérations en constante expansion. Cependant, l’essor rapide de l’intelligence artificielle complique ces ambitions.  

Brad Smith, président de Microsoft, a reconnu que l’explosion de cette technologie, qui mobilise encore plus de data centers, complexifie la transition vers des énergies propres. Toutefois, cela n’empêche pas ces entreprises de progresser vers leurs objectifs.  

D’autres pistes à explorer pour que cette technologie soit moins énergivore 

Pour limiter l’utilisation d’énergie de l’intelligence artificielle générative, plusieurs solutions peuvent être envisagées. Les fournisseurs de services peuvent recourir à des mini ou des micro-modèles de langage, qui utilisent moins de données et de paramètres. Cela évite de brasser des pétaoctets de données et des centaines de milliards de paramètres quand cela n’est pas nécessaire. De plus, leurs algorithmes peuvent fonctionner à l’aide de serveurs et de centres de calcul plus écologique utilisant des techniques de refroidissement naturel, une énergie décarbonée, et des indicateurs d’efficacité énergétique (PUE). Allonger la durée de vie des matériels est également une stratégie efficace pour réduire l’empreinte écologique. 

Avec ETX/DailyUp 

Quitter la version mobile