En effet, la consommation mondiale d’électricité croît plus rapidement avec l’utilisation massive de l’IA générative (deux fois plus vite en 2024 que la moyenne des dix années précédentes).
L’une des causes principales de cette hausse provient de la demande d’électricité des centres de données nécessaires à l’IA. Cela ne se limite pas à la multiplication des utilisateurs : ce sont aussi les modèles d’IA eux-mêmes qui sont de plus en plus gourmands (le nombre de paramètres d’un modèle se multiplie chaque année).
Pourquoi l’IA générative est-elle aussi énergivore ?
- Il y a des phases d’entraînement des machines qui consomment énormément (50 GWh pour GPT-4, équivalents à l’alimentation de San Francisco pendant trois jours).
- Une fois le modèle prêt à être utilisé, la consommation énergétique est causée par la masse de requêtes.
- L’utilisation massive des modèles d’IA consomme désormais beaucoup plus que leur entraînement (60 à 70 % de la consommation électrique totale de l’IA).
Les centres de données ne servent pas qu’à l’IA, mais aussi à tous les services en nuage (cloud, streaming, etc.). En 2024, ils représentaient 415 térawattheures (1,5 % de la consommation mondiale d’électricité). C’est davantage la croissance rapide du secteur et de ses émissions qui inquiètent que son poids, relativement faible, dans nos problèmes énergétiques.
L’empreinte carbone de l’IA dépend de la production d’électricité
Plus de la moitié de l’électricité consommée par les centres de données serait d’origine fossile, selon l’Agence internationale de l’énergie (AIE). Si les centres de données sont jusqu’ici dépendants des énergies fossiles, c’est que leur disponibilité est permanente. Impossible, à ce jour, de compter principalement sur des énergies intermittentes comme l’éolien ou le solaire. L’intensité carbone de l’électricité consommée par les centres de données est donc, a priori, plus forte que dans d’autres secteurs.
Pour autant, il faut bien noter que le secteur représente actuellement 1,5 % de la consommation totale d’électricité — jusqu’à 3 % en 2030 — et 1 % des émissions de CO₂.
La question énergétique est donc loin de se résoudre par l’angle de l’IA. Évidemment, il est important de décarboner le mix énergétique des centres de données (moins de gaz et de pétrole, plus de nucléaire et de renouvelables). Mais il est surtout indispensable de décarboner l’électricité en général et d’électrifier des secteurs économiques comme les transports.
De plus, l’IA permet en même temps de faire des économies d’énergie, y compris dans d’autres secteurs. C’est ce qu’avance le rapport de l’AIE publié en avril dernier. Le recours à l’IA pourrait amener la découverte de technologies plus optimisées et économes. Le rapport anticipe ainsi 8 % d’économies d’énergie dans l’industrie légère, mais aussi des gains dans le secteur des transports.
Le style américain et la voie chinoise
Les États-Unis d’Amérique et la Chine représentent 85 % de la consommation électrique des centres de données. L’essentiel du problème, si tant est que l’IA en soit un. Ils n’ont malheureusement pas la même approche des enjeux énergétiques : là où la Chine est engagée dans une course contre la montre pour se débarrasser du charbon au profit des énergies renouvelables et du nucléaire, les États-Unis ont une approche conservatrice de leur mix énergétique.
Même si le mix chinois est actuellement pire que celui des États-Unis (59 % pour les énergies fossiles, contre 49 %), la Chine se bat plus rapidement pour faire progresser ses capacités en hydraulique, éolien, solaire et nucléaire.
Il est même question de centres de données sous-marins pour réduire la consommation liée au refroidissement des machines : le premier doit être immergé à la mi-octobre par l’entreprise publique China Telecom. Il sera alimenté en grande partie par des parcs éoliens en mer.
L’impact futur de l’intelligence artificielle dépendra beaucoup de la trajectoire choisie.