L’accès incertain et à prix prohibitif aux processeurs graphiques (GPU) les plus puissants de Nvidia n’est pas le seul problème qu’affrontent les champions de l’intelligence artificielle. Portés par des investissements tous azimuts, start-up et Big Tech courent aussi après… l’électricité.

C’est une évidence, la tech ne peut rien sans quelques watts. Mais il en faut beaucoup pour l’intelligence artificielle, et notamment celle capable de générer du texte ou de l’image comme ChatGPT. La voracité énergétique des modèles d’IA de Microsoft, OpenAI, Google, Meta, Mistral AI, Anthropic et d’autres est telle qu’elle pourrait bloquer le développement de cette technologie prometteuse.
« Un prompt pour du texte est dix fois plus énergivore qu’une requête classique sur un moteur de recherche », souligne Grégory Lebourg, le directeur des programmes environnementaux du français OVHcloud, en s’appuyant sur des travaux universitaires. Si la commande adressée à l’IA vise à lui faire générer une image, les serveurs consomment en quelques secondes l’équivalent d’une charge complète d’un smartphone, explique par ailleurs une étude conjointe de Hugging Face, du Carnegie Mellon University et de l’Allen Institute for AI.

Dans l’attente d’une percée scientifique
Sam Altman, le PDG et cofondateur d’OpenAI, a lui-même mis le sujet en lumière, en janvier à Davos. « Nous n’apprécions pas encore bien les besoins en énergie de cette technologie », a-t-il prévenu, en se plaçant dans la perspective d’un déploiement plus large qu’aujourd’hui.
En clair, l’amélioration des grands modèles de langage comme GPT, Gemini, Llama ou Mistral Large ne suffira donc pas pour rendre viable une IA capable de raisonner au service de l’humanité ou au moins de servir d’assistant personnel à tout un chacun. « Il n’y a aucun moyen d’y parvenir sans une percée scientifique », faisait-il remarquer, catégorique. Joignant l’acte à la parole, Sam Altman est depuis longtemps investisseur dans de nouvelles technologies énergétiques, notamment la fusion nucléaire via la start-up Helion.

Efficience énergétique à tous les étages
« Il va falloir aussi de l’innovation en matière d’efficience énergétique, de refroidissement des serveurs informatiques, de conception des centres de données », confirme Antonio Neri, le patron de Hewlett Packard Enterprise, la vénérable entreprise américaine numéro un mondial des supercalculateurs.
De passage à Paris pour VivaTech, il assure aux « Echos » que les laboratoires de son groupe regorgent de prototypes, autant pour limiter la chauffe de ses produits – quitte à les immerger complètement dans l’eau – que pour optimiser la consommation électrique des serveurs. Avec notamment l’idée de paramétrer de plus en plus finement les machines, en fonction de la taille et de la complexité des modèles. Et sans recourir automatiquement à des GPU très gourmands.

Des ambitions contrariées
Malgré ces innovations, les plans d’ouverture de nouveaux centres de données dans le monde entier se heurtent par endroits, y compris aux Etats-Unis, à des difficultés d’approvisionnement en énergie. De fait, l’IA se développe au même moment où la voiture s’électrifie et où les pompes à chaleurs se répandent dans les foyers.
En France, pour le moment, le sujet est loin d’être critique : les data centers consomment environ 2 % de la production d’électricité nationale. Selon RTE, cette proportion devrait se limiter à 3 %, voire 4 % à l’horizon 2030-2035. Mais comme ailleurs dans le monde, les tensions sur les raccordements électriques des nouveaux data centers pèsent sur les délais affichés par les nouveaux projets.

Vers le centre de données 1 GW
« L’an dernier, et cela sera pareil en 2024, les data centers ont été à l’origine de 6 gigawatts de nouveaux projets dans le monde, soit deux fois plus qu’en 2022 », note Olivier Micheli, le directeur général de l’opérateur de centres de données Data4.
Certains projets sont tout simplement inédits pour tout le monde. « Des centres de données atteindront probablement la barre du gigawatt », notait encore Luc Rémont, le président-directeur général d’EDF, sur la scène de VivaTech.
Tout ceci a bien entendu un coût carbone élevé. Ainsi, le développement de Microsoft dans l’IA lui vaut de s’éloigner de son objectif de neutralité carbone en 2030. « A bien des égards, la Lune est cinq fois plus éloignée qu’elle ne l’était en 2020, si l’on pense simplement à nos propres prévisions concernant l’expansion de l’IA et ses besoins en électricité », a récemment reconnu Brad Smith, le patron des affaires publiques de Microsoft.

Un fort intérêt pour le nucléaire
Le coût de la rareté de l’énergie est aussi sonnant et trébuchant. Avec cette contrainte de se fournir en courant mais autant que possible en courant propre, les enchères montent. Microsoft a, par exemple, signé un partenariat avec le fond d’infrastructure Brookfield pour pouvoir bénéficier des fruits d’un investissement à 10 milliards de dollars dans des projets de production d’énergie solaire et éolienne.

Sur ce même front de l’énergie, le géant de Redmond avait aussi publié une offre d’embauche pour un spécialiste des petits réacteurs nucléaires (SMR)… Du côté d’Amazon, le rachat d’un centre de données en Virginie s’est récemment accompagné d’un contrat de long terme avec la centrale nucléaire voisine.

Lire l’article complet sur : www.lesechos.fr