Ces agents conversationnels vont consommer énormément d’électricité — et pour l’instant, les estimations sont gardées plus ou moins secrètes par les compagnies.
Le président d’OpenAI, Sam Altman, l’a pourtant admis lui-même en janvier, lors du Forum économique mondial tenu en Suisse : la prochaine vague des systèmes d’intelligence artificielle va consommer beaucoup plus d’énergie que prévu, au point de pouvoir générer, dans certains coins de la planète, une crise de l’énergie.
Et pour les experts, ce n’est pas une surprise : de la même façon qu’il faut des quantités de serveurs informatiques pour faire fonctionner un moteur de recherche, il en faudra des quantités pour faire fonctionner les Bing de Microsoft, Bard de Google et ChatGPT d’OpenAI, si le public doit les adopter autant que leurs concepteurs l’espèrent. En plus de l’électricité, le tout exigera d’importantes quantités d’eau pour refroidir ces équipements informatiques.
Selon une estimation publiée par Kate Crawford, de l’Université de Californie du Sud, qui suit l’évolution de l’empreinte environnementale de l’IA depuis 2018, une recherche Internet réalisée par un agent conversationnel nécessiterait quatre à cinq fois plus d’énergie qu’une recherche « conventionnelle » — avec Google, par exemple. Si la tendance se maintient, écrivait-elle le 20 février, ces systèmes « vont probablement avoir besoin d’autant d’énergie que des pays complets ».
Quelques chiffres ont commencé à apparaître ici et là :
- par exemple, une poursuite déposée par des résidents de Des Moines, capitale de l’Iowa, a permis d’apprendre que le « centre des données » d’OpenAI, là où était « entraîné » son petit dernier, GPT-4, avait consommé 6 % de l’eau de l’ensemble du comté en juillet 2022 ;
- selon les rapports environnementaux de Google et de Microsoft, ces deux compagnies ont vu des hausses de leur utilisation d’eau respectivement de 20 % et de 34 % en un an ;
- une recherche prépubliée en octobre 2023 par quatre chercheurs de Californie et du Texas estimait qu’en 2027, la demande en eau de l’ensemble de l’industrie de l’IA pourrait équivaloir à la moitié de la demande du Royaume-Uni ;
- et dans une recherche prépubliée en janvier 2022, une équipe de chercheurs de Facebook qualifiait l’impact environnemental de l’IA « d’éléphant dans la pièce ».
Il y a des moyens d’atténuer l’impact, comme d’autres l’ont écrit en 2023. L’industrie pourrait bâtir des modèles qui soient moins énergivores et repenser l’aménagement de ses centres de données pour les rendre plus économes en électricité. Mais, souligne Kate Crawford, on ne sent pas cette volonté à l’heure actuelle — le plus gros des efforts étant plutôt dirigé vers la mise en marché la plus rapide possible des futurs modèles. Et il faudra peut-être des lois pour obliger ces compagnies à faire cet effort.