banner
Maison / Nouvelles / Alors que l'industrie de l'IA est en plein essor, quel impact aura-t-elle sur l'environnement ?
Nouvelles

Alors que l'industrie de l'IA est en plein essor, quel impact aura-t-elle sur l'environnement ?

Jun 12, 2023Jun 12, 2023

Les entreprises technologiques restent secrètes sur la quantité d'énergie et d'eau nécessaire pour former leurs programmes et modèles complexes

Une question à laquelle ChatGPT ne peut pas vraiment répondre : combien d'énergie consommez-vous ?

"En tant que modèle de langage IA, je n'ai pas de présence physique ni ne consomme directement d'énergie", dira-t-il, ou : "La consommation d'énergie associée à mes opérations est principalement liée aux serveurs et à l'infrastructure utilisés pour héberger et exécuter le modèle."

Bard de Google est encore plus audacieux. "Mon empreinte carbone est nulle", affirme-t-il. Interrogé sur l'énergie qui est consommée dans sa création et sa formation, il répond : "non connu du public".

Les programmes d'IA peuvent sembler incorporels. Mais ils sont alimentés par des réseaux de serveurs dans des centres de données du monde entier, qui nécessitent de grandes quantités d'énergie pour être alimentés et de grands volumes d'eau pour se refroidir.

Parce que les programmes d'IA sont si complexes, ils nécessitent plus d'énergie que d'autres formes de calcul. Mais le problème est qu'il est incroyablement difficile de déterminer exactement combien.

Alors qu'ils rivalisent pour construire des modèles d'IA de plus en plus sophistiqués, des entreprises comme OpenAI - qui a créé ChatGPT - Google et Microsoft ne divulgueront pas la quantité d'électricité et d'eau qu'il faut pour former et faire fonctionner leurs modèles d'IA, quelles sources d'énergie alimentent leurs centres de données , ou même où se trouvent certains de leurs centres de données.

Meta, la société mère de Facebook, par exemple, a dévoilé l'année dernière qu'elle construisait ce qu'elle croyait être le supercalculateur le plus rapide au monde, appelé AI Research SuperCluster (RSC). Mais cela ne révélerait pas où se trouvait le supercalculateur ni comment il était alimenté.

Aujourd'hui, alors que l'industrie technologique se précipite pour intégrer l'IA générative dans pratiquement tout - des e-mails et de la recherche aux applications de livraison de nourriture et aux services de santé mentale - les experts et chercheurs de l'industrie avertissent que la croissance incontrôlée de la technologie pourrait avoir un coût environnemental important.

"Cette utilisation exponentielle de l'IA entraîne le besoin de plus en plus d'énergie", a déclaré Sasha Luccioni, responsable du climat pour la société d'IA Hugging Face. "Et pourtant, nous assistons à ce changement de personnes utilisant des modèles d'IA génératifs simplement parce qu'ils en ont envie, sans que la durabilité soit prise en compte."

Luccioni fait partie d'une poignée de chercheurs qui ont tenté d'évaluer les émissions générées lors de la création de modèles d'IA spécifiques.

Dans un article de recherche qui n'a pas encore été évalué par des pairs, elle et ses co-auteurs ont compté la quantité d'énergie utilisée pour former le propre grand modèle de langage de Hugging Face, Bloom, sur un superordinateur; l'énergie utilisée pour fabriquer le matériel du supercalculateur et entretenir son infrastructure ; et l'électricité utilisée pour exécuter le programme une fois lancé. Ils ont constaté qu'il générait environ 50 tonnes métriques d'émissions de dioxyde de carbone, l'équivalent d'environ 60 vols entre Londres et New York.

L'empreinte énergétique de Bloom est inférieure à celle des autres programmes d'IA générative, estiment Luccioni et son équipe, puisque les superordinateurs de Bloom sont alimentés par l'énergie nucléaire, qui ne produit pas d'émissions de carbone. En revanche, des données publiques limitées suggèrent qu'environ 500 tonnes métriques de CO2 ont été produites uniquement lors de la formation du modèle GPT3 de ChatGPT - l'équivalent de plus d'un million de kilomètres parcourus par des voitures à essence moyennes, ont noté les chercheurs.

"Pour le dernier modèle de ChatGPT, GPT4, [OpenAI] n'a rien dit sur la durée de sa formation, où il est formé, ou quoi que ce soit sur les données qu'ils utilisent", a déclaré Luccioni. "Donc, essentiellement, cela signifie qu'il est impossible d'estimer les émissions."

Pendant ce temps, les nouveaux modèles d'IA deviennent plus gros et plus énergivores. Les modèles plus grands nécessitent l'utilisation d'unités de traitement graphique (GPU) de plus en plus puissantes et prennent plus de temps à s'entraîner, ce qui consomme plus de ressources et d'énergie, a déclaré Luccioni.

Encore plus floue est la quantité d'eau consommée dans la création et l'utilisation de divers modèles d'IA. Les centres de données utilisent de l'eau dans les systèmes de refroidissement par évaporation pour empêcher la surchauffe des équipements. Une étude non évaluée par des pairs, menée par des chercheurs de l'UC Riverside, estime que la formation GPT3 dans les centres de données américains de pointe de Microsoft aurait potentiellement consommé 700 000 litres (184 920,45 gallons) d'eau douce.

En l'absence de données publiques précises, les chercheurs ont dû supposer "l'efficacité de l'utilisation de l'eau", ou le rapport entre l'énergie utilisée par un centre de données et l'eau utilisée pour le refroidir et le faire fonctionner, sur la base de la moyenne autodéclarée de Microsoft.

Le nombre réel de litres utilisés pourrait varier considérablement en fonction de l'endroit et du moment exact où GPT-3 a été formé - dans l'Arizona brûlant, il faudrait beaucoup d'eau pour empêcher les serveurs de surchauffer, alors qu'au Wyoming, un centre pourrait utiliser moins d'eau. La conception des centres de données spécifiques pourrait également avoir une incidence considérable sur les chiffres. Plutôt que d'utiliser des systèmes de refroidissement par évaporation à forte consommation d'eau, un centre peut utiliser la climatisation traditionnelle - qui utilise moins d'eau, mais plus d'électricité.

Google est devenu le premier géant de la technologie à publier sa consommation d'eau dans le monde, mais a fourni des chiffres moyens qui cachaient des détails importants sur les impacts locaux de ses centres de données. Après une longue bataille juridique avec l'Oregonian, la ville de Dalles, dans l'Oregon, a publié des données montrant que les centres de données de Google utilisaient un quart de l'approvisionnement en eau de la ville.

Parce que l'efficacité de l'utilisation de l'eau d'un projet d'IA pourrait être utilisée pour deviner sa capacité de calcul, les entreprises veulent garder secrète leur utilisation de l'eau, a déclaré Shaolei Ren, professeur agrégé de génie électrique et informatique à UC Riverside. "Ils veulent nous donner le moins d'informations possible", a-t-il déclaré.

En général, les entreprises ont tendance à construire des centres de données où l'énergie est bon marché. Alors que les grandes entreprises technologiques comme Google et Microsoft s'efforcent d'atteindre un objectif d'émissions nettes nulles, elles peuvent être particulièrement motivées à construire dans des régions où l'énergie solaire ou éolienne est abondante - comme l'Arizona - mais où l'eau est rare.

Meta et OpenAI n'ont pas répondu aux demandes de commentaires du Guardian. Google et Microsoft ont refusé de fournir une réponse officielle.

Lorsque les hauts dirigeants des principales sociétés d'IA ont appelé à une réglementation pour prévenir le "risque existentiel" posé par l'IA, cela a stimulé les spéculations sur les menaces que la superintelligence faisait peser sur la société. Mais les chercheurs ont averti que l'un des risques les plus immédiats et les plus pertinents était environnemental.

Si les entreprises sont plus transparentes sur les ressources naturelles utilisées et les émissions de carbone libérées lors de la création et de l'utilisation de modèles d'IA, elles pourraient aider à ouvrir des discussions sur le moment et la manière d'utiliser stratégiquement l'IA générative, a déclaré Luccioni. Cela peut valoir le coût environnemental d'utiliser la technologie d'IA générative dans le traitement du cancer, mais c'est un gaspillage de l'utiliser dans d'autres cas.

Et pourtant, l'IA générative est devenue une fixation. "Il y a cette idée que votre entreprise est dépassée si vous ne l'utilisez pas", a déclaré Luccioni.

Il y a quelques mois, OpenAI offrait un accès payant pour intégrer ChatGPT dans leurs applications, et des entreprises comme Instacart, la société de livraison d'épicerie en ligne, utilisent cette fonctionnalité pour personnaliser les listes d'épicerie et les recommandations d'ingrédients. Et le mois dernier, Google a annoncé qu'il intégrerait l'IA générative dans Gmail et la recherche, en utilisant une technologie exponentiellement plus complexe et énergivore pour accomplir essentiellement les mêmes tâches. Les entreprises ont suggéré d'utiliser des outils similaires pour la détection de la fraude bancaire, contestant des modèles statistiques qui sont déjà assez bons pour la détection.

"C'est frustrant car en fait, il existe tellement d'approches et de méthodes d'IA efficaces et à faible impact que les gens ont développées au fil des ans, mais les gens veulent utiliser l'IA générative pour tout", a déclaré Luccioni. "C'est comme utiliser un microscope pour enfoncer un clou - cela pourrait faire l'affaire, mais ce n'est pas vraiment ce à quoi cet outil est destiné."