Comprendre l'éco-conception : une démarche clé pour un avenir durable
L'éco-conception est une démarche essentielle dans la transition écologique, qui vise à minimiser l'empreinte environnementale des produits et services dès leur […]
L’intelligence artificielle (IA) révolutionne de nombreux secteurs, mais ce progrès n’est pas sans conséquences pour notre environnement. En effet, les data centers, les algorithmes complexes et la consommation d’énergie nécessaire pour optimiser et faire fonctionner ces technologies ont un impact significatif sur la planète. Les IA telles que Google Gemini, Perplexity, DALL-E ou encore GPT-4 nécessitent une grande puissance de calcul, entraînant un besoin d’énergie continue, de jour comme de nuit.
Alors que leur utilisation se généralise massivement et insidieusement, de nombreuses questions émergent : comment l’IA contribue-t-elle à la pollution ? Quelles sont les mesures à prendre pour limiter cette nuisance digitale ? Et quels défis devons-nous relever pour réduire son empreinte écologique ? Dans cet article, l’Institut Supérieur de l’Environnement vous propose d’explorer les conséquences encore largement méconnues de l’intelligence artificielle sur notre environnement.
L’intelligence artificielle (IA) transforme de nombreux secteurs économiques, de la santé à la finance en passant par le marketing, la logistique et l’écologie. En effet, l’IA offre des avantages considérables, allant de l’amélioration des soins de santé à l’optimisation des opérations commerciales et la protection de l’environnement. Son potentiel à transformer les industries et à résoudre des problèmes complexes comme le réchauffement climatique souligne l’importance de son intégration dans nos pratiques quotidiennes.
Cependant, cette révolution technologique a un revers : son impact écologique. L’IA, notamment à travers la consommation énergétique de ses infrastructures, génère une pollution numérique considérable. Alors que les entreprises investissent massivement dans ces technologies pour gagner en compétitivité, il est essentiel de comprendre les enjeux environnementaux qui en découlent.
L’intelligence artificielle requiert des quantités considérables d’énergie, principalement en raison de la complexité des algorithmes et des volumes de données traités. Avec la montée en puissance des modèles de type GPT-4, Perplexity ou encore Google Gemini, la tendance est à la hausse ; et ces LLMs (Large Language Models) nécessitent une infrastructure lourde pour fonctionner 24h/24, 7j/7. Cette consommation énergétique pose des questions fondamentales sur la durabilité de ces technologies dans un monde confronté à la crise du réchauffement climatique.
L’un des principaux moteurs de la pollution numérique de l’IA est la consommation énergétique massive des centres de données. Ces derniers stockent et traitent les informations et jouent un rôle essentiel pour faire fonctionner les modèles d’IA.
En 2023, l’Agence internationale de l’énergie a révélé que les centres de données représentent environ 1 à 1,5 % de la consommation électrique mondiale (The Journal of Engineering and Exact Sciences – Impact of Data Centers on Climate Change: A Review of Energy Efficient Strategies). Bien que ce pourcentage puisse sembler faible, il devient significatif compte tenu de l’énorme volume de consommation d’énergie à l’échelle mondiale. Avec l’augmentation de notre dépendance aux services numériques et la multiplication des appareils connectés, notre consommation énergétique continue à croître chaque jour. De plus, une grande partie de cette énergie provient encore de sources non renouvelables (nucléaire et charbon), exacerbant ainsi le problème du réchauffement climatique.
Actuellement, les technologies de l’IA échappent encore à des réglementations strictes concernant leur impact énergétique. Cela s’explique en partie par la nouveauté de ces technologies, mais également par la difficulté à mesurer précisément l’empreinte énergétique de chaque modèle d’IA.
Les besoins en puissance de calcul, en stockage de données et en consommation d’énergie sont autant de facteurs qui contribuent à cette empreinte. L’essor des applications d’intelligence artificielle générative, comme ChatGPT depuis 2022 ou l’arrivée de Search GPT, de Perplexity AI ou de Gemini, entraîne une augmentation continue de la demande en ressources.
Bien que le numérique soit intangible, son impact environnemental est bien réel. En effet, l’empreinte environnementale du numérique, englobant à la fois les data centers et les appareils connectés, représente entre 3 et 4 % des émissions mondiales de gaz à effet de serre et 2,5 % en France. De plus, ces émissions pourraient augmenter de 60 % d’ici à 2040 selon une étude conjointe de l’ADEME et de l’ARCEP réalisée en 2022.
Les centres de données des grandes entreprises technologiques consomment autant d’électricité que certaines villes de taille moyenne. Par exemple, les data centers de Google auraient consommé environ 16 milliards de litres d’eau en 2021. Cela équivaut à l’eau nécessaire pour irriguer et entretenir 29 terrains de golf dans le sud-ouest des États-Unis chaque année, source Google The Keyword 2022.
En plus de la consommation directe d’électricité par les géants du numérique, il faut prendre en compte une consommation d’eau indirecte liée à la production de cette électricité. En effet, selon les sources d’énergie utilisées par les centrales électriques (comme les centrales thermiques ou nucléaires), une grande quantité d’eau peut être nécessaire pour le refroidissement des installations. Ainsi, l’approvisionnement en électricité pour les data centers entraîne aussi une demande en eau significative, augmentant leur impact environnemental au-delà de la simple consommation d’énergie.
Ces chiffres illustrent bien le défi que représente la gestion énergétique de l’IA comparée à des industries classiques.
L’entraînement de modèles d’IA complexes est particulièrement énergivore. Les récentes avancées dans les systèmes d’intelligence artificielle sont principalement dues à l’utilisation de réseaux de neurones, qui nécessitent un entraînement sur d’énormes ensembles de données pendant des périodes pouvant aller de quelques jours à plusieurs semaines.
Les chercheurs de l’Université du Massachusetts ont mené des expériences en faisant fonctionner ces réseaux sur un unique processeur graphique pendant une journée. Ils ont ensuite réalisé des calculs (présentés sur Arxiv.org), pour estimer la consommation électrique totale durant un cycle d’entraînement, qu’ils ont ensuite convertie en émissions de gaz à effet de serre.
Les résultats sont édifiants. L’intégralité de ce processus génère une quantité de CO2 équivalente à celle émise par un vol commercial reliant New York à San Francisco pour 300 passagers ou encore à celle produite par cinq voitures 4 sur toute leur durée de vie, y compris leur fabrication, soit environ 284 tonnes de CO₂.
L’empreinte carbone des algorithmes d’intelligence artificielle est un aspect souvent négligé, mais essentiel pour évaluer leur impact environnemental. En effet, chaque interaction avec ces systèmes, qu’il s’agisse d’un simple traitement de données ou d’une prise de décision complexe, génère des émissions de gaz à effet de serre.
Le machine learning, ou apprentissage automatique, est au cœur du fonctionnement de l’IA. Pour entraîner un modèle à reconnaître des images, traduire du texte ou encore générer des contenus, il faut lui fournir des milliers d’exemples à traiter, ce qui nécessite de puissants serveurs sur le cloud. La formation de GPT-3, un modèle de la série des GPT développé par Open AI, a nécessité une quantité d’énergie estimée à plusieurs gigawatts-heures. Selon le MIT Technology Review 5 , la seule phase de pré-entraînement de GPT-3 a généré l’équivalent de 626 000 kg de CO₂, soit 71.9 tours de la terre en voiture ou la fabrication de 3 244 ordinateurs portables…., source Comparateur Carbone.
L’utilisation de ChatGPT est très énergivore, c’est indéniable. Selon Shaolei Ren, si 10 % des travailleurs américains l’utilisaient une fois par semaine pendant un an pour rédiger un courriel, cela entraînerait une consommation de 435 millions de litres d’eau et 121.517 mégawattheures d’électricité. Cette quantité d’énergie serait suffisante pour alimenter tous les foyers de Washington DC pendant 20 jours.
Cette forte consommation d’eau s’explique par le besoin de refroidir les centres de données d’intelligence artificielle, qui surchauffent lorsqu’ils effectuent des calculs. Pour maintenir les serveurs à une température acceptable, de grandes quantités d’eau sont nécessaires. Toujours selon Shaolei Ren, en 2023, l’entraînement de GPT-3 dans les centres de données de Microsoft aux États-Unis a pu consommer jusqu’à 700 000 litres d’eau douce, un chiffre qui a été peu divulgué.
La demande mondiale pour l’IA pourrait entraîner un prélèvement de 4,2 à 6,6 milliards de mètres cubes d’eau d’ici à 2027, soit l’équivalent de la consommation annuelle de 4 à 6 fois celle du Danemark ou de la moitié du Royaume-Uni (source Making AI Less « Thirsty »: Uncovering and Addressing the Secret Water Footprint of AI Models, 29 10 2023).
Cette situation est préoccupante, car la pénurie d’eau douce est l’un des défis les plus pressants à l’échelle mondiale, aggravée par la croissance de la population, l’épuisement des ressources en eau et le vieillissement des infrastructures hydrauliques. Pour répondre à ces enjeux, les entreprises doivent assumer leur responsabilité sociale en réduisant leur empreinte hydrique drastiquement, mais est-ce possible actuellement ?
La course à l’IA la plus performante pousse de nombreux acteurs à investir dans la recherche et le développement de nouveaux modèles. Les géants de la tech comme Google Deep Mind, Microsoft, Perplexity AI et Amazon sont parmi les plus gros contributeurs à l’empreinte carbone de l’IA. Ce secteur, bien que dynamique, nécessite des ressources matérielles et énergétiques colossales, pour :
Malgré les avancées technologiques, réduire l’impact écologique de l’intelligence artificielle demeure un défi majeur pour les entreprises et les data scientists. La nécessité de concilier innovation technologique et durabilité environnementale pose des questions complexes qui doivent être abordées de manière proactive.
Face à ces défis, de nombreuses initiatives ont été mises en place pour réduire l’impact des ces nouvelles technologies sur l’environnement. Certains géants du secteur, comme la société Alphabet, visent la neutralité carbone pour leurs centres de données. En 2021, Google a annoncé que ses data centers fonctionnaient déjà à 64 % à l’énergie renouvelable, avec pour objectif de parvenir à 100 % d’ici 2030 (source Google Sustainability, “Fonctionner avec une énergie sans carbone 24h/24 et 7j/7 d’ici 2030”). De même, Microsoft a pour ambition de devenir « carbone négatif » d’ici 2030, en capturant davantage de carbone qu’il n’en émet
Les entreprises investissent également dans des techniques de refroidissement plus écologiques. Par exemple, le refroidissement par immersion liquide permet de limiter l’utilisation de l’eau, réduisant ainsi l’empreinte hydrique des centres de données.
Pour réduire l’impact environnemental des IA, il est essentiel d’optimiser les algorithmes eux-mêmes. En développant des modèles plus légers, moins gourmands en calcul, les “data scientists” parviennent à diminuer la puissance nécessaire à leur entraînement et à leur déploiement. Par exemple, le concept de TinyML 8 (Tiny Machine Learning) propose des algorithmes conçus pour fonctionner sur des dispositifs à faible consommation d’énergie, comme les objets connectés.
Par ailleurs, des techniques de Data pruning 9 (élagage des données) et de quantization 10 permettent de simplifier les réseaux de neurones sans compromettre la précision des modèles d’IA, réduisant ainsi leur coût énergétique.
Les entreprises doivent jouer un rôle clé dans la réduction de l’empreinte écologique de l’IA. Les démarches RSE (Responsabilité Sociétale des Entreprises) doivent désormais inclure une réflexion sur la durabilité des nouvelles technologies utilisées. Ces entreprises peuvent opter pour des fournisseurs de cloud qui garantissent une énergie verte et encourager des pratiques de développement plus sobres, en privilégiant l’efficacité et la sobriété énergétique.
Les chercheurs, quant à eux, ont la responsabilité de sensibiliser et d’inciter à un usage raisonné de l’IA. En publiant des études sur l’empreinte carbone des technologies qu’ils développent, ils favorisent une prise de conscience collective, nécessaire à la transition écologique.
L’intelligence artificielle présente un impact écologique à double tranchant, révélant à la fois ses dangers et ses bénéfices potentiels pour l’environnement. Alors qu’elle contribue à la pollution par sa consommation énergétique, elle offre également des solutions innovantes pour relever les défis environnementaux actuels.
Si l’IA contribue à la pollution, elle peut également être un allié de taille pour l’environnement. Des applications de l’IA permettent de surveiller et de réduire les émissions de CO₂ dans de nombreux secteurs. Par exemple, des modèles de machine learning sont utilisés pour optimiser les consommations d’énergie dans les bâtiments ou les systèmes de transport, réduisant ainsi les besoins énergétiques.
L’IA est aussi utilisée pour la gestion des ressources naturelles. Des algorithmes d’apprentissage automatique sont capables de prévoir les rendements agricoles en analysant les conditions climatiques et les données des sols, permettant ainsi une utilisation plus raisonnée des engrais et de l’eau.
Dans le domaine de la biodiversité, l’IA aide à :
Le défi de l’avenir demeure de concilier intelligemment le développement technologique avec la préservation de notre environnement. L’IA peut être une solution si elle est utilisée de manière responsable, mais cela implique de penser son développement sous l’angle de la durabilité. Il est impératif que les entreprises, les chercheurs et les décideurs publics travaillent ensemble pour mettre en place un cadre réglementaire qui encourage l’innovation tout en limitant son impact écologique.
Des gestes simples à adopter pour réduire les impacts environnementaux du numérique
L’intelligence artificielle, avec ses algorithmes puissants et ses applications révolutionnaires, est devenue incontournable pour de nombreux individus et organisations. Mais son empreinte écologique, encore trop souvent sous-estimée, pose des défis majeurs pour la transition énergétique. L’optimisation des infrastructures, la sobriété énergétique des algorithmes et les initiatives pour des data centers plus verts sont autant de leviers à actionner pour rendre l’IA plus durable.
En intégrant des pratiques écoresponsables dans la conception, le fonctionnement et l’utilisation de l’IA, il est possible de tirer parti de ses avantages technologiques tout en minimisant ses impacts négatifs sur l’environnement.
Dans ce contexte, adopter une approche proactive signifie non seulement s’attaquer aux problèmes environnementaux liés à l’intelligence artificielle, mais aussi rechercher activement des moyens d’utiliser l’IA pour contribuer à des solutions durables. Cela inclut la réduction de la consommation d’énergie des algorithmes, l’optimisation des infrastructures et l’innovation dans des pratiques respectueuses de l’environnement.
En tendant vers un avenir plus vert et plus durable grâce à l’IA, nous pouvons construire une technologie qui non seulement répond à nos besoins, mais qui protège également notre environnement.
Vous êtes déjà formé.e au numérique et souhaitez vous spécialiser dans la durabilité ? Notre mastère Management, Ingénierie et Droit de l’Environnement pourrait vous intéresser !
Vous êtes déjà en poste et souhaitez mettre en place une démarche RSE au sein de votre organisation ? Notre formation thématique “Mettre en place une démarche RSE” répondra probablement à votre besoin.
Partager la page :