IA générative, IA extractive

IA et données : nous avons notre mot à dire ✦ « Les réseaux sociaux doivent être maîtrisés » ✦ L’actualité de Café IA.

Bonjour, nous sommes le mercredi 28 mai 2025. Alors que la question des liens entre environnement et IA demeure l’une des plus fréquentes lors des échanges citoyens autour de l’IA, nous publions aujourd’hui un nouveau module pédagogique Café IA visant à apporter des éléments de réponses sur le sujet. L’occasion de revenir cette semaine sur ce que nous savons, et surtout, sur ce que nous ne savons pas, notamment par manque de transparence de la part des acteurs principaux concernés, de l’impact environnemental de l’IA. Bonne lecture !

IA générative, IA extractive

Joséphine Corcoral

Depuis plusieurs semaines, tour à tour, les tendances de contenus générés par intelligence artificielle se succèdent : se faire tirer le portrait façon studio Ghibli, produire son “starter pack” façon figurine sous blister… Outre les indignations quant aux questionnements de droit d’auteur que ces contenus soulèvent - on rappelle qu’Hayao Miyazaki s’était dit “profondément dégoûté” de l’utilisation de l’IA - ces publications se sont accompagnées d’une vague d’alerte quant à la consommation d’énergie et d’eau que la génération de ces images entraîne. Les chiffres se sont multipliés, contredits parfois, et il est difficile de s’orienter face à cette masse d’informations.

En un an, c’est désormais au moins un Café IA qui se tient chaque jour quelque part en France. Et un constat est frappant : quel que soit le public réuni, le contexte du Café ou la thématique de l’échange, la question de l’impact environnemental de l’IA est systématiquement posée. De façon assez inédite, il semble que la démocratisation de l’outil s’accompagne simultanément de préoccupations quant à son impact environnemental et de questionnements quant aux bonnes pratiques à adopter.

Les questions sont nombreuses : de quoi parle-t-on quand on parle d’impact environnemental de l’IA ? Est-ce que l’IA consomme et pollue réellement plus que d’autres usages numériques ? L’IA peut-elle être un outil au service de la transition écologique et de la réduction des émissions de gaz à effet de serre (GES) ? Quel est l’état de la régulation en la matière ?

En partenariat avec 9 institutions - l’ADEME, l’Arcep, l’IGN, ECOLAB, la Direction générale des entreprises (ministère de l’Économie), le DReDIS de la Sorbonne, Inria, Sciences Po et Telecom Paris, nous avons produit un module pédagogique avec l’objectif de proposer un contenu accessible pour apporter des éléments de réponse à ces questions et faire le point sur ce que nous savons à l’heure actuelle.

Ce module s’adresse à la fois aux personnes désireuses d’organiser un Café IA et qui pourraient être amenées à répondre à des questionnements et éclairer la discussion sur l’IA et l’environnement, ainsi qu’à toute personne souhaitant en savoir plus sur cette thématique. Il s’inscrit dans le prolongement du Tribunal pour les Générations Futures que nous avions organisé en amont du sommet sur l’IA, avec là aussi neuf partenaires publics et universitaires, autour de la question “Y a-t-il une IA pour sauver la planète ?” et dont vous retrouverez en ligne la version augmentée du livret ainsi qu’une rediffusion complète.

Lire le module IA & Environnement» 

Retour sur le Tribunal des Générations Futures»

Que sait-on de l’impact environnemental de l’IA ?

Nécessairement, poser la question de l’impact environnemental de l’IA implique de clarifier pourquoi cette question se pose spécifiquement pour cette technologie et ce que signifie l’impact environnemental. Cela implique aussi d’inclure ce questionnement dans la réflexion plus large sur l’empreinte environnementale du numérique.

S’interroger sur cet enjeu, c’est aussi et surtout dresser le constat d’un manque criant de données et d’un manque de méthodologies harmonisées pour évaluer l’empreinte environnementale de l’IA, notamment générative, autant pour son impact négatif sur l’environnement tant à l’entraînement qu’à l’usage, que son éventuel impact positif comme outil pouvant participer à la lutte contre la crise climatique. Nous nous proposons ainsi de dresser un panorama des chiffres et données dont nous disposons aujourd’hui, que ce soit lors de l’entraînement des modèles d’IA ou lors de leur usage. Consommation énergétique, utilisation d’eau, consommation de ressources et artificialisation des sols : dès l’entraînement, les modèles d’IA engendrent un coût environnemental important qui semble s’aggraver à mesure que les modèles se complexifient, que ce soit par leur nombre de paramètres ou leurs modalités d’entraînement. Le développement de modèles spécifiques avec des données plus organisées et adaptées à des tâches spécifiques et l’ouverture des données d’entraînement et des modèles de fondation sont en ce sens à encourager pour mutualiser la phase d’entraînement.

L’IA semble également marquer un renversement par rapport aux outils numériques antérieurs dont la majorité de l’impact environnemental provenait surtout de la fabrication des terminaux. Avec l’IA générative, la phase d’utilisation des équipements, notamment sa consommation énergétique, est également un facteur majeur, voire majoritaire, d’empreinte environnementale.

De l’autre côté, des voix s’élèvent pour mettre en avant les bénéfices possibles des outils d’IA en matière de réduction de l’empreinte environnementale d’autres secteurs en optimisant leur consommation, que ce soit par exemple dans l’énergie, les transports, l’agriculture, le logement… Que peut-on réellement attendre de cette “AI for Green” ? S’il existe effectivement des applications industrielles de l’IA qui peuvent réduire les impacts environnementaux d’autres secteurs, cela n’a rien à voir avec les usages grand public de l’IA générative qui sont les usages majoritaires, avec un impact environnemental dont il reste à démontrer qu’ils sont inférieurs aux gains environnementaux réalisés par ailleurs. Mais, là encore, nous manquons de données pour trancher la question.

Enfin, ce module propose de faire le point sur les acteurs en présence, sur les régulations et livrables en cours et à venir ainsi que sur les bonnes pratiques à mettre en place chacun et chacune dans ses usages quotidiens.

Que ne sait-on pas de l’impact environnemental de l’IA ?

Les données dont nous disposons à ce jour font apparaître que « pour être génératives, les intelligences artificielles doivent d’abord être considérées comme extractives ». Malgré le manque de transparence des acteurs principaux sur le sujet et les données à la fois obsolètes et incomplètes, elles permettent tout de même d’établir que l’impact de l’IA générative est conséquent et en croissance, et risque de devenir colossal avec l’explosion des nouveaux usages.

Toutefois, de nombreuses interrogations subsistent. Tout d’abord, il est très compliqué d’isoler précisément la part liée à l’IA dans les études conduites sur par exemple les centres de données ou la filière numérique. A cela s’ajoute la difficulté d’imputer spécifiquement la consommation et les émissions à certains usages, par exemple quand les équipements sont mutualisés. Cette difficulté risque de s’accroitre à mesure que les outils d’IA sont intégrés à d’autres outils numériques comme par exemple dans des applications mobiles comme WhatsApp ou des logiciels comme la suite Adobe pour ne citer que quelques exemples, avec des incitations fortes à utiliser ces services.

De même, la consommation énergétique reste la facette la plus « facile » à mesurer aujourd’hui. Il est en revanche plus difficile de prendre en compte les autres impacts environnementaux comme l’extraction de matériaux et l’épuisement des ressources, l’utilisation d’eau, le transport, le recyclage des équipements… Or, il y a les appréciations globales et les situations locales. La grande masse des chiffres agrégés ne doit pas faire perdre de vue les impacts locaux parfois urgents à traiter : se focaliser exclusivement sur les émissions mondiales de CO2 ne doit pas empêcher de s’interroger de façon pressante sur la situation des travailleurs dans les mines en République démocratique du Congo, ni de l’accaparement des sols et de l’eau à Marseille pour ne citer que quelques exemples.

On observe également des variations importantes de l’impact en fonction des usages et des modèles. Même pour le texte, plus la requête est complexe et appelle à une réponse longue, plus le coût énergétique est élevé. En second lieu, il existe des différences significatives en fonction de la taille du modèle, de son optimisation, etc. Il semble que l’utilisation de grands modèles génératifs permettant de réaliser une grande variété de tâches tend à être bien plus énergivore que l’usage de modèles plus petits et plus spécialisés.

 

Enfin, cet impact dépend de la source de production d’énergie. Par exemple, en France, la production d’électricité s’appuie très majoritairement sur l’énergie nucléaire et est donc massivement décarbonée, ce qui n’est pas le cas dans d’autres pays s’appuyant par exemple sur le charbon pour produire leur électricité. Il est à souligner que la majorité des études précitées sur la consommation énergétique et l’empreinte carbone des modèles est basée sur le mix énergétique des États-Unis. Or, celui-ci est très carboné : la très grande majorité de leur production d’énergie provient du gaz naturel, du pétrole et du charbon en plus d’être très variable. Là encore, nous ne disposons pas de données claires quant aux centres de données mobilisés et leur localisation en fonction du service numérique utilisé.

Ces points d’ombre appellent à adopter une approche systémique dans l’évaluation de l’impact environnemental de l’IA. Il est indispensable de continuer à se donner collectivement les moyens d’obtenir des données fiables pour mieux évaluer l’impact environnemental de l’IA et guider au mieux les politiques publiques.

Nous souhaitons sincèrement remercier l’ensemble des institutions partenaires pour leur investissement sur ce module. Vos remarques et commentaires sont les bienvenus pour améliorer et enrichir ce module : écrivez-nous à bonjour@cafeia.org pour contribuer et échanger !


☕ Café IA !

Alençon, Troyes, Toulouse, Eymoutiers, Nantes, Fursac, Saint-Etienne, Mougins, Poitiers, Nîmes, Figeac, Ploufragan, Avignon… Une cinquantaine de Cafés IA s’organisent partout en France ! Nous ne manquerons pas de vous les partager dans les semaines à venir !

Avis à la communauté Café IA des Hauts-de-France ! Sur le modèle de la page Café IA - Alsace à l’initiative d’Alsace Digitale, un nouveau groupe LinkedIn Café IA - Hauts de France vient d’être créé pour aider à la structuration d’un réseau d’animateurs de Cafés IA dans la région. La page a pour mission de : relayer les dates et lieux des Cafés IA dans la région, partager des ressources et inspirations et faire connaître les initiatives locales. Un grand merci à Françoise Calmels pour la structuration de ce beau projet et n’hésitez pas à rejoindre le groupe en vous inscrivant ici.

Café IA à Vivatech ! Samedi 14 juin, à l’occasion de la journée grand public du salon VivaTech, les équipes du Conseil et du ministère de la Culture seront présentes toute la journée sur le stand d’Inria pour y animer des Cafés IA autour d’une nouvelle version de Compar:ia, l’outil de sensibilisation aux enjeux de l’IA générative par l’expérimentation. Un nouveau format qui sera présenté en avant-première lors du Café animation du jeudi 5 juin, entre 13h30 et 15h.

N’hésitez pas à vous y inscrire pour découvrir les évolutions de Compar:ia et partager vos retours avant VivaTech ! Le Conseil sera également présent tout au long du salon pour animer d’autres Cafés IA. Inscrivez-vous ici pour prendre part aux autres Cafés animation à venir :

  • Le 19 juin, pour imaginer collectivement de nouveaux formats d’animation de Café IA autour des 3 objets lauréats de notre Appel à faire ensemble.
  • Le 26 juin, les équipes de Datactivist viendront présenter la Boîte Noire de l’IA, un format ludique et pédagogique qui met en avant la matérialité et la réalité sociale et environnementale de l’intelligence artificielle et désormais accessible en téléchargement.

🔎 La veille du Conseil

« Les réseaux sociaux doivent être maîtrisés »

46 % des jeunes britanniques entre 16 et 21 ans préféreraient vivre dans un monde sans internet, expliquait un récent sondage. L’enquête a été publiée en réponse aux propositions du secrétaire d’Etat à la technologie britannique visant à imposer un couvre-feu numérique pour les plus jeunes ! A l’heure où la modération des réseaux sociaux recule, il n’est pas étonnant que les autorités tentent de reprendre la main, estime le journaliste Paris Marx. De l’Australie - qui a adopté une interdiction d'utilisation des plateformes de réseaux sociaux pour les moins de 16 ans, qui devrait entrer en vigueur en décembre 2025 - à l'Union européenne - qui envisage de fixer l'âge de la « majorité numérique » à 15 ans (Politico) -, de plus en plus de gouvernements tentent de trouver des modalités pour protéger les plus jeunes des effets des réseaux sociaux. Mais est-ce la bonne approche, interroge le journaliste ?

Marx rappelle que nous avons une longue tradition de mesures similaires dans d'autres médias, par exemple en réglementant la publicité à destination des enfants ou en limitant leur accès à certains types de contenus. Si nombre de ces mesures ont été trop souvent abandonnées ces dernières années, c’est d’abord parce que les entreprises n’ont cessé de chercher des modalités commerciales pour toucher les plus jeunes. Or, il y a peu de raisons de croire que cette philosophie ne devrait pas s'appliquer également à l'environnement numérique. Pourtant, souligne-t-il, la limite d’âge n’est peut-être pas la réponse qu’on devrait attendre. Le Commissaire australien à la sécurité électronique a constaté que la limite d'âge actuelle pour les moins de 13 ans est très mal appliquée, alors qu'au moins 80 % des Australiens âgés de 8 à 12 ans accèdent déjà aux réseaux sociaux. Mais quand bien même ces limites seraient relevées et leurs applications renforcées, les effets négatifs des réseaux sociaux ne se limitent pas aux moins de 16 ans. Des réseaux spécialisés pour la jeunesse ont déjà été mis en place (Youtube Kids par exemple) sans réussir à imposer ni des espaces sûrs ni des espaces éducatifs, bien loin des programmes éducatifs que la télévision a pu proposer au XXe siècle.

Le problème, rappelle Marx, c’est que les enjeux liés aux réseaux sociaux ne concernent pas que les plus jeunes, mais concernent tous les utilisateurs. Le renforcement des limites d’âge ne s’attaque pas au fonctionnement problématique des plateformes. Le commissaire australien à la sécurité électronique le souligne d’ailleurs en publiant des rapports sur la conception des plateformes et sur les recommandations algorithmiques. Pour Marx, “si nous voulons sérieusement minimiser les méfaits des réseaux sociaux, les interventions en matière de conception et les limites algorithmiques constituent une approche bien plus prometteuse”. Les préjudices numériques sont une responsabilité collective, pas seulement un problème qui ne concernerait que les plus jeunes. “Les réseaux sociaux doivent être tenus à des normes plus strictes.”

PS : En Estonie, l’approche est inverse, explique The Guardian. Fort de ses excellents résultats PISA en maths et en sciences, le pays négocie des accès à l’IA pour tous ses lycéens, via un programme dédié, AI Leap, une forme grand bond en avant vers l’éducation à l’IA et avec l’IA. Pas sûr que ce soit là non plus la solution.


🏃 En bref... Le reste de la veille et de l’actualité du Conseil !

IA et données : nous avons notre mot à dire. Dans un article pour AOC, Jean Cattan appelle à ce que nous puissions décider collectivement de l’accessibilité de nos données, personnelles comme non personnelles, mais aussi de l’accès aux données environnementales. Au-delà des enjeux de concurrence et de régulation, il souligne le besoin de miser sur sur les communs de la donnée, la conditionnalité environnementale, le choix individuel et l’expression collective : « le véritable danger n’est pas l’erreur ou le désaccord, mais l’opacité et l’impossibilité précisément de contester. Sans quoi, il n’y a ni choix réel, ni démocratie vivante, ni avenir commun. »Un hackathon dédié aux outils collaboratifs open source pour l'Etat. Du 2 au 4 juin, la Dinum et la DGNum organisent un hackathon ayant pour but de renforcer les applications bureautiques open source utilisées par les agents de l'Etat au niveau européen. Au programme, 300 développeurs et designers en IA et data sont attendus, n’hésitez pas à vous inscrire ici pour participer ou assister à l’événement, en présence notamment de Gilles Babinet. Merci pour le travail sur la suite numérique qui ouvre de nombreuses pistes d’évolutions fonctionnelles pour organiser les Cafés IA à venir ! ✦ L'Atlas de la tech, la pause numérique au format papier de Chut ! Disponible en précommande, ce livre dédié à l’impact du numérique, des technologies et des IA dans nos vies est composé de 5 chapitres qui explorent chacun un pan de notre relation à la technologie, des réseaux sociaux à l’IA en passant par la protection des données. Des messages que nous sommes fiers de partager avec Chut! dans notre chronique mensuelle. ✦ Lundi 2 juin, Sciences Po organise une table ronde pour discuter des différentes approches en matière de politique industrielle numérique et d'infrastructures technologiques. Retrouvez-y Shamira Ahmed, Sérgio Branco, Vikram Sinha, Anri Van der Spuy et Francesca Bria, coautrice du rapport d’Eurostack sur la souveraineté technologique européenne.

👋 Avant de partir

Vous avez apprécié la lettre d’information de cette semaine ? Partagez-la à un ami ou un collègue. Ils peuvent s’inscrire ici.

Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à info@cnnumerique.fr.

Cette lettre d’information a été préparée par Joséphine Corcoral, Gabriel Ertlé et Hubert Guillaud et illustrée par Magali Jacquemet.