IA, révolution socio-climatique en suspens ?
Mais aussi : Café IA au salon Produrable ✦ 1, 2, 3 cafés IA au Havre ! ✦ « web vaporeux », « cozyweb », comment (re)faire d’internet un lieu de rassemblement démocratique ? ✦ IA et éducation populaire, mariage heureux ?
Bonjour, nous sommes le vendredi 11 octobre 2024. Cette semaine, nous nous intéressons aux impacts environnementaux et sociaux de l’intelligence artificielle, en marge du salon Produrable ! Bonne lecture !
L’intelligence artificielle, révolution socio-climatique en suspens ?
Les grandes entreprises du numérique ne tiendront pas leurs objectifs de réduction de leur empreinte carbone, notamment en raison de leurs travaux sur l’intelligence artificielle. Cette semaine, Théo Alves Da Costa, directeur de l'unité IA et transition écologique au sein d’Ekimetrics (qu’on avait d’ailleurs découvert autour de ClimateQ&A) revient sur LinkedIn sur les récents propos de l’ancien président directeur général de Google Eric Schmidt, lequel préfère parier sur l’IA pour résoudre nos problèmes environnementaux plutôt que sur la réalisation des objectifs fixés. Comme partagé par Théo Alves Da Costa, le Guardian révèle pourtant que les émissions des centres de données sont probablement 662 % plus élevées que ce que prétendent les grandes entreprises technologiques. Des 4 scénarios envisagés par l’ADEME pour atteindre la neutralité carbone d’ici 2050, les dirigeants de la Silicon Valley se dirigent vers celui - le plus incertain - du « pari réparateur », où la société placerait sa confiance dans la capacité des technologies à réparer les systèmes sociaux et écologiques.
Pourtant, l’impact environnemental de l’IA fait partie des questionnements qui affleurent à l’occasion des cafés IA organisés depuis plusieurs mois. Souvent le sujet émerge d’emblée dans des conversations pourtant orientées par exemple sur les évolutions du travail comme à Montpellier lors de la projection de AI@Work ou des pratiques culturelles et artistiques comme à NEC ou au Think Culture. Quand le sujet vient sur la table, il passionne, interroge et inquiète témoignant du besoin d’espaces de dialogue et de décision dédiés.
Vers une intelligence artificielle frugale. Aujourd’hui, comme le précise Sasha Luccioni, responsable climat de Hugging Face au début de son guide des fondamentaux de l'impact de l’IA sur l'environnement, bien que certaines études existent sur les impacts environnementaux de l’IA, la nature et l’ampleur de ces effets sont encore largement sous-documentées, et les premiers chiffres demeurent préoccupants. Une simple requête sur ChatGPT consommerait dix fois plus d'électricité qu'une recherche Google classique, et 100 millions d'utilisateurs de ChatGPT généreraient des émissions équivalentes à celles de 100 000 à 364 000 Français par an, comme le rappelle Data For Good dans Le Monde. Alors que Microsoft annonce la relance d’une centrale nucléaire pour alimenter ses data centers, quelles sont nos marges de manœuvre ? L’Afnor préconise le recours à une « IA frugale », où les usages de l’IA seraient strictement adaptés aux besoins auxquels ils répondent. Dans son référentiel, l’Afnor dresse ainsi une méthodologie d’évaluation des impacts environnementaux et propose 31 fiches de bonnes pratiques et des recommandations pour communiquer avec justesse sur le caractère frugal d’un service d’IA.
Et après le raz de marée ChatGPT ? Le prix Nobel de physique a été décerné ce mardi 8 octobre 2024 à l’Américain John Hopfield et au Britannico-Canadien Geoffrey E. Hinton, deux pionniers de l’intelligence artificielle, notamment pour leurs travaux sur les réseaux de neurones artificiels dans les années 80. Une méthode d’apprentissage beaucoup plus proche de la physique avec un recours à des matériaux magnétiques qui refait surface aujourd’hui, comme le rappelle Julie Grollier sur France culture, directrice de recherche CNRS à l'école polytechnique Paris-Saclay, et qui pourrait diminuer le coût énergétique de l’IA, d’un facteur 100 à 1 000. Une récompense encourageante alors que les deux lauréats ont récemment exprimé leurs inquiétudes sur le développement actuel des IA, rappelant que les usages de cette technologie doivent coïncider avec nos objectifs climatiques. Une idée également défendue par Gilles Babinet : des approches différentes (IA symbolique neuronale, renforcement, mathématiques topologiques…), si elles demandent plus d’analyses et de travaux de recherches (notamment en France), pourraient permettre le développement de technologies plus fiables et soucieuses de la protection de l’environnement. Dans son ouvrage Green IA. L'intelligence artificielle au service du climat (Odile Jacob, 2024), Gilles Babinet invite à accepter que les usages actuels de l’IA doivent évoluer, rompant les silos entre de multiples secteurs et se mettant au service du bien commun. Si l’apparition des grands modèles de langage ont pu paraître pour de nombreuses personnes comme la voie royale du développement de l'IA, il est nécessaire de disposer d’un cadre pour questionner leur pertinence et leur coût environnemental et en tirer toutes les conséquences qui s’imposent.
Encourager des pratiques vertueuses par le dialogue. Comme pour toute technologie, le recours à l’IA doit être en phase avec les préoccupations de chacun. Il faut donc pouvoir débattre de nos choix d'outils numériques pour les aligner avec nos principes et objectifs écologiques et sociaux. Cette discussion peut avoir lieu dans différents cadres et selon différentes modalités, mais il n’en demeure pas moins que très souvent les décisions les plus pertinentes seront celles que nous pourrons prendre à l’échelle collective. C’est pourquoi, dans l'environnement professionnel, il est nécessaire de « faire du dialogue social et professionnel un outil de co-construction des usages et de régulation des risques des systèmes d’IA », comme le préconisait la Commission de l’intelligence artificielle dans sa troisième recommandation en mars dernier. Sachant que, à tout le moins, le numérique et l’IA pourraient aussi être un pilier de la responsabilité sociale et environnementale des entreprises, comme le proposait le Conseil dans son dossier Travailler à l’heure du numérique. Corps et machines, a fortiori dans un contexte aigu de quête de sens au travail.
Écologie, travail, Café IA… autant de sujets traités cette semaine au salon Produrable ! « Comment répondre aux personnes qui nous interrogent sur les impacts environnementaux de l’IA ? » ; « Comment l’IA peut-il favoriser les processus de recrutement ? » ; « Est-ce encore soutenable d’utiliser des IA génératrices de texte ? » Autant de questionnements qui ont animé les très nombreux échanges que nous avons pu avoir mercredi et jeudi au stand Café IA au sein du salon PRODURABLE, le plus grand rendez-vous européen des acteurs et des solutions en faveur de l'économie durable. Un grand merci à Gilles Babinet, Nicolas Blanc, Bénédicte Roullier et toutes les équipes de France Num, Toni dos Santos et Thomas Brilland (qui a notamment contribué au référentiel IA frugale de l’Afnor mentionné plus haut) pour avoir participé à l’animation des échanges et nourri la réflexion. Merci également à l’organisation et à toutes les personnes qui ont montré leur intérêt pour la démarche Café IA. Pour poursuivre la discussion, animer ou organiser des temps d’échange sur l’impact de l’IA sur le travail, l'environnement ou simplement sur notre relation à cette technologie, écrivez-nous à bonjour@cafeia.fr.
Café IA, prix du mémoire…les actualités du Conseil !
Retour d’expériences Café IA. Le Café animation d’hier nous a permis de présenter notre module pédagogique Qu’est-ce que l’IA ?. Co-conçu avec Inria, ce module est disponible sur cafeia.org. N’hésitez pas à nous faire part de vos commentaires, suggestions bibliographiques et autres retours à bonjour@cafeia.org ! À cette occasion, nous avons également reçu Maxime Gennaoui-Hétier, administrateur de l'État, ancien élève de l'Institut National du Service Public et à l’origine de deux rapports sur l'intelligence artificielle et Vanessa Vanier, chargée de mission à Loir&Cher Tech. Tous deux ont présenté les cafés IA qu’ils ont organisés et restitué la parole exprimée par les participants à cette occasion. Parmi les nombreux sujets abordés : le rôle des œuvres de science-fiction dans la construction des imaginaires collectifs autour de l’IA et l’importance de traiter les préoccupations principales des participants, cristallisées sur l’impact de ces outils sur le travail et l’environnement, ainsi que les encadrements juridiques existants. On se retrouve la semaine prochaine avec Martins Joaquim et Florence Naulet du département Eure-et-Loir et Faustine Bentaberry et Yannick Coirint de la Direction générale de l’administration et de la fonction publique. Pour vous inscrire c’est ici.
1, 2, 3 cafés IA au Havre ! Vendredi dernier, Jean-Baptiste Manenti et Gilles Babinet étaient au Havre pour animer trois cafés IA. Lieu d’innovation, École nationale supérieure maritime et tiers-lieu ont été le théâtre de nombreux échanges au sujet de l’intelligence artificielle, au fil des questions qui fusaient. Des questions sur quoi ? les considérations technologiques (qu’est-ce que l’IA ? d’où vient-elle ? …) l’impact de cet outil sur notre vie professionnelle (que va-t-elle changer dans la vie d’un architecte ? Un jeune avocat saura-t-il toujours explorer la jurisprudence ? …), nos relations sociales (comment arrive-t-elle à comprendre l’humour ? Comment s’insère-t-elle dans les rapports entre deux individus ? …), l’éducation (comment faire la part des choses et développer ou conserver un sens critique ? …), ou encore la santé (pourra-t-on déceler des maladies plus tôt ? libérer du temps pour les médecins ? …). Merci encore à Logeo Seine et à tous les Havrais pour leur accueil chaleureux !
Étudiantes, étudiants, c’est l’heure de postuler au prix du mémoire du Conseil national du numérique ! En juin dernier, nous vous annoncions ouvrir la 2e édition du prix du mémoire du Conseil, qui récompense une étudiante ou un étudiant de master 2 en sciences humaines et sociales, quelle que soit la discipline, contribuant à l’amélioration de la compréhension des enjeux numériques. Attribué par un jury composé de membres du Conseil et du secrétariat général ainsi que de personnalités extérieures, le prix comporte une dotation de 1 500 € et une valorisation des travaux de l’étudiant et de l’étudiante sous différentes formes. Étudiantes, étudiants, il ne vous reste désormais qu'un mois pour candidater et nous envoyer votre dossier avant le 31 octobre. Pour postuler, c’est par ici.
🔎 La veille du Conseil
Du « web vaporeux » au « cosyweb », comment refaire d’internet et des réseaux sociaux un lieu de rassemblement démocratique ? Dans une longue analyse à retrouver dans Le Monde, Morgane Tual retrace la façon dont nos usages du Web et des réseaux sociaux ont évolué, du lancement de Facebook à aujourd’hui. À leur éclosion, les réseaux sociaux étaient perçus comme une tentative aboutie de transformer internet en une véritable agora, où chacun pourrait participer à un débat public égalitaire, large et ouvert. Cependant, la concentration de ces espaces entre les mains de quelques puissantes entreprises et les modèles économiques qui en découlent ont refroidi ces espoirs.
Pour éviter les nombreux écueils véhiculés par les réseaux sociaux dominants, les usages évoluent. Les utilisateurs adoptent de plus en plus une attitude passive, se contentant de consommer le contenu plutôt que d’en produire. L’article renvoie aux travaux du Pew Research Center, qui - à l’instar des travaux d’Ethan Zuckerman et de son équipe sur Youtube - montre qu'une très large majorité regardent et consomment, et qu'une minorité diffuse la grande majorité du contenu le plus vu. Cette relation asymétrique, renforcée par des algorithmes opaques favorisant des contenus préjudiciables, pousse les internautes à se replier vers des espaces plus restreints, entre amis proches ou dans des communautés d’affinité. Les groupes de messagerie privée, comme Whatsapp (deux milliards d’utilisateurs actifs mensuels), Signal, Telegram, ou même les groupes privés sur Facebook, sont en plein essor. Parallèlement, on observe un retour des communautés de niche, via des plateformes comme Ravelry (pour les amateurs de tricot), Letterboxd (cinéma) ou Goodreads (littérature). Ces nouveaux espaces restreints forment ce que l’essayiste américain Venkatesh Rao appelle le « cozyweb », un endroit où les internautes « se retirent de la vue et de l’activité publique pour différentes raisons, allant de la simple préférence pour les espaces privés et les petites communautés à la peur et aux syndromes post-traumatiques. » Un phénomène qui, appréhendé dans sa globalité, n’est pas sans rappeler l’époque - encore bien actuelle à certains égards - des « blogs », des réseaux de pair-à-pair, des premières messageries en ligne, des newsgroups, d’IRC ou d’ICQ.
Ces changements forcent les grandes plateformes à s’adapter en proposant des algorithmes de recommandation de plus en plus personnalisés, qui enferment les utilisateurs dans les fameuses et discutées « bulles de filtres », un phénomène en constante progression, comme l’explique Stéphanie Lukasik, experte au Conseil de l’Europe sur la responsabilisation des usagers. Le journaliste américain Ryan Broderick a qualifié cette ère de « web vaporeux » : « Il y a de plus en plus d’Internet, il s’y passe de plus en plus de choses – avec des enjeux géopolitiques de plus en plus importants. Et pourtant, il est quasiment impossible de saisir ce qui s’y passe. »
Et si le réseau de demain était avant tout le nôtre ? Il est cependant crucial de reprendre le contrôle de ces espaces de dialogue et d’information pour pouvoir personnaliser et choisir l’expérience que nous souhaitons. Qu’il s’agisse de rendre les données accessibles à la recherche, d’assurer le droit du paramétrage des algorithmes ou du dégroupage des réseaux sociaux, les options sont nombreuses et doivent être collectives !
🎙️ Faisant suite à l’article de Morgane Tual, Le Talk de France Info organisait une émission sur l’avenir des réseaux sociaux. Jean Cattan y est revenu sur la question de l’avenir des réseaux sociaux. Il y a notamment rappelé le rôle que doit jouer la puissance publique pour apporter un soutien à l’émergence d’une société ouverte, permettant la possibilité de créer des alternatives aux modèles imposés par les réseaux sociaux dominants, pour diffuser des services numériques innovants, au service de nos imaginaires, de la société et de l’environnement.
« Ce qui compte, ce n'est pas si quelque chose est vrai, mais si cela semble vrai. » Dans la dernière lettre d’information de Politico « Digital Future Daily », Derek Robertson revient sur la manière dont l’intelligence artificielle affecte notre rapport à l’information. La semaine dernière, une image générée par l'IA d'une petite fille fuyant l'ouragan Helene (qui a frappé la Floride, la Géorgie et la Caroline du Sud et du Nord fin septembre) en serrant un chiot dans ses bras est devenue virale dans les cercles de la droite républicaine aux États-Unis. Bien que l’origine artificielle de l’image a été depuis révélée, cela n’a pas empêché des personnalités publiques de déclarer que « l’origine d’une telle image n’a pas d’importance, elle est emblématique du traumatisme des gens ». Et JD Vance, le colistier de Donald Trump, d’affirmer qu'il était nécessaire « de créer des histoires afin que... les médias prêtent réellement attention à la souffrance du peuple américain. » Alors que les efforts pour contrer la diffusion de fausses informations se multiplient, comment expliquer qu’une partie de la population en soit à la recherche ? Pour Jason Koebler, cofondateur de 404 Media « la vérité est souvent un obstacle à la transmission de ce qui pourrait être le meilleur pour votre camp politique. »
« L’intelligence artificielle est un enjeu de société qui pose de nombreuses questions, et les pratiques de l’éducation populaire apportent des réponses adaptées à la réalité des apprenants. » Dans sa chronique pour le Journal du Net, Julien Cartier, président de l'Institut pour l'Éducation Augmentée appelle à allier l’appropriation par l’éducation de chacun « dans une dimension émancipatrice et participative » à une appropriation démocratique de l’IA. Le projet éducatif Stellia mis en place par l’Université Paris-Saclay a ainsi vocation, à travers le recours à une IA générative, à faciliter l'accès à l'éducation et la transmission des savoirs en personnalisant les apprentissages en fonction des rythmes et des préférences de chaque apprenant. Pour Julien Cartier, l’enjeu est donc l’appropriation de l’IA par les individus eux-mêmes, soutenue par l’éducation populaire, en particulier et surtout pour celles et ceux qui ne sont pas techniciens ou spécialistes de cette technologie.
📬 Vous avez lu un article, écouté un podcast ou regardé une vidéo que vous souhaitez nous partager ? Ecrivez-nous à info@cnnumerique.fr 👋
👋 Avant de partir
Vous avez apprécié la lettre d’information de cette semaine ? Partagez-la avec un ami ou un collègue. Ils peuvent s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! n’hésitez pas à nous écrire à info@cnnumerique.fr.
Cette lettre d’information a été préparée par Gabriel Ertlé, illustrée par Magali Jacquemet et réalisée avec le soutien de Jean-Baptiste Manenti, Zora Decoust, Joséphine Corcoral et Jean Cattan.