Dépasser le malaise social de l’IA au travail
Au programme de cette semaine : dépasser le malaise social de l’IA au travail ✦ Interdire la surveillance des prix et des salaires ✦ L’équipe du Conseil national du numérique recrute !
Dépasser le malaise social de l’IA au travail
Hubert Guillaud
L’idée de la fin du travail n’est pas une idée neuve. Depuis le début de l’industrialisation, le débat est cyclique. En réalité, le chômage technologique est rare et semble bien plus tenir d’un mythe qu’autre chose. On a parfois assisté à des destructions fortes d’emploi, à des changements dans l’organisation du travail et des tâches liées à la technologie, mais, dans nos sociétés modernes, “on est bien plus en pénurie de travail que face à un trop plein”, expliquait l’économiste Ekkehard Ernst, de l’Organisation internationale du travail, lors d’un débat sur l’IA au travail organisé par le CESE et le think tank #Leplusimportant.
Les rapports sur l’impact de l’IA sur le travail sont loin de faire consensus, comme le montre le module pédagogique que le Conseil national du numérique, France Num et LaborIA ont récemment publié dans le cadre de la démarche Café IA. Selon les méthodologies utilisées, selon les études, ce ne sont pas les mêmes métiers ni les mêmes tâches qui seront impactées par le développement de l’IA. D’un côté, on nous assure que les radiologues vont disparaître, de l’autre que ce seront les comptables. Mais les premiers comme les seconds demeurent plutôt sceptiques. En fait, plus que d'impacter l’emploi, le développement de l’IA semble surtout affecter la qualité du travail, notamment en renforçant son intensification et les inégalités de traitement.
Le spécialiste de l’économie du travail, David Autor, estime que l’IA va surtout bénéficier à tous, qu’elle peut réduire les différences entre les salariés, augmenter leurs compétences… Mais même dans ce domaine, le consensus n’est pas de mise. Par exemple, si les compétences des travailleurs sont utiles pour trouver du travail, elles sont rarement essentielles pour garder un emploi. Et si l’IA peut réduire les différences entre salariés débutants et experts, elle peut aussi les augmenter, entre salariés qui ont recours à ces outils et ceux qui n’y ont pas accès, ceux qui en bénéficient pour améliorer leur activité et ceux qui sont managés par l’IA. Alors certes, la demande de programmeurs aux Etats-Unis est en chute libre, mais c’est peut-être plus une question de flexibilité et d’adaptabilité conjoncturelle du secteur qu’autre chose. En fait, “quand on regarde les chiffres de l’emploi, l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être”, concluait Ekkehard Ernst, qui dirige l’observatoire sur l’IA et le travail dans l’économie numérique de l’OIT.
Usages clandestins. Pour le sociologue d’Inria Yann Ferguson, l’arrivée de l’IA générative a modifié la façon dont l’IA était introduite dans les organisations. Plutôt que d’être le résultat d’un processus décisionnel interne, elle est d’abord et surtout introduite de manière clandestine par les employés (on parle de “shadow AI” (IA invisible) pour désigner l'utilisation non autorisée ni contrôlée de l'IA par les collaborateurs, un phénomène qui n’est pas sans rappeler la manière dont s’introduisent depuis longtemps, dans les entreprises, les nouveaux appareils ou les nouveaux services, importés depuis des pratiques personnelles). 20 % à 55 % des salariés ont utilisé l’IA générative au travail, mais souvent de leur propre initiative, voire sans toujours l’évoquer ouvertement. Cette clandestinité de l’usage de l’IA interroge et déplace la question de la peur de l’IA. Les employés qui utilisent l’IA sans le dire n’ont pas seulement peur d’être remplacés par les machines dont ils constatent la puissance, mais ont également peur qu’on les considère comme des tricheurs, des incompétents ou des feignants. “C’est paradoxal”, ironise le chercheur. “D’un côté, on a un discours techno-enthousiaste sur l’IA, de l’autre les gens qui l’adoptent en ont honte !”.
Comme le disait John Hermann dans le New York Mag, alors que l’IA est associée au summum des réalisations humaines, pour tout à chacun, elle désigne d’abord des choses assez pauvres, assez communes. Dire d’un texte qu’il a été réalisé par ChatGPT qualifie surtout un document sans grand intérêt. Cela explique en partie pourquoi les employés sont mal à l’aise à l’utiliser. L’autre raison est toute inverse. Quelque soit ce que l’IA générative produit, elle le fait bien plus rapidement que n’importe lequel d’entre nous, et parfois bien mieux que nous n’en sommes capables. C’est un peu comme si, quelque soit la façon dont on l’utilise, l’IA générait une forme de malaise social.
Le malaise social de l’IA. Le recours à l’IA générative au travail interroge. Les salariés ont tendance à l’utiliser pour gagner du temps dans l’espoir de le reconquérir librement. Leurs employeurs, eux, souhaite que ce gain de temps renforce la productivité. Mais tous sont confrontés au problème de la reconnaissance de leur travail quand ils utilisent l’IA.
Ces utilisations clandestines portent également beaucoup de mésusages, rappelait Ferguson. On estime qu’un prompt sur 12 contient des données sensibles (des données personnelles, des données de clients ou de salariés). L’IA semble plus un outil de création qu’un outil qui produit des connaissances robustes, estime le chercheur. Pourtant, même quand on l’utilise de façon pertinente, pour trouver des idées, son usage se fait souvent au détriment du collectif de travail. On brainstorme avec l’IA plutôt qu’avec ses collègues. “L’IA générative au travail a tendance à atomiser le collectif de travail et renforce une capacitation individuelle, au détriment du collectif”. Il nous pousse à nous sentir plus fort individuellement. Mais même quand on utilise l’IA pour être créatif, bien souvent, on se sent encapacité, sans que cela ne produise toujours des résultats pertinents.
La peur est assurément le reflet de ce malaise. 60 % des travailleurs craignent de perdre leur emploi dans les 10 prochaines années en raison de l’IA et 48 % des Français pensent même que leur emploi pourrait disparaître d'ici à 10 ans à cause de l'IA (selon le baromètre Ifop-Talan sur les Français et l’IA générative, 75 % de ceux qui utilisent l’IA générative ne pensent pas que ces outils puissent automatiser plus de 30 % de leurs tâches professionnelles. Pour autant, en un an, la part de Français inquiets vis-à-vis de l’IA générative est passée de 69 % à 78 %. Selon une étude internationale du Boston Consulting Group, les Français sont les plus inquiets face aux déploiements de l’IA). Mais, si la crainte est réelle, les usages se diffusent, sans que les utilisateurs ne sachent très bien quand l’intelligence artificielle peut se révéler utile et quand elle ne l’est pas.
Le malaise social de la place de l’IA au travail ne se dissipera pas par magie. Pour Yann Ferguson, il nous faut mettre sur la table la question du partage des bénéfices de l’IA. Si les projets IA viennent avec la menace de plans sociaux, ou d’une intensification du travail, le déploiement de l’IA est appelé à rester durablement un problème plutôt qu’une solution. Pour Ekkehard Ernst, il est normal que les salariés aient de l’appréhension face au déploiement de l’IA, parce que bien souvent, quand on met en place des projets d’IA, c’est au détriment des postes ou d’une dégradation des conditions de travail.
Pour la chercheuse Aiha Nguyen de Data & Society, il faut nous déplacer au-delà du battage médiatique pour voir ce que l’IA est réellement. Partout où elle se déploie, la surveillance des travailleurs et leur précarisation se renforcent. Les entreprises présentent l’IA comme un outil de divertissement ou de productivité, alors qu’elle est d’abord un outil de contrôle, expliquait-elle dans un stimulant rapport sur l’IA générative au travail. La surveillance permet de découper les tâches, de les décrire, pour faire que les travailleurs soient plus contrôlés qu’ils n’étaient. Sous surveillance, les données des travailleurs sont extraites pour produire des outils qui viennent les contraindre et qui renforcent les capacités de contrôle des managers, sans que les travailleurs ne soient rémunérés pour cette exploitation supplémentaire. Pour la chercheuse américaine, les travailleurs ont surtout besoin de plus de syndicalisation et de régulation, notamment pour que la valeur des données qu’ils produisent ne soit pas captée à leur détriment et sans rétribution.
Pour le dire autrement, pour lever le malaise de l’IA, il va falloir rebâtir le dialogue social, seul à même de créer un cadre de confiance pour le déploiement de l’IA, comme nous y invitent les outils déployés dans le cadre du projet Dial-IA (porté par l’IRES, l’Anact, la CFDT, l’UGICT-CGT, la CFE-CGC et FO-Cadres), pour initier concrètement le dialogue social technologique autour de l’IA dans les entreprises. Mais cela suppose aussi d’initier une discussion sur le partage des fruits du déploiement de l’IA : rétributions supplémentaires, réduction du temps de travail ou garantie que les déploiements de l’IA se fassent sans aucun licenciement… Pour résoudre le malaise social que génère l’IA au travail, il va falloir l’accompagner de propositions sociales.
🔎 La veille du Conseil
Pour un empilement technologique européen
L’initiative EuroStack propose “une stratégie pour renforcer la compétitivité de l’Europe, sécuriser les ressources essentielles et construire un écosystème numérique résilient et tourné vers l’avenir”. Pour cela, le projet, coordonné par Francesca Bria, Paul Timmers et Fausto Gernone, propose de développer des couches interconnectées de technologies avancées, allant des semi-conducteurs au cloud computing. "Une approche qui donne la priorité à la durabilité, à l’inclusivité et à l’interopérabilité, garantissant que l’avenir numérique de l’Europe soit en phase avec ses valeurs démocratiques, ses objectifs d’équité sociale et ses aspirations économiques". La stratégie reconnaît que l’autosuffisance totale n’est ni réalisable ni souhaitable dans un monde globalisé. Au lieu de cela, l’initiative EuroStack favorise le renforcement des capacités stratégiques tout en maintenant des collaborations internationales bénéfiques. Le rapport propose donc de créer des plateformes interopérables, mais principalement des outils de souveraineté opérés par de grands acteurs, comme des systèmes d'identité européens, des IA locales ou des clouds globaux.
Interdire la surveillance des prix et des salaires
L'AI Now Institute vient de publier un rapport dirigé par Veena Dubal et Zephyr Teachout et signé par 13 associations de défense des salariés et des citoyens. Le rapport explique comment fonctionnent les prix et les salaires de surveillance, les préjudices qu'ils peuvent causer et les outils juridiques actuellement disponibles pour les combattre. Comme le montrait Veena Dubal dans son étude sur la discrimination salariale algorithmique, "la surveillance des salaires et des prix permet aux entreprises d’identifier le «point sensible» d’un individu : le prix maximum qu’un consommateur est prêt à payer ou le salaire minimum qu’un travailleur est prêt à accepter. Cette stratégie permet aux entreprises d’extraire et de capturer chaque dollar qu’elles peuvent de chaque transaction. Les économies que les travailleurs et les consommateurs pouvaient autrefois réaliser sont désormais systématiquement canalisées vers les marges bénéficiaires des entreprises. Grâce à la surveillance des prix et des salaires, les entreprises gagnent toujours." Le rapport recommande "d'interdire la surveillance des prix et des salaires avant qu'elle ne s'étende davantage à l’ensemble de l’économie”, suite au risque de leur normalisation que dénonçait récemment la FTC.
La science ouverte porte ses fruits
Le plan national pour la science ouverte qui promeut “une diffusion sans entrave des résultats, des méthodes et des produits de la recherche scientifique” rencontre une forte adhésion des établissements d'enseignement supérieur et de recherche, rapporte l'étude d'impact. Alors que seulement 2,9 % des établissements avaient adopté un cadre en la matière en 2018, c'est désormais plus de 50 % qui en ont adopté un. Les mesures d’ouverture des publications et des données restent généralement plus avancées que celles relatives aux logiciels, aux codes sources et à l’évaluation.
Propositions pour le travail
Depuis septembre, le site La vie des idées collecte des propositions pour “Travailler Mieux” qui vise à répertorier les mesures susceptibles d’améliorer la qualité du travail en France. Initié par le chercheur Bruno Palier, qui avait coordonné le riche Que sait-on du travail ? (Presses de SciencesPo, Le Monde, 2023 - voir également le site ressource), parmi les 14 propositions à date, on s’intéressera par exemple à l’idée de créer un index de la qualité de l’emploi ou des propositions pour décourager les horaires atypiques…
📬 Vous avez lu un article, écouté un podcast ou regardé une vidéo que vous souhaitez nous partager ? Ecrivez-nous à info@cnnumerique.fr 👋
☕ Les actualités de Café IA !
Vous reprendrez bien un Café IA ? Café IA continue à se structurer et à se déployer partout en France. De très nombreux Cafés IA s’organisent partout en France comme mercredi au Salon de l’agriculture avec la Ferme digitale. À cette occasion, deux cafés IA ont eu lieu, le premier avec des entrepreneurs, structures accompagnatrices des agriculteurs, représentants du ministère du numérique marocain ou encore étudiants. Avec eux nous avons échangé autour des impacts environnementaux de l’IA, de la question du remplacement du travail, mais aussi et surtout de la façon dont ces outils peuvent aider au quotidien les agriculteurs quelle que soit la taille de leur exploitation. Le deuxième café, en présence de Clara Chappaz, ministre déléguée chargée de l'Intelligence Artificielle et du Numérique, réunissait des étudiants et membres des équipes pédagogiques d’établissements supérieurs agronomes. La conversation s’est articulée autour des pratiques et enseignements autour de l’IA, tant pour les étudiants que pour leurs enseignants. Un très grand merci à tous les participants et à madame la ministre !
En parallèle, d’autres Cafés IA s’organisent à Amiens le 13 mars, à Vela en Corse le 14 mars, à Quimper et à Lyon le 18 mars… Vous organisez prochainement un Café IA ? Faites-nous en part à bonjour@cafeia.org.
« Il est important de bien faire attention à utiliser l’IA seulement lorsqu’on en a réellement besoin. Parfois, une simple recherche internet est tout aussi efficace et les données montrent qu’il est significativement plus énergivore de passer par un grand modèle de langage ». La semaine dernière, Joséphine Corcoral a pu présenter Café IA et rappeler l’importance de mettre en débat l’intelligence artificielle dans le cadre d’un échange organisé à l’initiative de We Tech Care et devant près de 400 participants. L’occasion également de répondre aux questions des participants sur les enjeux sociaux et environnementaux de l’IA. Replay disponible ici.
Café IA et création de contenus. Vendredi dernier, Cécile Ravaux a pu présenter la démarche Café IA sur la chaîne de Jeanviet et prendre part à une discussion sur le besoin de développer des cadres éthiques liés à l’IA. Transparence et confiance seront les piliers de la réussite en matière d’intelligence artificielle. Merci pour l’invitation !
Recrutement
Nous sommes à la recherche de trois profils pour venir nous aider à construire et faire vivre Café IA parmi de nombreux autres projets à venir :
- Une chargée ou un chargé d'animation,
- Deux rédactrices ou rédacteurs (ici et là).
🏃 En bref... Le reste de l’actualité du Conseil !
Y a-t-il une IA pour sauver la planète ? C'est la question qui était posée il y a deux semaines lors du Tribunal pour les Générations Futures à La Sorbonne organisé aux côtés d’Usbek & Rica, avec huit autres institutions publiques et universitaires. Le replay de l’événement est désormais disponible : cliquez ici pour connaître le verdict. ✦ « Il faut développer des cadres éthiques liés à l’IA. Transparence et confiance seront les piliers de la réussite en matière d’intelligence artificielle. » Pour la Harvard Business Review, Rahaf Harfoush dresse le bilan du Sommet pour l’action sur l’IA pour le monde des entreprises. À lire ici. ✦ « Il est crucial de faire pour l’IA un travail que nous n’avons pas fait – ou trop tard – pour les réseaux sociaux : anticiper et maîtriser son impact sur nos sociétés démocratiques. » Dans une tribune pour Le Monde publiée à l’occasion du Sommet pour l’action sur l’IA, Gilles Babinet, aux côtés de Yann Algan, Alicia Combaz, Axel Dauchez et Audrey Tang, appelle à encadrer le développement de l’IA pour qu’elle se mette avant tout au service de la démocratie et qu’elle devienne vectrice de cohésion et de participation citoyenne. ✦ « Ainsi, la question n’est pas de savoir si des algorithmes pourront un jour simuler l’ensemble des capacités humaines, mais de comprendre ce qui fera que des humains pourront être tentés de leur imaginer des compétences qu’ils n’ont pas, et de croire qu’ils vont se simplifier la vie en leur obéissant. » Dans le dernier hors série Le Monde La Vie dédié à « l’histoire des mythes », Serge Tisseron revient sur l’essor des outils de reconnaissance vocale et des capacités linguistiques des technologies et alerte sur plusieurs conséquences : l'anthropomorphisation de ces technologies algorithmiques, notre rapport l’intimité face à des technologies toujours plus proches de nous et à notre écoute, notamment via les enceintes connectées, ou encore leur capacité à manipuler dans un futur pas si lointain nos comportements et nos émotions. Il nous faut nous poser collectivement et dès aujourd’hui les questions qui permettront de créer les conditions d’une utilisation juste et raisonnée de ces outils. ✦ « Les risques de l’automatisation de l’expression, de l’uniformisation culturelle et de la désinformation tiennent moins aux technologies numériques qu’à leur appropriation par des entreprises quasi-monopolistiques qui les développent dans le sens de l’automatisation généralisée et de l’économie des données. » Dans un article à retrouver sur La Vie des Idées, Anne Alombert appelle à mettre l’intelligence artificielle au service de l’intelligence collective et des pratiques contributives, en repensant les modèles économiques dominants et en permettant l’exercice d'activités interprétatives, le partage des savoirs et la délibération collective. ✦ « Si les technologies d’intelligences artificielles peuvent être utilisées pour créer beaucoup de richesse, la question est de savoir comment faire en sorte que cette richesse soit utile au bien commun. » Au micro de RTL, Gilles Babinet soutient une approche européenne de l’IA qui soit régulatrice et inclusive, notamment à travers la création d’une culture collective de l’IA. ✦ Dans sa chronique matinale « Un monde connecté » sur France Culture, François Saltiel revenait hier sur l’interopérabilité comme clef pour « réenchanter les réseaux sociaux » en évoquant tant une édition précédente de la présente lettre (merci!) que le dernier ouvrage de Cory Doctorow, le Rapt d’internet, traduit et paru chez C&F Éditions. L’époque ne nous laisse plus le temps de tergiverser. Si elle n’est qu’une option à examiner à l’avenir dans le DMA, il s’agit désormais d’en faire une réalité.
👋 Avant de partir
Vous avez apprécié la lettre d’information de cette semaine ? Partagez-la à un ami ou un collègue. Ils peuvent s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à nous écrire à info@cnnumerique.fr.
Cette lettre d’information a été préparée par Hubert Guillaud, illustrée par Magali Jacquemet et réalisée avec le soutien de Gabriel Ertlé et Joséphine Corcoral.