Face aux IA, l'humain a l'avantage de penser en mouvement, échange avec Yann Ferguson

 À la croisée des préoccupations de l’ingénieur et des sciences humaines et sociales, Yann Ferguson s’intéresse à l'intégration des systèmes d’intelligence artificielle dans les univers de travail. Il est sociologue à l’Icam Toulouse et responsable scientifique du programme LaborIA.

Dans votre métier vous accompagnez des entreprises dans l'intégration de systèmes d'intelligence artificielle en milieu professionnel. En quoi consistent ces dispositifs ?

Ils peuvent prendre plusieurs formes selon le degré de maturité de l’entreprise sur le sujet. Depuis 4 ans, j’ai assuré une cinquantaine de conférences de vulgarisation sur l’IA, le travail et l’éthique. Quand l’entreprise commence à s’engager, j’anime des ateliers de préfiguration pour les salariés et les managers afin de leur faire toucher du doigt un certain nombre d’enjeux : l’évolution des savoir-faire, de l’autonomie, de la responsabilité, des relations humaines, les transformations managériales et organisationnelles, etc. Enfin, quand les applications sont en cours de déploiement, je propose des méthodologies qui génèrent du questionnement, des indicateurs d’évaluation et de suivi pour créer des diagnostics d’usage et suivre le processus d’appropriation. J’interviens aussi dans les services publics et l’administration du travail.

Parmi ces différentes missions, quels sont les cas d’usage qui vous ont particulièrement marqué ?

En termes de méthode tout d’abord, j’ai été particulièrement marqué par une entreprise qui avait une double-stratégie : d’un côté, elle a adopté une approche « bottom-up » consistant à élaborer un écosystème d’innovations et à aller ensuite d’entités en entités en disant « voilà ce qu’on sait faire, est-ce que ça a du sens au regard de votre activité et de ce qu’il vous semble possible d'automatiser ? ». D’un autre côté, l’entreprise est entrée dans l’automatisation du travail par les fonctions supports. Ces dernières ont l’avantage de la transversalité : tout le monde est en lien avec les fonctions support et, de fait, cela permettait de familiariser tout le monde avec l’IA au travail.

Les outils numériques mis en place doivent avoir du sens au regard de la culture dans laquelle ils s’insèrent.

Cette entreprise avait, en outre, une vraie volonté d’acculturation des salariés à ces nouveaux outils. J’ai ainsi été chargé d’organiser des ateliers de découverte de l’IA en libre accès, auxquels les travailleurs pouvaient s’inscrire sans portage managérial - ce qui était assez unique. Ces ateliers consistaient en différentes expérimentations autour de l’IA dans le cadre de scénarios faisant écho à leurs activités. Chacun pouvait ensuite donner son avis sur l'outil expérimenté. Par exemple, nous avons expérimenté un dispositif d’analyse des mails de clients, permettant d’avoir des indices de personnalité sur ces derniers. Nous avons reçu des retours très intéressants, notamment en termes d’intrusion dans la vie privée du client. Les travailleurs ont aussi pointé la déshumanisation du dispositif qui objectifie les échanges. Certains ont aussi souligné leur manque de confiance dans le service, parfois de façon paradoxale. On nous a par exemple dit : « Je ne fais pas confiance à ce système pour analyser 3 mails, mais peut-être que je le ferai pour 10 000 mails. » Certains ont, enfin, réagi quant aux critères d’analyse. L’outil était américain et faisait donc figurer des indicateurs qui n’étaient pas du tout pertinents dans la culture française, comme le fait d’aimer ou non la musique country. Cela montre que les outils numériques mis en place doivent avoir du sens au regard de la culture dans laquelle ils s’insèrent.

Outre cette méthodologie descendante, les cas d’usage peuvent également émerger des équipes elles-mêmes, avec parfois des effets de bord non anticipés. J’ai par exemple suivi un service juridique composé de 300 collaborateurs et qui souhaitait mettre en place un chatbot de réponse aux mails les plus fréquents. Le traitement des mails était en effet une part très chronophage de leur activité, pouvant leur prendre jusqu’à 6 heures par jour. En conséquence, le temps de réponse était très long et cela désincitait les équipes projets à les solliciter, elles préféraient bricoler des contrats de leur côté, avec des risques importants en matière de sécurité juridique. Ce chatbot devait donc soulager les juristes et sécuriser légalement l’entreprise. Toutefois, si cet objectif a été rempli dans un premier temps, l’outil a également généré une perte de lien pesante pour l’équipe juridique qui se sentait désormais isolée du reste de l’entreprise. Le chatbot a recentré leur activité sur sa dimension exclusivement technique. Cela pose des questions importantes, notamment : si on soulage un métier de tâches sociales à faible valeur ajoutée de l’activité, doit-on la recentrer vers sa dimension uniquement technique ou bien faut-il la remplacer par des tâches sociales à forte valeur ajoutée, comme par exemple l’organisation, une fois par mois, d’un atelier de formation juridique ?

Mais le dispositif technologique peut aussi être particulièrement positif et même pacifier les relations de travail. Je travaille ainsi actuellement avec une grande entreprise de magasins de vêtements où a été introduit un robot chargé de rapporter les articles finalement non-achetés et laissés en caisse ou en cabine. Nous craignions que cela génère des crispations parmi les conseillers de vente parce que le fait de rapporter ces articles était l'occasion de croiser des collègues, d’interagir et ainsi de faire des micro-pauses. En réalité, nous nous sommes aperçus que les caissières pouvaient être perçues de manière particulièrement négative à cause de leurs appels micro fréquents pour demander à ce que l’on rapporte les articles en rayon. Le robot a ainsi apaisé la relation entre agents de caisses et conseillers de vente.

Quels sont les challenges qui reviennent le plus ?

Le plus gros défi relève pour moi de la nature même de l’IA d’apprentissage. Nous sommes face à des technologies qui sont empiriques : elles apprennent avec l’humain. Or, on achète ces technologies pour avoir un niveau de performance garanti, certifié, etc. Là, on se retrouve avec des entreprises qui ont un empirisme humain et un empirisme machinique. Ce ne sont pas les mêmes empirismes et cela va générer trois grandes problématiques, particulièrement bien identifiées dans les travaux de l’ergonome Moustafa Zouinar(1) :

  • L’apprentissage mutuel : nous avons des machines qui apprennent des humains et vice versa. C’est une configuration nouvelle sur laquelle nous avons peu de recul ;
  • Une technologie dynamique : on peut démarrer avec un niveau de performance faible et celui-ci peut croître au fur et à mesure que l’humain l’augmente. Cette montée en compétences peut se faire au détriment de celles des humains qui s’effacent, avec parfois des conséquences graves. On l’a vu avec les pilotes : quand ils doivent reprendre les manettes de l’avion, ils ont perdu leurs réflexes et ils doivent parfois lutter contre les dispositifs algorithmiques qui leur imposent une stratégie de pilotage. Ce positionnement dynamique de l’humain et de la machine est un impensé ;
  • Les enjeux éthiques : il y a toujours eu de l’éthique dans la technique mais la question des biais, des nudges, de la vie privée… est assez nouvelle.

Le deuxième grand défi auquel sont confrontées les entreprises est de savoir comment faire adopter ces solutions et comment créer de la valeur. Le vocabulaire que l’on emploie peut être assez important à cet égard. Je travaille par exemple actuellement pour une grande entreprise industrielle où je n’ai pas le droit de prononcer le terme d'« intelligence artificielle ». Ils préfèrent parler de « systèmes statistiques augmentés » ou d’« apprentis virtuels ». L’idée est réellement de mettre les travailleurs au centre : la machine est leur apprentie et c’est à eux de lui apprendre. Ensuite, une fois qu’on a passé cette étape de vulgarisation et d’acculturation et que la peur de l’IA disparaît, apparaissent d’autres sujets, notamment l’utilité et l’expérience utilisateur. Aujourd'hui, il y a très peu d’outils qui ont prouvé qu’ils apportent quelque chose. Soit ils apportent quelque chose mais on ne sait pas le traiter, soit cela prend trop de temps de le traiter, soit l’organisation ne sait pas comment l’intégrer. Quand l’IA est le but, cela marche bien : on sait concevoir des IA qui fonctionnent. Quand l’IA devient le moyen au service d’un autre but, cela marche beaucoup moins bien. Le passage à l’échelle est compliqué, il faut le nourrir en données, l'intégrer dans un processus métier…

Il y a également un enjeu d’acceptabilité pratique. La machine vient transformer, créer et supprimer des pratiques. Dans ces trois cas, se pose la question du positionnement du travailleur et des missions qui sont désormais les siennes. J’ai par exemple observé la mise en œuvre d’un bot RH chargé d’accompagner les travailleurs dans leur réflexion sur leurs soft skills. Mais ce dispositif n’était pas auto-apprenant, il fallait qu’un assistant humain prenne le relais lorsque le bot ne pouvait pas répondre, puis qu’elle ajoute manuellement la réponse dans le système. Initialement, l’assistante qui assurait cette mission l’acceptait avec plaisir parce qu’elle avait contribué au projet ce qui rendait cette tâche rébarbative bien plus agréable. D’ailleurs, elle avait un titre un peu pompeux  d’« éducatrice de robot ». Mais cette assistante a dû quitter le projet et a été remplacée. Sa suppléante a, elle, trouvé cette mission insupportable. Elle n’arrivait plus à mener ses activités parce qu’une majorité de sa journée était dédiée à cette alimentation du bot. Elle a quitté le projet qui a été abandonné par l’entreprise. Il est donc particulièrement important de penser l’acceptabilité des dispositifs en fonction des équipes, mais aussi des profils individuels et d’avoir une évaluation longitudinale des dispositifs pour se rendre compte des changements au fil du temps.

L’acceptabilité se joue aussi au niveau des valeurs métiers. Chaque métier a des valeurs qui construisent son activité professionnelle. La responsabilité professionnelle joue un grand rôle à cet égard. J’ai par exemple étudié une grande entreprise de l’agroalimentaire qui souhaitait intégrer un « cobot », c’est-à-dire un robot collaboratif, dans un processus de contrôle bactériologique dans des aliments. En cas d’erreur, les conséquences sont majeures, c’est la crise sanitaire. L’automatisation vient brouiller ces valeurs en créant une zone grise dans la responsabilité juridique : qui est d’accord pour assumer la responsabilité de la machine en cas de dysfonctionnement ? Le projet était ainsi bloqué parce qu’aucune équipe ne souhaitait endosser cette responsabilité.

Les inquiétudes qui émergent autour des métavers montrent que la façon dont on a appréhendé l’IA depuis des années n’a pas suffi à rassurer les gens.

Enfin, l’introduction de la machine au travail fait toujours peser la crainte de la destruction de l’emploi. Cependant, les entreprises avec lesquelles j’ai travaillé avaient la particularité de faire le choix assumé et revendiqué de ne jamais licencier. Néanmoins, en cas de départ d’un salarié - que ce soit pour rejoindre une autre équipe ou en cas de départ à la retraite -, elles avaient une réflexion quant à la réorganisation des équipes afin d’éviter de remplacer chaque départ. L’objectif était vraiment d’éviter que l'IA soit associée en interne avec une destruction d’emploi.

Enfin, même si la compréhension de l’IA a augmenté ces dernières années, les inquiétudes qui émergent autour des métavers montrent que la façon dont on a appréhendé l’IA depuis des années n’a pas suffi à rassurer les gens. Les inquiétudes émises dans les entreprises dans lesquelles j’interviens sont très proches de celles qu’on retrouve au sujet de l’IA.

Quel est l’effet selon vous de ces dispositifs sur le corps des travailleurs ?

J’ai principalement travaillé sur des dispositifs logiciels. Mais cela ne veut pas dire que cela n’engage pas le corps. Quand on parle d’IA et d’automatisation, il y a une forte propension à considérer le corps uniquement au prisme du trouble musculo-squelettique. Ainsi, tout ce qui permettrait de réduire l’engagement corporel aurait de la valeur. Cette analyse est guidée par le vieux dualisme cartésien : nous sommes des esprits avant d’être des corps et il faut valoriser l’esprit plus que le corps.

D’un côté, l’IA alimente ce dualisme avec des robots intelligents qui doivent réaliser les tâches manuelles à faible valeur ajoutée, qui sont sources de souffrances physiques pour les travailleurs humains. De l’autre, je trouve que l’IA s’insère dans un discours de réhabilitation du corps. On est progressivement en train de stigmatiser le fait que l’IA n’a pas de corps et de réhabiliter les sens et les émotions. La recherche autour de l’« embodied IA » le montre d’ailleurs, on cherche à enrichir l’IA par le corps parce que l’on s’aperçoit que sans ce corps, il nous manque des couches fondamentales d’apprentissage. Nous sommes aussi dans une période qui valorise de plus en plus le retour à une activité manuelle. C’est par exemple ce que souligne Matthew Crawford dans son Éloge du carburateur (La Découverte, 2010) ou Arthur Lochman dans La vie solide (Payot, 2019) : le vrai travail, ce serait celui que le corps accomplit lorsqu'il se confronte à la résistance du réel. C’est quelque chose que l’on constate en école d’ingénieurs. Nous avons de plus en plus d’anciens étudiants qui quittent leurs métiers pour retourner vers le « monde réel », par exemple l’agriculture, comme s’il y avait ce besoin de se reconnecter au vivant.

Les réflexions actuelles autour du métavers le montrent à nouveau. Ces technologies portent la promesse d’une forme de duplicité : on peut être à deux endroits à la fois. Ce narratif maintient l’idée, très récente à l’échelle de l’histoire de l’humanité, que notre potentiel se délivre mieux assis sur une chaise alors que pendant des millions d’années nous avons été productifs dans le mouvement. Notre avantage le plus fort vis à vis de l’IA c’est penser en mouvement dans des environnements incertains.

(1) Voir notamment : ZOUINAR, Moustafa. Évolutions de l’Intelligence Artificielle: quels enjeux pour l’activité humaine et la relation Humain‑Machine au travail ?. Activités, 2020, no 17-1

Partager