« Les interstices entre le monde et les représentations, entre les sujets et les normes, nous permettent de mettre les représentations et les normes à distance, de les discuter de manière collective », entretien avec Antoinette Rouvroy

Philosophe juridique, Antoinette Rouvroy est chercheuse au Fonds de la recherche scientifique (FRS-FNRS) à Namur, en Belgique, rattachée au Centre de recherche en information, droit et société (Crids). Elle est notamment à l’origine, avec Thomas Berns, de la notion de « gouvernementalité algorithmique ». Lors de cet échange nous avons discuté de ce qu’induit l’essor de l’intelligence artificielle en matière d’action publique, de citoyenneté ou encore de notre relation au territoire. 

Qu’est-ce que la gouvernementalité algorithmique ?

Ces recherches autour de la gouvernementalité algorithmique tentent, à la suite des travaux de Michel Foucault, de faire le diagnostic d’une série de transformations des modes de véridiction, des techniques de pouvoir et des pratiques de soi dans une époque marquée par le « tournant computationnel », tout en prenant au sérieux ce qu’expliquait Gilles Deleuze dans son fameux « Postscriptum sur les sociétés de contrôle », paru en 1990: « Il est facile de faire correspondre à chaque société des types de machines, non pas que les machines soient déterminantes, mais parce qu'elles expriment les formes sociales capables de leur donner naissance et de s'en servir. Les vieilles sociétés de souveraineté maniaient des machines simples, leviers, poulies, horloges ; mais les sociétés disciplinaires récentes avaient pour équipement des machines énergétiques, avec le danger passif de l'entropie, et le danger actif du sabotage ; les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs dont le danger passif est le brouillage, et l'actif, le piratage et l'introduction de virus. Ce n'est pas une évolution technologique sans être plus profondément une mutation du capitalisme. »

La métaphore du tournant computationnel désigne une transformation radicale du tournant linguistique : l’unité de perception, d’interprétation, de compréhension du monde ne serait plus la phrase, le mot, le signe interprétables, mais le « signal » numérique – disponible en quantités massives, proliférant à grande vitesse, du « monde connecté », qui n’est, pour un algorithme, rien d’autre qu’un espace purement métrique, déterritorialisé, déhistoricisé, de coordonnées dont le point zéro n’est plus l’être humain. Le comportementalisme numérique est le nom que de la logique purement inductive, statistique, consistant à faire des corrélations statistiques entre des données numériques rendues amnésiques de leur contexte de production (de leurs causes) et indifférentes aussi bien à la singularité des vies individuelles qu’à ce qui les rattache à un contexte collectif socialement éprouvé, les coordonnées privilégiées de modélisation des comportements et d’ordonnancement du social, à travers notamment les nouvelles techniques de hiérarchisation, de notation, d’appariement, de profilage et de ciblage rendues possibles par la disponibilités de données numériques en quantités massives et d’algorithmes capables de détecter en leur sein des corrélations « prédictives » (patterns). Michel Foucault avait eu, semble-t-il, la prémonition dès 1979, de cette sorte de gouvernementalité cybernétique lorsqu’ il prédisait, vers la fin de celles de ses leçons au Collège de France qu’il avait consacrées au néolibéralisme (La naissance de la biopolitique), l’advenue de modes d’ordonnancement du monde, de gouvernement des conduites, de subjectivation qui ne seraient plus articulés à la loi, ni à la discipline, ni à la biopolitique. Dans sa leçon du 21 mars 1979, il annonçait ceci : « à l’horizon (…) ce qui apparaît, ce n’est pas du tout l’idéal ou le projet d’une société exhaustivement disciplinaire dans laquelle le réseau légal, enserrant les individus, serait relayé et prolongé de l’intérieur par des mécanismes, disons, normatifs. Ce n’est pas non plus une société dans laquelle le mécanisme de la normalisation générale et de l’exclusion du non normalisable serait requis. On a au contraire, à l’horizon de cela, l’image ou l’idée ou le thème–programme d’une société dans laquelle il y aurait optimisation des systèmes de différences, dans laquelle le champ serait laissé libre aux processus oscillatoires, dans laquelle il y aurait une tolérance accordée aux individus et aux pratiques minoritaires, dans laquelle il y aurait une action non pas sur les joueurs du jeu, mais sur les règles du jeu, et enfin dans laquelle il y aurait une intervention qui ne serait pas du type de l’assujettissement interne des individus, mais une intervention de type environnemental. »

La gouvernementalité algorithmique apparaît symptomatique de l’abandon de de toute métaphysique déterministe en vertu de laquelle les phénomènes sociaux seraient gouvernés par des régularités prévisibles. Les ambitions épistémiques du machine learning bien que fondées sur une logique inductive, statistique, n’ont strictement plus rien à voir avec les ambitions d’un Adolphe Quételet d’étudier la « physique sociale ».  au contraire, la gouvernementalité algorithmique – et les structures computationnelles adaptatives (réseaux de neurones) sur lesquelles elle repose – émule et généralise dans le champ social les tendances du capitalisme contemporain financiarisé à absolutiser la contingence. La gouvernementalité algorithmique place la spéculation, la mise à profit de l’incertitude, et le crédit (fiabilité sans vérité), au cœur de la rationalité gouvernementale : les hiérarchies (ranking), notations (scoring), appariements, profilages et autres ciblages algorithmiques n’attestent d’aucune actualité empiriquement vérifiable, mais ouvrent de nouveaux espaces spéculatifs permettant d’agir par avance sur ce qui n’existe que sur le mode de la potentialité. Ce qui dès lors importe, c’est beaucoup moins la prédiction probabiliste, la domestication actuarielle, ou la neutralisation du résidu incompressible d’incertitude radicale que l’agilité et la résilience des « gouvernants », leur capacité à réagir « en temps réel » aux émergences (un terme à comprendre dans sa signification anglophone, à la fois comme urgence et émergence). Vantée par dans le branding de l' innovation, de la smartness, de l' agilité, de la disruption.... la gouvernementalité algorithmique incarne l’ambition de rendre la normativité elle-même absolument granulaire et plastique, modulée par les flux de données plutôt que décidée suivant des processus délibératifs (qui paraissent trop lents, trop longs, et trop inefficaces pour faire face à l’urgence et à la complexité des enjeux, et trop peu en phase avec les nouvelles possibilités promises par la quatrième révolution industrielle actant la convergence des nano-, bio-, info-, neuro-technologies). La gouvernementalité algorithmique, c’est la promesse d’un métabolisme de la contingence qui court-circuite la participation citoyenne à la détermination d'un « sens » commun, en dispensant de toute conception collective des stratégies de gestion de l'incertitude.

Quels sont les impacts de la gouvernementalité algorithmique sur l’action publique ?

Parce que, comme l’explique Niklas Luhmann dans sa théorie des systèmes, l’infériorité en complexité de chaque système (en ce compris les systèmes langagiers, politiques, sociaux,…), doit être contrebalancée par des stratégies de sélection  puisqu’il est objectivement impossible pour un système d’établir une correspondance point par point en temps réel entre ses éléments internes et les changements intervenant à chaque instant dans son environnement, c’est à travers la production et la contestation d’« équations réductionnistes » qu’à défaut de l’épuiser, nous tentons, toujours de manière provisoire, de domestiquer la complexité, dans des formes mémorisables et intelligibles, subjectivement reconnaissables et politiquement contestables.

Ainsi, telle qu’elle s’est déployée dans les pays occidentaux à partir des 18 et 19ème siècles, la statistique avait instauré un système d’ordonnancement du monde qui passait par des mécanismes de mise en équivalences (par conventions) permettant de générer des distributions autour de valeurs moyennes (normales) comme une courbe en cloche. Cette « distribution » autour de valeurs moyennes a notamment permis l'émergence des assurances (protection sociale, assurance vie,...): la socialisation du risque par « classes actuarielles » (niveaux de « risques » identifiés par des régularités prévisibles) évaluées grosso modo toujours avec, en référence, cette idée d'une valeur moyenne, médiane, normale (montant des primes évalué en fonction de l'écart entre le sur-risque ou le sous-risque relativement au risque moyen calculé sur la population générale...). La connaissance par l’Etat des déterminants statistiques des « risques » a aussi permis l’émergence d’une régulation biopolitique, selon Foucault, comme mode d'exercice du pouvoir ayant pour cible la population en tant qu'elle est affectée par des phénomènes d'ensemble rendus perceptibles par la statistique, de type natalité, mortalité, endémies, productivité,... à travers divers mécanismes disciplinaires visant à maximiser la vie productive.

La gouvernementalité algorithmique, et les algorithmes de machine learning qui en sont la « strate » technique, font miroiter la perspective d’une gouvernance qui n’en passerait plus par aucune « équation réductionniste », aucune « moyenne », aucune « catégorie », aucun « phénomène d’ensemble ». Les algorithmes de machine learning (la strate technique de la gouvernementalité algorithmique et de ce que l’on appelle le plus souvent abusivement « intelligence artificielle »), n’en passe plus par les formes collectives, les catégories reconnaissables, lisibles qui puissent s’offrir comme cible à la critique épistémologique ou politique.

A travers l’apprentissage continu, les algorithmes de machine learning ne viseraient pas à objectiver ou à invalider une théorie hypothèse préexistante (c'est-à-dire une réduction « représentative » mais toujours « inadéquate » de la complexité) ni à domestiquer les comportements au regard d’une norme repérable subjectivement ou d’une moyenne, mais à présenter une image dynamique qui ne nécessite pas la médiation réductrice d'une norme ou d'un repère statistique, et encore moins d'un évaluateur humain. La « catégorie » stable est remplacée par le « clustering » dynamique, lui-même fondé sur la détection « en temps réel » et en haute résolution de corrélations toujours provisoires et « apprenantes ». Les « normes » perdent alors leur caractère « stratégique » d’orientation, de normalisation des comportements à l’aune d’idéaux « communs » ou de « cohérence » ou de « soutenabilité sociale ». Les « normes » elles-mêmes sont domestiquées par les « fonctions objectifs » (ou rationalités sectorielles) essentiellement opportunistes-optimisatrices ou, pour le dire à travers la grammaire de Hume : par les partialités de leurs « donneurs d’ordre », c’est-à-dire ceux qui utilisent les algorithmes pour rendre le possible disponible à leur action. Quels que soient les comportements, la gouvernementalité algorithmique rend les « donneurs d’ordre » hyper agiles dans leur capacité à capitaliser le « possible » dans une société post-actuarielle qui s’est débarrassée de la « moyenne » et des « catégories statistiques ».

Si la gouvernementalité algorithmique a l’air de court-circuiter les médiations institutionnelles, c’est précisément parce que les algorithmes de machine learning et la disponibilité de données numériques en quantités massives suscitent le fantasme d’un système qui aurait toujours déjà métabolisé son « dehors », par un accès « exhaustif », en haute résolution, en temps réel, au monde à l’échelle du signal pré-sémiotique, et de la possibilité concrète d’agir sur les émergences. Court-circuitant les antagonismes, repliant la politique sur l’optimisation, la gouvernementalité algorithmique est le rêve/cauchemar auto-immunitaire d’une clôture/récursivité numérique dans laquelle la prolifération et la reproduction infinie des « petites différences » équivaut à la production exponentielle de signaux numériques qui ont de moins en moins de « chances » d’ « informer » le système, c’est-à-dire de le faire bifurquer.

Ainsi, les notations ou les scores « bons » ou « mauvais », les jugements de « normalité », cessent d'être attribués en référence à des métriques ou références antécédentes, stables, explicites, pour être plutôt référées à des métriques absolument imprévisibles et plastiques. La gouvernementalité algorithmique embrasse la contingence et l'incertitude, qui, plutôt que de la limiter, lui permettent précisément de surmonter les résistances politiques et idéologiques. Prenant l'apparence d'un tournant ontologique de la gouvernementalité, ou d'un phénomène an-archique, émancipé des formes hétéronormatives, la gouvernementalité algorithmique est cependant avant tout un ensemble de tactiques d'optimisation et de préemption qui permettent à l'extractivisme du capital de trouver, au-delà de l'épuisement du monde physique et organique, de nouveaux champs d'expansion, ou, autrement dit, de convertir, comme par magie ou par miracle, les perspectives d'effondrement et d'extinction en perspectives de croissance et de consommation illimitées. Et c’est bien précisément parce qu’elle prétend immuniser cet imaginaire d’illimitation, de démesure  dans l’extractivisme contre toute limite et toute régulation en ce compris les régulations propres à l’organicité vivante, ou, pour le dire autrement, propres au monde physique et à la vie, que la perspective d’un « tournant algorithmique » dans la gouvernance paraît irrésistiblement séduisant.  Alors que l’on dit que gouverner c’est prévoir et que l’on n’a jamais eu autant de moyen d’anticiper qu’aujourd’hui, on se rend compte que la prévention disparaît au profit d’une sorte de résilience just in time.

« Ce n’est plus le réel qui s’adapte aux normes décidées collectivement, mais la norme qui doit s’adapter à des signaux numériques »

La gouvernementalité algorithmique nous permet-elle de nous libérer de l’incertitude ? Comment interagit-elle avec le territoire ?

Les projets de « villes intelligentes » ou de « resilient urbanism » : la ville rendue « résiliente » grâce à la présence ubiquitaire de capteurs en tous genres, qui permettent de rendre compte des émergences possibles, transforment l’espace urbain en espace spéculatif caractérisé par sa propension aux crises, aux imprévus, plutôt que par une la permanence et la stabilité.  Dans ces territoires intelligents, les individus – utilisateurs-consommateurs plutôt que citoyens - sont en quelque sorte résorbés dans l’infrastructure numérique, en tant qu’émetteurs et vecteurs de données.

Si les cartes numériques dynamiques visent à identifier les risques et opportunités en temps réel,  elles court-circuitent aussi  les occasions de délibération et de prise en charge collective de l’incertitude. La perspective « immunitaire », « spéculative », « préemptive », remplace la perspective politique. Ainsi, il me semble que le plus grand danger de l’engouement pour l’automatisation du service public, et de manière plus générale de l'intelligence artificielle, est politique et collectif : il réside dans la perte d’occasion, d’espace et de temps dans lesquels les citoyens peuvent collectivement faire face à l’incertitude. Et pourtant les machines ne vont pas réussir à nous immuniser contre la mort, contre l’usure, contre de le réchauffement climatique, contre l’effondrement de la biodiversité, et contre l’effondrement psychique de la personne.

Par ailleurs, à mesure que les systèmes institutionnels normatifs et leurs modèles stables, récurrents et reconnaissables cèdent la place à des systèmes d'ordonnancement apparemment endogènes et auto-apprenants, en l'absence d'un cadre de référence commun, les stratégies de pouvoir mutent dans deux directions (au moins). La nouvelle « bureaucratie vectorielle » (MacKenzie Wark a décrit la « classe vectorielle » comme une classe qui s'appuie sur les données et les algorithmes, plutôt que sur la terre ou l'industrie comme source de richesse) colonise le no man's land des espaces spéculatifs virtuels des potentialités, qu'elle transforme en plus-value, tandis que, du côté de ceux qu'on appelle « utilisateurs et clients » - dont la possibilité d'agir en tant que citoyens est radicalement contournée - leurs stratégies de pouvoir consistent à maximiser leur capacité à se faire connaître, à attirer des « followers », et donc à s'imposer « numériquement », comme « nœuds » dans le maillage du réseau. Le régime algorithmique qui, apparemment, émancipe la vie des formes dans lesquelles les normes, les institutions…n’avaient ou n’ont de cesse de l’enfermer, produit chez les individus en régime d’anomie une soif insatiable de crédit. « Etre bien noté » dans un système de métriques hyper plastiques, évolutives en temps réel en fonction du comportement de tous les autres, et dans lequel la bonne ou mauvaise quotte dépend moins de la biographie singulière de chacun que de ses promiscuités numériques calculables (partager certaines « variables » en elles-mêmes insignifiantes avec des personnes mal « notées » suffit à faire chuter son crédit), voilà l’injonction dominante. Le self-branding individuel manifeste la « personnologie sans personne » que fabrique le capitalisme numérique.

Je suis aussi frappée, dès lors, de voir à quel point la gouvernance des outils numériques repose encore  sur le fétiche  du consentement individuel, libre et éclairé. C’est très insuffisant. Cette notion occulte à mon avis la dimension sémiotique, collective, structurelle, politique des enjeux.

« Le danger réside dans la perte d’occasion d’espace et de temps dans lesquels les citoyens peuvent collectivement faire face à l’incertitude »

Aujourd’hui, les personnes se préoccupent plus de la gouvernance des algorithmes que de la gouvernementalité algorithmique. On ne cesse en effet de s’interroger sur les meilleures manières de garantir la légitimité des dispositifs algorithmiques (les rendre justes, expliquables, transparents, loyaux…) qui interviennent dans les politiques publiques et ailleurs,  sans s’interroger beaucoup sur ce qu’ils produisent ou produiront lorsqu’ils sont effectivement engagés dans des agencements humains-machines, c’est-à-dire dans des pratiques. Je pense qu’il est important de prêter attention à la matérialité des situations. En aucun cas un algorithme, aussi parfait soit-il jugé in abstracto, ne peut dispenser d’une justification des décisions prises in concreto par les êtres humains qui en assument la responsabilité.

Dans le domaine politique, comme dans le domaine de la justice, les fantasmes d’objectivité et d’efficacité, ou d’adéquation au « réel » à l’échelle du phéromone numérique, c’est-à-dire d’indistinction entre les représentations et l’état de fait, ont pour effet d’abolir ou de congédier l’idée même d’un avenir qui ne soit pas seulement le résultat de l’optimisation d’un état de fait (aussi insoutenable soit-il) mais bien plutôt un dépassement de cet état de fait, c’est-à-dire un progrès, une approximation d’un idéal de justice, de soutenabilité qui ne se déduit pas purement et simplement des données du passé mais doit impliquer des formes d’invention collective. Il ne faut pas que la norme s’adapte à chacun d’entre nous comme une seconde peau car, comme le disait Castoriadis, c’est la pire des camisoles. Pourquoi ? Parce que les écarts – entre soi et la « norme » -  nous permettent de mettre la norme à distance, de la discuter de manière collective. Chaque fois qu’il y a lieu de décider en commun, nous avons besoin d’imperfection pour avoir un espace-temps délibératif et construire un projet. La modélisation algorithmique du social n’est pas plus « rationnelle » ni « objective » que les modélisations humaines du social, mais elle donne l’illusion d’une appréhension en haute résolution/dissolution et en temps réel d’un phénomène – le social – qui, cependant, n’existe pas hors des formes politiques, sociales, culturelles,…que nous lui donnons, ou encore des intrications sémiotiques (linguistiques, prosodiques, rituelles, gestuelles,…) qui lui donnent consistance, ces formes-là même, et ces intrications sémiotiques même dont les algorithmes prétendent se/nous dispenser…

« Les interstices entre le monde et les représentations, entre les sujets et les normes, nous permettent de mettre les représentations et les normes à distance, de les discuter de manière collective. Chaque fois qu’il y a lieu de décider en commun, nous avons besoin d’un espace-temps délibératif et construire un projet »

Il y aurait beaucoup à craindre dès lors que disparaitraient la possibilité et les occasions de de mise en mots de la justification des décisions. Dans son article Algorithmic administrative state, Ryan Calo revient sur la perte de légitimité des agences gouvernementales, dont la légitimité repose notamment sur les compétences substantielles des personnes qui y travaillent. Il y explique qu’à partir du moment où l’on automatise les prises de décision, l'institution elle- même perd de sa légitimité. Veillons à ne pas prolétariser nos institutions.

Liens utiles:

  • Ryan Calo et Danielle Keats Citron, The automated administrative State : A crisis of legitimacy, 2021.
  • Gilles Deleuze, Post-scriptum sur les sociétés de contrôle, L’autre journal, n.1, mai1990.
  • Michel Foucault, Naissance de la biopolitique. Cours au Collège de France. 1978-1979, Seuil/Gallimard, 2004.
  • Michel Foucault, La gouvernementalité, Dits et écrits, Volume 3, 1994.
  • Martijn Konings, Capital and Time. For a New critique of Neoliberal Reason, Stanford University Press, 2018.
  • Niklas Luhmann, Die Gesellschaft der Gesellschaft. Band 1, Suhrkamp Verlag frankfurt am main 1997.
  • Adolphe Quetelet, Sur l’homme et le développement de ses facultés ou Essai de physique sociale. Paris, Bachelier, 1835
  • Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’émancipation par la relation ? », dans Réseaux, 2013/1, n° 177, éd. La Découverte, p. 163-196
  • Antoinette Rouvroy, « Governing Without Norms: Algorithmic Governmentality », Psychoanalytical Notebooks Issue 32, 2018, p.99.
  • Antoinette Rouvroy, “The end(s) of critique. Data-behaviourism vs. due process”, in Mireille Hildebrandt, Katja de Vries (eds.),  Privacy, Due Process and the Computational Turn. The Philosophy of Law Meets the Philosophy of Technology, Routledge, 2013.
  • Jed Rubenfeld, Freedom and Time. A Theory of Constitutional Self Government, Yale University Press, 2001.

 

 

Catégorie