Comment penser ChatGPT ?

Anne Alombert, maître de conférences en philosophie à l'Université Paris 8, s’interroge sur la philosophie d'outils comme ChatGPT et sur l’hégémonie du calcul et l’automatisation des facultés d’expression promues par la Silicon Valley.

Dans un livre intitulé Du mode d’existence des objets techniques et rédigé en 1958, le philosophe Gilbert Simondon avertissait contre deux conceptions problématiques de la technique. La première conception consiste à envisager les objets techniques comme de « purs assemblages de matière, dépourvu de vraie signification, et présentant seulement une utilité », c’est-à-dire, comme des moyens neutres auxquels les hommes seraient libres d’assigner des finalités. La seconde conception, opposée à la première mais tout aussi illusoire, consiste au contraire à supposer que les objets techniques « sont animés d’intentions », à leur attribuer « une intériorité », « une âme », des « sentiments » et même une « volonté ». Pour Simondon, ces deux conceptions, aussi fausses l’une que l’autre, sont en fait les deux symptômes d’une même incompréhension : au lieu de s’interroger sur les fonctionnements internes des objets techniques et d’envisager leurs effets psychiques et politiques, les hommes les considèrent comme de simples outils à leur service ou leur attribuent toutes sortes de propriétés anthropomorphiques.

Si les environnements techniques n’ont cessé d’évoluer depuis lors, cette double tendance à réduire les objets techniques au statut de moyens insignifiants ou à les fantasmer sous forme de robots conscients, semble toujours d’actualité. C’est notamment ce qui s’est révélé dans les discours accompagnant l’apparition fulgurante de ChatGPT, un chatbot fondé sur le modèle de langage GPT-3, lancé par OpenAI en novembre dernier. Pendant que certains s’interrogeaient sur les usages qui pourraient être fait de ce nouvel outil, d’autres spéculaient sur les prouesses d’une intelligence artificielle censée devenir consciente d’elle-même. L’alternative semblait alors toute tracée : ou bien considérer ChatGPT sur le modèle de l’outil et s’interroger sur ses utilisations bénéfiques ou maléfiques, ou bien considérer ChatGPT sur le modèle du robot et lui attribuer des propriétés fantasmatiques. Or, si une technologie comme ChatGPT a bien un mérite, c’est sans doute celui de nous permettre de sortir de cette double mécompréhension de la technique (sur le modèle de l’outil ou du robot).

Lorsque les individus « utilisent » ChatGPT, c’est en fait la technologie elle-même qui est en train des les utiliser.

Une technologie comme ChatGPT ne peut être considérée seulement comme un outil qu’il s’agirait de bien ou de mal utiliser : à l’inverse, lorsque les individus « utilisent » ChatGPT, c’est en fait la technologie elle-même qui est en train des les utiliser : « en testant ChatGPT, vous contribuez à l’améliorer ». Impossible, ici, de déterminer si c’est l’individu qui se sert de ChatGPT ou si c’est l’entreprise OpenAI qui exploite le travail gratuit de ses « usagers ». Le fait que les demandes et les réactions de chacun permettent aux algorithmes de se perfectionner n’est pas un problème en soi,   car cela pourrait permettre une transformation contributive du dispositif. Mais dans ce cas précis, lesdits usagers ne sont pas en mesure de déterminer les orientations que prend la technologie car  ils n’ont pas accès ni aux données ni aux algorithmes qui rendent possible la génération des textes. Ils semblent alors réduit à une position de consommateurs passifs, condamnés à donner des ordres au système tout en s’asservissant du même coup à lui. 

De plus, les modèles de langage du type de GPT ne sont pas neutres : « les préjugés et biais des concepteurs se retrouvent inscrits dans les architectures, les programmes et les configurations techniques ». Si certains se réjouissent des réponses « politiquement correctes » générées par ChatGPT, dont les algorithmes ont été dressés (par des travailleurs kenyans sous-payés) pour éviter de véhiculer des contenus violents, racistes ou sexistes, d’autres s’insurgent déjà contre le conformisme des réponses de la machine et travaillent à concevoir des dispositifs aussi puissants fondés sur des présupposés différents, à l’image d’Elon Musk (ancien co-président d’OpenAI ayant quitté l’entreprise), qui ambitionne de créer un « rival de ChatGPT ». Sans même parler des idéologies libertarienne et long-termiste qui animent les concepteurs de ces innovations disruptives, force est de constater que les modèles de langage reflètent bien plus les représentations du monde de ceux qui les produisent que les intentions de ceux qui les utilisent, la plupart du temps en ignorant tout de leur fonctionnement. 

Il ne s’agit pas de nier les nombreux usages créatifs dont ces dispositifs pourraient faire l’objet, mais simplement de souligner que la créativité se verrait largement intensifiée par l’ouverture de l’objet technique, la transparence de ses normes de fonctionnement, et la diffusion massive d’une culture technique dans les sociétés. Un violoniste est d’autant plus « créatif » qu’il a appris à jouer, qu’il comprend et connaît son instrument, qu’il est capable d’en prendre soin pour en faire sortir les meilleurs sons. Difficile, néanmoins, de prendre soin de ChatGPT, qui constitue un système fermé diffusé dans les sociétés indépendamment de toute concertation ou de toute délibération, et avant que les savoirs permettant de le comprendre n’aient eu le temps de se développer. Au lieu de discussions collectives et argumentées sur les enjeux politiques de ce type de technologies, les spéculations les plus fantaisistes tendent alors à émerger sur les « intelligences artificielles », les « agents conversationnels » et les machines conscientes d’elles-mêmes.

S’il y a bien une machine à laquelle on ne peut attribuer ni l’intelligence, ni la conversation, ni la conscience, c’est ChatGPT.

Or, s’il y a bien une machine à laquelle on ne peut attribuer ni l’intelligence, ni la conversation, ni la conscience, c’est ChatGPT : les modèles de langage qui permettent à des dispositifs comme ChatGPT de fonctionner sont fondés sur des calculs statistiques effectués sur des quantités massives de données. À partir d’une entrée déterminée, les algorithmes qui ont été préalablement paramétrés calculent la suite de mot la plus probable en fonction de leurs bases de données, sans égard pour la signification du texte généré, ni pour sa pertinence ni pour sa vérité. Une conversation humaine ne suppose évidemment pas de telles capacités de calcul automatisé : les individus humains ne s’adressent pas les uns aux autres en calculant les formules les plus probables, ils interprètent les questions posées en fonction des contextes et des situations, et répondent de manière toujours singulière en fonction de leurs expériences et de leurs attentes (à part dans les cas où ils se contentent de bavarder en accumulant des clichés). De plus, tout dialogue suppose toujours une promesse implicite de sincérité : il n’y a de mensonge possible que parce qu’en m’adressant à l’autre, je lui promets implicitement de lui dire quelque chose de vrai et de pertinent. C’est cette promesse silencieuse mais inhérente à toute adresse qui permet aux individus de converser, de s’entendre et d’échanger - d’être « en bonne intelligence » (quand bien même ce serait pour débattre et confronter leurs idées). 

L’intelligence, en ce sens, désigne moins une propriété attribuable à un individu humain ou à une machine numérique, que la circulation des significations entre différents agents, par l’intermédiaire des corps (les gestes, la voix, la parole) et des supports (l’écriture, les images, les vidéos, les écrans). De même, l’âme, la conscience ou l’esprit n’est pas une propriété qui appartiendrait à l’humain ou à la machine : l’esprit ne constitue pas une substance immatérielle émanant de certains substrats physiques (le cerveau humain ou les circuits électroniques). Cette conception dualiste, au coeur du cognitivisme, demeure très problématique : l’esprit n’est ni une substance matérielle ni une substance immatérielle, car il n’est pas une substance individuelle, mais un processus relationnel. L’esprit est moins une chose qu’une activité : l’esprit n’est pas localisé dans les cerveaux ou dans les serveurs, il circule entre les corps, qui se relient par l’intermédiaire de supports techniques, qui sont aussi des supports symboliques.

Quand ces supports techno-symboliques deviennent des modèles de langages artificiels, générant automatiquement des contenus textuels ou audiovisuels sur la base de calculs probabilistes effectués sur des quantités massives de données, certaines questions tendent à se poser. Les textes ainsi produits peuvent-ils faire l’objet du même type de confiance ou de crédit que les textes évalués et certifiés par des communautés de pairs, comme ceux de l'encyclopédie collaborative Wikipédia (dont les oeuvres sont exploités par OpenAI qui ne participe nullement à leur renouvellement) ? La génération automatique de contenus sur la base de calculs probabilistes ne risque-t-elle pas d’accentuer les biais et les préjugés dominants, tout en éliminant les contenus originaux, singuliers et nouveaux ? Quand les productions textuelles ou audiovisuelles générées par des automates computationnels seront devenues majoritaires sur le web, sera-t-il encore possible de se fier aux contenus reçus ? Quand les modèles de langages auront été intégrés aux moteurs de recherches, sera-t-il encore possible d’accéder aux sources des contenus diffusés ? A quels types de textes auront nous à faire quand les chatbots se citeront les uns les autres de manière auto-référentielle, répétant en boucle leurs propres bêtises artificielles ? Sans compter tous les risques en terme de désinformation et de cybercriminalitéLa diffusion massive de telles technologies pourrait conduire à une situation de défiance généralisée, alors même que la confiance constitue la base du vivre ensemble et du faire société.

Même si les technologies de génération automatique de textes, de sons ou d’images peuvent faire l’objet d’usages créatifs, elles soulèvent donc aussi des questions politiques : si l’invention du web visait le partage des savoirs et la confrontation de points de vues diversifiés, ce sont l’hégémonie du calcul et l’automatisation des facultés d’expression qui semblent aujourd’hui s’affirmer à travers les innovations issues de la Silicon Valley. Au-delà des utilisations personnelles ou du mythe de l’intelligence artificielle, les mutations technologiques actuelles engagent à dépasser les conceptions traditionnelles ou transhumanistes de la technique afin de s’interroger sur l’avenir de nos civilisations numériques.

Partager