IA génératives : mieux comprendre nos usages. Échange avec Arvind Narayanan

Arvind Narayanan, professeur d'informatique à l'Université de Princeton revient sur les enjeux des  grands modèles de langage et l'intelligence artificielle, tout en plaidant en faveur d'une régulation plus approfondie et d'une meilleure compréhension de notre utilisation des IA génératives.

Lire la version en anglais

Quels grands enjeux pose selon vous l’émergence des grands modèles de langage ? 

Je distingue quatre catégories de risques qui me semblent être préoccupantes. La première d’entre elles est liée à l’impact économique des grands modèles de langage. Seul un nombre restreint d’entreprises va bénéficier des profits générés par les modèles d’IA et les utilisateurs ayant permis de générer les données nécessaires à leur développement ne seront pas rétribués.

Ma deuxième préoccupation concerne les résultats produits par les IA génératives, avec d’une part, des acteurs qui peuvent utiliser ces modèles à des fins malveillantes et d’autre part, des personnes mal informées des limites de ces modèles qui peuvent les utiliser accidentellement de façon inadéquate. On peut notamment penser à l’utilisation des grands modèles de langage lors des diagnostics médicaux. Si l’interface utilisateur semble adaptée et les réponses sont souvent satisfaisantes, ces modèles ne sont néanmoins pas imperméables aux erreurs et ont de vraies lacunes en matière de transparence. Quelques publications mettent par ailleurs en évidence l’impact des IA génératives sur l’accès à la connaissance ou encore sur la construction de nos opinions. Je pense à une publication de Stanford intitulée Whose Opinions Do Language Models Reflect? et à une autre intitulée Co-Writing with Opinionated Language Models Affects Users’ Views qui montrent que nos interactions avec des modèles de langage peuvent en réalité changer nos opinions sur des sujets controversés. Quand ces modèles sont capables de toucher des milliards de personnes, cela me semble être un enjeu majeur auquel nous devons réfléchir. À titre d’exemples, en Chine, les modèles de langue doivent se conformer à la pensée du régime chinois, et le modèle Falcon 40B développé par l’émirat d’Abu Dhabi génère des réponses favorables au gouvernement en place, parfois au détriment de la vérité

Ma troisième inquiétude a trait au pouvoir de ces entreprises. Aux États-Unis, OpenAI déploie des campagnes de lobbying et a par exemple demandé au Sénat américain d’instaurer des licences pour créer de nouveaux modèles d’IA génératives. En plus d’ancrer le pouvoir de ces grandes entreprises américaines, cette mesure pourrait entraver la capacité d’autres acteurs à les concurrencer, qu’il s’agisse d’acteurs open source ou internationaux.

La cybersécurité, qui constitue le quatrième type de risques, peut être abordée sous deux angles : d’une part le fait que l’IA soit elle-même piratable et d’autre part le fait qu’elle puisse être utilisée pour pirater des logiciels ou des infrastructures sensibles. Le piratage de l’IA m’inquiète davantage et tout particulièrement les “injections de prompts” (ndlr : une méthode consistant à manipuler les modèles de langage en leur fournissant des instructions malveillantes) contre laquelle les entreprises sont généralement mal protégées.

De nombreux angles morts existent par ailleurs dans le débat public. Le problème de la génération de deepfakes pornographiques non consentis souffre par exemple d’un manque d’attention médiatique et académique alors qu’il affecte pourtant de nombreuses femmes. Cependant, l’IA peut aussi aider à faire face à ces enjeux. Depuis 10 ou 20 ans, nous savons que dans la plupart des cas les outils logiciels sont plus efficaces que les humains pour identifier des vulnérabilités. Dans certains cas, il semble donc possible de faire “usage de l’IA face à l’IA” en utilisant des logiciels pour détecter les failles des modèles d’IA. Sur certains réseaux sociaux, elle peut servir à remplir des fonctions de modération automatique pour pallier le manque de personnel. En ce qui concerne la fiabilité des grands modèles de langue, nous pouvons considérer que les modèles de fondation (tels que ChatGPT) sont conçus pour rechercher et résumer des informations lorsque cela est possible, plutôt que de simplement générer du texte, une technique appelée Retrieval Augmented Generation.

Quels  impacts sur les métiers des industries créatives et culturelles observez-vous ? 

Je préfère éviter l’écueil des prédictions sur les évolutions du travail liées à l’IA. Les antécédents en termes de prédictions des impacts de l’automatisation sur le travail et les emplois n’ont pas un bon bilan ! Je préfère donc m’intéresser à ce qui se passe actuellement. 

Prenons l’exemple des industries créatives et culturelles. D'une part, les artistes ont des préoccupations existentielles quant à l'utilisation de l'IA dans leur domaine. D'autre part, d'autres personnes affirment que l'art fait par l'IA n'est pas véritablement de l'art. Pourquoi faudrait-il craindre alors l’accaparement du marché de l’art par l’IA ? Empiriquement, je suis incapable de répondre à cette question. À l’inverse, certains secteurs des industries créatives et culturelles pâtissent déjà de l’automatisation. Par exemple, beaucoup de données montrent que la demande d’utilisation de photothèques et banques d’images a baissé depuis le déploiement des IA génératives d’images auprès du grand public.

Il nous faudrait par ailleurs pouvoir mesurer l’impact réel de l’appropriation du travail créatif et culturel par les IA sur le travail de ces auteurs. On peut considérer qu’il n’y a peut-être pas lieu d’appliquer une logique du “tout ou rien”.  
L’IA a par ailleurs un impact plus important sur les créateurs de contenus visuels que sur les créateurs d’objets textuels : une solution juste pourrait par exemple consister à mettre en place des régimes de droits d’auteurs distincts. Alors qu’il existe des risques d’appropriation du travail des auteurs par des IA sans leur accord, la demande pour les contenus générés par des IA ne faiblit pas. Alors même que les utilisateurs sont conscients que les contenus qu’ils consomment ont été créés par des IA. La mise en place de filigranes numériques sur les textes générés par des IA (ndlr : le “watermarking” est une signature invisible permettant d’identifier le contenu créé par une IA) constitue une solution possible mais ne permet pas de répondre à ce problème. Un bon exemple en est le succès de la chanson Heart on my sleeve, un duo avec les voix de Drake et The Weeknd, créé de toutes pièces par un utilisateur utilisant l'IA.

Quels atouts reconnaissez-vous à la régulation à venir en matière d’IA, notamment au règlement européen sur l’IA, et quelles pistes d’amélioration envisageriez-vous ? 

Une régulation est le produit de valeurs sociales et politiques et il est toujours difficile de se prononcer sur leur pertinence. Historiquement, l’approche sectorielle américaine s’oppose à l’approche européenne, plus transversale. Je pense que ces deux visions sont bénéfiques de manière générale, notamment en ce qu’elles nous permettront a posteriori d’avoir des informations sur leur efficacité ou non. Quelle que soit l’approche de la régulation, il ne me semble toutefois pas souhaitable d’appliquer un principe de non-prolifération des modèles car cela risquerait de renforcer le monopole des grands acteurs de l’intelligence artificielle. Spéculer sur les évolutions à venir de l’IA pourrait être plus problématique qu’autre chose. 

J’apprécie particulièrement le règlement européen sur l’IA et notamment l’importance accordée à la transparence. L’accent porté sur les audits est une bonne chose, mais si nous souhaitons mieux comprendre les risques que ces modèles pourraient poser, les audits ne constituent que la moitié de la réponse. Il faut aussi nous intéresser à la manière dont nous utilisons ces modèles, à la récurrence ou non de faux résultats en fonction de nos demandes, à leur nombre, à la circulation des contenus haineux, etc. À titre d’exemple, il existe des études sur les biais de genre dans les modèles de génération d’images et de textes. Pour la plupart, ces études se fondent sur des exemples de prompts inventés alors que si un utilisateur pose une question à un modèle d’une autre manière, le modèle peut produire un résultat complètement biaisé ou toxique. À l’inverse d’une démarche d’audit qui ne renseigne que sur le fonctionnement du modèle, favoriser plus de transparence sur les usages que font les utilisateurs de ces modèles me semble primordial pour envisager les problèmes auxquels nous pourrions être confrontés plus tard. C’est cette transparence sur l’utilisation réelle des modèles qui permet d’établir si en pratique, l’intégration de biais racistes, sexistes et de genre dans l’IA à usage général constitue un réel problème. Elle peut ainsi informer les régulateurs des besoins réels de régulation, et récuser les spéculations sur les risques.

De plus, il existe de nombreux acteurs dans la chaîne logistique de l’IA et il est nécessaire de regarder la chaîne logistique de l'IA dans sa globalité et ne pas se concentrer sur un maillon en particulier. Par conséquent, il est important de considérer les choses en termes de superpositions des acteurs et des responsabilités pour les systèmes d’IA à usage général et de regarder la destination de ces outils. Les risques possibles de ces systèmes seront différents selon que le produit permet par exemple de produire des diagnostics médicaux ou qu’il est dédié à autre chose. Je pense que cela a du sens de considérer une régulation différente en fonction des usages d’un produit.  

Enfin, une véritable réflexion sur l’usage de l’IA par les enfants doit être engagée. Ils en seront les utilisateurs demain et l’intelligence artificielle va façonner leur monde davantage qu’elle a façonné le nôtre. Pour le moment, les entreprises d’IA refusent toute responsabilité en ce sens et se contentent de décréter que les enfants ne doivent pas utiliser leurs produits, ce qui bien entendu reste sans effet sur leur utilisation en pratique et les expose à des dangers. Mon approche sur ce sujet serait d’encourager et d’accompagner l’utilisation de l’IA par les enfants, tant que l’on impose aux fournisseurs de mettre en place des limites et garde-fous. L'objectif est d’outiller les utilisateurs de demain.

Dans quelle mesure partagez-vous l’engouement pour les modèles d’IA open source

Les modèles d'IA génératives open source présentent des risques autant qu’ils peuvent permettre de résoudre certains problèmes. En termes de risques, la démocratisation permise par l’open source rend accessible ces modèles à davantage d’acteurs malveillants ou d’individus mal intentionnés. Pour revenir à l’exemple des deepfakes à caractère pornographique, les modèles d’IA open source sont bien plus disposés à permettre leur prolifération que des modèles propriétaires.
 
Deux types de garde-fous sont envisageables. Premièrement, à défaut de licences, il serait souhaitable d’imposer des audits préalables à la commercialisation d’une IA. De sorte que si une équipe de chercheurs développe et entraîne un modèle open source de génération de textes et d’images, elle ne doit pas pouvoir le rendre disponible immédiatement sur GitHub. En cas de détection de menaces émanant du modèle, un acteur compétent, étatique ou privé ou autre, pourrait être impliqué dans une forme de coordination permettant de répondre aux risques.

Deuxièmement, des obligations pourraient être imposées aux fournisseurs qui hébergent des modèles. Mon intuition est que les utilisateurs ne vont pas utiliser directement ces modèles mais vont s’adresser aux prestataires qui les hébergent, ce qui fait de ces modèles des technologies mais non pas des produits finaux. Il est donc nécessaire d’imposer des obligations aux acteurs qui les mettent à disposition du public. Plusieurs propositions peuvent être formulées, parmi lesquelles l’obligation de mettre en place des garde-fous ou encore une exigence de transparence. Par ailleurs, plutôt que de limiter l’accès à un logiciel, il semble plus adapté de mieux défendre la surface d’attaque (ndlr : protéger l’ensemble des points faibles par lesquels un acteur malveillant peut s’introduire dans un logiciel). L’exemple de la mésinformation et de la désinformation est pertinent en ce sens. Les modèles d’IA générative ont permis de faire baisser les coûts et de démocratiser la fabrication d’informations. Pourtant, créer des fausses informations n’a jamais été difficile, ce qui est plus compliqué est de les diffuser auprès d’un public et de réussir à persuader les citoyens de leur véracité, que l’information ait été générée par une IA ou non. Notre réponse devrait être d’améliorer les moyens d’identifier les fausses informations. Je pense que les législateurs devraient se concentrer sur ces moyens, qui relèvent de la responsabilité des plateformes. Si celles-ci ont été plutôt efficaces dans la lutte contre les fausses informations, elles ne l'ont pas été assez.

Pour finir, s’il comporte également des risques et des inconvénients, mon futur idéal serait toutefois de voir des gouvernements s’associer pour financer à hauteur de 100 millions d’euros une collaboration universitaire destinée à développer des modèles open source capables de concurrencer les principaux acteurs du marché.