Pourquoi et comment réguler l'intelligence artificielle ? Entretien avec Valérie Pisano et Benjamin Prud'homme

Quel regard porter sur les développements en cours de l'intelligence artificielle ? Échange avec Valérie Pisano, présidente et directrice générale de Mila - Institut québécois d'IA - et Benjamin Prud'homme, directeur du département "IA pour l'humanité". 

Vous soutenez que tout le monde devrait se saisir des enjeux de l’intelligence artificielle, pourquoi est-ce si important pour vous ?

Le moratoire proposé par le Future of Life Institute, que nous avons tous deux signé, appelait à une prise au sérieux et à un changement de narratif sur l’intelligence artificielle (IA). Il avait pour objectif d’inciter les grands acteurs de l’IA à faire une pause et d’alerter le plus grand nombre (opinion publique, pouvoirs publics, entreprises) sur les risques d’un développement trop rapide de cette technologie. La publication de ce moratoire aura permis à de nombreux États dans le monde de se saisir du sujet. L’autorité italienne de protection des données a par exemple temporairement suspendu ChatGPT, la vice-présidente des États-Unis, Kamala Harris, a convoqué les dirigeants des grandes entreprises américaines de l’IA pour échanger sur les risques et les enjeux.

Cette réflexion part du postulat qu’il n’est pas souhaitable de laisser à une poignée d’entreprises le sort de décider du développement de l’intelligence artificielle ainsi que de son encadrement législatif. De nombreux chercheurs considèrent ainsi qu’elles utilisent la participation des utilisateurs humains comme un laboratoire à ciel ouvert. À Mila, nous croyons fermement au développement de la technologie et des opportunités qu’elle offre, mais les conditions dans lesquelles elle se développe actuellement nous inquiètent. 

Par exemple, dans les semaines qui ont suivi la sortie de ChatGPT-4 sur le marché, nous avons observé une course à l’armement en processeurs graphiques (GPU) pour les grandes entreprises de l’IA. [NDLR : les processeurs graphiques sont des unités de calcul indispensables dans le domaine de l’IA] En ce moment, les processeurs graphiques les plus puissants sont en rupture de stock. Un scénario est en train de se dessiner : la production de processeurs graphiques étant limitée, seul un petit nombre d’acteurs auront demain les capacités et les infrastructures pour entraîner leurs modèles. 

Nous pensons que les gouvernements du monde entier et la société civile doivent se saisir de ces questions. Nous devons nous mobiliser rapidement à l'échelle internationale pour nous donner les moyens publics et démocratiques de faire ensemble ce qu’un petit nombre d’acteurs privés américains font. Nous appelons de nos vœux la création d’une infrastructure internationale et publique, disposant de grandes capacités pour l'entraînement des modèles d’IA et qui mettrait ces capacités à disposition des chercheurs et des organisations qui réalisent des travaux d’intérêt public. 

Quels sont les risques posés par le développement et la diffusion des intelligences artificielles génératives au sein de notre société ? 

Si le développement de ces systèmes d’IA comporte des risques pour le respect des droits humains, il est difficile d’estimer à quel point ces derniers pourraient être affectés. La violation des droits de la personne cause un dommage aux individus, mais également un dommage collectif. Les populations marginalisées, qui sont le plus victimes des biais algorithmiques, sont également celles qui saisissent le moins la justice pour ces dommages. C’est pourquoi il est nécessaire de modifier en profondeur le système de responsabilité civile afin d’améliorer l’accessibilité de la justice. 

Il est nécessaire de changer la réglementation afin que les risques sociaux et collectifs soient pleinement pris en compte. En matière de respect des droits fondamentaux, la bonne foi des entreprises qui développent des systèmes d’IA n’est pas suffisante. Il faut donc mettre en place des lignes directrices claires, augmenter les capacités de test et d’audit des pouvoirs publics et même instaurer des mesures de fermeture temporaire des systèmes d’IA si ceux-ci ne respectent pas les droits fondamentaux. 

Quand on compare avec d’autres grandes évolutions technologiques, ce qui distingue les IA génératives actuelles est leur portée. La nouvelle version du moteur de recherche Bing - qui inclut ChatGPT - a comptabilisé 100 millions d’usagers par jour en une semaine. Leur portée a un effet multiplicateur sur les potentiels biais que ces IA comportent, ce qui rend encore plus préoccupant le fait d’expérimenter sans filet de sécurité pour les utilisateurs et encore plus urgentes les réponses à apporter. 

De quelle réglementation de l’intelligence artificielle avons-nous besoin ? 

Il est nécessaire que les décideurs politiques, les législateurs et la société civile dans son ensemble comprennent la façon dont la technologie fonctionne pour inverser les rapports de force. 

Force est de croire que certains grands modèles récemment développés ne respectent pas les lois déjà en vigueur. Alors qu’il est possible que des droits liés à la propriété intellectuelle et au droit d’auteur soient bafoués, il est nécessaire que les administrations compétentes se saisissent de ces questions. 

Il est nécessaire d’augmenter les compétences et les pouvoirs des législateurs pour encadrer l’IA. Il existe une forme de responsabilité des organisations qui en ont les capacités - Mila en fait partie - à nourrir la conversation internationale et à diffuser une culture scientifique. Nous sommes dans une période d’effervescence réglementaire. Or, vu la rapidité des développements de l’IA et les moyens limités à la portée des gouvernements, certains décideurs politiques n’ont pas les compétences ou les outils requis pour se saisir de ces questions. De la même façon, la société civile ne dispose pas toujours des connaissances ou des ressources suffisantes pour se positionner comme une voix forte dans le débat. Alors que le processus réglementaire de l’IA est fortement influencé par un petit nombre d'acteurs de l’industrie, il est urgent que les décideurs politiques, les législateurs et la société civile dans son ensemble augmentent leur compréhension de la façon dont l’IA fonctionne pour inverser les rapports de force. 

Les technologies en présence sont à double usage et la conversation internationale doit s’élever : ce doit être une conversation internationale sur le rôle et les limites que l’on souhaite donner à ces technologies.

Pour encadrer l’intelligence artificielle, il existe plusieurs enjeux sur lesquels il faut agir rapidement. Tout d'abord, il y a urgence à fédérer une action internationale pour encadrer l’IA. Nous sommes proches d’un moment dans l’histoire où nous serons confrontés à une quantité immense de désinformation. Les technologies en présence sont à double usage et la conversation internationale doit s’élever : ce doit être une conversation internationale sur le rôle et les limites que l’on souhaite donner à ces technologies. 

Enfin, il n’existe pas actuellement de droit de la personne à l’information factuelle ou de qualité, ni d’obligation des plateformes ou des individus à assurer la véracité ou l’intégrité des contenus. Il est nécessaire de remédier à cela. Nous sommes curieux de voir comment la Réglementation canadienne (AIDA) sur l’intelligence artificielle, qui introduit un concept de préjudice collectif, abordera cet enjeu. De la même façon, il sera intéressant de voir comment d’autres législateurs et organisations internationales se saisiront de cette question. 

Concrètement, des choses peuvent être mises en place rapidement. L’instauration de messages en filigrane (watermarking) dans les contenus produits par des IA génératives doit être un minimum requis. 

Pour encadrer au mieux ces IA génératives, quelles responsabilités doit-on faire porter aux entreprises qui développent les modèles (par exemple, ChatGPT) et à celles qui les déploient dans des applications ? 

Il est important de distinguer les rôles de chacun au sein du cycle de vie d’un système d’intelligence artificielle, avec une série d’obligations à imputer de manière différenciée aux personnes et entreprises qui développent le modèle et à celles qui le déploient. Les entreprises construisent des IA génératives sur lesquelles toute l’infrastructure de demain sera bâtie : cela fait ainsi porter les risques et obligations sur ceux qui déploient les IA génératives dans des applications, alors que des responsabilités devraient également incomber aux entreprises qui développent les modèles. 

De plus, la majorité de l’entraînement des modèles d’IA générative est réalisée par les développeurs plutôt que les entreprises qui déploient ensuite certaines applications qui utilisent ces modèles. En effet, les entreprises qui utilisent les modèles pour déployer des applications affinent ensuite la base de données, mais c’est une activité marginale comparée à celle des développeurs. Ceux-ci entraînent les modèles avec une grande quantité de données. L’un des aspects inquiétants de ces développements est par ailleurs un aspect invisibilisé lié à l’exportation du travail sur les données (annotation, modération de contenus, etc.) vers des pays du Sud. Les conditions de travail alors offertes sont considérées par plusieurs comme reproduisant des dynamiques d’exploitation: le travail invisible, mal payé et parfois traumatisant est ainsi confié à des individus vivant dans les pays du Sud, alors que la vaste majorité des retombées économiques reviennent aux pays du Nord. 

Il est donc nécessaire que les obligations soient clairement établies, avec une liste détaillée de celles qui incombent aux entreprises qui sont à l’origine des modèles d’IA et à celles qui les déploient. Nous espérons donc que les différentes propositions législatives actuellement à l’étude (AI Act, AIDA, etc.) offriront une plus grande clarté sur la façon dont ces obligations se déploient puis se répartissent entre les différents acteurs du cycle de vie des systèmes d’IA.  


À propos de Mila
Mila est situé à Montréal et réunit une communauté de plus de 1000 chercheurs spécialisés en apprentissage automatique et dédiés à l’excellence scientifique et l’innovation pour le bénéfice de tous. Le développement socialement responsable et bénéfique de l’IA est une dimension fondamentale de la mission de l’institut, qui s’intéresse donc aux considérations éthiques et à la gouvernance de l’IA. En ce sens, le département IA pour l’humanité a notamment pour mission de contribuer à la formation à l’IA des décideurs politiques ainsi qu’au développement d’outils de gouvernance et de réglementation de l’IA au Canada et à l’échelle internationale.