Le défi d’une régulation de l’intelligence artificielle

Célia Zolynski, professeure de droit à l’Université Paris 1 Panthéon-Sorbonne et Jean Cattan appelent dans le media AOC à un agenda positif de régulation de l’IA pour cultiver nos richesses face à des IA d’abord extractives.

Le vendredi 8 décembre, les colégislateurs de l’Union européenne ont annoncé s’être entendus sur l’AI Act, un texte destiné à réguler le développement et l’usage de l’intelligence artificielle. Ce texte n’est en vérité qu’un premier pas, certes considérable, mais qui pose des enjeux cruciaux pour d’autres étapes à venir. Outre que les futurs textes doivent balayer le faux débat entre régulation et innovation, ils doivent veiller à protéger certains travailleurs précaires de l’IA, à mieux mesurer la consommation de ressources de cette technologie et à donner plus d’agentivité aux utilisateurs.

Historique » nous annonçait Thierry Breton ce vendredi 8 décembre au soir, un accord politique a été trouvé sur le règlement européen sur l’intelligence artificielle. La vocation de ce règlement, pionnier s’il en est, est essentiellement de créer un cadre de régulation des risques générés par les usages de l’intelligence artificielle.

Pour ce faire, l’Union européenne a fait le choix d’adopter une législation de type « sécurité des produits » qui repose sur l’analyse de risques, fondée en partie sur des mécanismes de compliance à savoir de responsabilisation des fournisseurs de systèmes d’intelligence artificielle. Le texte propose ainsi une distinction entre différents niveaux de risques, des risques pouvant résulter de l’usage de ces systèmes et non de la technologie elle-même, considérée comme neutre. Ce modèle de législation, bien connu du droit de l’Union européenne, se veut de nature essentiellement économique. L’objectif est d’imposer le respect d’un certain nombre de règles avant la mise sur le marché ou lors de la circulation d’un produit, ici pour établir un cadre de confiance afin de soutenir le déploiement des systèmes d’intelligence artificielle dans l’Union européenne.

C’est la protection des valeurs européennes, et en particulier le respect des droits fondamentaux, ainsi que des exigences fortes en matière de sécurité qui servent de « boussole » pour définir le niveau de risques relatifs à ces différents usages. Divers systèmes présentant des risques considérés comme inacceptables seront donc prohibés, tels le recours à des techniques de manipulation cognitive et comportementale, la catégorisation biométrique utilisant des caractéristiques sensibles, la reconnaissance émotionnelle pour ses applications en contexte professionnel ou éducatif, des pratiques visant à exploiter la vulnérabilité de certains groupes ou encore la notation sociale. L’interdiction de la reconnaissance faciale dans l’espace public à des fins répressives a été âprement discutée pour finalement être soumise à une série d’exigences dont le contour reste à apprécier en l’état.

Viennent ensuite les usages dits à haut risque notamment l’éducation, l’emploi ou les contrôles aux frontières. L’essentiel du texte leur est consacré et impose aux fournisseurs des systèmes d’intelligence artificielle diverses obligations de mise en conformité et de rendre des comptes, sous le contrôle des autorités de régulation. Concernant tous les autres usages, jugés à plus faibles risques, le règlement ne trouvera pas à s’appliquer sous réserve de quelques obligations de transparence imposées pour les systèmes identifiés comme comportant des risques de manipulation de l’utilisateur. D’autres textes viendront toutefois les encadrer, dont le règlement général sur la protection des données personnelles ou encore les règlements sur les services numériques et les marchés numériques adoptés à l’automne 2022. 

Les systèmes d’intelligences artificielles à usage général et les modèles qui les sous-tendent sont également saisis par le texte. Alors que l’on était en phase avancée des négociations, le débat normatif a évolué en très peu de temps en réaction au déploiement de ces systèmes et à l’adoption massive de certaines de leurs applications par le grand public – en particulier ChatGPT – dans la mesure où ils laissaient envisager des évolutions brutales et rapides, et des risques majeurs à l’image de ceux pouvant résulter de l‘amplification de la désinformation pour la démocratie. La question était toutefois délicate car l’approche par les risques retenue dans la première mouture du texte paraissait inadaptée : les usages de ces systèmes, pour lesquels ils peuvent ne pas avoir été spécifiquement conçus, sont possiblement de nature très diverse et fortement évolutive ; et ces systèmes posent des questions particulières en raison de leur spécificité. Le Conseil et le Parlement européen ont néanmoins fait le choix de s’en saisir.

Difficile certainement d’adopter une autre position dès lors que le règlement sur l’intelligence artificielle était présenté, depuis la publication de la proposition de la Commission en avril 2021, comme le premier corps de règles sur le plan mondial consacré spécifiquement à l’intelligence artificielle avec pour objectif d’influer sur le développement du marché au nom du Brussels effect. Les négociations ont été vives pour parvenir à un compromis. Finalement, le texte adopte une logique de régulation asymétrique déjà à l’œuvre dans le règlement sur les services numériques. En cela, il prévoit en particulier que les modèles supportant les systèmes d’intelligences artificielles à usage général seront soumis à des exigences de transparence, avec des obligations plus importantes pour les modèles à fort impact pouvant entraîner des risques systémiques.

Aussi sophistiqué qu’il puisse être, ce règlement n’est certainement pas la fin de l’histoire, beaucoup s’y accordent. De nombreuses questions restent à régler et c’est bien normal : la régulation est un processus continu qui exige sans cesse de penser son avenir. C’est ce qui nous permettra de mettre à profit les avancées engrangées sans pour autant nous retrouver dans quelques années à danser sous les cendres. 

Pour l’avenir justement et avant toute chose, il nous faut absolument sortir de l’opposition entre régulation et innovation. La régulation est partie intégrante de l’innovation, elle en est même une condition essentielle. Sans régulation, nous avons de belles inventions certes, mais nous obtenons aussi des rentes de monopole, la fermeture des systèmes, l’absence de prise en compte des ramifications environnementales et sociétales des technologies et la destruction de l’initiative. Peut-être que cette destruction sera créatrice de temps en temps, mais elle sera surtout synonyme de blocage. Alors oui, il y a régulation et régulation c’est certain. Et si nous devions revenir sur le règlement sur l’intelligence artificielle, loin de jouer les rabat-joie, d’aucuns pourraient se demander s’il était le bon point de départ.

Mais il est bien trop facile de se positionner ainsi, de loin, après la bataille et après avoir vu ChatGPT débarquer dans nos vies. Nous aurions néanmoins pu décider, et peut-être que cela aurait contenté tout le monde d’ailleurs, que nous allions prendre le temps de remettre l’ouvrage sur le métier car beaucoup de choses avaient changé. Nous avons le droit après tout de nous dire : « ne nous obstinons pas et prenons le temps d’examiner si nous n’avons pas manqué l’essentiel ». Cela étant, la lecture du règlement final nous dira peut-être qu’un bon équilibre a été trouvé et nous en serons heureux.

En attendant le travail d’exégèse et au vu des élections européennes à venir, nous savons d’ores et déjà que des pièces du puzzle sont manquantes. Pour aller à leur recherche, nous pouvons partir du constat que pour être génératives, les intelligences artificielles doivent d’abord être considérées comme extractives. En tirant ce fil, nous sommes alors amenés par des prises de parole comme celles d’Irénée Régnauld ou Jamal Atif à porter notre regard vers les richesses dont les intelligences artificielles se nourrissent. Car les intelligences artificielles ne sont pas désincarnées. Elles sont bien ancrées dans le réel, comme l’est tout notre environnement numérique. Et il ne s’agit pas que de s’intéresser à leur production. Il s’agit également de s’assurer qu’elles permettent de faire prospérer les richesses du monde auquel elles appartiennent. Notre conviction consiste à affirmer que c’est en les considérant pleinement de la sorte que nous aurons les meilleures chances de les voir générer les plus belles choses et de devenir des outils d’une plus grande émancipation de leurs utilisateurs. Ce qui est encore la meilleure des façons pour l’Europe de s’imposer comme un acteur premier en la matière, non pas seulement d’un point de vue réglementaire mais aussi technologique. Les cinq prochaines années, celles d’un nouveau mandat de la Commission, nous permettront peut-être de tracer ce chemin, sait-on jamais. Alors imaginons à quoi pourrait ressembler cette régulation en quête d’incarnation.

Réguler une intelligence artificielle inscrite dans le réel, c’est d’abord mesurer, comprendre et partager son impact environnemental. Parmi d’autres sources, nous pourrons nous intéresser à cette étude citée par la MIT Technology Review nous apprenant que générer une image reviendrait à consommer autant de CO2 que pour recharger un téléphone. Tout gain environnemental que l’intelligence artificielle pourrait générer par ailleurs étant bien considéré, cette consommation n’en reste pas moins colossale et ne pourrait être occultée si elle était avérée. 

Par le passé, nous avons connu des comparaisons hasardeuses au sujet de la consommation énergétique du numérique. A la fin, le débat a été tranché lorsque les autorités publiques se sont penchées sur le sujet, ont initié un exercice de collecte de l’information auprès des acteurs économiques et à tout le moins établi des ratios bien objectivés. Grâce aux travaux conjoints de l’Ademe et de l’Arcep, nous savons qu’aujourd’hui la fabrication des terminaux pèse pour l’essentiel des émissions carbone de l’ensemble la chaîne de valeur du numérique et que c’est donc avant tout sur leur cycle de vie que nous devons agir. Ce qui laisse désormais la voie ouverte aux actions de régulation les plus pertinentes. Ce terrain d’action montre que nous savons faire et que nous devons faire de même pour les intelligences artificielles génératives, une perspective que le compromis semble d’ailleurs ouvrir pour certains modèles. Cela ne signifie donc pas interdire avant d’innover, mais collecter la donnée la plus pertinente, l’analyser et la restituer. Ensuite, le choix pourra être d’interdire comme de seulement guider le marché. C’est la démocratie qui fera son travail. 

Réguler une intelligence artificielle respectueuse de notre humanité, c’est ensuite protéger les travailleurs. Ici ce n’est pas que la cause ne mérite pas d’être développée, bien au contraire, mais les travaux d’Antonio Casilli et de son équipe sont déjà très éloquents. Tout de même, rappelons que ce que nous savions pour les modérateurs des réseaux sociaux vaut aussi pour les travailleurs derrière nos intelligences artificielles : leurs conditions de travail ne sont pas à la hauteur de nos exigences. Evitons de répéter les mêmes erreurs et protégeons-les. De nombreuses pistes sont à explorer en termes d’obligations de transparence, de responsabilisation et de minimas sociaux. Cela pourra effrayer quelques entrepreneurs, mais c’est la condition de notre dignité collective. Ce fort niveau d’exigence sociale sera probablement un de nos meilleurs atouts dans la compétition mondiale. 

Réguler une intelligence artificielle dans son versant extractif, c’est aussi s’intéresser aux richesses immatérielles dans lesquelles elle puise. Mais ce n’est pas se limiter à un débat sur le droit d’auteur, même si celui-ci est déterminant. C’est plus généralement établir un cadre nouveau qui permette d’assurer une juste répartition de la valeur entre l’ensemble des acteurs impliqués. En effet, l’entraînement et l’utilisation des intelligences artificielles génératives posent la question des ressources utilisées et de la rétribution de leurs créateurs ; que celle-ci soit à penser à un niveau individuel (droits reconnus de chaque producteur de contenu utilisé) ou collectif (coopératives de données, syndication de contenus et de professionnels). Car, désormais, ce sont des espaces de discussions et de créations collectives entiers qui sont employés à des fins d’entraînement, on pense notamment aux réseaux sociaux comme X ou Reddit ou encore à Wikipédia.

L’accès à l’information via des agents conversationnels amplifie alors les questions de répartition de la valeur dans l’environnement numérique que nous pouvions connaître dans le secteur des télécoms, de la presse, de la création artistique ou de la publicité. D’abord, parce que l’information est traitée en masse pour générer des patchworks ou synthèses. Ensuite, parce que ces outils ont besoin de contenus de qualité pour être pertinents. Ce qui amène à se poser la question de l’entretien vertueux de ce cycle entre production, extraction et génération de contenus. En l’absence de dispositif viable assurant la circulation de la valeur dans la génération de contenus, l’expérience a montré que les acteurs optent pour la fermeture de leurs écosystèmes et l’obstruction de l’accès à leurs contenus.

Enfin, réguler l’intelligence artificielle pour en faire un instrument de notre richesse collective, c’est donner la chance à tout un chacun d’en être l’acteur. Aujourd’hui, beaucoup d’outils d’intelligence artificielle tirent leur force de la communauté. C’est tout le sens du mouvement open source, dont les modèles devraient bénéficier d’exemptions dans le règlement une fois adopté, mais c’est aussi la dynamique que nous observons sur les forums Discord de Midjourney. Ce qui fait la richesse d’un outil comme Midjourney est probablement plus l’apprentissage collectif de pair-à-pair qui résulte de son intégration dans des salons de discussion publics que la technologie en elle-même. Consciente que l’initiative de la communauté sera probablement la plus grande des richesses des produits développés, depuis un peu moins d’un mois, OpenAI permet à tout titulaire d’un abonnement à ChatGPT de créer ses agents conversationnels personnalisés en plus de la faculté de proposer ou d’utiliser des extensions variées. 

Aussi riches que puissent être ces contributions extérieures, ces derniers développements nous laissent entrevoir une économie de l’intermédiation avec une agentification massive de nos interactions : demain, faire ses courses, commander un taxi, gérer son agenda ou faire sa revue de presse pourrait techniquement se faire par l’entremise d’agents conversationnels. Or, nous ne pourrons nous satisfaire d’une situation où des intermédiaires s’immiscent entre nous sans que nous ayons la moindre capacité de paramétrer nos usages. Là encore, ne répétons pas les mêmes erreurs qu’avec les réseaux sociaux ou les assistants vocaux. Nous avons accueilli ces technologies comme si elles étaient constitutives d’un tout alors qu’en réalité elles ne sont qu’une somme de fonctionnalités et de paramètres. Revendiquons dès à présent une capacité à agir sur ces fonctionnalités et paramètres essentiels pour l’inscrire dans l’architecture-même des outils d’intelligence artificielle que nous utiliserons massivement demain. Nous retrouvons là combien la régulation influe sur l’innovation. Déployer une technologie paramétrable par l’utilisateur n’est pas la même chose que déployer une boîte noire qui est à prendre ou à laisser. Si cette faculté d’interaction approfondie devait être affirmée en droit, elle demanderait alors de construire un peu plus loin sur la voie ouverte par un autre règlement, celui de la régulation des marchés numériques cette fois-ci, et d’accorder aux utilisateurs des droits bien plus nombreux que ceux dont ils disposent aujourd’hui au titre de ce règlement. Mais, en tout état de cause, notre prise en main de ces outils ne peut se limiter à un simple acte de consommation. Car, rappelons-le, ce qui fait « la richesse de réseaux » (Benkler) est avant tout la capacité de l’utilisateur à proposer et partager ses idées avec le monde entier. 

L’histoire de la régulation du numérique ne s’arrêtera pas à la mandature actuelle de la Commission européenne. Celle-ci déblaye un chemin et c’est déjà considérable. A nous de bâtir la suite, démocratiquement, en associant la recherche, les entreprises, la société civile. Ce sera encore la meilleure façon d’éviter les angles morts, de nous prémunir des risques les plus prégnants et surtout de cultiver nos richesses.

Jean Cattan

SECRÉTAIRE GÉNÉRAL DU CONSEIL NATIONAL DU NUMÉRIQUE

Célia Zolynski

PROFESSEURE DE DROIT, PROFESSEURE À L'ÉCOLE DE DROIT DE LA SORBONNE DE L’UNIVERSITÉ PARIS 1 PANTHÉON-SORBONNE

Lire l'article sur AOC

Média