Le CNNum s'exprime sur la PPL visant à lutter contre la haine sur Internet

Communiqué de presse : Le CNNum exprime ses interrogations sur la proposition de loi visant à lutter contre la haine sur Internet

Paris, le 21 mars 2019.

Le CNNum tient à rappeler son attachement à la lutte contre les contenus haineux dont les pouvoirs publics ont fait une priorité. Le CNNum considère que la lutte contre les contenus haineux devrait combiner des mesures visant à rendre le droit en vigueur plus efficace (y compris en donnant plus de moyens à la Justice) et des mesures visant à renforcer la responsabilisation des plateformes. Cette lutte doit se réaliser dans le respect des droits humains, des principes de nécessité et de proportionnalité et intégrer des recours effectifs afin de prévenir tout risque d’abus.

Le CNNum estime que la mission sur la régulation des réseaux sociaux, lancée par le Gouvernement en janvier 2019, qui a commencé par une expérimentation sur la modération des contenus par Facebook, devrait permettre d’apporter des recommandations concernant la lutte contre les contenus haineux et, de manière plus large, concernant la régulation des plateformes. En conséquence, le CNNum appelle les pouvoirs publics à prendre en considération les résultats finaux de cette mission. Il considère en particulier que la mission sur la régulation des réseaux sociaux permettrait d’enrichir la réflexion concernant l’équilibre entre le rôle du juge, des plateformes et de la co-régulation dans la lutte contre les contenus illicites.  

Le CNNum estime aussi que les pouvoirs publics devraient étudier de façon approfondie l'impact que la proposition de loi visant à lutter contre la haine en ligne (ci-après : « PPL ») pourrait avoir sur les droits et les libertés et étudier son articulation avec le droit européen. Si la volonté de lutter efficacement contre les contenus haineux est louable, les pouvoirs publics devraient prendre en compte les dix enjeux suivants :

  1. Préciser les objectifs et le rôle de l’État ;
  2. Se fonder sur des définitions claires ;
  3. Protéger les droits fondamentaux et, surtout, la liberté d’expression ;
  4. Prévoir des recours effectifs  ;
  5. Penser à des sanctions graduées, respectueuses du principe de proportionnalité ;
  6. Penser la responsabilité pénale en articulation avec le droit européen ;
  7. Assurer la cohérence normative du Marché unique numérique ;
  8. Prendre en compte le rôle des plateformes dans l'accélération des contenus et réfléchir aux moyens de réguler les systèmes eux-mêmes et pas seulement les contenus ;
  9. Procéder à une étude de l’efficacité et de la fiabilité ainsi qu’à une analyse des risques des « mesures proactives » fondées sur des dispositifs d’intelligence artificielle ;
  10. Responsabiliser les entreprises sans que la fonction de modération des contenus ne renforce les plus puissantes d'entre elles.

 

LIRE LA POSITION APPROFONDIE

 

Version complète du communiqué de presse

Le CNNum tient à rappeler son attachement à la lutte contre les contenus haineux dont les pouvoirs publics ont fait une priorité. Le CNNum considère que la lutte contre les contenus haineux devrait combiner des mesures visant à rendre le droit en vigueur plus efficace (y compris en donnant plus de moyens à la Justice) et des mesures visant à renforcer la responsabilisation des plateformes. Cette lutte doit se réaliser dans le respect des droits humains, des principes de nécessité et de proportionnalité et intégrer des recours effectifs afin de prévenir tout risque d’abus.

Le CNNum estime que la mission sur la régulation des réseaux sociaux, lancée par le Gouvernement en janvier 2019, qui a commencé par une expérimentation sur la modération des contenus par Facebook, devrait permettre d’apporter des recommandations concernant la lutte contre les contenus haineux et, de manière plus large, concernant la régulation des plateformes. En conséquence, le CNNum appelle les pouvoirs publics à prendre en considération les résultats finaux de cette mission. Il considère en particulier que la mission sur la régulation des réseaux sociaux permettrait d’enrichir la réflexion concernant l’équilibre entre le rôle du juge, des plateformes et de la co-régulation dans la lutte contre les contenus illicites. 

Le CNNum estime aussi que les pouvoirs publics devraient étudier de façon approfondie l'impact que la proposition de loi visant à lutter contre la haine en ligne (ci-après : « PPL ») pourrait avoir sur les droits et les libertés et étudier son articulation avec le droit européen. Si la volonté de lutter efficacement contre les contenus haineux est louable, les pouvoirs publics devraient prendre en compte les dix enjeux suivants :

  1. Préciser les objectifs et le rôle de l’État : il est indispensable de prévoir un juste équilibre entre le recours aux mécanismes judiciaires, à la régulation et à l’auto-régulation.

  2. Se fonder sur des définitions claires : en particulier en ce qui concerne le caractère « manifestement » illicite d’une « incitation à la haine » ou d’ « une injure » à raison de « la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».

  3. Protéger les droits fondamentaux et, surtout, la liberté d’expression : le rôle du juge doit être fondamental dans tout dispositif de lutte contre les contenus haineux pour éviter les abus, protéger les victimes et offrir toutes les garanties nécessaires d’indépendance à l’égard tant des plateformes que du pouvoir exécutif.

  4. Prévoir des recours effectifs : le CNNum regrette qu’aucune précision ne soit donnée dans la PPL en ce qui concerne les mécanismes de recours ou les conséquences en cas de manquement.

  5. Penser à des sanctions graduées, respectueuses du principe de proportionnalité : la PPL prévoit des sanctions qui pourraient être extrêmement lourdes « jusqu’à 4% du chiffre d’affaires annuel mondial total de l’exercice précédent » sans donner de précisions quant à la façon d’appréhender la « gravité » et le « caractère réitéré » des infractions concernées.

  6. Penser la responsabilité pénale en articulation avec le droit européen : l’article 2 de la PPL qui prévoit que « la connaissance des faits litigieux sera présumée acquise » lorsque les utilisateurs ont transmis un signalement comportant le peu d’informations figurant sous cet article, pourrait poser des problèmes de conformité avec le droit européen.

  7. Assurer la cohérence normative du Marché unique numérique : le Conseil s’inquiète de la multiplication des législations nationales applicables aux contenus illicites en Europe et ceci alors que ces lois nationales ont vocation à s’appliquer à des plateformes qui agissent bien au-delà des frontières nationales. Plutôt que de multiplier les initiatives nationales dans ce domaine, il convient peut-être d’entrer dans une logique d’harmonisation et de réfléchir à des solutions intelligentes et efficaces sur le plan européen, respectueuses des libertés et des droits fondamentaux.

  8. Prendre en compte le rôle des plateformes dans l'accélération des contenus et réfléchir aux moyens de réguler les systèmes eux-mêmes et pas seulement les contenus : le Conseil estime opportun de rappeler les principes directeurs de loyauté et de transparence des plateformes dans la lutte contre les contenus illicites et de moderniser les moyens de la justice et de la régulation.

  9. Procéder à une étude de l’efficacité et de la fiabilité ainsi qu’à une analyse des risques des « mesures proactives » fondées sur des dispositifs d’intelligence artificielle : le CNNum considère que la mise en œuvre de moyens « technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus » (article 2 (III) de la PPL), pourrait encourager le recours à des systèmes de filtrage automatisé. Le CNNum estime que les pouvoirs publics devraient exiger des plateformes des études d’impact permettant d’évaluer l’efficacité et la fiabilité de ces dispositifs et encadrer leur utilisation en fonction des impératifs de l’État de droit.

  10. Responsabiliser les entreprises sans que la fonction de modération des contenus ne renforce les plus puissantes d'entre elles : les systèmes de modération des contenus encouragés par la PPL pourraient en effet conférer un avantage non négligeable aux grands acteurs qui disposent déjà des capacités techniques et des ressources humaines nécessaires pour se conformer à la PPL.

La position détaillée du CNNum se trouve ci-après.

Position approfondie du Conseil national du numérique sur la proposition de loi visant à lutter contre la haine sur Internet

Le Conseil national du numérique rappelle son attachement à la lutte contre les contenus haineux sur Internet. Internet permet aujourd’hui le développement de l’un des droits humains les plus précieux : la liberté d’expression. Internet ne peut pourtant pas constituer un espace de non-droit où tout peut se dire et être diffusé. Internet peut être dévoyé à des fins de haine et devenir, par son effet démultiplicateur, un redoutable vecteur de la diffusion de contenus illicites. La diffusion et les auteurs de contenus haineux sur Internet doivent être sanctionnés afin de garantir la protection des droits fondamentaux des citoyens, et ce, en portant une attention particulière à certains publics notamment aux personnes vulnérables et aux mineurs. 

Le Gouvernement a fait de la lutte contre la haine en ligne une de ses priorités. Le Premier ministre a annoncé le 12 février 2019 son souhait de faire adopter une loi pour lutter contre les contenus haineux en ligne afin de « responsabiliser ceux qui n’ont pas le droit de dire qu’ils ne sont responsables de rien de ce qui est publié ». Le secrétaire d’État chargé du Numérique, Mounir Mahjoubi, a publié, le 13 février, un plan d’action contre les contenus haineux en ligne comprenant dix mesures. Le président de la République a précisé, le 20 février, que cette législation serait présentée dès le mois de mai et qu’elle reprendrait les recommandations du rapport visant à renforcer la lutte contre le racisme et l'antisémitisme sur Internet. Lundi 11 mars, la députée Laetitia Avia a déposé auprès de la Présidence de l’Assemblée nationale sa proposition de loi visant à lutter contre la haine en ligne, texte qui a ensuite été publié par la presse. Le premier article de cette proposition de loi (ci-après : « PPL ») prévoit un nouveau régime de responsabilité administrative applicable aux opérateurs de plateformes à fort trafic, selon un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. Cette disposition impose à ces opérateurs de retirer ou de rendre inaccessible dans un délai maximal de 24 heures après notification tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire en raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Le manquement à cette obligation est passible d’une sanction prononcée par le Conseil Supérieur de l’Audiovisuel et susceptible d’atteindre 4% du chiffre d’affaires annuel mondial de ces opérateurs. La PPL donne au Conseil Supérieur de l’Audiovisuel les compétences nécessaires pour exercer les missions de supervision de la lutte contre les contenus haineux. D’après la proposition de loi, les "accélérateurs de contenus" devront clairement informer les utilisateurs de la possibilité d'un dépôt de plainte en cas de contenu appelant à la haine. La PPL prévoit en outre une « simplification et (une) uniformisation des formulaires de signalement des contenus illicites » et qu’un « bouton unique de signalement » commun à toutes les plateformes sera créé. Les plateformes auront aussi l'obligation de « rendre compte publiquement des actions menées pour la lutte contre la cyberhaine et des résultats du traitement des contenus illicites ». Un dernier volet vise à faciliter le blocage et le déréférencement, après injonction « par une autorité administrative », des « sites illicites » (et de leurs « miroirs » ou reproductions) par les fournisseurs d'accès à Internet (FAI) et ceci après un ordre initial du tribunal. À noter qu’alors que la PPL ne concerne que « la lutte contre la haine sur internet », ce dernier volet semble aller plus loin en visant tous les « sites illicites ».

En parallèle de ces annonces législatives, le Gouvernement a lancé une mission sur la régulation des réseaux sociaux et les états généraux des nouvelles régulations numériques. Depuis le début de l’année, une mission composée de membres de plusieurs Ministères et d’Autorités de régulation a été lancée afin d'observer les méthodes de régulation des contenus haineux par les plateformes, en commençant par une expérimentation sur la modération opérée par Facebook (voir l’annexe sur la mission sur la régulation des réseaux sociaux).

Le CNNum participe au comité de pilotage de cette mission et estime que ses travaux sont importants pour construire une législation utile et effective sur la régulation des contenus haineux et, plus généralement, pour faire des recommandations sur la régulation des plateformes. Les états généraux des nouvelles régulations numériques, lancés par le Gouvernement depuis le mois de juillet 2018, traitent également de la régulation des contenus illicites. Lors de la première phase de ces états généraux, le Conseil national du numérique avait insisté sur la nécessité de s’assurer que toute nouvelle régulation visant à lutter contre les contenus illicites se fonde sur des concepts et définitions claires. Il avait également souligné que des garanties claires, un contrôle efficace et des voies de recours rapides devaient accompagner le dispositif dans l’intérêt de toutes les parties prenantes. Ces constats sont partagés par de nombreux contributeurs de la consultation des états généraux, menée par le CNNum.. En parallèle de ces travaux pour les états généraux, le CNNum a créé un groupe de travail permanent « Sécurité humaine et numérique » dont l’objectif est de mener, dans la durée, une réflexion sur les différents enjeux du numérique et de sa régulation pour la sécurité humaine et les droits fondamentaux.

Le CNNum considère que la lutte contre les contenus haineux devrait combiner des mesures visant à rendre le droit en vigueur plus efficace et des mesures visant à renforcer la responsabilisation des plateformes.

  • Sur le premier volet, le Conseil note que des dispositions législatives (en commençant par la Loi sur la confiance dans l’économie numérique) existent déjà, mais qu’elles ne sont pas appliquées de façon satisfaisante. L’amélioration de la lutte contre la haine en ligne ne passe pas seulement par l’accumulation de nouveaux textes législatifs, mais aussi par un accroissement substantiel des moyens humains, financiers et matériels de la justice de notre pays, qui doit être mieux équipée pour faire face à toute forme de délinquance liée au numérique. Lors de la consultation des états généraux sur la régulation des contenus illicites, de nombreux contributeurs ont soutenu l’idée de la création d'un parquet numérique spécialisé doté de moyens adéquats. De manière similaire, des dispositifs comme la plateforme de signalement PHAROS pourraient être renforcés.

  • Sur le second volet, le Conseil considère que les conclusions de la mission sur la régulation des réseaux sociaux pourraient alimenter le débat sur la responsabilisation des plateformes et le rôle que l’État doit jouer dans ses fonctions de régulation et de contrôle. Les travaux de cette mission, composée de hauts fonctionnaires compétents sur ces questions, visent à éclairer les mécanismes actuels de modération de Facebook et d’autres plateformes et à tirer les enseignements des initiatives législatives conduites dans d’autres pays. Ces travaux pourraient permettre de concevoir un cadre législatif et réglementaire intelligent et efficace dans ce domaine. Ainsi, bien qu’une adoption rapide de la PPL soit souhaitée par ses promoteurs, le Conseil appelle les pouvoirs publics à ne pas écourter les travaux de la mission sur la régulation des réseaux sociaux et à prendre en compte ses conclusions (prévues pour juin) afin d’améliorer le texte.

Le CNNum estime aussi que les pouvoirs publics devraient étudier de façon approfondie l’impact que la proposition de loi visant à lutter contre la haine sur Internet pourrait avoir sur les droits et les libertés et étudier son articulation avec le droit européen. Si la volonté de lutter efficacement contre les contenus haineux est louable, les pouvoirs publics devraient tenir compte des enjeux suivants :

  1. Veiller à préciser les objectifs et le rôle de l’État  

La PPL implique une délégation non négligeable de pouvoirs aux plateformes dans le domaine de la régulation des contenus haineux qui pourrait donner l’impression d’une certaine privatisation de missions historiquement dévolues à l’État. Le système de modération d’une plateforme de réseaux sociaux ne peut pas uniquement reposer sur des règles et des critères définis et mis en œuvre unilatéralement par les plateformes elles-mêmes. Il est indispensable de prévoir un juste équilibre entre le recours aux mécanismes judiciaires, à la régulation et à l’auto-régulation, tout en s’appuyant sur les apports de la mission de régulation des réseaux sociaux pour réfléchir à de nouvelles formes de régulation. Dans ce contexte, il convient de mettre en lumière les dispositions en vigueur qui permettent déjà de lutter contre les contenus haineux, sous réserve de doter la justice de moyens adéquats et innovants. Par ailleurs, le CNNum considère qu’au-delà de la régulation, il convient également de déterminer les objectifs de prévention et d’éducation afin de mieux lutter, sur le long terme, contre les contenus illicites. La responsabilité des opérateurs dans le champ sociétal est à cet égard primordiale : les principales plateformes devraient contribuer à des initiatives visant à faire connaître les droits et les devoirs de chaque citoyen sur Internet, à des campagnes contre l’impunité des auteurs de contenus illicites ou encore à l’élaboration de contre-récits notamment dans la lutte contre la radicalisation ou le cyberharcèlement.

  1. Se fonder sur des définitions claires 

La proposition de loi demande aux plateformes d’agir dans des délais extrêmement rapides après notification par les utilisateurs (en 24 heures), pour retirer ou rendre inaccessible tout contenu comportant « manifestement » une « incitation à la haine » ou d’ « une injure » en raison de « la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ». En dépit de la référence à la loi sur la liberté de la presse, le CNNum se demande si les définitions sont suffisamment claires pour permettre aux plateformes de déterminer aussi rapidement et sûrement le caractère « manifestement » illicite d’un contenu. Il rappelle que le Rapport visant à renforcer la lutte contre le racisme et l'antisémitisme sur Internet avait lui-même considéré « essentiel de souligner l'utilité, a fortiori dans un cadre européen, d'une définition consensuelle de ces deux notions aux contours aussi flous que mouvants, avec la conviction que l'« on ne combat bien que ce que l'on nomme clairement » et avait appelé de ses vœux une réflexion sur cette question « afin de clarifier les débats». Le CNNum se demande dans quelle mesure ces réticences ne sont pas aussi pertinentes à propos d’une proposition de loi qui va bien au-delà de la lutte contre le racisme et l’antisémitisme. Il craint que l’appréciation du caractère « haineux » ou « injurieux » d’un discours ou d’une publication puisse parfois, en fonction du contexte, être source de difficultés. Il rappelle que ce rôle appartient traditionnellement au juge qui offre toutes les garanties de compétence et d’impartialité pour se prononcer sur le caractère illicite d’un contenu.

  1. Protéger les droits fondamentaux et, surtout, la liberté d’expression

La nécessaire lutte contre la haine en ligne doit se faire de façon compatible avec les exigences européennes des droits fondamentaux, consacrées dans la Charte des droits fondamentaux de l’Union européenne, la Convention européenne des droits de l’homme ainsi que dans la jurisprudence de la Cour de justice de l’Union européenne et de la Cour européenne des droits de l’homme. Les pouvoirs publics devraient étudier l’impact des mesures législatives sur plusieurs libertés, en particulier la liberté d’expression, la protection de la vie privée et la protection des données personnelles. Le Conseil rappelle, à cet égard, que les États ont, en vertu des instruments européens, une obligation positive de faire respecter les droits humains, y compris de veiller à ce que les acteurs privés, comme les plateformes, ne restreignent pas de façon abusive ces libertés par des mesures de surveillance généralisée ou des censures arbitraires. Le CNNum exprime la crainte que le délai extrêmement court (24 heures) laissé par la PPL aux plateformes pour se prononcer sur le caractère « manifestement » haineux ou injurieux d’un contenu, combiné aux sanctions pécuniaires prévues par l’article 1 de la PPL (qui peuvent aller jusqu’à 4% du chiffre d’affaires annuel mondial) et à une éventuelle responsabilité pénale des représentants légaux des plateformes, puisse amener ces dernières à, par surcroît de prudence, enlever massivement des contenus, y compris des contenus légitimes. Autrement dit, le doute bénéficierait à la censure. Le CNNum exprime son attachement à la liberté d’expression et souligne qu’en aucun cas la « lutte contre les contenus haineux » (voire, selon certains discours, « dangereux ») ne doit servir de prétexte pour censurer les critiques d’une idéologie quelconque, les discours politiques contestataires ou toute autre forme légitime d’expression. Il rappelle à cet égard que la Cour européenne des droits de l’homme insiste sur le fait que « la liberté d’expression vaut non seulement pour les “informations” ou “idées” accueillies avec faveur ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’État ou une fraction quelconque de la population. Ainsi le veulent le pluralisme, la tolérance et l’esprit d’ouverture sans lesquels il n’est pas de “société démocratique”. Il en découle que toute “formalité”, “condition”, “restriction” ou “sanction” imposée en la matière doit être proportionnée au but légitime poursuivi ». Le rôle du juge doit ainsi être fondamental dans tout dispositif de lutte contre les contenus haineux pour éviter les abus, protéger les victimes et offrir les garanties nécessaires d’indépendance à l’égard tant des plateformes que du pouvoir exécutif.

  1. Prévoir des recours effectifs

Le CNNum salue le fait que la PPL prévoit dans son article 1(III) l’obligation pour les plateformes « de mettre en place un dispositif permettant : a) en cas de retrait d’un contenu, à l’utilisateur à l’origine de la publication du contenu retiré de contester ce retrait ; et b) en cas de non-retrait d’un contenu signé, à l’auteur du signalement de contester le maintien de ce contenu ». Néanmoins, le CNNum regrette le fait qu’aucune précision ne soit donnée en ce qui concerne le déploiement de ces mécanismes de recours ou les conséquences en cas de manquement. Il note d’ailleurs que la sanction pécuniaire prévue dans ce même article ne s’applique pas en cas de manquement à ces obligations – ce qui peut, encore une fois, pousser les plateformes à opter pour une politique consistant à retirer de manière excessive des contenus (l’inaction étant sévèrement punie par la PPL - tandis que le zèle de censure ne l’étant pas).

  1. Penser à des sanctions graduées, respectueuses du principe de proportionnalité

Depuis sa très opportune introduction dans le Règlement général sur la protection des données, la sanction du « 4% du chiffre d’affaires annuel mondial total de l’exercice précédent » est devenue une véritable référence pour les politiques en Europe qui essayent de la transposer dans d’autres contextes afin de montrer leur détermination à agir contre les géants du numérique. Il convient de souligner que la PPL innove en prévoyant la possibilité de sanctions aussi lourdes pour non-retrait de contenus haineux dans les 24 heures. Or, dans un État de droit, toute sanction doit être soumise aux principes de nécessité et de proportionnalité. Par ailleurs, la PPL pourrait donner plus de précisions quant à la façon d’apprécier la « gravité » et le « caractère réitéré » des infractions concernées aux fins de la détermination du montant de la sanction pécuniaire.

  1. Penser la responsabilité pénale en articulation avec le droit européen

Le CNNum se réjouit de l’effort de la PPL de simplifier les mécanismes de signalement afin de faciliter cette opération. Il souligne néanmoins la nécessité de signalements de qualité. Le fait d’avoir choisi d’exclure certaines exigences de la LCEN (y compris celle de la description des faits litigieux et des motifs pour lesquels le contenu doit être retiré) pourrait conduire à la multiplication de signalements abusifs de la part de personnes mécontentes d’une critique ou une parodie publiée sur Internet, suivie d’un retrait quasi systématique de tels contenus de la part des responsables de plateformes craignant d’engager leur responsabilité. Pourtant, comme l’a souligné la Cour de Justice de l’Union européenne, « une notification ne saurait… automatiquement écarter le bénéfice de l’exonération de responsabilité prévue à l’article 14 de la directive 2000/31, étant donné que des notifications d’activités ou d’informations prétendument illicites peuvent se révéler insuffisamment précises et étayées». Si la PPL suggère le contraire, elle devrait être revue pour être mise en conformité avec les obligations européennes de la France.

  1. Assurer, de façon plus générale, la cohérence normative du Marché unique numérique

Après l’adoption de la loi NetzDG par l’Allemagne, c’est maintenant un autre grand pays européen, la France, qui propose l’adoption d’une loi sur la lutte contre les contenus haineux. Le Conseil s’inquiète de cette multiplication des législations nationales en Europe et ceci alors que ces lois nationales ont vocation à s’appliquer à des plateformes qui agissent bien au-delà des frontières nationales. Plutôt que de multiplier les initiatives nationales dans ce domaine, il convient peut-être d’entrer dans une logique d’harmonisation et de réfléchir à des solutions intelligentes et efficaces sur le plan européen, respectueuses des libertés et des droits fondamentaux.

  1. Prendre en compte le rôle des plateformes dans l'accélération des contenus et réfléchir aux moyens de réguler les systèmes eux-mêmes et pas seulement les contenus

Le Conseil estime opportun de consacrer des principes directeurs de loyauté et de transparence des plateformes dans la lutte contre les contenus illicites et de moderniser les moyens de la justice et de la régulation. Il est important de prendre en considération les modalités de diffusion des contenus et les moyens qui sont à l’origine de la viralité, car c’est souvent ce processus qui confère au contenu son caractère haineux ou le décuple, compte tenu de l’impact produit. L’impact ne devrait pas être mesuré exclusivement de manière quantitative, en nombre d’utilisateurs atteints. Une telle méthode risque d'occasionner un traitement asymétrique trop rigide des plateformes et de favoriser des manœuvres de contournement et de migration vers des plateformes plus petites.

  1. Procéder à une étude de l’efficacité et de la fiabilité ainsi qu’à une analyse des risques des « mesures proactives » fondées sur des dispositifs d’intelligence artificielle

Le CNNum considère que la mise en œuvre des moyens « technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus » (article 2 (III) de la PPL), pourrait encourager le recours à des systèmes de filtrage automatisé. Or l’appréciation du caractère « haineux » d’un contenu appelle souvent une interprétation contextuelle. Les pouvoirs publics ne devraient pas appeler de leurs vœux l’utilisation de dispositifs de filtrage automatisé sur la base d’un hypothétique perfectionnement futur des dispositifs d’intelligence artificielle dans ce domaine hautement complexe. Ils devraient exiger des plateformes des études d’impact permettant d’évaluer l’efficacité et la fiabilité de ces dispositifs et encadrer leur utilisation en fonction des impératifs de l’État de droit. Par ailleurs, le débat sur la suppression ou la détection/priorisation automatiques de contenus problématiques, ne devrait pas amener à occulter le problème de la pénibilité du travail effectué par les modérateurs de plusieurs plateformes.  

  1. Responsabiliser les entreprises sans que la fonction de modération des contenus ne renforce paradoxalement les plus puissantes d'entre elles

Les systèmes de modération des contenus encouragés par la PPL pourraient en effet conférer un avantage non négligeable aux grands acteurs qui disposent déjà des capacités techniques et des ressources humaines nécessaires pour s’y conformer, au détriment des acteurs plus petits auxquels des systèmes similaires pourraient être étendus dans l’avenir. L’opportunité d’un accompagnement et d’une assistance des petits acteurs du web devrait être étudiée.

Annexe sur la mission de régulation des réseaux sociaux

Annoncée par le président de la République à l’occasion du dernier Forum pour la Gouvernance de l’Internet, la mission sur la régulation des réseaux sociaux (débutée depuis janvier 2019) a pour objet de préfigurer à titre expérimental la mise en œuvre d’une régulation d’une grande plateforme numérique de contenus. La société Facebook s’est portée volontaire pour servir de cobaye dans cette expérimentation. Dans un premier temps, la mission a expérimenté avec Facebook la mise en œuvre d’une régulation visant à limiter la diffusion de discours haineux ou incitant à la haine sur cette plateforme. La mission étendra ce champ d’expérimentation à de nouvelles problématiques et plateformes au deuxième trimestre et mènera des travaux de comparaison avec différents États membres de l’Union européenne. Elle rendra son rapport pour juin prochain.

La mission est présidée par Frédéric Potier, pour la Délégation Interministérielle à la Lutte Contre le Racisme, l'Antisémitisme et la Haine anti-LGBT et par Serge Abiteboul, membre de l’Autorité de régulation des communications électroniques et des Postes (Arcep), au titre de ses compétences en algorithmique. Composée de sept experts et d’une équipe de trois rapporteurs permanents, la mission est interministérielle (ministère de la Culture, ministère de l'Économie et des Finances, ministère de l'Intérieur, ministère de la Justice, direction interministérielle du numérique et du système d'information et de communication de l'État...) et pluridisciplinaire (juristes, économistes, data scientists, régulateurs, acteurs terrain de la lutte contre les contenus haineux). Benoît Loutrel, mis à disposition par l’Institut national de la statistique et des études économiques, en est rapporteur ; il est secondé par deux experts du Conseil Supérieur de l’Audiovisuel et de l’Arcep.

La mission avait livré ses premiers éléments d’analyse sur la modération des contenus haineux effectuée par les réseaux sociaux lors d’une matinée dédiée à la régulation des contenus haineux. Cet événement avait été organisé par le Conseil national du numérique, le 14 février dernier, en présence de la députée Laetitia Avia. Il avait été clôturé par la secrétaire d’État chargée de l’Égalité entre les femmes et les hommes et de la lutte contre les discriminations, Marlène Schiappa, et par le secrétaire d’État chargé du Numérique, Mounir Mahjoubi.

 

 

Mots clés