« La décentralisation du réseau social sert sa démocratisation »

Dans une tribune pour Chut ! Magazine, Jean Cattan, secrétaire général du Conseil national du numérique, invite à mettre en place une modération communautaire des réseaux sociaux.

Au cœur d’un réseau social chacun·e peut créer, proposer et nourrir de ses idées les utilisateur·rices. Or, tout en permettant une décentralisation de la prise de parole, les réseaux centralisent nos espaces de discussion car quelques entreprises concentrent les fonctions de recommandation et de modération des contenus.

EN CE QUI CONCERNE LA MODÉRATION, chez la plupart des réseaux dominants, la modération automatisée permet de traiter la masse des contenus. L’essentiel du travail de détection est fait par la machine, à grand renfort de robots et autres intelligences artificielles. Tout en étant largement externalisée, la modération humaine contrôlée par le réseau social occupe aussi une grande place pour valider, définir les lignes ou traiter les cas problématiques. Pour affiner leurs règles de modération, qu’elle soit automatique ou humaine, les grands réseaux sociaux s’appuient sur des associations et autres « signaleurs de confiance » qui les conseillent, les orientent et les surveillent.

Un troisième ressort de la modération consiste à s’appuyer sur la communauté des utilisateurs et utilisatrices pour détecter, retirer, pondérer ou commenter les contenus problématiques. Cela permet aux réseaux sociaux de renouer avec l’idée que le recours à la multitude peut être un moyen d’action efficace pour trouver des solutions à des problèmes complexes. À condition néanmoins de ne pas dévoyer l’intervention de la communauté en lui mettant sur les épaules un fardeau qui devrait être de la responsabilité des plus grandes entreprises.

Alors que les critiques se font légitimement entendre quant à la qualité de la modération opérée par certaines plateformes dominantes, comment évaluer cette modération ? Si l’efficacité de la modération est un objectif majeur, il est également nécessaire de prendre en compte son caractère démocratique. Car il ne suffit pas de bannir à outrance. Il s’agit de trouver les équilibres et les modalités de modération les plus appropriés dans nos sociétés démocratiques. Comment alors faire en sorte que les contenus les plus toxiques soient moins visibles tout en assurant l’implication du plus grand nombre dans les choix de modération ?

Architecture décentralisée, modération démocratique

Pour résoudre cette équation, il faudra le plus souvent faire intervenir plusieurs paramètres en amont. Parallèlement à la modération, la question de la recommandation est primordiale. Mais l’architecture du réseau social peut être plus déterminante encore. Ce qui apparaît alors est que plus l’architecture de la plateforme sera décentralisée, plus l’effort de modération sera allégé et pourra être mis entre les mains de la communauté. La décentralisation du réseau social sert sa démocratisation.

Pour s’en convaincre, observons les choses d’un point de vue empirique. Sur certaines plateformes, la modération par la communauté occupe une place fondamentale, comme sur Wikipédia par exemple, par ailleurs soumise aux mêmes règles européennes que les très grands réseaux sociaux. La modération par toute personne intéressée y est liée à la nature même de la rédaction des contenus. C’est ce qui fait la richesse de Wikipédia en comparaison avec d’autres formats d’encyclopédies.

Dans le prolongement du projet d’encyclopédie en ligne, Jimmy Wales avait fondé WikiTribune puis WT Social, un réseau social centré sur l’information et se voulant non toxique. La contribution et la modération communautaires y étaient reines. Puis WT Social est devenu Trust Café, où nous retrouvons une architecture représentée cette fois-ci sous forme d’arbre : chaque communauté peut créer des branches sur lesquelles sont animés des échanges autour de différents thèmes. La structure par branches, différente de celle où tous les contenus se retrouvent sur un même flux (comme sur X, ex-Twitter, par exemple) est peu ou prou la même que sur Reddit, comme cela est pleinement reconnu par les fondateurs de Trust Café. Et pour cause, c’est précisément cette organisation en plus petits forums thématiques qui rend la modération possible pour des communautés d’utilisateur·rices.

Ainsi, Reddit apparaît comme un exemple de plateforme sur laquelle la modération communautaire est clairement au coeur du fonctionnement du réseau social. Chaque salon de discussion thématique, dit « subreddit », affiche la liste des modérateur·rices bénévoles du salon. Sachant que ces modérateur·rices peuvent être assisté·es, comme sur Wikipédia, de robots qui leur facilitent la tâche. Soit un type de modération finalement assez proche de ce que l’on peut connaître sur les groupes privés Facebook ou sur des salons Discord où la modération revient aux administrateur·rices de la page.

Une place marginale

Là encore, il s’agit de modérer des groupes de taille limitée et non un flux brassant des centaines de millions de contenus émis par des personnes qui n’ont rien en commun. Sur X, la modération communautaire ne pourra a priori n’avoir qu’une place marginale : en l’état, il n’est pas envisageable de confier aux utilisateur·rices les rênes de la modération d’un flux généraliste où aucune différence n’est marquée entre les usagers et dont la vocation est parfois de créer le conflit. Et, de fait, la modération communautaire y est limitée à l’édition et à l’évaluation de « notes de la communauté » ayant pour but d’apporter du contexte à des posts et, dès lors, de pondérer leur traitement par l’algorithme de recommandation.

À l’inverse des réseaux sociaux dominants, Mastodon reste le cas le plus emblématique d’un réseau décentralisé où la modération peut l’être tout autant : toujours dans la perspective de rassembler des utilisateur·rices autour de principes partagés, ce réseau social dit « fédéré » est composé d’instances créées par quiconque grâce au code libre constitutif du réseau. Chaque personne ou équipe administrant une instance y est responsable de la modération en conformité avec les règles d’utilisation qu’elle aura préalablement définies.

Selon la tonalité souhaitée, la modération sera plus ou moins exigeante. Sur des instances d’extrême-droite, la modération sera quasiment absente, à l’inverse d’autres instances plus protectrices. Libre ensuite à chaque responsable d’instance et à chaque utilisateur·rice de s’interconnecter avec une autre instance et donc une autre communauté soumise à une autre modération. La pluralité d’instances, d’états d’esprits ou de politiques de modération permet à tout un chacun de réellement choisir l’environnement dans lequel il ou elle veut graviter, et ce, sans subir les effets d’enfermement d’un réseau donné. Cela ne résout certainement pas tous les problèmes, à commencer par l’existence d’instances particulièrement toxiques. Cela permet en revanche d’en préserver le plus grand nombre d’utilisateur·rices et d’alléger le fardeau de la modération sur chaque instance, la rendant accessible à la communauté.

Pour finir ce tour d’horizon de la modération communautaire, arrêtons-nous sur le cas de Twitch. Twitch est un réseau social centré sur la diffusion de chaînes en direct, initialement dédié au jeu et au divertissement, où chacun·e peut voir à l’oeuvre les modérateur·rices des espaces de discussions qui se déroulent en direct en marge de chaque vidéo. Les influenceur·ses y délèguent à des « modos » (diminutif de modérateur) la fonction de modérer les propos qui y sont tenus pendant qu’ils et elles présentent ou animent les émissions. Ces personnes volontaires, et le plus souvent bénévoles, ont un statut particulier dans la communauté qui gravite autour de chaque chaîne. Elles sont respectées et saluées lors de débats difficiles. Ce sont elles qui décident du bannissement des utilisateur·rices des tchats après entrave aux règles de la communauté.

Poussant le phénomène un cran plus loin, de manière amusante et intéressante pour les un·es ou très peu appropriée pour les autres, Squeezie et d’autres influenceur·ses ont créé le « tribunal des bannis ». Dans ces vidéos, ils décident, dans une salle de tribunal empruntée comme décor, du rétablissement des « bannis » du tchat. À la modération communautaire se joint une forme de « jury populaire », poussant le cran de l’implication de la communauté encore un peu plus loin, puisque les personnes dans le public sont souvent sollicitées pour donner leur avis. Généralement, le moment est sympathique et se déroule dans la bonne humeur, les enjeux étant loin d’être colossaux. Sauf lorsque l’exercice se double d’humiliations ou que des personnes prenant position depuis le public se trouvent livrées en pâture. Les limites du système se font alors clairement ressentir.

Reconnaître, protéger et rétribuer

À l’inverse d’une modération quelque peu anarchique et livrée à elle-même, comment pouvons-nous penser la protection et la rétribution de la modération communautaire ? En ce qui concerne la rétribution, plusieurs idées peuvent être proposées. Par exemple, nous pouvons penser à la rétribution directe ou indirecte de celles et ceux qui opèrent une modération de qualité. Plusieurs risques sont cependant à noter. Le premier est la déception potentielle des communautés heureuses de s’être octroyées un espace de liberté et d’auto-organisation et tenant de ce fait au bénévolat. Un autre risque non négligeable à prendre en compte est de voir un nouveau type de micro-travail se généraliser, avec ce que cela engendre comme abus et asymétries entre travailleur·ses précaires et entreprises ultrapuissantes.

Une autre piste pourrait être de considérer la modération par la communauté comme une contribution à notre bien-être collectif. Dans ce scénario, la modération deviendrait un acte civique qui pourrait faire l’objet d’un revenu contributif ou de journées contributives allouées sur le temps de travail. Néanmoins, même dans ce scénario, nous en restons à la situation où des personnes de bonne volonté purgent le web des externalités négatives des plateformes. Qui plus est, nous savons combien l’exposition aux contenus les plus problématiques peut être traumatisante, même pour des professionnel·les. De manière inéluctable, qu’il s’agisse de modérateur·rices professionnel·les ou non, comment les protéger face à des contenus insupportables ? Toujours alléger la charge de la modération en développant des mécanismes de mutualisation et, pourquoi pas, des modes de traitement automatique des contenus les plus violents reste une piste à approfondir.

Ce que nous enseigne cependant l’examen de la modération par le prisme de la modération communautaire est que la solution la plus efficace reste encore de revenir, en amont, à l’architecture du réseau social dans laquelle s’inscrivent nos conversations. Éviter de nous plonger dans des bains gigantesques de contenus dans lesquels une prime est accordée à la toxicité sera un prérequis. À l’inverse, les architectures décentralisées compartimentant les espaces de discussion permettront, dans une certaine mesure, de nous préserver. Elles nous offriront par la même occasion une chance de nous approprier un peu plus les règles que nous nous appliquons.

Lire la tribune sur le site de Chut !

Média

Partager