Doge : piratage en cours
Élargir l'approche critique ✦ Framamia ✦ Comment le numérique peut-il permettre de renforcer l’EVARS ? ✦ Les CaféIA à venir ✦ Et l'actu du Conseil...
Bonjour, nous sommes le vendredi 4 avril 2025. Cette semaine, nous interrogeons notre vulnérabilité en observant celle de l'Amérique et nous vous invitons à un événement le 16 avril sur l'éducation à la vie affective, relationnelle et sexuelle. Bonne lecture !
Doge : piratage en cours
Jean Cattan et Hubert Guillaud
La collecte de données sur la population est un levier de contrôle historique de cette dernière. C'est un fait qui a arpenté l'histoire de la statistique, que l’on pense à l’étude de la gouvernementalité par Michel Foucault, à la gouvernementalité algorithmique d’Antoinette Rouvroy ou à La Gouvernance par les nombres d’Alain Supiot. C'est d'ailleurs une des raisons pour lesquelles nous sommes sensibles au traitement des données personnelles, que ce soit par l'État ou par toute autre entité. Et c'est la raison pour laquelle nous instituons des procédures de contrôle sur la collecte, le stockage, l'accès et le traitement de la donnée sur la population.
En ce qu’elles reposent par définition sur des chiffres et des données, les technologies numériques sont naturellement empreintes de cette dialectique entre contrôle de la population et contrôle des traitements de données. Face à cette dialectique, nul hasard à ce que, dans le cortège de Donald Trump, des personnes comme Elon Musk se saisissent des serveurs d'Etat pour se baigner dans un océan de données toutes plus personnelles les unes que les autres. Pour reprendre l’expression d’Armand Mattelard, des personnes comme Musk, mais bien d’autres malheureusement, nagent en pleine “mystique du nombre”.
Un coup Data. Mais ce qui apparaît plus gravement encore dans l'exécution de cette politique aux États-Unis est l'incapacité d'un système qui se dit démocratique à résister à l'assaillant de l'intérieur pour se saisir hors de tout contrôle de ces données. C’est là que quelque chose de dangereusement nouveau apparaît. Sans mandat ni attribution claires, le Département de l’efficacité (Doge) a pris les commandes de nombreux systèmes informatiques de l'État fédéral américain, avec un cadre d’exercice aussi confus que le périmètre de ses missions. Au XXIe siècle, le démantèlement de l’État de droit commencerait désormais par “prendre le contrôle des autorisations d’un serveur”, et ce, en violation de toutes les procédures existantes.
Une agence d'État, sans autorité valide - que Musk ne dirige d’ailleurs même pas, même si sa tutelle en a tous les attributs - a ainsi obtenu des accès en mode administrateur aux infrastructures critiques de nombre de services fédéraux. Contournant les procédures de sécurité établies, le Doge peut désormais non seulement consulter et exploiter d’innombrables bases de données extrêmement sensibles, mais également, modifier les données et effacer les traces de ces modifications, expliquait The Atlantic. Le New York Times rapporte par exemple que les services du Doge viennent d’obtenir l’accès à un système de paie qui traite les salaires d'environ 276 000 fonctionnaires fédéraux répartis dans des dizaines d'agences, passant outre toutes les objections des responsables informatiques et les oppositions des cadres administratifs. Les équipes du Doge ont obtenu un accès leur permettant “de modifier le statut d'emploi, le niveau de rémunération, les prestations de santé, etc., sans aucune surveillance ni approbation supplémentaire” et ce, comme ont tenté de s’en défendre les cadres de l’administration, alors qu’aucun responsable de ces bases “n'a actuellement accès à tous les systèmes de RH, de paie et d'accréditation” simultanément, afin de renforcer les protections.
Normalement, les accès suivent des protocoles complexes pour garantir l'incorruptibilité des bases de données, par exemple en faisant que très peu de personnes aient des accès à l’intégralité des bases. De même, les protocoles de sécurité sont attentifs au fait que les accès aux différentes bases de données ne soient pas concentrés dans les mains de quelques administrateurs. Les protocoles d’échanges permettent aux bases de fonctionner les unes avec les autres, et seuls quelques rares administrateurs systèmes, dont les accès sont eux-mêmes enregistrés, ont des vues un peu plus globales sur les bases et leurs interconnexions. Mais ici, les ingénieurs du Doge ont accès à tout. Dans certains services, ils ont accès jusqu’aux mails qu’ils peuvent lire, voire transformer. The Atlantic parle d’un accès en “mode dieu”, c’est-à-dire un accès à tous les paramètres de contrôle au détriment de toutes les règles de sécurité informatique établies jusqu’à présent.
La plupart des agences n’ont eu aucun moyen pour s’opposer aux demandes d’accès. Les hauts fonctionnaires qui s’y sont refusés ont été limogés, et, face à l’autorité très ambiguë du Doge, les administrateurs systèmes n’ont pas eu d’autre choix que de confier aux “Doge kids”, les jeunes ingénieurs qui travaillent pour Musk, les accès aux systèmes. Pour l’instant, à ce qu’on en sait, l’autorité des marchés financiers est l’une des administrations qui semble avoir résisté aux demandes d’accès du Doge, en créant une équipe de liaison spécifique pour répondre aux demandes, rapporte Reuters.
Les règles de sécurité n’ont pas fonctionné. Pourtant, dans l’administration publique comme dans les services privés, des procédures de protection existent, afin que n’importe qui ne puisse pas accéder aux bases de données et infrastructures critiques. Les accès sont réglementés, surveillés, distribués d’abord et avant tout pour limiter les intrusions extérieures bien sûr, mais également limiter les intrusions et corruptions intérieures. C’est le principe même de la sécurité informatique. Restreindre les accès à haut niveau et les rendre indépendants, en veillant par exemple que l’administrateur d’un système ne soit pas aussi l’administrateur d’un autre.
La question que pose cette intrusion d’une nature nouvelle n’est pas que politique ou juridique - même si elle est d’abord et avant tout juridique et politique. Politiquement, pour l’instant, les enjeux majeurs du bouleversement des protocoles de sécurité sont peu discutés, hormis par les spécialistes, horrifiés de ce qui se déroule. Juridiquement, plusieurs juges et juridictions tentent de s’opposer aux intrusions du Doge, rapporte le New York Times, par exemple en interdisant de communiquer au Doge des données non expurgées, mais sans parvenir à rendre leurs ordonnances effectives. Pourtant, comme l’explique Maya Sen, professeure de droit à Harvard, pour le LPE Project, l’administration Trump perd ses procès à un rythme remarquable, quel que soit le camp politique des juges… ce qui conduit surtout l’administration Trump à être plus véhémente contre l’opposition des juges, dénoncée comme une opposition politique, alors qu’elle est d’abord et avant tout une protection constitutionnelle qui vise à faire respecter le droit.
La légitimité et l’autorité que nous conférons aux juges et aux procédures sont les remparts ultimes pour empêcher des exactions comme celles commises sous la tutelle de Musk et subséquemment toute atteinte illicite à nos droits. Si ce rempart saute, alors rien de ce qui relève de la démocratie ne tient. Toute barrière technique aussi fiable soit-elle en temps de démocratie vole en éclat en temps d’autocratie.
Pour autant, nul besoin d’en arriver là pour se poser la question des remparts pouvant être placés de sorte à prévenir toute dérive du pouvoir sur nos données, quelle que soit la nature du pouvoir en place. L’intrusion du Doge dans les systèmes critiques de l'État fédéral amène aussi à poser la question de savoir dans quelle mesure les techniques de sécurité informatique peuvent ou non empêcher la corruption de systèmes critiques de l’intérieur.
Sommes-nous vulnérables ? Même si la situation américaine est très particulière, cette intrusion devrait nous interroger. Comment nos systèmes sont-ils protégés pour éviter des formes de corruption allant des plus ponctuelles au plus extrêmes ? Nos protections constitutionnelles et administratives, techniques et juridiques, sont-elles suffisantes pour qu’une telle mainmise ne puisse être possible ? Même si la situation ne peut-être similaire, le contournement des procédures sécurisées d’accès par une autorité pose des questions nouvelles et nécessite d’interroger nos propres procédures pour regarder si elles pourraient être contournées et où sont les verrous protégeant notre État de droit. Nous ne pouvons que gagner à y réfléchir ensemble, et à prendre au sérieux le scénario de ce qu’il se passe de l’autre côté de l’Atlantique afin de nous en prémunir.
🔎 La veille du Conseil
Élargir l’approche critique
Pour l’association Cortecs, l’ancien animateur de la Méthode scientifique sur France Culture, Nicolas Martin, revient sur les limites de l’éducation à l’esprit critique, et prône des “approches critiques” et collectives de notre rapport à l’information pour s’extraire de l’enfermement du seul rapport individuel à l’information. Et Martin de dénoncer : ”aujourd’hui l’accent est très largement mis sur l’amélioration individuelle de nos facultés critiques et très peu sur l’amélioration des ressorts communs dans la circulation de l’information”. Et de préciser dans la foulée que son propos n’est pas “un appel contre l’éducation à l’esprit critique, bien au contraire. C’est un appel pour une meilleure coordination entre des enseignements d’une part et, d’autre part, la prise en considération de changements démocratiques, médiatiques, économiques, numériques… qui régissent la circulation de l’information et qui pourraient être bénéfiques.”
Framamia : comprendre l'IA avec Framasoft
L’association Framasoft propose une belle page d’explications simples, claires, accessibles et très pédagogiques pour aider tout un chacun à comprendre l’intelligence artificielle. Cette page se poursuit d’un outil de veille dédié et d’une revue mensuelle sur l’actualité de l’IA (Framiactu) chaque second mercredi du mois. La deuxième édition est à retrouver ici, on y parle entre autres d’une analyse de Limites numériques sur la façon dont les grandes plateformes nous imposent d’utiliser l’IA générative, du coût économique et environnemental de GPT 4.5 ou encore de l’impact des modèles de langage sur notre esprit critique…
Dompter la machine
A l’occasion de la sortie de son nouvel ouvrage, L’heure des prédateurs, Giuliano da Empoli livre sa vision de l’époque et notre relation à la technologie dans les colonnes du Figaro. Extrait : « Sera-t-on prêt à tolérer un système de plus en plus technocratique ? C’est la vraie question. L’intelligence voudrait qu’on essaie d’intégrer ces instruments de façon démocratique, ce qui n’est pas impossible. Rilke disait : “Je vis en mauvaise intelligence avec les appareils photos parce que je trouve qu’ils sont trop arrogants et ils n’ont pas l’humilité que les machines devraient toujours avoir.” J’aime cette idée de l’humilité des machines. Or, pour rendre les machines humbles, il ne faut pas être luddite ; il faut au contraire être suffisamment avancé technologiquement pour pouvoir dompter la machine.” »
📬 Vous avez lu un article, écouté un podcast ou regardé une vidéo que vous souhaitez nous partager ? Ecrivez-nous à info@cnnumerique.fr 👋
📆 Évènement
Inscrivez-vous pour échanger le 16 avril à Sciences Po sur l’éducation à la vie affective, relationnelle et sexuelle. Dans la poursuite du partenariat entre le Conseil et le Programme d'études sur le genre de Sciences Po, nous organisons le 16 avril prochain une conférence sur le thème « Éveil à la vie affective, relationnelle et sexuelle : donner le pouvoir d’agir ». Dans un espace informationnel en ébullition, où nous naviguons entre des contenus tantôt émancipateurs tantôt toxiques, comment le numérique peut-il permettre de renforcer l’EVARS ? Une table ronde animée par Joséphine Corcoral avec :
- Claire Bey, cheffe du bureau de la santé et de l’action sociale de la Direction générale de l’enseignement scolaire (DGESCO) du Ministère de l'éducation nationale et de la jeunesse,
- Philippe Martin, ingénieur de recherche en santé publique à l'Institut national de la santé et de la recherche médicale (Inserm), responsable du projet de recherche participative Sexpairs,
- Najat Vallaud-Belkacem, ancienne ministre, co-directrice du Certificat égalité femmes-hommes et politiques publiques de l'École d'affaires publiques de Sciences Po.
Où ? Amphithéâtre Claude Érignac, 13 rue de l'Université, 75007 Paris.
Quand ? Le 16 avril 2025 de 17h00 à 19h00.
Information et inscription
☕ Les actualités de Café IA !
Le Journal de Saône-et-Loire et Le Progrès reviennent sur le premier Café IA de l’association des maires du Jura (AMJ) qui s’est tenu le 18 mars dans le cadre de l’accompagnement de l’AMJ par Réseau Canopé et en présence de plusieurs maires et élus locaux. La Banque des territoires dresse également un large portrait de Café IA, des divers formats mis en avant à travers la démarche à la formation Café IA à destination des médiateurs et des conseillers numériques. À lire ici.
Café IA continue à se structurer et à se déployer en toute autonomie partout en France. De très nombreux Cafés IA s’organisent, notamment :
- Aux Ulis, cet après-midi avec France Travail ;
- Boulogne, le 5 avril au festival Résonances organisé par The Good Planet et avec Nicolas Chagny à l’animation ;
- Langres, le 8 avril dans le cadre du NEC Haute-Marne ;
- Paris, le 9 avril, avec l’association Entreprendre pour apprendre ;
- Ploufragan le 10 avril, au Village by CA Côtes dArmor, avec le MEDEF 22 et l'UIMM22 et dans le cadre d’une série de 5 Cafés IA jusqu’en décembre ;
- Nancy, le 11 avril, avec France Num ;
- Bordeaux, le 14 avril avec Aquinum.
Recrutement
Nous sommes à la recherche de trois profils pour venir nous aider à construire et faire vivre Café IA parmi de nombreux autres projets à venir :
- Une chargée ou un chargé d'animation,
- Deux rédactrices ou rédacteurs (ici et là).
🏃 En bref... Le reste de l’actualité du Conseil !
« Le problème, ce n’est donc pas l’intelligence artificielle en tant que telle, mais les idéologies politiques, les fonctionnalités technologiques et les modèles économiques qui sous-tendent les systèmes dominants, fondés sur les analogies réductionnistes entre esprits et machines, [...] puis sur le remplacement des savoirs vivants par des systèmes algorithmiques. » Dans le nouveau numéro de la revue Esprit, « L’IA aux frontières de l’esprit », Anne Alombert invite à mettre les industries numériques au service de l’intelligence collective. Face à des technologies qui ne sont pas neutres sur le plan politique, en raison des choix effectués par leurs concepteurs ainsi que des données d’entraînement elles-mêmes biaisées qui risquent de faire perdre aux citoyens leurs « savoir-penser », l’enjeu consiste à concevoir des dispositifs qui soutiennent les capacités psychiques, mentales et intellectuelles et à soutenir des pratiques numériques interprétatives, démocratiques et délibératives. L’article est à découvrir ici. ✦ « Les réseaux sociaux incitent à l'achat, pas à la socialisation ». Alors que TikTok lance cette semaine en Europe sa nouvelle fonctionnalité “TikTok shop” qui permet aux utilisateurs d’acquérir tous les objets qu’ils auront détectés sur des posts d’influenceurs, Jean Cattan appelle dans l’Humanité à ne pas laisser les réseaux sociaux être cannibalisés par des géants numériques et à la mise en place de garde-fous. ✦ Jean Cattan était aussi l’invité de 6h35 sur France Info ce matin pour réagir à la publication des tendances audio-vidéo 2025 de l’Arcom : si le temps de consommation de contenus vidéos est très important chez les 15-24 ans (5h21 par jour), il est tout aussi important pour l'ensemble de la population (4h40) et pour les 65 ans et plus (près de 5h. Étant observé que, là où ce temps d’usage est très varié chez les jeunes publics avec une dominante claire sur les réseaux sociaux, l’usage de la télévision linéaire en direct reste très majoritaire chez les plus âgés. Les chiffres de la consommation vidéo attestent d’une forme de fracture des usages médiatiques au sein de la population et invite au dialogue ainsi qu’au dépassement des situations d’isolement, qu’elles soient individuelles ou générationnelles. ✦ Mardi, Joëlle Toledano et Gilles Babinet étaient tous deux invités à débattre au sujet des réseaux sociaux sur la scène de Tech for Future, l’évènement annuel de La Tribune (vidéo en ligne). En référence aux travaux de Robert Putnam sur l’isolement dans la population américaine justement, Gilles Babinet est revenu sur la nécessité de redonner une place aux “conversations désagréables” en lieu et place de la polarisation induite par les algorithmes de recommandation. Pour Joëlle Toledano quant à elle, « il faut revenir à la question de la publicité ciblée, du financement et de la dynamique de ces réseaux. Ce n’est pas en ayant des algorithmes alternatifs un peu bisounours qui seraient un peu plus gentils qu’on empêchera nos gamins d’aller éventuellement sur ce qui les attire le plus, s’ils sont éventuellement en concurrence. Donc allons vers la question du modèle économique des réseaux sociaux et attaquons nous au problème. » ✦ Y a-t-il une IA pour sauver la planète ? Revivez le Tribunal des Générations Futures en podcast ! Usbek & Rica publie sous forme de podcast un résumé de 15 minutes du tribunal des générations futures (TGF) qui s’est tenu le 7 février à la Sorbonne. Pour découvrir le verdict, c’est par ici. Et si vous voulez visionner l’intégralité de cette édition du TGF, c’est ici.
👋 Avant de partir
Vous avez apprécié la lettre d’information de cette semaine ? Partagez-la à un ami ou un collègue. Ils peuvent s’inscrire ici.
Comme d’habitude, n’hésitez pas à nous faire vos retours. Vous avez des questions, des remarques ou des suggestions ou vous souhaitez que nous abordions un sujet en particulier ? Nous sommes à votre écoute ! N’hésitez pas à répondre à ce mail ou à nous écrire à info@cnnumerique.fr.
Cette lettre d’information a été préparée par Jean Cattan et Hubert Guillaud, illustrée par Magali Jacquemet et réalisée avec le soutien de Gabriel Ertlé et Joséphine Corcoral.