Cénum #75 - Une semaine d'IA

Du vote de l’AI Act au rapport du Comité IA, cette semaine aura été marquée par de nombreuses actualités concernant l’intelligence artificielle, témoignant de l’importance des impacts, de la nécessité de mobilisation collective, mêlant recherche, instances de débat, régulation... Modèles économiques, rôles des autorités de la concurrence, enjeux politiques et appropriation collective, on en parle.

LE REGARD DE JOËLLE TOLEDANO, économiste, membre du Conseil national du numérique

"Le règlement sur l’intelligence artificielle, voté cette semaine, s’inscrit dans le prolongement du RGPD et du DSA et vise à nous protéger des risques identifiés dans le cadre de l’utilisation des systèmes d’intelligence artificielle. Il n’a pas vocation à répondre aux questions d’ordre technico-économique. De ce point de vue, l’histoire n’est pas faite, profitons-en pour nous poser quelques questions.
 
Pour l’instant, nous n’y voyons pas encore clair sur un marché où interagissent de nombreux acteurs, qui font évoluer constamment leurs offres, avec de nombreux avantages, d’aussi nombreux inconvénients, des résultats très évolutifs et des problèmes de confiance marqués. D’autant que les réponses apportées jusqu’à présent par leurs promoteurs ne sont pas toujours, c’est un euphémisme, à la hauteur des questions et que la technologie conserve sa part d’ombre. Parce que tout cela va très vite et parce qu’aucun outil d’évaluation n’est réellement établi, nous ne savons pas non plus quels modèles économiques domineront. De fait, il est clair qu’en l’état, il est encore trop tôt pour définir un cadre de régulation économique pour cette technologie émergente.
 
Ce qu’on peut observer néanmoins est tout d’abord que les Big Tech historiques plus Nvidia ont des atouts importants sur un à deux des trois segments de la chaine de valeur pouvant constituer autant de barrières à l’entrée : l’accès aux composants, la maîtrise du cloud et d’immenses quantités de données exploitables, sans même parler des « poches tellement profondes » qu’ils peuvent tout essayer, tout financer. Les coûts d’entrainement des gros modèles à vocation généraliste comme d’ailleurs la promotion des modèles propriétaires leur permettraient de limiter la concurrence à une poignée d’acteurs supposés plus raisonnables. La solution de l’open source, si elle présente des avantages indéniables et précieux, n’est pas la réponse unique à un marché émergent où les questionnements sont nombreux. L’expérience montre que la construction de modèles économiques pérennes passe souvent par des couches de logiciel propriétaire et des offres freemium. À contrario l’expérience montre aussi que l’open source peut servir de support à des stratégies de domination (Android est un « bel » exemple fourni par Google mais Amazon, Facebook ou Microsoft ne sont pas en reste).
 
En résumé, l’enjeu sera qu’en tant qu’Européens, nous ne soyons pas débordés par cette course au gigantisme dont les gagnants seraient déjà sous nos yeux.

S’il est donc trop tôt pour intervenir, nous pouvons néanmoins nous poser plusieurs questions clés : les autorités de concurrence ont-elles cette fois-ci la capacité d’empêcher ce qu’elles n’ont pas réussi à empêcher sur la vague précédente ?

Les autorités de concurrence du G7 ont indiqué fin 2023 qu’elles étaient « prêtes à faire face aux risques que le développement et l’utilisation de l’IA soient dominés par quelques acteurs disposant d’un pouvoir de marché qui empêcherait de tirer pleinement parti des avantages concurrentiels de l’IA ». En 2019 elles disaient un peu la même chose à propos des Big Techs et de leurs écosystèmes mais il est vrai que depuis leur logiciel a changé des deux côtés de l’Atlantique. Seront-elles capables de lever les verrous qui sont en train d’être installés ou vaudra-t-il mieux avoir recours à des remèdes ex ante ? Faudra-t-il explicitement introduire l’IA générative dans le DMA ? Les travaux et enquêtes en cours et la surveillance à venir devraient nous permettre d'évaluer si et selon quelles modalités une régulation économique ex ante sera opportune. On le voit, le règlement sur l'intelligence artificielle est loin d’être la fin de l’histoire. "
 
Pour aller plus loin :

POUR UNE APPROPRIATION COLLECTIVE DE L'IA

Le Comité IA a présenté cette semaine « IA : une ambition pour la France ». Parmi 25 recommandations, ce rapport pointe le besoin de lancer un plan de sensibilisation et de formation à l’IA dans les entreprises, dans l’éducation et dans la société.

A travers le dialogue social au sein des entreprises ou des "Cafés IA", il s’agit d’encourager l’appropriation collective, la compréhension et le débat autour de la technologie et notamment de l’IA. Les trois premières mesures de ce pilier font écho aux travaux du Conseil national du numérique ces dernières années :

  1. L’appel à créer un service public pour une éducation populaire au numérique, enseignement clé de la démarche Itinéraires numériques. (La restitution)
  2. Le soutien de la recherche sur les impacts des systèmes d’IA sur l’emploi, recommandation forte pour comprendre les transformations quantitatives et surtout qualitatives à l’œuvre, promue dans notre dossier Travailler à l’heure du numérique. Corps et machine. (Le dossier)
  3. Le dialogue social technologique effectif, régulier et transparent mesure phare portée aux côtés des partenaires engagés dans le Conseil national de la Refondation Numérique, qui avait été animé par le Conseil. (La feuille de route)

Des mesures que nous avons le plaisir de discuter et d’expérimenter avec de nombreux partenaires investis au quotidien sur ces questions. Ensemble, continuons à nous mobiliser en faveur de la mise en réseau des acteurs et des ressources pour garantir une appropriation collective de cette révolution anthropologique.
 
Pour aller plus loin : lire le dossier publié dans Le Monde.
 
Et d’ailleurs, “peut-on vraiment former à l’IA ?” Olga Koshagina, Joséphine Hurstel et Agathe Bougon sont intervenues lors d’une session mensuelle du Garf, le groupement des acteurs et des référents de la formation, sur les enjeux de la formation face à l’IA. Une discussion passionnante (en réponse à une question provocante) sur la place des formateurs au sein des entreprises et du changement d’approche nécessaire pour dépasser le seul déploiement d’outils et laisser la place au dialogue et à l’expérimentation.

L'ACTUALITÉ DU CONSEIL

Quels liens entre éducation aux médias et à l’information et éducation à la sexualité ? Après un premier échange réunissant plus de 60 personnes (à revoir ici), nous organisons une nouvelle discussion collective le jeudi 21 mars de 8h30 à 10h30, cette fois-ci à travers la problématique des liens entre éducation à la sexualité et éducation aux médias et à l’information. Comment se repérer dans un espace informationnel en ébullition ? En quoi et comment l’éducation à la sexualité pourrait-elle s’inspirer de l’éducation aux médias et à l’information ? Venez poser vos questions et partager vos expériences en présence notamment de Séverin Ledru-Milon et Jean-Baptiste Lusignan en vous inscrivant ici.

Inscription

EN BREF

Comment la technologie numérique peut-elle être utilisée pour transformer la société et développer la connaissance ? Olga Kokshagina appelle à favoriser une meilleure compréhension des connaissances qui façonnent notre avenir. ✦ Égalité femmes-hommes : pour un investissement réellement paritaire, notamment dans le monde de la Tech. La tribune de Tatiana Jama pour Les Échos est à découvrir ici.  ✦ À venir ? Joëlle Toledano intervient le 20 mars à la Keynote de clôture du MindMediaDay pour présenter les travaux du Conseil sur la répartition de la valeur. Informations et inscriptions.IA, désinformation, travail, régulation… Quels grands enjeux pour l’Europe ? Venez assister à la 12e édition de Tech for Future le 28 mars, avec notamment des interventions d’Anne Alombert, Gilles Babinet et Joëlle Toledano. Inscriptions. ✦ Jean Cattan sera quant à lui sur BSmart le 21 mars pour parler du rôle des services de signalements dans la lutte contre les contenus violents sur internet. 

Partager