❌

Vue lecture

Entretiens d’embauche chatbotisĂ©s

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

ScannĂ©s par l’IA

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

Entretiens d’embauche chatbotisĂ©s

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

ScannĂ©s par l’IA

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

Renverser le pouvoir artificiel

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

Renverser le pouvoir artificiel

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

Pour lutter contre la désinformation, il faut reconstruire du social

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

Pour lutter contre la désinformation, il faut reconstruire du social

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

La santé au prisme de son abandon

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

La santé au prisme de son abandon

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

IA et éducation (2/2) : du dilemme moral au malaise social

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser Ă  Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

IA et éducation (2/2) : du dilemme moral au malaise social

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser Ă  Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

25 juin : DLA en fĂȘte !

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

25 juin : DLA en fĂȘte !

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

Ecrire le code du numérique

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.

Ecrire le code du numérique

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.

Chatbots, une adoption sans impact ?

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

Chatbots, une adoption sans impact ?

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

Pour une science de la subjectivité

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

Pour une science de la subjectivité

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

La surveillance au travail s’internationalise

Le rapport de Coworker sur le dĂ©ploiement des « petites technologies de surveillance » – petites, mais omniprĂ©sentes (qu’on Ă©voquait dans cet article) – rappelait dĂ©jĂ  que c’est un essaim de solutions de surveillance qui se dĂ©versent dĂ©sormais sur les employĂ©s (voir Ă©galement notre article “RĂ©guler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystĂšme des petites technologies intĂšgre la surveillance et le contrĂŽle algorithmique dans le quotidien des travailleurs, souvent Ă  leur insu, sans leur consentement ni leur protection”. L’enquĂȘte  observe cette extension dans six pays – le Mexique, la Colombie, le BrĂ©sil, le NigĂ©ria, le Kenya et l’Inde – “oĂč les cadres juridiques sont obsolĂštes, mal appliquĂ©s, voire inexistants”. Le rapport rĂ©vĂšle comment les startups financĂ©es par du capital-risque amĂ©ricain exportent des technologies de surveillance vers les pays du Sud, ciblant des rĂ©gions oĂč la protection de la vie privĂ©e et la surveillance rĂ©glementaire sont plus faibles. Les premiers Ă  en faire les frais sont les travailleurs de l’économie Ă  la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus dĂ©guisĂ©e en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus prĂ©sentĂ©e comme un outil de sĂ©curitĂ©, de bien-ĂȘtre et de productivitĂ©, masquant une surveillance coercitive sous couvert de santĂ© et d’efficacitĂ©â€.

Pourtant, “des Ă©boueurs en Inde aux chauffeurs de VTC au NigĂ©ria, les travailleurs rĂ©sistent au contrĂŽle algorithmique en organisant des manifestations, en crĂ©ant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

La surveillance au travail s’internationalise

Le rapport de Coworker sur le dĂ©ploiement des « petites technologies de surveillance » – petites, mais omniprĂ©sentes (qu’on Ă©voquait dans cet article) – rappelait dĂ©jĂ  que c’est un essaim de solutions de surveillance qui se dĂ©versent dĂ©sormais sur les employĂ©s (voir Ă©galement notre article “RĂ©guler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystĂšme des petites technologies intĂšgre la surveillance et le contrĂŽle algorithmique dans le quotidien des travailleurs, souvent Ă  leur insu, sans leur consentement ni leur protection”. L’enquĂȘte  observe cette extension dans six pays – le Mexique, la Colombie, le BrĂ©sil, le NigĂ©ria, le Kenya et l’Inde – “oĂč les cadres juridiques sont obsolĂštes, mal appliquĂ©s, voire inexistants”. Le rapport rĂ©vĂšle comment les startups financĂ©es par du capital-risque amĂ©ricain exportent des technologies de surveillance vers les pays du Sud, ciblant des rĂ©gions oĂč la protection de la vie privĂ©e et la surveillance rĂ©glementaire sont plus faibles. Les premiers Ă  en faire les frais sont les travailleurs de l’économie Ă  la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus dĂ©guisĂ©e en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus prĂ©sentĂ©e comme un outil de sĂ©curitĂ©, de bien-ĂȘtre et de productivitĂ©, masquant une surveillance coercitive sous couvert de santĂ© et d’efficacitĂ©â€.

Pourtant, “des Ă©boueurs en Inde aux chauffeurs de VTC au NigĂ©ria, les travailleurs rĂ©sistent au contrĂŽle algorithmique en organisant des manifestations, en crĂ©ant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

Qui est l’utilisateur des LLM ?

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

Qui est l’utilisateur des LLM ?

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

IA : intelligence austéritaire

Aux Etats-Unis, la collusion entre les gĂ©ants de la tech et l’administration Trump vise Ă  “utiliser l’IA pour imposer des politiques d’austĂ©ritĂ© et crĂ©er une instabilitĂ© permanente par des dĂ©cisions qui privent le public des ressources nĂ©cessaires Ă  une participation significative Ă  la dĂ©mocratie”, explique l’avocat Kevin De Liban Ă  Tech Policy. Aux Etats-Unis, la participation dĂ©mocratique suppose des ressources. “Voter, contacter des Ă©lus, assister Ă  des rĂ©unions, s’associer, imaginer un monde meilleur, faire des dons Ă  des candidats ou Ă  des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisĂ©es soient bien plus enclines Ă  participer que celles qui ont des moyens limitĂ©s. Dans un pays oĂč prĂšs de 30 % de la population vit en situation de pauvretĂ© ou au bord de la pauvretĂ© et oĂč 60 % ne peuvent s’offrir un minimum de qualitĂ© de vie, la dĂ©mocratie est dĂ©savantagĂ©e dĂšs le dĂ©part”. L’IA est largement utilisĂ©e dĂ©sormais pour accentuer ce fossĂ©. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements mĂ©dicaux nĂ©cessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou rĂ©duire les soins Ă  domicile pour les personnes handicapĂ©es. Les gouvernements ont de plus en plus recours Ă  l’IA pour dĂ©terminer l’éligibilitĂ© aux programmes de prestations sociales ou accuser les bĂ©nĂ©ficiaires de fraude. Les propriĂ©taires utilisent l’IA pour filtrer les locataires potentiels, souvent Ă  l’aide de vĂ©rifications d’antĂ©cĂ©dents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employĂ©s, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activitĂ©s. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prĂ©dire quels Ă©lĂšves pourraient commettre un dĂ©lit Ă  l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la dĂ©tresse d’usagers, les empĂȘchant de comprendre ce Ă  quoi ils sont confrontĂ©s, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces dĂ©cisions difficiles Ă  contester. Et au final, cela contribue Ă  renforcer l’exclusion des personnes Ă  faibles revenus de la participation dĂ©mocratique. Le risque, bien sĂ»r, c’est que ces calculs et les formes d’exclusion qu’elles gĂ©nĂšrent s’étendent Ă  d’autres catĂ©gories sociales
 D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des dĂ©cisions sur toutes les catĂ©gories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour amĂ©liorer significativement l’accĂšs Ă  l’emploi, au logement, aux soins de santĂ©, Ă  l’éducation ou aux prestations sociales Ă  une Ă©chelle Ă  la hauteur de ses dommages. Cette dynamique actuelle suggĂšre que l’objectif sous-jacent de la technologie est d’enraciner les inĂ©galitĂ©s et de renforcer les rapports de force existants”. Pour rĂ©pondre Ă  cette intelligence austĂ©ritaire, il est nĂ©cessaire de mobiliser les communautĂ©s touchĂ©es. L’adhĂ©sion ouverte de l’administration Trump et des gĂ©ants de la technologie Ă  l’IA est en train de crĂ©er une crise urgente et visible, susceptible de susciter la rĂ©sistance gĂ©nĂ©ralisĂ©e nĂ©cessaire au changement. Et “cette prise de conscience technologique pourrait bien ĂȘtre la seule voie vers un renouveau dĂ©mocratique”, estime De Liban.

IA : intelligence austéritaire

Aux Etats-Unis, la collusion entre les gĂ©ants de la tech et l’administration Trump vise Ă  “utiliser l’IA pour imposer des politiques d’austĂ©ritĂ© et crĂ©er une instabilitĂ© permanente par des dĂ©cisions qui privent le public des ressources nĂ©cessaires Ă  une participation significative Ă  la dĂ©mocratie”, explique l’avocat Kevin De Liban Ă  Tech Policy. Aux Etats-Unis, la participation dĂ©mocratique suppose des ressources. “Voter, contacter des Ă©lus, assister Ă  des rĂ©unions, s’associer, imaginer un monde meilleur, faire des dons Ă  des candidats ou Ă  des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisĂ©es soient bien plus enclines Ă  participer que celles qui ont des moyens limitĂ©s. Dans un pays oĂč prĂšs de 30 % de la population vit en situation de pauvretĂ© ou au bord de la pauvretĂ© et oĂč 60 % ne peuvent s’offrir un minimum de qualitĂ© de vie, la dĂ©mocratie est dĂ©savantagĂ©e dĂšs le dĂ©part”. L’IA est largement utilisĂ©e dĂ©sormais pour accentuer ce fossĂ©. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements mĂ©dicaux nĂ©cessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou rĂ©duire les soins Ă  domicile pour les personnes handicapĂ©es. Les gouvernements ont de plus en plus recours Ă  l’IA pour dĂ©terminer l’éligibilitĂ© aux programmes de prestations sociales ou accuser les bĂ©nĂ©ficiaires de fraude. Les propriĂ©taires utilisent l’IA pour filtrer les locataires potentiels, souvent Ă  l’aide de vĂ©rifications d’antĂ©cĂ©dents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employĂ©s, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activitĂ©s. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prĂ©dire quels Ă©lĂšves pourraient commettre un dĂ©lit Ă  l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la dĂ©tresse d’usagers, les empĂȘchant de comprendre ce Ă  quoi ils sont confrontĂ©s, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces dĂ©cisions difficiles Ă  contester. Et au final, cela contribue Ă  renforcer l’exclusion des personnes Ă  faibles revenus de la participation dĂ©mocratique. Le risque, bien sĂ»r, c’est que ces calculs et les formes d’exclusion qu’elles gĂ©nĂšrent s’étendent Ă  d’autres catĂ©gories sociales
 D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des dĂ©cisions sur toutes les catĂ©gories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour amĂ©liorer significativement l’accĂšs Ă  l’emploi, au logement, aux soins de santĂ©, Ă  l’éducation ou aux prestations sociales Ă  une Ă©chelle Ă  la hauteur de ses dommages. Cette dynamique actuelle suggĂšre que l’objectif sous-jacent de la technologie est d’enraciner les inĂ©galitĂ©s et de renforcer les rapports de force existants”. Pour rĂ©pondre Ă  cette intelligence austĂ©ritaire, il est nĂ©cessaire de mobiliser les communautĂ©s touchĂ©es. L’adhĂ©sion ouverte de l’administration Trump et des gĂ©ants de la technologie Ă  l’IA est en train de crĂ©er une crise urgente et visible, susceptible de susciter la rĂ©sistance gĂ©nĂ©ralisĂ©e nĂ©cessaire au changement. Et “cette prise de conscience technologique pourrait bien ĂȘtre la seule voie vers un renouveau dĂ©mocratique”, estime De Liban.

De notre vectorisation et de ses conséquences

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une rĂ©flexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a dĂ©finie, est un “processus par lequel des entitĂ©s sociales — individus, groupes, communautĂ©s — sont transformĂ©es en porteurs de variables directionnelles, c’est-Ă -dire en vecteurs dotĂ©s d’une orientation prĂ©dĂ©terminĂ©e dans un espace conceptuel saturĂ© de valeurs diffĂ©rentielles”. Cela consiste en fait Ă  appliquer Ă  chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustĂ©es Ă  nos identitĂ©s numĂ©riques, comme les mots clĂ©s publicitaires qui nous caractĂ©risent, les traitements qui nous spĂ©cifient, les donnĂ©es qui nous positionnent, par exemple, le genre, l’ñge, notre niveau de revenu
 Du moment que nous sommes assignĂ©s Ă  une valeur, nous y sommes rĂ©duits, dans une forme d’indiffĂ©renciation qui produisent des identitĂ©s et des altĂ©ritĂ©s “rigidifiĂ©es” qui structurent “l’espace social selon des lignes de dĂ©marcation dont l’arbitraire est dissimulĂ© sous l’apparence d’une objectivitĂ© naturalisĂ©e”. C’est le cas par exemple quand les donnĂ©es vous caractĂ©risent comme homme ou femme. Le problĂšme est que ces assignations que nous ne maĂźtrisons pas sont indĂ©passables. Les discours sur l’égalitĂ© de genres peuvent se multiplier, plus la diffĂ©rence entre homme et femme s’en trouve rĂ©affirmĂ©, comme un “horizon indĂ©passable de l’intelligibilitĂ© sociale”. Melkom Boghossian dans une note trĂšs pertinente pour la fondation Jean JaurĂšs ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inĂ©galitĂ©s de genre, lorsqu’il ne questionne pas le processus vectoriel lui-mĂȘme, risque ainsi de reproduire les prĂ©supposĂ©s mĂȘmes qu’il prĂ©tend combattre”. C’est-Ă -dire que le processus en Ɠuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitĂ©e par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opĂšre Ă  travers un chaĂźnage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient rĂ©ciproquement. Cette mĂ©tavectorisation produit une topologie identitaire d’une complexitĂ© croissante qui excĂšde les possibilitĂ©s de reprĂ©sentation des modĂšles vectoriels classiques”. Nos assignations dĂ©pendent bien souvent de chaĂźnes d’infĂ©rences, comme l’illustrait le site They see yours photos que nous avions Ă©voquĂ©. Les dĂ©bats sur les identitĂ©s trans ou non binaires, constituent en ce sens “des points de tension rĂ©vĂ©lateurs oĂč s’exprime le caractĂšre intrinsĂšquement problĂ©matique de toute tentative de rĂ©duction vectorielle de la complexitĂ© existentielle”. Plus que de permettre de dĂ©passer nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes dĂ©sormais dans des situations indĂ©passables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-Ă -dire sa capacitĂ© Ă  traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indĂ©passable de la pensĂ©e et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette mĂȘme mĂ©thodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent gĂ©nĂ©ralement sur la valorisation diffĂ©rentielle des positions vectorielles plutĂŽt que sur la pertinence mĂȘme du dĂ©coupage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsĂšque”, sans pouvoir le remettre en cause, mĂȘme par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd Ă  toute parole qui revendique une position non assignable ou qui conteste la lĂ©gitimitĂ© mĂȘme de l’assignation.” “Cette insensibilitĂ© n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-mĂȘme. Elle rĂ©sulte de la nĂ©cessitĂ© structurelle d’effacer les singularitĂ©s irrĂ©ductibles pour maintenir l’efficacitĂ© des catĂ©gorisations gĂ©nĂ©rales. Le paradigme vectoriel ne peut maintenir sa cohĂ©rence qu’en traitant les cas rĂ©calcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions nĂ©gligeables ou des anomalies pathologiques. Ce phĂ©nomĂšne produit une forme spĂ©cifique de violence Ă©pistĂ©mique qui consiste Ă  dĂ©lĂ©gitimer systĂ©matiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particuliĂšrement Ă  l’encontre des individus dont l’expĂ©rience subjective contredit ou excĂšde les assignations vectorielles qui leur sont imposĂ©es — non pas simplement parce qu’ils se rĂ©assignent Ă  une position vectorielle diffĂ©rente, mais parce qu’ils contestent la lĂ©gitimitĂ© mĂȘme du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “gĂ©nĂšre un rĂ©seau dense d’attributions croisĂ©es oĂč chaque individu est simultanĂ©ment assignateur et assignĂ©, vectorisant et vectorisĂ©. Cette configuration produit un systĂšme auto entretenu oĂč les assignations se renforcent mutuellement Ă  travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des prĂ©jugĂ©s sociaux, “qui substitue Ă  l’arbitraire subjectif du prĂ©jugĂ© individuel l’arbitraire objectivĂ© du calcul algorithmique”. Les termes eux-mĂȘmes deviennent performatifs : “ils ne se contentent pas de dĂ©crire une rĂ©alitĂ© prĂ©existante, mais contribuent activement Ă  la constituer par l’acte mĂȘme de leur Ă©nonciation”. “Ces mots-vecteurs tirent leur lĂ©gitimitĂ© sociale de leur ancrage dans des dispositifs statistiques qui leur confĂšrent une apparence d’objectivitĂ© scientifique”. “Les donnĂ©es statistiques servent Ă  construire des catĂ©gories opĂ©rationnelles qui, une fois instituĂ©es, acquiĂšrent une forme d’autonomie par rapport aux rĂ©alitĂ©s qu’elles prĂ©tendent simplement reprĂ©senter”

Pour Chatonsky, la vectorisation dĂ©stabilise profondĂ©ment les identitĂ©s politiques traditionnelles et rend problĂ©matique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhĂšrent Ă  ces assignations et ceux qui contestent la lĂ©gitimitĂ© mĂȘme de ces assignations. “Les dĂ©bats politiques conventionnels se limitent gĂ©nĂ©ralement Ă  contester des assignations vectorielles spĂ©cifiques sans jamais remettre en question le principe mĂȘme de la vectorisation comme modalitĂ© fondamentale d’organisation du social”. Nous sommes politiquement coincĂ©s dans la vectorisation
 qui est Ă  la fois “un horizon qui combine la rĂ©duction des entitĂ©s Ă  des vecteurs manipulables (vectorisation), la prĂ©diction de leurs trajectoires futures sur la base de ces rĂ©ductions (anticipation), et le contrĂŽle permanent de ces trajectoires pour assurer leur conformitĂ© aux prĂ©dictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensĂ©e et d’organisation sociale qui Ă©chappent Ă  la logique mĂȘme de la vectorisation”, c’est-Ă -dire de nous extraire de l’identitĂ© comme force d’organisation du social, de donner de la place au doute plutĂŽt qu’à la certitude ainsi qu’à trouver les modalitĂ©s d’une forme de rĂ©troaction. 

De notre vectorisation et de ses conséquences

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une rĂ©flexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a dĂ©finie, est un “processus par lequel des entitĂ©s sociales — individus, groupes, communautĂ©s — sont transformĂ©es en porteurs de variables directionnelles, c’est-Ă -dire en vecteurs dotĂ©s d’une orientation prĂ©dĂ©terminĂ©e dans un espace conceptuel saturĂ© de valeurs diffĂ©rentielles”. Cela consiste en fait Ă  appliquer Ă  chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustĂ©es Ă  nos identitĂ©s numĂ©riques, comme les mots clĂ©s publicitaires qui nous caractĂ©risent, les traitements qui nous spĂ©cifient, les donnĂ©es qui nous positionnent, par exemple, le genre, l’ñge, notre niveau de revenu
 Du moment que nous sommes assignĂ©s Ă  une valeur, nous y sommes rĂ©duits, dans une forme d’indiffĂ©renciation qui produisent des identitĂ©s et des altĂ©ritĂ©s “rigidifiĂ©es” qui structurent “l’espace social selon des lignes de dĂ©marcation dont l’arbitraire est dissimulĂ© sous l’apparence d’une objectivitĂ© naturalisĂ©e”. C’est le cas par exemple quand les donnĂ©es vous caractĂ©risent comme homme ou femme. Le problĂšme est que ces assignations que nous ne maĂźtrisons pas sont indĂ©passables. Les discours sur l’égalitĂ© de genres peuvent se multiplier, plus la diffĂ©rence entre homme et femme s’en trouve rĂ©affirmĂ©, comme un “horizon indĂ©passable de l’intelligibilitĂ© sociale”. Melkom Boghossian dans une note trĂšs pertinente pour la fondation Jean JaurĂšs ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inĂ©galitĂ©s de genre, lorsqu’il ne questionne pas le processus vectoriel lui-mĂȘme, risque ainsi de reproduire les prĂ©supposĂ©s mĂȘmes qu’il prĂ©tend combattre”. C’est-Ă -dire que le processus en Ɠuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitĂ©e par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opĂšre Ă  travers un chaĂźnage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient rĂ©ciproquement. Cette mĂ©tavectorisation produit une topologie identitaire d’une complexitĂ© croissante qui excĂšde les possibilitĂ©s de reprĂ©sentation des modĂšles vectoriels classiques”. Nos assignations dĂ©pendent bien souvent de chaĂźnes d’infĂ©rences, comme l’illustrait le site They see yours photos que nous avions Ă©voquĂ©. Les dĂ©bats sur les identitĂ©s trans ou non binaires, constituent en ce sens “des points de tension rĂ©vĂ©lateurs oĂč s’exprime le caractĂšre intrinsĂšquement problĂ©matique de toute tentative de rĂ©duction vectorielle de la complexitĂ© existentielle”. Plus que de permettre de dĂ©passer nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes dĂ©sormais dans des situations indĂ©passables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-Ă -dire sa capacitĂ© Ă  traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indĂ©passable de la pensĂ©e et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette mĂȘme mĂ©thodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent gĂ©nĂ©ralement sur la valorisation diffĂ©rentielle des positions vectorielles plutĂŽt que sur la pertinence mĂȘme du dĂ©coupage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsĂšque”, sans pouvoir le remettre en cause, mĂȘme par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd Ă  toute parole qui revendique une position non assignable ou qui conteste la lĂ©gitimitĂ© mĂȘme de l’assignation.” “Cette insensibilitĂ© n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-mĂȘme. Elle rĂ©sulte de la nĂ©cessitĂ© structurelle d’effacer les singularitĂ©s irrĂ©ductibles pour maintenir l’efficacitĂ© des catĂ©gorisations gĂ©nĂ©rales. Le paradigme vectoriel ne peut maintenir sa cohĂ©rence qu’en traitant les cas rĂ©calcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions nĂ©gligeables ou des anomalies pathologiques. Ce phĂ©nomĂšne produit une forme spĂ©cifique de violence Ă©pistĂ©mique qui consiste Ă  dĂ©lĂ©gitimer systĂ©matiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particuliĂšrement Ă  l’encontre des individus dont l’expĂ©rience subjective contredit ou excĂšde les assignations vectorielles qui leur sont imposĂ©es — non pas simplement parce qu’ils se rĂ©assignent Ă  une position vectorielle diffĂ©rente, mais parce qu’ils contestent la lĂ©gitimitĂ© mĂȘme du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “gĂ©nĂšre un rĂ©seau dense d’attributions croisĂ©es oĂč chaque individu est simultanĂ©ment assignateur et assignĂ©, vectorisant et vectorisĂ©. Cette configuration produit un systĂšme auto entretenu oĂč les assignations se renforcent mutuellement Ă  travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des prĂ©jugĂ©s sociaux, “qui substitue Ă  l’arbitraire subjectif du prĂ©jugĂ© individuel l’arbitraire objectivĂ© du calcul algorithmique”. Les termes eux-mĂȘmes deviennent performatifs : “ils ne se contentent pas de dĂ©crire une rĂ©alitĂ© prĂ©existante, mais contribuent activement Ă  la constituer par l’acte mĂȘme de leur Ă©nonciation”. “Ces mots-vecteurs tirent leur lĂ©gitimitĂ© sociale de leur ancrage dans des dispositifs statistiques qui leur confĂšrent une apparence d’objectivitĂ© scientifique”. “Les donnĂ©es statistiques servent Ă  construire des catĂ©gories opĂ©rationnelles qui, une fois instituĂ©es, acquiĂšrent une forme d’autonomie par rapport aux rĂ©alitĂ©s qu’elles prĂ©tendent simplement reprĂ©senter”

Pour Chatonsky, la vectorisation dĂ©stabilise profondĂ©ment les identitĂ©s politiques traditionnelles et rend problĂ©matique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhĂšrent Ă  ces assignations et ceux qui contestent la lĂ©gitimitĂ© mĂȘme de ces assignations. “Les dĂ©bats politiques conventionnels se limitent gĂ©nĂ©ralement Ă  contester des assignations vectorielles spĂ©cifiques sans jamais remettre en question le principe mĂȘme de la vectorisation comme modalitĂ© fondamentale d’organisation du social”. Nous sommes politiquement coincĂ©s dans la vectorisation
 qui est Ă  la fois “un horizon qui combine la rĂ©duction des entitĂ©s Ă  des vecteurs manipulables (vectorisation), la prĂ©diction de leurs trajectoires futures sur la base de ces rĂ©ductions (anticipation), et le contrĂŽle permanent de ces trajectoires pour assurer leur conformitĂ© aux prĂ©dictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensĂ©e et d’organisation sociale qui Ă©chappent Ă  la logique mĂȘme de la vectorisation”, c’est-Ă -dire de nous extraire de l’identitĂ© comme force d’organisation du social, de donner de la place au doute plutĂŽt qu’à la certitude ainsi qu’à trouver les modalitĂ©s d’une forme de rĂ©troaction. 

“Sans rĂ©pit”

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans rĂ©pit”) est le nom d’un petit appareil qui se branche sur les machines Ă  coudre. Le capteur mesure le nombre de piĂšces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivitĂ©, rapporte Rest of the World. Outre les machines automatisĂ©es, pour coudre des boutons ou des poches simples, ces outils de surveillance visent Ă  augmenter la productivitĂ©, Ă  l’heure oĂč la main d’Ɠuvre se fait plus rare. Pour rĂ©pondre Ă  la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvriĂšre estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmentĂ© de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son Ă©cran qui lui indique de tenir la cadence.

“Sans rĂ©pit”

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans rĂ©pit”) est le nom d’un petit appareil qui se branche sur les machines Ă  coudre. Le capteur mesure le nombre de piĂšces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivitĂ©, rapporte Rest of the World. Outre les machines automatisĂ©es, pour coudre des boutons ou des poches simples, ces outils de surveillance visent Ă  augmenter la productivitĂ©, Ă  l’heure oĂč la main d’Ɠuvre se fait plus rare. Pour rĂ©pondre Ă  la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvriĂšre estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmentĂ© de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son Ă©cran qui lui indique de tenir la cadence.

L’IA est une technologie comme les autres

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniquĂ© le livre, AI Snake Oil – signent pour le Knight un long article pour dĂ©monter les risques existentiels de l’IA gĂ©nĂ©rale. Pour eux, l’IA est une « technologie normale Â». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricitĂ© ou internet, mais cela signifie qu’ils considĂšrent « l’IA comme un outil dont nous pouvons et devons garder le contrĂŽle, et nous soutenons que cet objectif ne nĂ©cessite ni interventions politiques drastiques ni avancĂ©es technologiques Â». L’IA n’est pas appelĂ©e Ă  dĂ©terminer elle-mĂȘme son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts Ă©conomiques et sociĂ©taux transformateurs seront lents (de l’ordre de plusieurs dĂ©cennies) Â».

Selon eux, dans les annĂ©es Ă  venir « une part croissante du travail des individus va consister Ă  contrĂŽler l’IA Â». Mais surtout, considĂ©rer l’IA comme une technologie courante conduit Ă  des conclusions fondamentalement diffĂ©rentes sur les mesures d’attĂ©nuation que nous devons y apporter, et nous invite, notamment, Ă  minimiser le danger d’une superintelligence autonome qui viendrait dĂ©vorer l’humanitĂ©.

La vitesse du progrĂšs est plus linĂ©aire qu’on le pense 

« Comme pour d’autres technologies Ă  usage gĂ©nĂ©ral, l’impact de l’IA se matĂ©rialise non pas lorsque les mĂ©thodes et les capacitĂ©s s’amĂ©liorent, mais lorsque ces amĂ©liorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, Ă  la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-Ă -dire que l’élargissement des applications Ă  d’innombrables secteurs est souvent lent mais dĂ©cisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matiĂšre d’IA ne devraient pas ĂȘtre de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intĂ©gration de l’IA dans un large Ă©ventail de processus productifs. L’enjeu tient bien plus Ă  Ă©largir les champs d’application des innovations qu’à maĂźtriser la course Ă  la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les dĂ©ploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sĂ©curitĂ© est lente. MĂȘme dans le domaine de « l’optimisation prĂ©dictive Â», c’est-Ă -dire la prĂ©diction des risques pour prendre des dĂ©cisions sur les individus, qui se sont multipliĂ©es ces derniĂšres annĂ©es, l’IA n’est pas trĂšs prĂ©sente, comme l’avaient pointĂ© les chercheurs dans une Ă©tude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexitĂ© et l’opacitĂ© de l’IA font qu’elle est peu adaptĂ©e pour ces enjeux. Les risques de sĂ©curitĂ© et de dĂ©faillance font que son usage y produit souvent de piĂštres rĂ©sultats. Sans compter que la rĂ©glementation impose dĂ©jĂ  des procĂ©dures qui ralentissent les dĂ©ploiements, que ce soit la supervision des dispositifs mĂ©dicaux ou l’IA Act europĂ©en. D’ailleurs, “lorsque de nouveaux domaines oĂč l’IA peut ĂȘtre utilisĂ©e de maniĂšre significative apparaissent, nous pouvons et devons les rĂ©glementer Â».

MĂȘme en dehors des domaines critiques pour la sĂ©curitĂ©, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses Ă©tudes estiment que l’usage de l’IA gĂ©nĂ©rative est dĂ©jĂ  trĂšs fort. Une Ă©tude trĂšs commentĂ©e constatait qu’en aoĂ»t 2024, 40 % des adultes amĂ©ricains utilisaient dĂ©jĂ  l’IA gĂ©nĂ©rative. Mais cette percĂ©e d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumĂ©riste d’une approche productive, la seconde Ă©tait bien moins maĂźtrisĂ©e que la premiĂšre. L’adoption est une question d’utilisation du logiciel, et non de disponibilitĂ©, rappellent les chercheurs. Si les outils sont dĂ©sormais accessibles immĂ©diatement, leur intĂ©gration Ă  des flux de travail ou Ă  des habitudes, elle, prend du temps. Entre utiliser et intĂ©grer, il y a une diffĂ©rence que le nombre d’utilisateurs d’une application ne suffit pas Ă  distinguer. L’analyse de l’électrification par exemple montre que les gains de productivitĂ© ont mis des dĂ©cennies Ă  se matĂ©rialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de rĂ©aliser des gains de productivitĂ©, c’est surtout la refonte complĂšte de l’agencement des usines autour de la logique des chaĂźnes de production Ă©lectrifiĂ©es. 

Les deux chercheurs estiment enfin que nous sommes confrontĂ©s Ă  des limites Ă  la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux dĂ©cennies Ă  se dĂ©velopper, du fait des contraintes de sĂ©curitĂ© nĂ©cessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais trĂšs souvent, “l’écart entre la capacitĂ© et la fiabilitĂ©â€ reste fort. La perspective d’agents IA pour la rĂ©servation de voyages ou le service clients est moins Ă  risque que la conduite autonome, mais cet apprentissage n’est pas simple Ă  rĂ©aliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour ĂȘtre dĂ©ployĂ©. MĂȘme dans le domaine de la recommandation sur les rĂ©seaux sociaux, le fait qu’elle s’appuie sur des modĂšles d’apprentissage automatique n’a pas supprimĂ© la nĂ©cessitĂ© de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour dĂ©ployer de l’IA est fortement limitĂ©e en raison des coĂ»ts sociaux de l’expĂ©rimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou rĂ©pondre Ă  des examens, comme Ă  ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles rĂ©elles. En fait, trop souvent, les indicateurs permettent de mesurer les progrĂšs des mĂ©thodes d’IA, mais peinent Ă  mesurer leurs impacts ou l’adoption, c’est-Ă -dire l’intensitĂ© de son utilisation. Kapoor et Narayanan insistent : les impacts Ă©conomiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrĂšs. En fait, il est probable que cette surproduction mĂȘme limite l’innovation. Une Ă©tude a ainsi montrĂ© que dans les domaines de recherche oĂč le volume d’articles scientifiques est plus Ă©levĂ©, il est plus difficile aux nouvelles idĂ©es de percer. 

L’IA va rester sous contrĂŽle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacitĂ© Ă  raisonner clairement sur un monde dotĂ© d’une IA avancĂ©e. Assez souvent, l’intelligence elle-mĂȘme est assez mal dĂ©finie, selon un spectre qui irait de la souris Ă  l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriĂ©tĂ© en jeu pour analyser les impacts de l’IA. C’est plutĂŽt le pouvoir – la capacitĂ© Ă  modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisĂ© pour accroĂźtre nos capacitĂ©s. La diffĂ©rence entre l’IA et les capacitĂ©s humaines reposent surtout dans la vitesse. Les machines nous dĂ©passent surtout en terme de vitesse, d’oĂč le fait que nous les ayons dĂ©veloppĂ© surtout dans les domaines oĂč la vitesse est en jeu.  

“Nous prĂ©voyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraĂźnĂ©s (en particulier les Ă©quipes humaines, et surtout si elle est complĂ©tĂ©e par des outils automatisĂ©s simples) dans la prĂ©vision d’évĂ©nements gĂ©opolitiques (par exemple, les Ă©lections). Nous faisons la mĂȘme prĂ©diction pour les tĂąches consistant Ă  persuader les gens d’agir contre leur propre intĂ©rĂȘt”. En fait, les systĂšmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prĂ©disent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrĂŽle reste fort, des audits Ă  la surveillance des systĂšmes en passant par la sĂ©curitĂ© intĂ©grĂ©e. “En cybersĂ©curitĂ©, le principe du « moindre privilĂšge » garantit que les acteurs n’ont accĂšs qu’aux ressources minimales nĂ©cessaires Ă  leurs tĂąches. Les contrĂŽles d’accĂšs empĂȘchent les personnes travaillant avec des donnĂ©es et des systĂšmes sensibles d’accĂ©der Ă  des informations et outils confidentiels non nĂ©cessaires Ă  leur travail. Nous pouvons concevoir des protections similaires pour les systĂšmes d’IA dans des contextes consĂ©quents. Les mĂ©thodes de vĂ©rification formelle garantissent que les codes critiques pour la sĂ©curitĂ© fonctionnent conformĂ©ment Ă  leurs spĂ©cifications ; elles sont dĂ©sormais utilisĂ©es pour vĂ©rifier l’exactitude du code gĂ©nĂ©rĂ© par l’IA.” Nous pouvons Ă©galement emprunter des idĂ©es comme la conception de systĂšmes rendant les actions de changement d’état rĂ©versibles, permettant ainsi aux humains de conserver un contrĂŽle significatif, mĂȘme dans des systĂšmes hautement automatisĂ©s. On peut Ă©galement imaginer de nouvelles idĂ©es pour assurer la sĂ©curitĂ©, comme le dĂ©veloppement de systĂšmes qui apprennent Ă  transmettre les dĂ©cisions aux opĂ©rateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systĂšmes agents dont l’activitĂ© est visible et lisible par les humains, ou encore la crĂ©ation de structures de contrĂŽle hiĂ©rarchiques dans lesquelles des systĂšmes d’IA plus simples et plus fiables supervisent des systĂšmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le dĂ©veloppement et l’adoption de l’IA avancĂ©e, l’innovation se multipliera pour trouver de nouveaux modĂšles de contrĂŽle humain”.

Pour eux d’ailleurs, Ă  l’avenir, un nombre croissant d’emplois et de tĂąches humaines seront affectĂ©s au contrĂŽle de l’IA. Lors des phases d’automatisation prĂ©cĂ©dentes, d’innombrables mĂ©thodes de contrĂŽle et de surveillance des machines ont Ă©tĂ© inventĂ©es. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrĂŽler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilitĂ© et du contrĂŽle en favorisant l’efficacitĂ© et l’automatisation doit toujours ĂȘtre contrebalancĂ©e. Les IA mal contrĂŽlĂ©es risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutĂŽt que les systĂšmes trop autonomes et insuffisamment supervisĂ©s sont vite dĂ©branchĂ©s. Nul n’a avantage Ă  se passer du contrĂŽle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant Ă  dĂ©ployer une IA de plus en plus puissante sans supervision ni contrĂŽle adĂ©quats sous prĂ©texte de concurrence, et que les acteurs les plus sĂ»rs soient supplantĂ©s par des acteurs prenant plus de risques, est souvent vite remisĂ©e par la rĂ©gulation. “De nombreuses stratĂ©gies rĂ©glementaires sont mobilisables, que ce soient celles axĂ©es sur les processus (normes, audits et inspections), les rĂ©sultats (responsabilitĂ©) ou la correction de l’asymĂ©trie d’information (Ă©tiquetage et certification).” En fait, rappellent les chercheurs, le succĂšs commercial est plutĂŽt liĂ© Ă  la sĂ©curitĂ© qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aĂ©ronautique, “l’intĂ©gration de l’IA a Ă©tĂ© limitĂ©e aux normes de sĂ©curitĂ© existantes, au lieu qu’elles soient abaissĂ©es pour encourager son adoption, principalement en raison de la capacitĂ© des rĂ©gulateurs Ă  sanctionner les entreprises qui ne respectent pas les normes de sĂ©curitĂ©â€. Dans le secteur automobile, pourtant, pendant longtemps, la sĂ©curitĂ© n’était pas considĂ©rĂ©e comme relevant de la responsabilitĂ© des constructeurs. mais petit Ă  petit, les normes et les attentes en matiĂšre de sĂ©curitĂ© se sont renforcĂ©es. Dans le domaine des recommandations algorithmiques des mĂ©dias sociaux par contre, les prĂ©judices sont plus difficiles Ă  mesurer, ce qui explique qu’il soit plus difficile d’imputer les dĂ©faillances aux systĂšmes de recommandation. “L’arbitrage entre innovation et rĂ©glementation est un dilemme rĂ©current pour l’État rĂ©gulateur”. En fait, la plupart des secteurs Ă  haut risque sont fortement rĂ©glementĂ©s, rappellent les deux chercheurs. Et contrairement Ă  l’idĂ©e rĂ©pandue, il n’y a pas que l’Europe qui rĂ©gule, les Etats-Unis et la Chine aussi ! Quant Ă  la course aux armements, elle se concentre surtout sur l’invention des modĂšles, pas sur l’adoption ou la diffusion qui demeurent bien plus dĂ©terminantes pourtant. 

RĂ©pondre aux abus. Jusqu’à prĂ©sent, les principales dĂ©fenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modĂšles, estiment les chercheurs. Le problĂšme fondamental est que la nocivitĂ© d’un modĂšle dĂ©pend du contexte, contexte souvent absent du modĂšle, comme ils l’expliquaient en montrant que la sĂ©curitĂ© n’est pas une propriĂ©tĂ© du modĂšle. Le modĂšle chargĂ© de rĂ©diger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisĂ© Ă  des fins marketing ou d’hameçonnage ; les interventions au niveau du modĂšle seraient donc inefficaces. Ainsi, les dĂ©fenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations lĂ©gitimes), mais plutĂŽt les systĂšmes d’analyse et de filtrage des e-mails qui dĂ©tectent les schĂ©mas suspects, et les protections au niveau du navigateur. Se dĂ©fendre contre les cybermenaces liĂ©es Ă  l’IA nĂ©cessite de renforcer les programmes de dĂ©tection des vulnĂ©rabilitĂ©s existants plutĂŽt que de tenter de restreindre les capacitĂ©s de l’IA Ă  la source. Mais surtout, “plutĂŽt que de considĂ©rer les capacitĂ©s de l’IA uniquement comme une source de risque, il convient de reconnaĂźtre leur potentiel dĂ©fensif. En cybersĂ©curitĂ©, l’IA renforce dĂ©jĂ  les capacitĂ©s dĂ©fensives grĂące Ă  la dĂ©tection automatisĂ©e des vulnĂ©rabilitĂ©s, Ă  l’analyse des menaces et Ă  la surveillance des surfaces d’attaque”. “Donner aux dĂ©fenseurs l’accĂšs Ă  des outils d’IA puissants amĂ©liore souvent l’équilibre attaque-dĂ©fense en leur faveur”. En modĂ©ration de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider Ă  identifier les opĂ©rations d’influence coordonnĂ©es. Nous devons investir dans des applications dĂ©fensives plutĂŽt que de tenter de restreindre la technologie elle-mĂȘme, suggĂšrent les chercheurs. 

Le dĂ©salignement. Une IA mal alignĂ©e agit contre l’intention de son dĂ©veloppeur ou de son utilisateur. Mais lĂ  encore, la principale dĂ©fense contre le dĂ©salignement se situe en aval plutĂŽt qu’en amont, dans les applications plutĂŽt que dans les modĂšles. Le dĂ©salignement catastrophique est le plus spĂ©culatif des risques, rappellent les chercheurs. “La crainte que les systĂšmes d’IA puissent interprĂ©ter les commandes de maniĂšre catastrophique repose souvent sur des hypothĂšses douteuses quant au dĂ©ploiement de la technologie dans le monde rĂ©el”. Dans le monde rĂ©el, la surveillance et le contrĂŽle sont trĂšs prĂ©sents et l’IA est trĂšs utile pour renforcer cette surveillance et ce contrĂŽle. Les craintes liĂ©es au dĂ©salignement de l’IA supposent que ces systĂšmes dĂ©jouent la surveillance, alors que nous avons dĂ©veloppĂ©s de trĂšs nombreuses formes de contrĂŽle, qui sont souvent d’autant plus fortes et redondantes que les dĂ©cisions sont importantes. 

Les risques systĂ©miques. Si les risques existentiels sont peu probables, les risques systĂ©miques, eux, sont trĂšs courants. Parmi ceux-ci figurent “l’enracinement des prĂ©jugĂ©s et de la discrimination, les pertes d’emplois massives dans certaines professions, la dĂ©gradation des conditions de travail, l’accroissement des inĂ©galitĂ©s, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystĂšme de l’information, le dĂ©clin de la libertĂ© de la presse, le recul dĂ©mocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques Ă©voquĂ©s prĂ©cĂ©demment”. Car ces risques dĂ©coulent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intĂ©rĂȘts, l’IA ne faisant qu’amplifier les instabilitĂ©s existantes dans notre sociĂ©tĂ©. Nous devrions bien plus nous soucier des risques cumulatifs que des risques dĂ©cisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant Ă  rĂ©orienter la rĂ©gulation de l’IA, notamment en favorisant la rĂ©silience. Pour l’instant, l’élaboration des politiques publiques et des rĂ©glementations de l’IA est caractĂ©risĂ©e par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la sociĂ©tĂ©. Si les probabilitĂ©s de risque existentiel de l’IA sont trop peu fiables pour Ă©clairer les politiques, il n’empĂȘche que nombre d’acteurs poussent Ă  une rĂ©gulation adaptĂ©e Ă  ces risques existentiels. Alors que d’autres interventions, comme l’amĂ©lioration de la transparence, sont inconditionnellement utiles pour attĂ©nuer les risques, quels qu’ils soient. Se dĂ©fendre contre la superintelligence exige que l’humanitĂ© s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrĂŽle centralisĂ© sur l’IA, qui risque d’ĂȘtre un remĂšde pire que le mal. Or, nous devrions bien plus nous prĂ©occuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inĂ©galitĂ©s. Pour nous dĂ©fendre contre ces risques-ci, pour empĂȘcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, dĂ©fendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, amĂ©liorer le financement stratĂ©gique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et amĂ©liorer nos connaissances sur les risques et leur attĂ©nuation. Ils proposent Ă©galement d’amĂ©liorer la surveillance des usages, des risques et des Ă©checs, passant par les dĂ©clarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de donnĂ©es d’incidents de l’IA) ou la protection des lanceurs d’alerte
 Enfin, il proposent que les “donnĂ©es probantes” soient un objectif prioritaire, c’est-Ă -dire d’amĂ©liorer l’accĂšs de la recherche.

Dans le domaine de l’IA, la difficultĂ© consiste Ă  Ă©valuer les risques avant le dĂ©ploiement. Pour amĂ©liorer la rĂ©silience, il est important d’amĂ©liorer la responsabilitĂ© et la rĂ©silience, plus que l’analyse de risque, c’est-Ă -dire des dĂ©marches de contrĂŽle qui ont lieu aprĂšs les dĂ©ploiements. “La rĂ©silience exige Ă  la fois de minimiser la gravitĂ© des dommages lorsqu’ils surviennent et la probabilitĂ© qu’ils surviennent.” Pour attĂ©nuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la dĂ©mocratie, la libertĂ© de la presse ou l’équitĂ© dans le monde du travail. C’est-Ă -dire d’amĂ©liorer la rĂ©silience sociĂ©tale au sens large. 

Pour Ă©laborer des politiques technologiques efficaces, il faut ensuite renforcer les capacitĂ©s techniques et institutionnelles de la recherche, des autoritĂ©s et administrations. Sans personnels compĂ©tents et informĂ©s, la rĂ©gulation de l’IA sera toujours difficile. Les chercheurs invitent mĂȘme Ă  “diversifier l’ensemble des rĂ©gulateurs et, idĂ©alement, Ă  introduire la concurrence entre eux plutĂŽt que de confier la responsabilitĂ© de l’ensemble Ă  un seul rĂ©gulateur”.

Par contre, Kapoor et Narayanan se dĂ©fient fortement des politiques visant Ă  promouvoir une non-prolifĂ©ration de l’IA, c’est-Ă -dire Ă  limiter le nombre d’acteurs pouvant dĂ©velopper des IA performantes. Les contrĂŽles Ă  l’exportation de matĂ©riel ou de logiciels visant Ă  limiter la capacitĂ© des pays Ă  construire, acquĂ©rir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modĂšles d’IA Ă  pondĂ©ration ouverte
 sont des politiques qui favorisent la concentration plus qu’elles ne rĂ©duisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le mĂȘme modĂšle, les vulnĂ©rabilitĂ©s de ce modĂšle peuvent ĂȘtre exploitĂ©es dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “rĂ©aliser les avantages de l’IA”, c’est-Ă -dire accĂ©lĂ©rer l’adoption des bĂ©nĂ©fices de l’IA et attĂ©nuer ses inconvĂ©nients. Pour cela, estiment-ils, nous devons ĂȘtre plus souples sur nos modalitĂ©s d’intervention. Par exemple, ils estiment que pour l’instant catĂ©goriser certains domaines de dĂ©ploiement de l’IA comme Ă  haut risque est problĂ©matique, au prĂ©texte que dans ces secteurs (assurance, prestation sociale ou recrutement
), les technologies peuvent aller de la reconnaissance optique de caractĂšres, relativement inoffensives, Ă  la prise de dĂ©cision automatisĂ©es dont les consĂ©quences sont importantes. Pour eux, il faudrait seulement considĂ©rer la prise de dĂ©cision automatisĂ©e dans ces secteurs comme Ă  haut risque. 

Un autre enjeu repose sur l’essor des modĂšles fondamentaux qui a conduit Ă  une distinction beaucoup plus nette entre les dĂ©veloppeurs de modĂšles, les dĂ©veloppeurs en aval et les dĂ©ployeurs (parmi de nombreuses autres catĂ©gories). Une rĂ©glementation insensible Ă  ces distinctions risque de confĂ©rer aux dĂ©veloppeurs de modĂšles des responsabilitĂ©s en matiĂšre d’attĂ©nuation des risques liĂ©s Ă  des contextes de dĂ©ploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modĂšles fondamentaux et de l’imprĂ©visibilitĂ© de tous les contextes de dĂ©ploiement possibles.

Enfin, lorsque la rĂ©glementation Ă©tablit une distinction binaire entre les dĂ©cisions entiĂšrement automatisĂ©es et celles qui ne le sont pas, et ne reconnaĂźt pas les degrĂ©s de surveillance, elle dĂ©courage l’adoption de nouveaux modĂšles de contrĂŽle de l’IA. Or de nombreux nouveaux modĂšles sont proposĂ©s pour garantir une supervision humaine efficace sans impliquer un humain dans chaque dĂ©cision. Il serait imprudent de dĂ©finir la prise de dĂ©cision automatisĂ©e de telle sorte que ces approches engendrent les mĂȘmes contraintes de conformitĂ© qu’un systĂšme sans supervision. Pour les deux chercheurs, “opposer rĂ©glementation et diffusion est un faux compromis, tout comme opposer rĂ©glementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas rĂ©guler, mais bien de garantir de la souplesse. La lĂ©gislation garantissant la validitĂ© juridique des signatures et enregistrement Ă©lectroniques promulguĂ©e en 2000 aux Etats-Unis a jouĂ© un rĂŽle dĂ©terminant dans la promotion du commerce Ă©lectronique et sa diffusion. La lĂ©gislation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le dĂ©veloppement du secteur par la crĂ©ation de pilotes certifiĂ©s. Nous devons trouver pour l’IA Ă©galement des rĂ©glementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bĂ©nĂ©fices de l’IA afin de les rendre plus Ă©quitables et d’indemniser les personnes qui risquent de subir les consĂ©quences de l’automatisation. Le renforcement des filets de sĂ©curitĂ© sociale contribuera Ă  attĂ©nuer l’inquiĂ©tude actuelle du public face Ă  l’IA dans de nombreux pays”. Et les chercheurs de suggĂ©rer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis Ă  mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste Ă©quilibre entre une adoption trop prĂ©cipitĂ©e qui gĂ©nĂšre des dĂ©faillances et de la mĂ©fiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privĂ©.

L’IA est une technologie comme les autres

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniquĂ© le livre, AI Snake Oil – signent pour le Knight un long article pour dĂ©monter les risques existentiels de l’IA gĂ©nĂ©rale. Pour eux, l’IA est une « technologie normale Â». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricitĂ© ou internet, mais cela signifie qu’ils considĂšrent « l’IA comme un outil dont nous pouvons et devons garder le contrĂŽle, et nous soutenons que cet objectif ne nĂ©cessite ni interventions politiques drastiques ni avancĂ©es technologiques Â». L’IA n’est pas appelĂ©e Ă  dĂ©terminer elle-mĂȘme son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts Ă©conomiques et sociĂ©taux transformateurs seront lents (de l’ordre de plusieurs dĂ©cennies) Â».

Selon eux, dans les annĂ©es Ă  venir « une part croissante du travail des individus va consister Ă  contrĂŽler l’IA Â». Mais surtout, considĂ©rer l’IA comme une technologie courante conduit Ă  des conclusions fondamentalement diffĂ©rentes sur les mesures d’attĂ©nuation que nous devons y apporter, et nous invite, notamment, Ă  minimiser le danger d’une superintelligence autonome qui viendrait dĂ©vorer l’humanitĂ©.

La vitesse du progrĂšs est plus linĂ©aire qu’on le pense 

« Comme pour d’autres technologies Ă  usage gĂ©nĂ©ral, l’impact de l’IA se matĂ©rialise non pas lorsque les mĂ©thodes et les capacitĂ©s s’amĂ©liorent, mais lorsque ces amĂ©liorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, Ă  la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-Ă -dire que l’élargissement des applications Ă  d’innombrables secteurs est souvent lent mais dĂ©cisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matiĂšre d’IA ne devraient pas ĂȘtre de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intĂ©gration de l’IA dans un large Ă©ventail de processus productifs. L’enjeu tient bien plus Ă  Ă©largir les champs d’application des innovations qu’à maĂźtriser la course Ă  la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les dĂ©ploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sĂ©curitĂ© est lente. MĂȘme dans le domaine de « l’optimisation prĂ©dictive Â», c’est-Ă -dire la prĂ©diction des risques pour prendre des dĂ©cisions sur les individus, qui se sont multipliĂ©es ces derniĂšres annĂ©es, l’IA n’est pas trĂšs prĂ©sente, comme l’avaient pointĂ© les chercheurs dans une Ă©tude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexitĂ© et l’opacitĂ© de l’IA font qu’elle est peu adaptĂ©e pour ces enjeux. Les risques de sĂ©curitĂ© et de dĂ©faillance font que son usage y produit souvent de piĂštres rĂ©sultats. Sans compter que la rĂ©glementation impose dĂ©jĂ  des procĂ©dures qui ralentissent les dĂ©ploiements, que ce soit la supervision des dispositifs mĂ©dicaux ou l’IA Act europĂ©en. D’ailleurs, “lorsque de nouveaux domaines oĂč l’IA peut ĂȘtre utilisĂ©e de maniĂšre significative apparaissent, nous pouvons et devons les rĂ©glementer Â».

MĂȘme en dehors des domaines critiques pour la sĂ©curitĂ©, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses Ă©tudes estiment que l’usage de l’IA gĂ©nĂ©rative est dĂ©jĂ  trĂšs fort. Une Ă©tude trĂšs commentĂ©e constatait qu’en aoĂ»t 2024, 40 % des adultes amĂ©ricains utilisaient dĂ©jĂ  l’IA gĂ©nĂ©rative. Mais cette percĂ©e d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumĂ©riste d’une approche productive, la seconde Ă©tait bien moins maĂźtrisĂ©e que la premiĂšre. L’adoption est une question d’utilisation du logiciel, et non de disponibilitĂ©, rappellent les chercheurs. Si les outils sont dĂ©sormais accessibles immĂ©diatement, leur intĂ©gration Ă  des flux de travail ou Ă  des habitudes, elle, prend du temps. Entre utiliser et intĂ©grer, il y a une diffĂ©rence que le nombre d’utilisateurs d’une application ne suffit pas Ă  distinguer. L’analyse de l’électrification par exemple montre que les gains de productivitĂ© ont mis des dĂ©cennies Ă  se matĂ©rialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de rĂ©aliser des gains de productivitĂ©, c’est surtout la refonte complĂšte de l’agencement des usines autour de la logique des chaĂźnes de production Ă©lectrifiĂ©es. 

Les deux chercheurs estiment enfin que nous sommes confrontĂ©s Ă  des limites Ă  la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux dĂ©cennies Ă  se dĂ©velopper, du fait des contraintes de sĂ©curitĂ© nĂ©cessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais trĂšs souvent, “l’écart entre la capacitĂ© et la fiabilitĂ©â€ reste fort. La perspective d’agents IA pour la rĂ©servation de voyages ou le service clients est moins Ă  risque que la conduite autonome, mais cet apprentissage n’est pas simple Ă  rĂ©aliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour ĂȘtre dĂ©ployĂ©. MĂȘme dans le domaine de la recommandation sur les rĂ©seaux sociaux, le fait qu’elle s’appuie sur des modĂšles d’apprentissage automatique n’a pas supprimĂ© la nĂ©cessitĂ© de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour dĂ©ployer de l’IA est fortement limitĂ©e en raison des coĂ»ts sociaux de l’expĂ©rimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou rĂ©pondre Ă  des examens, comme Ă  ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles rĂ©elles. En fait, trop souvent, les indicateurs permettent de mesurer les progrĂšs des mĂ©thodes d’IA, mais peinent Ă  mesurer leurs impacts ou l’adoption, c’est-Ă -dire l’intensitĂ© de son utilisation. Kapoor et Narayanan insistent : les impacts Ă©conomiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrĂšs. En fait, il est probable que cette surproduction mĂȘme limite l’innovation. Une Ă©tude a ainsi montrĂ© que dans les domaines de recherche oĂč le volume d’articles scientifiques est plus Ă©levĂ©, il est plus difficile aux nouvelles idĂ©es de percer. 

L’IA va rester sous contrĂŽle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacitĂ© Ă  raisonner clairement sur un monde dotĂ© d’une IA avancĂ©e. Assez souvent, l’intelligence elle-mĂȘme est assez mal dĂ©finie, selon un spectre qui irait de la souris Ă  l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriĂ©tĂ© en jeu pour analyser les impacts de l’IA. C’est plutĂŽt le pouvoir – la capacitĂ© Ă  modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisĂ© pour accroĂźtre nos capacitĂ©s. La diffĂ©rence entre l’IA et les capacitĂ©s humaines reposent surtout dans la vitesse. Les machines nous dĂ©passent surtout en terme de vitesse, d’oĂč le fait que nous les ayons dĂ©veloppĂ© surtout dans les domaines oĂč la vitesse est en jeu.  

“Nous prĂ©voyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraĂźnĂ©s (en particulier les Ă©quipes humaines, et surtout si elle est complĂ©tĂ©e par des outils automatisĂ©s simples) dans la prĂ©vision d’évĂ©nements gĂ©opolitiques (par exemple, les Ă©lections). Nous faisons la mĂȘme prĂ©diction pour les tĂąches consistant Ă  persuader les gens d’agir contre leur propre intĂ©rĂȘt”. En fait, les systĂšmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prĂ©disent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrĂŽle reste fort, des audits Ă  la surveillance des systĂšmes en passant par la sĂ©curitĂ© intĂ©grĂ©e. “En cybersĂ©curitĂ©, le principe du « moindre privilĂšge » garantit que les acteurs n’ont accĂšs qu’aux ressources minimales nĂ©cessaires Ă  leurs tĂąches. Les contrĂŽles d’accĂšs empĂȘchent les personnes travaillant avec des donnĂ©es et des systĂšmes sensibles d’accĂ©der Ă  des informations et outils confidentiels non nĂ©cessaires Ă  leur travail. Nous pouvons concevoir des protections similaires pour les systĂšmes d’IA dans des contextes consĂ©quents. Les mĂ©thodes de vĂ©rification formelle garantissent que les codes critiques pour la sĂ©curitĂ© fonctionnent conformĂ©ment Ă  leurs spĂ©cifications ; elles sont dĂ©sormais utilisĂ©es pour vĂ©rifier l’exactitude du code gĂ©nĂ©rĂ© par l’IA.” Nous pouvons Ă©galement emprunter des idĂ©es comme la conception de systĂšmes rendant les actions de changement d’état rĂ©versibles, permettant ainsi aux humains de conserver un contrĂŽle significatif, mĂȘme dans des systĂšmes hautement automatisĂ©s. On peut Ă©galement imaginer de nouvelles idĂ©es pour assurer la sĂ©curitĂ©, comme le dĂ©veloppement de systĂšmes qui apprennent Ă  transmettre les dĂ©cisions aux opĂ©rateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systĂšmes agents dont l’activitĂ© est visible et lisible par les humains, ou encore la crĂ©ation de structures de contrĂŽle hiĂ©rarchiques dans lesquelles des systĂšmes d’IA plus simples et plus fiables supervisent des systĂšmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le dĂ©veloppement et l’adoption de l’IA avancĂ©e, l’innovation se multipliera pour trouver de nouveaux modĂšles de contrĂŽle humain”.

Pour eux d’ailleurs, Ă  l’avenir, un nombre croissant d’emplois et de tĂąches humaines seront affectĂ©s au contrĂŽle de l’IA. Lors des phases d’automatisation prĂ©cĂ©dentes, d’innombrables mĂ©thodes de contrĂŽle et de surveillance des machines ont Ă©tĂ© inventĂ©es. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrĂŽler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilitĂ© et du contrĂŽle en favorisant l’efficacitĂ© et l’automatisation doit toujours ĂȘtre contrebalancĂ©e. Les IA mal contrĂŽlĂ©es risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutĂŽt que les systĂšmes trop autonomes et insuffisamment supervisĂ©s sont vite dĂ©branchĂ©s. Nul n’a avantage Ă  se passer du contrĂŽle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant Ă  dĂ©ployer une IA de plus en plus puissante sans supervision ni contrĂŽle adĂ©quats sous prĂ©texte de concurrence, et que les acteurs les plus sĂ»rs soient supplantĂ©s par des acteurs prenant plus de risques, est souvent vite remisĂ©e par la rĂ©gulation. “De nombreuses stratĂ©gies rĂ©glementaires sont mobilisables, que ce soient celles axĂ©es sur les processus (normes, audits et inspections), les rĂ©sultats (responsabilitĂ©) ou la correction de l’asymĂ©trie d’information (Ă©tiquetage et certification).” En fait, rappellent les chercheurs, le succĂšs commercial est plutĂŽt liĂ© Ă  la sĂ©curitĂ© qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aĂ©ronautique, “l’intĂ©gration de l’IA a Ă©tĂ© limitĂ©e aux normes de sĂ©curitĂ© existantes, au lieu qu’elles soient abaissĂ©es pour encourager son adoption, principalement en raison de la capacitĂ© des rĂ©gulateurs Ă  sanctionner les entreprises qui ne respectent pas les normes de sĂ©curitĂ©â€. Dans le secteur automobile, pourtant, pendant longtemps, la sĂ©curitĂ© n’était pas considĂ©rĂ©e comme relevant de la responsabilitĂ© des constructeurs. mais petit Ă  petit, les normes et les attentes en matiĂšre de sĂ©curitĂ© se sont renforcĂ©es. Dans le domaine des recommandations algorithmiques des mĂ©dias sociaux par contre, les prĂ©judices sont plus difficiles Ă  mesurer, ce qui explique qu’il soit plus difficile d’imputer les dĂ©faillances aux systĂšmes de recommandation. “L’arbitrage entre innovation et rĂ©glementation est un dilemme rĂ©current pour l’État rĂ©gulateur”. En fait, la plupart des secteurs Ă  haut risque sont fortement rĂ©glementĂ©s, rappellent les deux chercheurs. Et contrairement Ă  l’idĂ©e rĂ©pandue, il n’y a pas que l’Europe qui rĂ©gule, les Etats-Unis et la Chine aussi ! Quant Ă  la course aux armements, elle se concentre surtout sur l’invention des modĂšles, pas sur l’adoption ou la diffusion qui demeurent bien plus dĂ©terminantes pourtant. 

RĂ©pondre aux abus. Jusqu’à prĂ©sent, les principales dĂ©fenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modĂšles, estiment les chercheurs. Le problĂšme fondamental est que la nocivitĂ© d’un modĂšle dĂ©pend du contexte, contexte souvent absent du modĂšle, comme ils l’expliquaient en montrant que la sĂ©curitĂ© n’est pas une propriĂ©tĂ© du modĂšle. Le modĂšle chargĂ© de rĂ©diger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisĂ© Ă  des fins marketing ou d’hameçonnage ; les interventions au niveau du modĂšle seraient donc inefficaces. Ainsi, les dĂ©fenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations lĂ©gitimes), mais plutĂŽt les systĂšmes d’analyse et de filtrage des e-mails qui dĂ©tectent les schĂ©mas suspects, et les protections au niveau du navigateur. Se dĂ©fendre contre les cybermenaces liĂ©es Ă  l’IA nĂ©cessite de renforcer les programmes de dĂ©tection des vulnĂ©rabilitĂ©s existants plutĂŽt que de tenter de restreindre les capacitĂ©s de l’IA Ă  la source. Mais surtout, “plutĂŽt que de considĂ©rer les capacitĂ©s de l’IA uniquement comme une source de risque, il convient de reconnaĂźtre leur potentiel dĂ©fensif. En cybersĂ©curitĂ©, l’IA renforce dĂ©jĂ  les capacitĂ©s dĂ©fensives grĂące Ă  la dĂ©tection automatisĂ©e des vulnĂ©rabilitĂ©s, Ă  l’analyse des menaces et Ă  la surveillance des surfaces d’attaque”. “Donner aux dĂ©fenseurs l’accĂšs Ă  des outils d’IA puissants amĂ©liore souvent l’équilibre attaque-dĂ©fense en leur faveur”. En modĂ©ration de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider Ă  identifier les opĂ©rations d’influence coordonnĂ©es. Nous devons investir dans des applications dĂ©fensives plutĂŽt que de tenter de restreindre la technologie elle-mĂȘme, suggĂšrent les chercheurs. 

Le dĂ©salignement. Une IA mal alignĂ©e agit contre l’intention de son dĂ©veloppeur ou de son utilisateur. Mais lĂ  encore, la principale dĂ©fense contre le dĂ©salignement se situe en aval plutĂŽt qu’en amont, dans les applications plutĂŽt que dans les modĂšles. Le dĂ©salignement catastrophique est le plus spĂ©culatif des risques, rappellent les chercheurs. “La crainte que les systĂšmes d’IA puissent interprĂ©ter les commandes de maniĂšre catastrophique repose souvent sur des hypothĂšses douteuses quant au dĂ©ploiement de la technologie dans le monde rĂ©el”. Dans le monde rĂ©el, la surveillance et le contrĂŽle sont trĂšs prĂ©sents et l’IA est trĂšs utile pour renforcer cette surveillance et ce contrĂŽle. Les craintes liĂ©es au dĂ©salignement de l’IA supposent que ces systĂšmes dĂ©jouent la surveillance, alors que nous avons dĂ©veloppĂ©s de trĂšs nombreuses formes de contrĂŽle, qui sont souvent d’autant plus fortes et redondantes que les dĂ©cisions sont importantes. 

Les risques systĂ©miques. Si les risques existentiels sont peu probables, les risques systĂ©miques, eux, sont trĂšs courants. Parmi ceux-ci figurent “l’enracinement des prĂ©jugĂ©s et de la discrimination, les pertes d’emplois massives dans certaines professions, la dĂ©gradation des conditions de travail, l’accroissement des inĂ©galitĂ©s, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystĂšme de l’information, le dĂ©clin de la libertĂ© de la presse, le recul dĂ©mocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques Ă©voquĂ©s prĂ©cĂ©demment”. Car ces risques dĂ©coulent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intĂ©rĂȘts, l’IA ne faisant qu’amplifier les instabilitĂ©s existantes dans notre sociĂ©tĂ©. Nous devrions bien plus nous soucier des risques cumulatifs que des risques dĂ©cisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant Ă  rĂ©orienter la rĂ©gulation de l’IA, notamment en favorisant la rĂ©silience. Pour l’instant, l’élaboration des politiques publiques et des rĂ©glementations de l’IA est caractĂ©risĂ©e par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la sociĂ©tĂ©. Si les probabilitĂ©s de risque existentiel de l’IA sont trop peu fiables pour Ă©clairer les politiques, il n’empĂȘche que nombre d’acteurs poussent Ă  une rĂ©gulation adaptĂ©e Ă  ces risques existentiels. Alors que d’autres interventions, comme l’amĂ©lioration de la transparence, sont inconditionnellement utiles pour attĂ©nuer les risques, quels qu’ils soient. Se dĂ©fendre contre la superintelligence exige que l’humanitĂ© s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrĂŽle centralisĂ© sur l’IA, qui risque d’ĂȘtre un remĂšde pire que le mal. Or, nous devrions bien plus nous prĂ©occuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inĂ©galitĂ©s. Pour nous dĂ©fendre contre ces risques-ci, pour empĂȘcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, dĂ©fendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, amĂ©liorer le financement stratĂ©gique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et amĂ©liorer nos connaissances sur les risques et leur attĂ©nuation. Ils proposent Ă©galement d’amĂ©liorer la surveillance des usages, des risques et des Ă©checs, passant par les dĂ©clarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de donnĂ©es d’incidents de l’IA) ou la protection des lanceurs d’alerte
 Enfin, il proposent que les “donnĂ©es probantes” soient un objectif prioritaire, c’est-Ă -dire d’amĂ©liorer l’accĂšs de la recherche.

Dans le domaine de l’IA, la difficultĂ© consiste Ă  Ă©valuer les risques avant le dĂ©ploiement. Pour amĂ©liorer la rĂ©silience, il est important d’amĂ©liorer la responsabilitĂ© et la rĂ©silience, plus que l’analyse de risque, c’est-Ă -dire des dĂ©marches de contrĂŽle qui ont lieu aprĂšs les dĂ©ploiements. “La rĂ©silience exige Ă  la fois de minimiser la gravitĂ© des dommages lorsqu’ils surviennent et la probabilitĂ© qu’ils surviennent.” Pour attĂ©nuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la dĂ©mocratie, la libertĂ© de la presse ou l’équitĂ© dans le monde du travail. C’est-Ă -dire d’amĂ©liorer la rĂ©silience sociĂ©tale au sens large. 

Pour Ă©laborer des politiques technologiques efficaces, il faut ensuite renforcer les capacitĂ©s techniques et institutionnelles de la recherche, des autoritĂ©s et administrations. Sans personnels compĂ©tents et informĂ©s, la rĂ©gulation de l’IA sera toujours difficile. Les chercheurs invitent mĂȘme Ă  “diversifier l’ensemble des rĂ©gulateurs et, idĂ©alement, Ă  introduire la concurrence entre eux plutĂŽt que de confier la responsabilitĂ© de l’ensemble Ă  un seul rĂ©gulateur”.

Par contre, Kapoor et Narayanan se dĂ©fient fortement des politiques visant Ă  promouvoir une non-prolifĂ©ration de l’IA, c’est-Ă -dire Ă  limiter le nombre d’acteurs pouvant dĂ©velopper des IA performantes. Les contrĂŽles Ă  l’exportation de matĂ©riel ou de logiciels visant Ă  limiter la capacitĂ© des pays Ă  construire, acquĂ©rir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modĂšles d’IA Ă  pondĂ©ration ouverte
 sont des politiques qui favorisent la concentration plus qu’elles ne rĂ©duisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le mĂȘme modĂšle, les vulnĂ©rabilitĂ©s de ce modĂšle peuvent ĂȘtre exploitĂ©es dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “rĂ©aliser les avantages de l’IA”, c’est-Ă -dire accĂ©lĂ©rer l’adoption des bĂ©nĂ©fices de l’IA et attĂ©nuer ses inconvĂ©nients. Pour cela, estiment-ils, nous devons ĂȘtre plus souples sur nos modalitĂ©s d’intervention. Par exemple, ils estiment que pour l’instant catĂ©goriser certains domaines de dĂ©ploiement de l’IA comme Ă  haut risque est problĂ©matique, au prĂ©texte que dans ces secteurs (assurance, prestation sociale ou recrutement
), les technologies peuvent aller de la reconnaissance optique de caractĂšres, relativement inoffensives, Ă  la prise de dĂ©cision automatisĂ©es dont les consĂ©quences sont importantes. Pour eux, il faudrait seulement considĂ©rer la prise de dĂ©cision automatisĂ©e dans ces secteurs comme Ă  haut risque. 

Un autre enjeu repose sur l’essor des modĂšles fondamentaux qui a conduit Ă  une distinction beaucoup plus nette entre les dĂ©veloppeurs de modĂšles, les dĂ©veloppeurs en aval et les dĂ©ployeurs (parmi de nombreuses autres catĂ©gories). Une rĂ©glementation insensible Ă  ces distinctions risque de confĂ©rer aux dĂ©veloppeurs de modĂšles des responsabilitĂ©s en matiĂšre d’attĂ©nuation des risques liĂ©s Ă  des contextes de dĂ©ploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modĂšles fondamentaux et de l’imprĂ©visibilitĂ© de tous les contextes de dĂ©ploiement possibles.

Enfin, lorsque la rĂ©glementation Ă©tablit une distinction binaire entre les dĂ©cisions entiĂšrement automatisĂ©es et celles qui ne le sont pas, et ne reconnaĂźt pas les degrĂ©s de surveillance, elle dĂ©courage l’adoption de nouveaux modĂšles de contrĂŽle de l’IA. Or de nombreux nouveaux modĂšles sont proposĂ©s pour garantir une supervision humaine efficace sans impliquer un humain dans chaque dĂ©cision. Il serait imprudent de dĂ©finir la prise de dĂ©cision automatisĂ©e de telle sorte que ces approches engendrent les mĂȘmes contraintes de conformitĂ© qu’un systĂšme sans supervision. Pour les deux chercheurs, “opposer rĂ©glementation et diffusion est un faux compromis, tout comme opposer rĂ©glementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas rĂ©guler, mais bien de garantir de la souplesse. La lĂ©gislation garantissant la validitĂ© juridique des signatures et enregistrement Ă©lectroniques promulguĂ©e en 2000 aux Etats-Unis a jouĂ© un rĂŽle dĂ©terminant dans la promotion du commerce Ă©lectronique et sa diffusion. La lĂ©gislation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le dĂ©veloppement du secteur par la crĂ©ation de pilotes certifiĂ©s. Nous devons trouver pour l’IA Ă©galement des rĂ©glementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bĂ©nĂ©fices de l’IA afin de les rendre plus Ă©quitables et d’indemniser les personnes qui risquent de subir les consĂ©quences de l’automatisation. Le renforcement des filets de sĂ©curitĂ© sociale contribuera Ă  attĂ©nuer l’inquiĂ©tude actuelle du public face Ă  l’IA dans de nombreux pays”. Et les chercheurs de suggĂ©rer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis Ă  mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste Ă©quilibre entre une adoption trop prĂ©cipitĂ©e qui gĂ©nĂšre des dĂ©faillances et de la mĂ©fiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privĂ©.

De l’instrumentalisation du numĂ©rique par l’action publique

L’avant dernier numĂ©ro de la revue RĂ©seaux est consacrĂ© Ă  la dĂ©matĂ©rialisation. “La numĂ©risation des administrations redĂ©finit le rapport Ă  l’État et ouvre Ă  des procĂšs de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numĂ©ro, qui rappelle que ces dĂ©veloppements suivent des phases en regardant celles des pays scandinaves, pionniers en la matiĂšre. Pourtant, lĂ -bas comme ailleurs, la numĂ©risation n’a pas aidĂ© ou apaisĂ© la relation administrative, au contraire. LĂ -bas aussi, elle rend plus difficile l’accĂšs aux droits. En fait, plus qu’un changement d’outillage, elle est une â€œĂ©volution de nature politique” qui redĂ©finit les rapports Ă  l’État, Ă  la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, crĂ©ant des situations d’accĂšs inĂ©galitaires qui restreignennt la qualitĂ© et la continuitĂ© des services publics. “La dĂ©matĂ©rialisation de l’action publique signe en cela une double dĂ©lĂ©gation. D’un cĂŽtĂ©, certaines opĂ©rations sont dĂ©lĂ©guĂ©es aux dispositifs techniques ; de l’autre, on constate un dĂ©placement complĂ©mentaire de celles-ci vers les usagers, qui portent dĂ©sormais la charge et la responsabilitĂ© du bon dĂ©roulement des dĂ©marches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se dĂ©brouiller et les autres. L’accĂšs aux outils numĂ©riques et leur maĂźtrise devient un nouveau critĂšre d’éligibilitĂ© aux droits, gĂ©nĂ©rateur de non-recours : le numĂ©rique devient une “charge supplĂ©mentaire” pour les plus vulnĂ©rables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultĂ©s, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “dĂ©placer le pĂ©rimĂštre de leurs missions premiĂšres”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab AccĂšs sur le dispositif Conseiller numĂ©rique France Services (CnFS) montre qu’il se rĂ©vĂšle fragile, profitant d’abord aux structures prĂ©alablement les plus engagĂ©es sur l’inclusion numĂ©rique. L’État s’est appuyĂ© sur le plan de relance europĂ©en afin de transfĂ©rer aux acteurs locaux la prise en charge d’un problĂšme public dont les conseillers numĂ©riques doivent assumer la charge. Les moyens s’avĂšrent « structurellement insuffisants pour stabiliser une rĂ©ponse proportionnĂ©e aux besoins ». À l’échelle nationale, les dĂ©marches en ligne se placent en tĂȘte des aides rĂ©alisĂ©es par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexĂ©s Ă  la numĂ©risation des administrations »; et de constater qu’il y a lĂ  une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numĂ©rique – qui ne parvient pas Ă  rĂ©pondre aux besoins gĂ©nĂ©rĂ©s par une autre action publique – les politiques de dĂ©matĂ©rialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant Ă  certains acteurs, notamment aux acteurs de la dĂ©matĂ©rialisation de la relation administrative, qu’il n’a permis de rĂ©pondre Ă  la gĂ©ographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes ĂągĂ©es, moins en rĂ©ponse Ă  des besoins qu’en raison du ciblage de l’offre elle-mĂȘme : elle capte d’abord des publics « disponibles », pas nĂ©cessairement ceux qui en ont le plus besoin ». Enfin, la dĂ©gressivitĂ© des financements a, quant Ă  elle, « produit un effet de sĂ©lection, qui a accentuĂ© les inĂ©galitĂ©s entre acteurs et territoires », notamment au dĂ©triment des acteurs de la mĂ©diation numĂ©rique.

La gouvernance par dispositifs numĂ©riques faciliterait l’avĂšnement d’une administration d’orientation nĂ©olibĂ©rale priorisant les valeurs du marchĂ©, explique Granjon. L’administration « renforcerait son contrĂŽle sur les populations, mais, paradoxalement, perdrait le contrĂŽle sur ses principaux outils, notamment ceux d’aide Ă  la dĂ©cision quant Ă  l’octroi de droits et de subsides ». La dĂ©cision confiĂ©e aux procĂ©dures de calcul, laisse partout peu de marge de manƓuvre aux agents, les transformant en simples exĂ©cutants. A PĂŽle Emploi, par exemple, il s’agit moins de trouver un emploi aux chĂŽmeurs que de les rendre « autonomes » avec les outils numĂ©riques. Pour PĂ©rine Brotcorne pourtant, malgrĂ© la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des dĂ©veloppements numĂ©riques des services publics. Rien n’est fait par exemple pour l’usager en difficultĂ© par exemple pour qu’il puisse dĂ©lĂ©guer la prise en charge de ses tĂąches administratives Ă  un tiers, comme le soulignait rĂ©cemment le DĂ©fenseur des droits. Les interfaces numĂ©riques, trop complexes, fabriquent “de l’incapacitĂ©â€ pour certains publics, notamment les plus Ă©loignĂ©s et les plus vulnĂ©rables. Brotcorne montre d’ailleurs trĂšs bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invitĂ©s Ă  s’exprimer. L’étude souligne que prĂšs de la moitiĂ© des usagers n’arrivent pas Ă  passer la premiĂšre Ă©tape des services publics numĂ©riques que ce soit se connecter, prendre rendez-vous ou mĂȘme tĂ©lĂ©charger un formulaire. Dans un autre article, signĂ© Anne-Sylvie Pharabod et CĂ©line Borelle, les deux chercheuses auscultent les pratiques administratives numĂ©risĂ©es ordinaires qui montrent que la numĂ©risation est une longue habituation, oĂč les dĂ©marches apprises pour un service permettent d’en aborder d’autres. Les dĂ©marches administratives sont un univers de tĂąches dont il faut apprendre Ă  se dĂ©brouiller, comme faire se peut, et qui en mĂȘme temps sont toujours remises Ă  zĂ©ro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identitĂ©, ou des documents Ă  uploader. “La diversitĂ© des dĂ©marches, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des interfaces et l’évolution rapide des outils liĂ©e Ă  des amĂ©liorations incrĂ©mentales (notamment en matiĂšre de sĂ©curitĂ©) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numĂ©riques au sein du Service public de l’emploi a pour consĂ©quence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numĂ©rique se voit investie de la fonction de rĂ©gulation des comportements des usagers, des agents publics, mais Ă©galement de bien d’autres publics, notamment tous ceux utilisant ses donnĂ©es et plateformes. A cette aune, France Travail est amenĂ© Ă  devenir un « animateur d’écosystĂšme emploi/formation/insertion » connectant divers Ă©chelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses diffĂ©rentes plateformes. Granjon invite Ă  s’intĂ©resser Ă  ces encastrements nouveaux et pas seulement aux guichets, ou Ă  la relation agent-public, pour mieux saisir comment les bases de donnĂ©es, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procĂ©dures que France Travail met en place. 

Le numĂ©ro de RĂ©seaux livre Ă©galement un intĂ©ressant article, trĂšs critique, du Dossier mĂ©dical partagĂ©, signĂ© Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intĂ©resse Ă  l’histoire de la gouvernance problĂ©matique du projet, qui explique en grande partie ses Ă©cueils, et au fait que le DMP ne semble toujours pas avoir trouvĂ© son utilitĂ© pour les professionnels de santĂ©.

Un autre article signĂ© Pauline Boyer explore le lancement du portail de donnĂ©es ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel GoĂ«ta et Élise Ho-Pun-Cheung s’intĂ©ressent quant Ă  eux Ă  la production de standards et aux difficultĂ©s de leur intĂ©gration dans le quotidien des agents, en observant le processus de standardisation des donnĂ©es des lieux de mĂ©diation numĂ©rique. L’article souligne la difficultĂ© des conseillers numĂ©riques Ă  inflĂ©chir la standardisation et montre que cette normalisation peine Ă  prĂ©voir les usages de la production de donnĂ©es.

Dans un article de recherche qui n’est pas publiĂ© par RĂ©seaux, mais complĂ©mentaire Ă  son dossier, le politologue nĂ©erlandais, Pascal D. Koenig explique que le dĂ©veloppement d’un État algorithmique modifie la relation avec les citoyens, ce qui nĂ©cessite de regarder au-delĂ  des seules propriĂ©tĂ©s des systĂšmes. L’intĂ©gration des algos et de l’IA dĂ©veloppe une relation plus impersonnelle, renforçant le contrĂŽle et l’asymĂ©trie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systĂšmes d’IA, qui remplacent ou assistent l’exĂ©cution des tĂąches humaines, introduisent un nouveau type de reprĂ©sentation des agents dans les organisations gouvernementales. Ils rĂ©duisent ainsi structurellement la reprĂ©sentation des citoyens – en tant qu’ĂȘtres humains – au sein de l’État et augmentent les asymĂ©tries de pouvoir, en Ă©tendant unilatĂ©ralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte Ă©galement les fondements de la reconnaissance sociale dans la relation citoyen-État, liĂ©s au comportement. En tant qu’agents artificiels, les systĂšmes d’IA manquent de comprĂ©hension et de compassion humaines, dont l’expression dans de nombreuses interactions est un Ă©lĂ©ment important pour reconnaĂźtre et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiĂ©rarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui Ă©rode le respect que les institutions leur tĂ©moignent”. Le manque d’empathie des systĂšmes est l’une des principales raisons pour lesquelles les individus s’en mĂ©fient, rappelle Koenig. Or, “la numĂ©risation et l’automatisation de l’administration rĂ©duisent les foyers d’empathie existants et contribuent Ă  une prise en compte Ă©troite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de comprĂ©hension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental oĂč le contact humain se rĂ©duit : moins reprĂ©sentatif, il est donc moins disposĂ© Ă  prendre des dĂ©cisions dans leur intĂ©rĂȘt.

De l’instrumentalisation du numĂ©rique par l’action publique

L’avant dernier numĂ©ro de la revue RĂ©seaux est consacrĂ© Ă  la dĂ©matĂ©rialisation. “La numĂ©risation des administrations redĂ©finit le rapport Ă  l’État et ouvre Ă  des procĂšs de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numĂ©ro, qui rappelle que ces dĂ©veloppements suivent des phases en regardant celles des pays scandinaves, pionniers en la matiĂšre. Pourtant, lĂ -bas comme ailleurs, la numĂ©risation n’a pas aidĂ© ou apaisĂ© la relation administrative, au contraire. LĂ -bas aussi, elle rend plus difficile l’accĂšs aux droits. En fait, plus qu’un changement d’outillage, elle est une â€œĂ©volution de nature politique” qui redĂ©finit les rapports Ă  l’État, Ă  la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, crĂ©ant des situations d’accĂšs inĂ©galitaires qui restreignennt la qualitĂ© et la continuitĂ© des services publics. “La dĂ©matĂ©rialisation de l’action publique signe en cela une double dĂ©lĂ©gation. D’un cĂŽtĂ©, certaines opĂ©rations sont dĂ©lĂ©guĂ©es aux dispositifs techniques ; de l’autre, on constate un dĂ©placement complĂ©mentaire de celles-ci vers les usagers, qui portent dĂ©sormais la charge et la responsabilitĂ© du bon dĂ©roulement des dĂ©marches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se dĂ©brouiller et les autres. L’accĂšs aux outils numĂ©riques et leur maĂźtrise devient un nouveau critĂšre d’éligibilitĂ© aux droits, gĂ©nĂ©rateur de non-recours : le numĂ©rique devient une “charge supplĂ©mentaire” pour les plus vulnĂ©rables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultĂ©s, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “dĂ©placer le pĂ©rimĂštre de leurs missions premiĂšres”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab AccĂšs sur le dispositif Conseiller numĂ©rique France Services (CnFS) montre qu’il se rĂ©vĂšle fragile, profitant d’abord aux structures prĂ©alablement les plus engagĂ©es sur l’inclusion numĂ©rique. L’État s’est appuyĂ© sur le plan de relance europĂ©en afin de transfĂ©rer aux acteurs locaux la prise en charge d’un problĂšme public dont les conseillers numĂ©riques doivent assumer la charge. Les moyens s’avĂšrent « structurellement insuffisants pour stabiliser une rĂ©ponse proportionnĂ©e aux besoins ». À l’échelle nationale, les dĂ©marches en ligne se placent en tĂȘte des aides rĂ©alisĂ©es par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexĂ©s Ă  la numĂ©risation des administrations »; et de constater qu’il y a lĂ  une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numĂ©rique – qui ne parvient pas Ă  rĂ©pondre aux besoins gĂ©nĂ©rĂ©s par une autre action publique – les politiques de dĂ©matĂ©rialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant Ă  certains acteurs, notamment aux acteurs de la dĂ©matĂ©rialisation de la relation administrative, qu’il n’a permis de rĂ©pondre Ă  la gĂ©ographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes ĂągĂ©es, moins en rĂ©ponse Ă  des besoins qu’en raison du ciblage de l’offre elle-mĂȘme : elle capte d’abord des publics « disponibles », pas nĂ©cessairement ceux qui en ont le plus besoin ». Enfin, la dĂ©gressivitĂ© des financements a, quant Ă  elle, « produit un effet de sĂ©lection, qui a accentuĂ© les inĂ©galitĂ©s entre acteurs et territoires », notamment au dĂ©triment des acteurs de la mĂ©diation numĂ©rique.

La gouvernance par dispositifs numĂ©riques faciliterait l’avĂšnement d’une administration d’orientation nĂ©olibĂ©rale priorisant les valeurs du marchĂ©, explique Granjon. L’administration « renforcerait son contrĂŽle sur les populations, mais, paradoxalement, perdrait le contrĂŽle sur ses principaux outils, notamment ceux d’aide Ă  la dĂ©cision quant Ă  l’octroi de droits et de subsides ». La dĂ©cision confiĂ©e aux procĂ©dures de calcul, laisse partout peu de marge de manƓuvre aux agents, les transformant en simples exĂ©cutants. A PĂŽle Emploi, par exemple, il s’agit moins de trouver un emploi aux chĂŽmeurs que de les rendre « autonomes » avec les outils numĂ©riques. Pour PĂ©rine Brotcorne pourtant, malgrĂ© la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des dĂ©veloppements numĂ©riques des services publics. Rien n’est fait par exemple pour l’usager en difficultĂ© par exemple pour qu’il puisse dĂ©lĂ©guer la prise en charge de ses tĂąches administratives Ă  un tiers, comme le soulignait rĂ©cemment le DĂ©fenseur des droits. Les interfaces numĂ©riques, trop complexes, fabriquent “de l’incapacitĂ©â€ pour certains publics, notamment les plus Ă©loignĂ©s et les plus vulnĂ©rables. Brotcorne montre d’ailleurs trĂšs bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invitĂ©s Ă  s’exprimer. L’étude souligne que prĂšs de la moitiĂ© des usagers n’arrivent pas Ă  passer la premiĂšre Ă©tape des services publics numĂ©riques que ce soit se connecter, prendre rendez-vous ou mĂȘme tĂ©lĂ©charger un formulaire. Dans un autre article, signĂ© Anne-Sylvie Pharabod et CĂ©line Borelle, les deux chercheuses auscultent les pratiques administratives numĂ©risĂ©es ordinaires qui montrent que la numĂ©risation est une longue habituation, oĂč les dĂ©marches apprises pour un service permettent d’en aborder d’autres. Les dĂ©marches administratives sont un univers de tĂąches dont il faut apprendre Ă  se dĂ©brouiller, comme faire se peut, et qui en mĂȘme temps sont toujours remises Ă  zĂ©ro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identitĂ©, ou des documents Ă  uploader. “La diversitĂ© des dĂ©marches, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des interfaces et l’évolution rapide des outils liĂ©e Ă  des amĂ©liorations incrĂ©mentales (notamment en matiĂšre de sĂ©curitĂ©) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numĂ©riques au sein du Service public de l’emploi a pour consĂ©quence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numĂ©rique se voit investie de la fonction de rĂ©gulation des comportements des usagers, des agents publics, mais Ă©galement de bien d’autres publics, notamment tous ceux utilisant ses donnĂ©es et plateformes. A cette aune, France Travail est amenĂ© Ă  devenir un « animateur d’écosystĂšme emploi/formation/insertion » connectant divers Ă©chelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses diffĂ©rentes plateformes. Granjon invite Ă  s’intĂ©resser Ă  ces encastrements nouveaux et pas seulement aux guichets, ou Ă  la relation agent-public, pour mieux saisir comment les bases de donnĂ©es, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procĂ©dures que France Travail met en place. 

Le numĂ©ro de RĂ©seaux livre Ă©galement un intĂ©ressant article, trĂšs critique, du Dossier mĂ©dical partagĂ©, signĂ© Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intĂ©resse Ă  l’histoire de la gouvernance problĂ©matique du projet, qui explique en grande partie ses Ă©cueils, et au fait que le DMP ne semble toujours pas avoir trouvĂ© son utilitĂ© pour les professionnels de santĂ©.

Un autre article signĂ© Pauline Boyer explore le lancement du portail de donnĂ©es ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel GoĂ«ta et Élise Ho-Pun-Cheung s’intĂ©ressent quant Ă  eux Ă  la production de standards et aux difficultĂ©s de leur intĂ©gration dans le quotidien des agents, en observant le processus de standardisation des donnĂ©es des lieux de mĂ©diation numĂ©rique. L’article souligne la difficultĂ© des conseillers numĂ©riques Ă  inflĂ©chir la standardisation et montre que cette normalisation peine Ă  prĂ©voir les usages de la production de donnĂ©es.

Dans un article de recherche qui n’est pas publiĂ© par RĂ©seaux, mais complĂ©mentaire Ă  son dossier, le politologue nĂ©erlandais, Pascal D. Koenig explique que le dĂ©veloppement d’un État algorithmique modifie la relation avec les citoyens, ce qui nĂ©cessite de regarder au-delĂ  des seules propriĂ©tĂ©s des systĂšmes. L’intĂ©gration des algos et de l’IA dĂ©veloppe une relation plus impersonnelle, renforçant le contrĂŽle et l’asymĂ©trie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systĂšmes d’IA, qui remplacent ou assistent l’exĂ©cution des tĂąches humaines, introduisent un nouveau type de reprĂ©sentation des agents dans les organisations gouvernementales. Ils rĂ©duisent ainsi structurellement la reprĂ©sentation des citoyens – en tant qu’ĂȘtres humains – au sein de l’État et augmentent les asymĂ©tries de pouvoir, en Ă©tendant unilatĂ©ralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte Ă©galement les fondements de la reconnaissance sociale dans la relation citoyen-État, liĂ©s au comportement. En tant qu’agents artificiels, les systĂšmes d’IA manquent de comprĂ©hension et de compassion humaines, dont l’expression dans de nombreuses interactions est un Ă©lĂ©ment important pour reconnaĂźtre et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiĂ©rarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui Ă©rode le respect que les institutions leur tĂ©moignent”. Le manque d’empathie des systĂšmes est l’une des principales raisons pour lesquelles les individus s’en mĂ©fient, rappelle Koenig. Or, “la numĂ©risation et l’automatisation de l’administration rĂ©duisent les foyers d’empathie existants et contribuent Ă  une prise en compte Ă©troite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de comprĂ©hension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental oĂč le contact humain se rĂ©duit : moins reprĂ©sentatif, il est donc moins disposĂ© Ă  prendre des dĂ©cisions dans leur intĂ©rĂȘt.

De la maütrise de l’automatisation d’Etat

Le dernier numĂ©ro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquĂȘtes de jeunes sociologues. 

Camille Girard-Chanudet dĂ©crit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extĂ©rieur des tribunaux pour les transformer. 

HĂ©loĂŻse Eloi‑Hammer observe les diffĂ©rences d’implĂ©mentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mĂȘmes moyens pour configurer la plateforme et que souvent, elles utilisent des procĂ©dĂ©s de sĂ©lection rudimentaires. Elle montre que, lĂ  aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposĂ©s aux valeurs des formations qui les mettent en Ɠuvre. 

JĂ©rĂ©mie Poiroux Ă©voque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrĂŽle technique des activitĂ©s maritimes qui permet de montrer comment le calcul et l’évolution de la rĂ©glementation sont mobilisĂ©es pour rĂ©duire les effectifs des services de l’Etat tout en amĂ©liorant le ciblage des contrĂŽles. Pour Poiroux, le systĂšme mis en place pose des questions quant Ă  son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens Ă  la prĂ©vention et Ă  l’accompagnement, afin de rĂ©duire son champ d’action au contrĂŽle et Ă  la punition”, ainsi qu’à Ă©loigner les agents au profit de rĂšgles venues d’en haut. 

Soizic PĂ©nicaud revient quant Ă  elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de diffĂ©rents collectifs n’est pas allĂ© de soi et que le recueil de tĂ©moignages a permis de soulever le problĂšme et d’incarner les difficultĂ©s auxquelles les personnes Ă©taient confrontĂ©es. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une rĂ©alitĂ©. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le dĂ©ploiement des algorithmes Ă  la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui prĂ©existe. “L’algorithme ne se substitue pas aux pratiques prĂ©cĂ©dentes de contrĂŽle. Il s’y intĂšgre (
). Il ne l’automatise pas non plus : il le « flĂšche »”. Elle rappelle, Ă  la suite du travail de Vincent Dubois dans ContrĂŽler les assistĂ©s, que le dĂ©veloppement des systĂšmes de calculs permettent Ă  la fois de produire un contrĂŽle rĂ©organisĂ©, national, au dĂ©triment de l’autonomie des agents et des caisses locales, ainsi que de lĂ©gitimer la culture du contrĂŽle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalitĂ© de son pouvoir”.

Mardi 3 juin Ă  19h30 Ă  la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisĂ©e autour des chercheurs et chercheuses qui ont participĂ© Ă  ce numĂ©ro. Nous y serons.

De la maütrise de l’automatisation d’Etat

Le dernier numĂ©ro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquĂȘtes de jeunes sociologues. 

Camille Girard-Chanudet dĂ©crit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extĂ©rieur des tribunaux pour les transformer. 

HĂ©loĂŻse Eloi‑Hammer observe les diffĂ©rences d’implĂ©mentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mĂȘmes moyens pour configurer la plateforme et que souvent, elles utilisent des procĂ©dĂ©s de sĂ©lection rudimentaires. Elle montre que, lĂ  aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposĂ©s aux valeurs des formations qui les mettent en Ɠuvre. 

JĂ©rĂ©mie Poiroux Ă©voque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrĂŽle technique des activitĂ©s maritimes qui permet de montrer comment le calcul et l’évolution de la rĂ©glementation sont mobilisĂ©es pour rĂ©duire les effectifs des services de l’Etat tout en amĂ©liorant le ciblage des contrĂŽles. Pour Poiroux, le systĂšme mis en place pose des questions quant Ă  son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens Ă  la prĂ©vention et Ă  l’accompagnement, afin de rĂ©duire son champ d’action au contrĂŽle et Ă  la punition”, ainsi qu’à Ă©loigner les agents au profit de rĂšgles venues d’en haut. 

Soizic PĂ©nicaud revient quant Ă  elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de diffĂ©rents collectifs n’est pas allĂ© de soi et que le recueil de tĂ©moignages a permis de soulever le problĂšme et d’incarner les difficultĂ©s auxquelles les personnes Ă©taient confrontĂ©es. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une rĂ©alitĂ©. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le dĂ©ploiement des algorithmes Ă  la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui prĂ©existe. “L’algorithme ne se substitue pas aux pratiques prĂ©cĂ©dentes de contrĂŽle. Il s’y intĂšgre (
). Il ne l’automatise pas non plus : il le « flĂšche »”. Elle rappelle, Ă  la suite du travail de Vincent Dubois dans ContrĂŽler les assistĂ©s, que le dĂ©veloppement des systĂšmes de calculs permettent Ă  la fois de produire un contrĂŽle rĂ©organisĂ©, national, au dĂ©triment de l’autonomie des agents et des caisses locales, ainsi que de lĂ©gitimer la culture du contrĂŽle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalitĂ© de son pouvoir”.

Mardi 3 juin Ă  19h30 Ă  la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisĂ©e autour des chercheurs et chercheuses qui ont participĂ© Ă  ce numĂ©ro. Nous y serons.

L’IA peut-elle soutenir la dĂ©mocratie ?

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab Ă  Harvard. Elle a publiĂ© de nombreux livres pour montrer que la rĂ©sistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la rĂ©sistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prĂ©pare d’ailleurs un nouveau livre, The End of People Power, qui pointe le dĂ©clin dĂ©routant des mouvements de rĂ©sistance civile au cours de la derniĂšre dĂ©cennie, alors mĂȘme que ces techniques sont devenues trĂšs populaires dans le monde entier. Lors d’une rĂ©cente confĂ©rence sur l’IA et les libertĂ©s dĂ©mocratiques organisĂ©e par le Knight First Amendment Institute de l’universitĂ© de Columbia, elle se demandait si l’IA pouvait soutenir les revendications dĂ©mocratiques, rapporte Tech Policy Press (vidĂ©o). L’occasion de rendre compte Ă  notre tour d’un point de vue dĂ©coiffant qui interroge en profondeur notre rapport Ă  la dĂ©mocratie.  

La récession démocratique est engagée

La dĂ©mocratie est en dĂ©clin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle mĂȘme de “rĂ©cession dĂ©mocratique” et estime que la sauvegarde des droits dĂ©mocratiques est partout en crise. 2025 pourrait ĂȘtre la premiĂšre annĂ©e, depuis longtemps, oĂč la majoritĂ© de la population mondiale vit sous des formes de gouvernement autoritaires plutĂŽt que dĂ©mocratiques. Ce recul est dĂ» Ă  la fois au dĂ©veloppement de l’autoritarisme dans les rĂ©gimes autocratiques et Ă  l’avancĂ©e de l’autocratie dans les dĂ©mocraties Ă©tablies, explique Chenoweth. Les avancĂ©es dĂ©mocratiques des 100 derniĂšres annĂ©es ont Ă©tĂ© nombreuses et assez gĂ©nĂ©rales. Elles ont d’abord Ă©tĂ© le fait de mouvements non violents, populaires, oĂč des citoyens ordinaires ont utilisĂ© les manifestations et les grĂšves, bien plus que les insurrections armĂ©es, pour dĂ©ployer la dĂ©mocratie lĂ  oĂč elle Ă©tait empĂȘchĂ©e. Mais ces succĂšs sont en dĂ©clin. Les taux de rĂ©ussite des mouvements populaires pacifistes comme armĂ©s, se sont effondrĂ©s, notamment au cours des dix derniĂšres annĂ©es. “Il y a quelque chose de global et de systĂ©mique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants Ă  ces mouvements sont devenus plus efficaces pour les vaincre en gĂ©nĂ©ral”.

Les Ă©pisodes de contestation rĂ©formistes (qui ne relĂšvent pas de revendications maximalistes, comme les mouvements dĂ©mocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes
 n’ont cessĂ© de subir des revers et des dĂ©faites au cours des deux derniĂšres dĂ©cennies, et ont mĂȘme diminuĂ© leur capacitĂ© Ă  obtenir des concessions significatives, Ă  l’image de la contestation de la rĂ©forme des retraites en France ou des mouvements Ă©cologiques, plus Ă©crasĂ©s que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisĂ©es que jamais. 

Selon la littĂ©rature, ce qui permet aux mouvements populaires de rĂ©ussir repose sur une participation large et diversifiĂ©e, c’est-Ă -dire transversale Ă  l’ensemble de la sociĂ©tĂ©, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans
 Et notamment quand ils suscitent le soutien de personnes trĂšs diffĂ©rentes les unes des autres. “Le principal dĂ©fi pour les mouvements de masse qui rĂ©clament un changement pour Ă©tendre la dĂ©mocratie consiste bien souvent Ă  disloquer les piliers des soutiens autocratiques comme l’armĂ©e ou les fonctionnaires. L’enjeu, pour les mouvements dĂ©mocratiques, consiste Ă  retourner la rĂ©pression Ă  l’encontre de la population en la dĂ©nonçant pour modifier l’opinion gĂ©nĂ©rale Â». Enfin, les mouvements qui rĂ©ussissent enchaĂźnent bien souvent les tactiques plutĂŽt que de reposer sur une technique d’opposition unique, afin de dĂ©multiplier les formes de pression. 

La rĂ©pression s’est mise Ă  niveau

Mais l’autocratie a appris de ses erreurs. Elle a adaptĂ© en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements dĂ©mocratiques l’emportent. “La premiĂšre consiste Ă  s’assurer que personne ne fasse dĂ©fection. La deuxiĂšme consiste Ă  dominer l’écosystĂšme de l’information et Ă  remporter la guerre de l’information. La troisiĂšme consiste Ă  recourir Ă  la rĂ©pression sĂ©lective de maniĂšre Ă  rendre trĂšs difficile pour les mouvements d’exploiter les moments d’intense brutalitĂ©. Et la quatriĂšme consiste Ă  perfectionner l’art de diviser pour mieux rĂ©gner”. Pour que l’armĂ©e ou la police ne fasse pas dĂ©fection, les autoritĂ©s ont amĂ©liorĂ© la formation des forces de sĂ©curitĂ©. La corruption et le financement permet de s’attacher des soutiens plus indĂ©fectibles. Les forces de sĂ©curitĂ© sont Ă©galement plus fragmentĂ©es, afin qu’une dĂ©fection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit Ă©galement de faire varier la rĂ©pression pour qu’une unitĂ© de sĂ©curitĂ© ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les rĂ©pressions des personnes dĂ©loyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la dĂ©fection des forces de sĂ©curitĂ©, et cette tendance s’est accentuĂ©e au fil du temps”.

La seconde adaptation clĂ© a consistĂ© Ă  gagner la guerre de l’information, notamment en dominant les Ă©cosystĂšmes de l’information. “Inonder la zone de rumeurs, de dĂ©sinformation et de propagande, dont certaines peuvent ĂȘtre créées et testĂ©es par diffĂ©rents outils d’IA, en fait partie. Il en va de mĂȘme pour la coupure d’Internet aux moments opportuns, puis sa rĂ©ouverture au moment opportun”.

Le troisiĂšme volet de la panoplie consiste Ă  appliquer une rĂ©pression sĂ©lective, consistant Ă  viser des individus plutĂŽt que les mouvements pour des crimes graves qui peuvent sembler dĂ©corrĂ©lĂ© des manifestations, en les accusant de terrorisme ou de prĂ©paration de coup d’Etat. ”La guerre juridique est un autre outil administratif clĂ©â€.

Le quatriĂšme volet consiste Ă  diviser pour mieux rĂ©gner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant Ă  des actions violentes pour gĂ©nĂ©rer des reflux d’opinion
 

Comment utiliser l’IA pour gagner ? 

Dans la montĂ©e de l’adaptation des techniques pour dĂ©faire leurs opposants, la technologie joue un rĂŽle, estime Erica Chenoweth. Jusqu’à prĂ©sent, les mouvements civiques ont plutĂŽt eu tendance Ă  s’approprier et Ă  utiliser, souvent de maniĂšre trĂšs innovantes, les technologies Ă  leur avantage, par exemple Ă  l’heure de l’arrivĂ©e d’internet, qui a trĂšs tĂŽt Ă©tĂ© utilisĂ© pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques Ă  utiliser l’IA, contrairement aux rĂ©gimes autocratiques. Pourtant, l’un des principaux problĂšmes des mouvements civiques consiste Ă  “cerner leur environnement opĂ©rationnel”, c’est-Ă -dire de savoir qui est connectĂ© Ă  qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? OĂč sont les vulnĂ©rabilitĂ©s du mouvement ? RĂ©flĂ©chir de maniĂšre crĂ©ative Ă  ces questions et enjeux, aux tactiques Ă  dĂ©ployer pourrait pourtant ĂȘtre un atout majeur pour que les mouvements dĂ©mocratiques rĂ©ussissent. 

Les mouvements dĂ©mocratiques passent bien plus de temps Ă  sensibiliser et communiquer qu’à faire de la stratĂ©gie, rappelle la chercheuse. Et c’est lĂ  deux enjeux oĂč les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des Ă©lections municipales russe, un algorithme a permis de contrĂŽler les images de vidĂ©osurveillance des bureaux de vote pour dĂ©tecter des irrĂ©gularitĂ©s permettant de dĂ©gager les sĂ©quences oĂč des bulletins prĂ©remplis avaient Ă©tĂ© introduits dans les urnes. Ce qui aurait demandĂ© un contrĂŽle militant Ă©puisant a pu ĂȘtre accompli trĂšs simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer trĂšs facilement Ă  des actions (des applications puissantes, mais parfois peu transparentes sur leurs mĂ©thodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent ĂȘtre mieux documentĂ©es et partagĂ©es pour qu’elles puissent servir Ă  d’autres. Certains groupes proposent d’ailleurs dĂ©jĂ  des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publiĂ© un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements dĂ©mocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent rĂ©ellement le succĂšs des mouvements dĂ©mocratiques. Encore faudrait-il que les mouvements dĂ©mocratiques puissent accĂ©der Ă  des outils d’IA qui ne partagent pas leurs donnĂ©es avec des plateformes et avec les autoritĂ©s. L’autre enjeu consiste Ă  construire des corpus adaptĂ©s pour aider les mouvements Ă  rĂ©sister. Les corpus de l’IA s’appuient sur des donnĂ©es des 125 derniĂšres annĂ©es, alors que l’on sait dĂ©jĂ  que ce qui fonctionnait il y a 60 ans ne fonctionne plus nĂ©cessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour dĂ©mĂȘler des processus dĂ©libĂ©ratifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait Ă©tĂ© notre projet dĂ©mocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques Ă  poser la question de l’utilisation de l’IA a leur profit, plutĂŽt que de la rejetter d’emblĂ©e comme l’instrument de l’autoritarisme, elle invite Ă  faire un pas de cĂŽtĂ© pour trouver des modalitĂ©s pour refaire gagner les luttes sociales.

On lui suggĂ©rera tout de mĂȘme de regarder du cĂŽtĂ© des projets que Audrey Tang mĂšne Ă  TaĂŻwan avec le Collective intelligence for collective progress, comme ses « assemblĂ©es d’alignement Â» qui mobilise l’IA pour garantir une participation Ă©quitable et une Ă©coute active de toutes les opinions. Comme Tang le dĂ©fend dans son manifeste, Plurality, l’IA pourrait ĂȘtre une technologie d’extension du dĂ©bat dĂ©mocratique pour mieux organiser la complexitĂ©. Tang parle d’ailleurs de broad listening (« Ă©coute Ă©largie Â») pour l’opposer au broadcasting, la diffusion de un vers tous. Une mĂ©thode mobilisĂ©e par un jeune ingĂ©nieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bĂ©nĂ©ficiĂ© d’une audience surprenante, sans nĂ©anmoins l’emporter. Son adversaire a depuis mobilisĂ© la mĂ©thode pour lancer une consultation, Tokyo 2050.

Des pistes Ă  observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisĂ©e. Ajouter de l’IA ne signifie pas que les dĂ©cisions demain seront plus justes, plus efficaces ou plus dĂ©mocratiques. Au contraire. Le risque est fort que cet ajout bĂ©nĂ©fice d’abord aux plus nantis au dĂ©triment de la diversitĂ©. L’enjeu demeure non pas d’ajouter des outils pour eux-mĂȘmes, mais de savoir si ces outils produisent du changement et au profit de qui !

L’IA peut-elle soutenir la dĂ©mocratie ?

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab Ă  Harvard. Elle a publiĂ© de nombreux livres pour montrer que la rĂ©sistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la rĂ©sistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prĂ©pare d’ailleurs un nouveau livre, The End of People Power, qui pointe le dĂ©clin dĂ©routant des mouvements de rĂ©sistance civile au cours de la derniĂšre dĂ©cennie, alors mĂȘme que ces techniques sont devenues trĂšs populaires dans le monde entier. Lors d’une rĂ©cente confĂ©rence sur l’IA et les libertĂ©s dĂ©mocratiques organisĂ©e par le Knight First Amendment Institute de l’universitĂ© de Columbia, elle se demandait si l’IA pouvait soutenir les revendications dĂ©mocratiques, rapporte Tech Policy Press (vidĂ©o). L’occasion de rendre compte Ă  notre tour d’un point de vue dĂ©coiffant qui interroge en profondeur notre rapport Ă  la dĂ©mocratie.  

La récession démocratique est engagée

La dĂ©mocratie est en dĂ©clin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle mĂȘme de “rĂ©cession dĂ©mocratique” et estime que la sauvegarde des droits dĂ©mocratiques est partout en crise. 2025 pourrait ĂȘtre la premiĂšre annĂ©e, depuis longtemps, oĂč la majoritĂ© de la population mondiale vit sous des formes de gouvernement autoritaires plutĂŽt que dĂ©mocratiques. Ce recul est dĂ» Ă  la fois au dĂ©veloppement de l’autoritarisme dans les rĂ©gimes autocratiques et Ă  l’avancĂ©e de l’autocratie dans les dĂ©mocraties Ă©tablies, explique Chenoweth. Les avancĂ©es dĂ©mocratiques des 100 derniĂšres annĂ©es ont Ă©tĂ© nombreuses et assez gĂ©nĂ©rales. Elles ont d’abord Ă©tĂ© le fait de mouvements non violents, populaires, oĂč des citoyens ordinaires ont utilisĂ© les manifestations et les grĂšves, bien plus que les insurrections armĂ©es, pour dĂ©ployer la dĂ©mocratie lĂ  oĂč elle Ă©tait empĂȘchĂ©e. Mais ces succĂšs sont en dĂ©clin. Les taux de rĂ©ussite des mouvements populaires pacifistes comme armĂ©s, se sont effondrĂ©s, notamment au cours des dix derniĂšres annĂ©es. “Il y a quelque chose de global et de systĂ©mique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants Ă  ces mouvements sont devenus plus efficaces pour les vaincre en gĂ©nĂ©ral”.

Les Ă©pisodes de contestation rĂ©formistes (qui ne relĂšvent pas de revendications maximalistes, comme les mouvements dĂ©mocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes
 n’ont cessĂ© de subir des revers et des dĂ©faites au cours des deux derniĂšres dĂ©cennies, et ont mĂȘme diminuĂ© leur capacitĂ© Ă  obtenir des concessions significatives, Ă  l’image de la contestation de la rĂ©forme des retraites en France ou des mouvements Ă©cologiques, plus Ă©crasĂ©s que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisĂ©es que jamais. 

Selon la littĂ©rature, ce qui permet aux mouvements populaires de rĂ©ussir repose sur une participation large et diversifiĂ©e, c’est-Ă -dire transversale Ă  l’ensemble de la sociĂ©tĂ©, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans
 Et notamment quand ils suscitent le soutien de personnes trĂšs diffĂ©rentes les unes des autres. “Le principal dĂ©fi pour les mouvements de masse qui rĂ©clament un changement pour Ă©tendre la dĂ©mocratie consiste bien souvent Ă  disloquer les piliers des soutiens autocratiques comme l’armĂ©e ou les fonctionnaires. L’enjeu, pour les mouvements dĂ©mocratiques, consiste Ă  retourner la rĂ©pression Ă  l’encontre de la population en la dĂ©nonçant pour modifier l’opinion gĂ©nĂ©rale Â». Enfin, les mouvements qui rĂ©ussissent enchaĂźnent bien souvent les tactiques plutĂŽt que de reposer sur une technique d’opposition unique, afin de dĂ©multiplier les formes de pression. 

La rĂ©pression s’est mise Ă  niveau

Mais l’autocratie a appris de ses erreurs. Elle a adaptĂ© en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements dĂ©mocratiques l’emportent. “La premiĂšre consiste Ă  s’assurer que personne ne fasse dĂ©fection. La deuxiĂšme consiste Ă  dominer l’écosystĂšme de l’information et Ă  remporter la guerre de l’information. La troisiĂšme consiste Ă  recourir Ă  la rĂ©pression sĂ©lective de maniĂšre Ă  rendre trĂšs difficile pour les mouvements d’exploiter les moments d’intense brutalitĂ©. Et la quatriĂšme consiste Ă  perfectionner l’art de diviser pour mieux rĂ©gner”. Pour que l’armĂ©e ou la police ne fasse pas dĂ©fection, les autoritĂ©s ont amĂ©liorĂ© la formation des forces de sĂ©curitĂ©. La corruption et le financement permet de s’attacher des soutiens plus indĂ©fectibles. Les forces de sĂ©curitĂ© sont Ă©galement plus fragmentĂ©es, afin qu’une dĂ©fection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit Ă©galement de faire varier la rĂ©pression pour qu’une unitĂ© de sĂ©curitĂ© ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les rĂ©pressions des personnes dĂ©loyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la dĂ©fection des forces de sĂ©curitĂ©, et cette tendance s’est accentuĂ©e au fil du temps”.

La seconde adaptation clĂ© a consistĂ© Ă  gagner la guerre de l’information, notamment en dominant les Ă©cosystĂšmes de l’information. “Inonder la zone de rumeurs, de dĂ©sinformation et de propagande, dont certaines peuvent ĂȘtre créées et testĂ©es par diffĂ©rents outils d’IA, en fait partie. Il en va de mĂȘme pour la coupure d’Internet aux moments opportuns, puis sa rĂ©ouverture au moment opportun”.

Le troisiĂšme volet de la panoplie consiste Ă  appliquer une rĂ©pression sĂ©lective, consistant Ă  viser des individus plutĂŽt que les mouvements pour des crimes graves qui peuvent sembler dĂ©corrĂ©lĂ© des manifestations, en les accusant de terrorisme ou de prĂ©paration de coup d’Etat. ”La guerre juridique est un autre outil administratif clĂ©â€.

Le quatriĂšme volet consiste Ă  diviser pour mieux rĂ©gner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant Ă  des actions violentes pour gĂ©nĂ©rer des reflux d’opinion
 

Comment utiliser l’IA pour gagner ? 

Dans la montĂ©e de l’adaptation des techniques pour dĂ©faire leurs opposants, la technologie joue un rĂŽle, estime Erica Chenoweth. Jusqu’à prĂ©sent, les mouvements civiques ont plutĂŽt eu tendance Ă  s’approprier et Ă  utiliser, souvent de maniĂšre trĂšs innovantes, les technologies Ă  leur avantage, par exemple Ă  l’heure de l’arrivĂ©e d’internet, qui a trĂšs tĂŽt Ă©tĂ© utilisĂ© pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques Ă  utiliser l’IA, contrairement aux rĂ©gimes autocratiques. Pourtant, l’un des principaux problĂšmes des mouvements civiques consiste Ă  “cerner leur environnement opĂ©rationnel”, c’est-Ă -dire de savoir qui est connectĂ© Ă  qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? OĂč sont les vulnĂ©rabilitĂ©s du mouvement ? RĂ©flĂ©chir de maniĂšre crĂ©ative Ă  ces questions et enjeux, aux tactiques Ă  dĂ©ployer pourrait pourtant ĂȘtre un atout majeur pour que les mouvements dĂ©mocratiques rĂ©ussissent. 

Les mouvements dĂ©mocratiques passent bien plus de temps Ă  sensibiliser et communiquer qu’à faire de la stratĂ©gie, rappelle la chercheuse. Et c’est lĂ  deux enjeux oĂč les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des Ă©lections municipales russe, un algorithme a permis de contrĂŽler les images de vidĂ©osurveillance des bureaux de vote pour dĂ©tecter des irrĂ©gularitĂ©s permettant de dĂ©gager les sĂ©quences oĂč des bulletins prĂ©remplis avaient Ă©tĂ© introduits dans les urnes. Ce qui aurait demandĂ© un contrĂŽle militant Ă©puisant a pu ĂȘtre accompli trĂšs simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer trĂšs facilement Ă  des actions (des applications puissantes, mais parfois peu transparentes sur leurs mĂ©thodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent ĂȘtre mieux documentĂ©es et partagĂ©es pour qu’elles puissent servir Ă  d’autres. Certains groupes proposent d’ailleurs dĂ©jĂ  des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publiĂ© un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements dĂ©mocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent rĂ©ellement le succĂšs des mouvements dĂ©mocratiques. Encore faudrait-il que les mouvements dĂ©mocratiques puissent accĂ©der Ă  des outils d’IA qui ne partagent pas leurs donnĂ©es avec des plateformes et avec les autoritĂ©s. L’autre enjeu consiste Ă  construire des corpus adaptĂ©s pour aider les mouvements Ă  rĂ©sister. Les corpus de l’IA s’appuient sur des donnĂ©es des 125 derniĂšres annĂ©es, alors que l’on sait dĂ©jĂ  que ce qui fonctionnait il y a 60 ans ne fonctionne plus nĂ©cessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour dĂ©mĂȘler des processus dĂ©libĂ©ratifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait Ă©tĂ© notre projet dĂ©mocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques Ă  poser la question de l’utilisation de l’IA a leur profit, plutĂŽt que de la rejetter d’emblĂ©e comme l’instrument de l’autoritarisme, elle invite Ă  faire un pas de cĂŽtĂ© pour trouver des modalitĂ©s pour refaire gagner les luttes sociales.

On lui suggĂ©rera tout de mĂȘme de regarder du cĂŽtĂ© des projets que Audrey Tang mĂšne Ă  TaĂŻwan avec le Collective intelligence for collective progress, comme ses « assemblĂ©es d’alignement Â» qui mobilise l’IA pour garantir une participation Ă©quitable et une Ă©coute active de toutes les opinions. Comme Tang le dĂ©fend dans son manifeste, Plurality, l’IA pourrait ĂȘtre une technologie d’extension du dĂ©bat dĂ©mocratique pour mieux organiser la complexitĂ©. Tang parle d’ailleurs de broad listening (« Ă©coute Ă©largie Â») pour l’opposer au broadcasting, la diffusion de un vers tous. Une mĂ©thode mobilisĂ©e par un jeune ingĂ©nieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bĂ©nĂ©ficiĂ© d’une audience surprenante, sans nĂ©anmoins l’emporter. Son adversaire a depuis mobilisĂ© la mĂ©thode pour lancer une consultation, Tokyo 2050.

Des pistes Ă  observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisĂ©e. Ajouter de l’IA ne signifie pas que les dĂ©cisions demain seront plus justes, plus efficaces ou plus dĂ©mocratiques. Au contraire. Le risque est fort que cet ajout bĂ©nĂ©fice d’abord aux plus nantis au dĂ©triment de la diversitĂ©. L’enjeu demeure non pas d’ajouter des outils pour eux-mĂȘmes, mais de savoir si ces outils produisent du changement et au profit de qui !

RĂ©utiliser, rĂ©parer, refuser, rĂ©clamer 

Le soulĂšvement contre l’obsolescence programmĂ©e est bien engagĂ©, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, Ă©ditĂ© par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont ƓuvrĂ© Ă  dĂ©velopper un systĂšme d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la rĂ©duction de la consommation et dans le recyclage, mais dans l’intĂ©gration Ă  grande Ă©chelle de l’ancien dans le nouveau. Hybrider les technologies dĂ©funtes et les intĂ©grer dans nos quotidiens est tout l’enjeu du monde Ă  venir, dans une forme de permaculture du calcul. ArrĂȘtons de dĂ©plorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La rĂ©utilisation et la rĂ©paration nous conduisent dĂ©sormais Ă  refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent dĂ©sormais “refuser d’ĂȘtre neutralisĂ©s, Ă©crasĂ©s et rĂ©duits au silence”, refuser de se faire rĂ©approprier. Nous devons rĂ©clamer la tech – c’était dĂ©jĂ  la conclusion de son prĂ©cĂ©dent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspirĂ© par le mouvement britannique des annĂ©es 90, qui rĂ©clamait dĂ©jĂ  la rue, pour reconquĂ©rir cet espace public contre la surveillance policiĂšre et la voiture.

“Reclaim the Tech Â» va plus loin en affirmant que « Nous sommes la technologie Â», explique Lovink. Cela signifie que la technologie n’est plus un phĂ©nomĂšne passager, imposĂ© : la technologie est en nous, nous la portons Ă  fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech Â», dĂ©crites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numĂ©rique actuelle est stagnante, elle n’est pas une Ă©chappatoire. Elle manque de direction et de destin. La volontĂ© d’organisation est absente maintenant que mĂȘme les rĂ©seaux Ă  faible engagement ont Ă©tĂ© supplantĂ©s par les plateformes. L’esprit du temps est rĂ©gressif, Ă  l’opposĂ© de l’accĂ©lĂ©rationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de donnĂ©es. Ce que nous vivons est une succession interminable de courtes poussĂ©es d’extase orgasmique, suivies de longues pĂ©riodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dĂ©vastateur sur la recherche et la mise en Ɠuvre d’alternatives durables, estime Lovink. L’optimisation prĂ©dictive a effacĂ© l’énergie intĂ©rieure de rĂ©volte que nous portons en nous. Il ne reste que des explosions de colĂšre, entraĂźnant des mouvements sociaux erratiques – une dynamique alimentĂ©e par une utilisation des rĂ©seaux sociaux Ă  courte durĂ©e d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialitĂ© visible dans la technologie et le design. Nous la voyons apparaĂźtre non seulement dans le cas des matiĂšres premiĂšres, mais aussi dans le contexte du « colonialisme des donnĂ©es ». 

Mais, s’il est essentiel d’exiger la dĂ©colonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « crĂ©olisation technologique ».

La dĂ©colonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cƓur mĂȘme de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, crĂ©ons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements gĂ©opolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion Ă  la destruction militaire bien rĂ©elle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratĂ©gies de sortie ne manquent pas. L’exode ne sera pas tĂ©lĂ©visĂ©. Le monde ne peut attendre la mise en Ɠuvre des principes de prĂ©vention des donnĂ©es. ArrĂȘtons dĂ©finitivement les flux de donnĂ©es !, clame Lovink. 

La « confidentialitĂ© » des donnĂ©es s’étant rĂ©vĂ©lĂ©e ĂȘtre un gouffre juridique impossible Ă  garantir, la prochaine option sera des mĂ©canismes intĂ©grĂ©s, des filtres empĂȘchant les donnĂ©es de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de donnĂ©es, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant aprĂšs la rĂ©volution, les « magasins de proximitĂ© » qui rendent les technologies aux gens ne se contenteront plus de rĂ©parer, mais nous permettront de vivre avec nos dĂ©chets, de les rendre visibles, Ă  nouveau fonctionnels, tout comme on rend Ă  nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalitĂ©s. 

RĂ©utiliser, rĂ©parer, refuser, rĂ©clamer 

Le soulĂšvement contre l’obsolescence programmĂ©e est bien engagĂ©, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, Ă©ditĂ© par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont ƓuvrĂ© Ă  dĂ©velopper un systĂšme d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la rĂ©duction de la consommation et dans le recyclage, mais dans l’intĂ©gration Ă  grande Ă©chelle de l’ancien dans le nouveau. Hybrider les technologies dĂ©funtes et les intĂ©grer dans nos quotidiens est tout l’enjeu du monde Ă  venir, dans une forme de permaculture du calcul. ArrĂȘtons de dĂ©plorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La rĂ©utilisation et la rĂ©paration nous conduisent dĂ©sormais Ă  refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent dĂ©sormais “refuser d’ĂȘtre neutralisĂ©s, Ă©crasĂ©s et rĂ©duits au silence”, refuser de se faire rĂ©approprier. Nous devons rĂ©clamer la tech – c’était dĂ©jĂ  la conclusion de son prĂ©cĂ©dent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspirĂ© par le mouvement britannique des annĂ©es 90, qui rĂ©clamait dĂ©jĂ  la rue, pour reconquĂ©rir cet espace public contre la surveillance policiĂšre et la voiture.

“Reclaim the Tech Â» va plus loin en affirmant que « Nous sommes la technologie Â», explique Lovink. Cela signifie que la technologie n’est plus un phĂ©nomĂšne passager, imposĂ© : la technologie est en nous, nous la portons Ă  fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech Â», dĂ©crites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numĂ©rique actuelle est stagnante, elle n’est pas une Ă©chappatoire. Elle manque de direction et de destin. La volontĂ© d’organisation est absente maintenant que mĂȘme les rĂ©seaux Ă  faible engagement ont Ă©tĂ© supplantĂ©s par les plateformes. L’esprit du temps est rĂ©gressif, Ă  l’opposĂ© de l’accĂ©lĂ©rationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de donnĂ©es. Ce que nous vivons est une succession interminable de courtes poussĂ©es d’extase orgasmique, suivies de longues pĂ©riodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dĂ©vastateur sur la recherche et la mise en Ɠuvre d’alternatives durables, estime Lovink. L’optimisation prĂ©dictive a effacĂ© l’énergie intĂ©rieure de rĂ©volte que nous portons en nous. Il ne reste que des explosions de colĂšre, entraĂźnant des mouvements sociaux erratiques – une dynamique alimentĂ©e par une utilisation des rĂ©seaux sociaux Ă  courte durĂ©e d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialitĂ© visible dans la technologie et le design. Nous la voyons apparaĂźtre non seulement dans le cas des matiĂšres premiĂšres, mais aussi dans le contexte du « colonialisme des donnĂ©es ». 

Mais, s’il est essentiel d’exiger la dĂ©colonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « crĂ©olisation technologique ».

La dĂ©colonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cƓur mĂȘme de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, crĂ©ons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements gĂ©opolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion Ă  la destruction militaire bien rĂ©elle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratĂ©gies de sortie ne manquent pas. L’exode ne sera pas tĂ©lĂ©visĂ©. Le monde ne peut attendre la mise en Ɠuvre des principes de prĂ©vention des donnĂ©es. ArrĂȘtons dĂ©finitivement les flux de donnĂ©es !, clame Lovink. 

La « confidentialitĂ© » des donnĂ©es s’étant rĂ©vĂ©lĂ©e ĂȘtre un gouffre juridique impossible Ă  garantir, la prochaine option sera des mĂ©canismes intĂ©grĂ©s, des filtres empĂȘchant les donnĂ©es de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de donnĂ©es, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant aprĂšs la rĂ©volution, les « magasins de proximitĂ© » qui rendent les technologies aux gens ne se contenteront plus de rĂ©parer, mais nous permettront de vivre avec nos dĂ©chets, de les rendre visibles, Ă  nouveau fonctionnels, tout comme on rend Ă  nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalitĂ©s. 

IA générative vs IA productive

Encore une rĂ©flexion stimulante de Gregory Chatonsky, qui observe deux modes de relation Ă  l’IA gĂ©nĂ©rative. L’un actif-productif, l’autre passif-reproductif-mĂ©mĂ©tique. « L’infrastructure gĂ©nĂ©rative n’a pas d’essence unifiĂ©e ni de destination prĂ©dĂ©terminĂ©e — elle peut ĂȘtre orientĂ©e vers la production comme vers la consommation. Cette indĂ©termination constitutive des technologies gĂ©nĂ©ratives rĂ©vĂšle un aspect fondamental : nous nous trouvons face Ă  un systĂšme technique dont les usages et les implications restent largement Ă  dĂ©finir Â».

« L’enjeu n’est donc pas de privilĂ©gier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports Ă  la gĂ©nĂ©ration dĂ©terminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualitĂ© fondamentale, nous pouvons commencer Ă  Ă©laborer une relation plus consciente et rĂ©flĂ©chie aux technologies gĂ©nĂ©ratives, capable de dĂ©passer aussi bien l’instrumentalisme naĂŻf que le dĂ©terminisme technologique.

La gĂ©nĂ©ration n’est ni intrinsĂšquement productive ni intrinsĂšquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous Ă©tablissons avec elle. C’est dans cette indĂ©termination constitutive que rĂ©sident sa rĂ©ponse Ă  la finitude. Â»

La modĂ©ration n’est pas Ă©quitable

Dans une riche et dĂ©taillĂ©e revue d’études sur la modĂ©ration des plateformes du web social, Lisa Macpherson de l’association Public Knowledge dĂ©montre que cette modĂ©ration n’est ni Ă©quitable ni neutre. En fait, les Ă©tudes ne dĂ©montrent pas qu’il y aurait une surmodĂ©ration des propos conservateurs, au contraire, les contenus de droite ayant tendance Ă  gĂ©nĂ©rer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modĂ©rĂ©s, c’est parce qu’ils enfreignent plus volontiers les rĂšgles des plateformes en colportant de la dĂ©sinformation ou des propos haineux, et non du fait des biais politiques de la modĂ©ration. La modĂ©ration injustifiĂ©e, elle, touche surtout les communautĂ©s marginalisĂ©es (personnes racisĂ©es, minoritĂ©s religieuses, femmes, LGBTQ+). Les biais de modĂ©ration sont toujours dĂ©sĂ©quilibrĂ©s. Et les contenus de droite sont plus amplifiĂ©s que ceux de gauche. 

En France, rapporte Next, constatant le trĂšs faible taux de modĂ©ration de contenus haineux sur Facebook, le cofondateur de l’association #jesuislĂ  et activiste pour les droits numĂ©riques Xavier Brandao porte plainte contre Meta auprĂšs de l’Arcom au titre du DSA. En envoyant plus de 118 signalements Ă  Meta en quatre mois pour des discours racistes avĂ©rĂ©s, l’activiste s’est rendu compte que seulement 8 commentaires avaient Ă©tĂ© supprimĂ©s.

❌