❌

Vue normale

À partir d’avant-hierDans les algorithmes
  • ✇Dans les algorithmes
  • Entretiens d’embauche chatbotisĂ©s
    Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (co
     

Entretiens d’embauche chatbotisĂ©s

11 juillet 2025 Ă  00:30

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

  • ✇Dans les algorithmes
  • ScannĂ©s par l’IA
    Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.   Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent
     

ScannĂ©s par l’IA

11 juillet 2025 Ă  00:23

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

  • ✇Dans les algorithmes
  • L’IA, un nouvel internet
 sans condition
    Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ce
     

L’IA, un nouvel internet
 sans condition

10 juillet 2025 Ă  00:40

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

  • ✇Dans les algorithmes
  • Renverser le pouvoir artificiel
    L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”.  La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas
     

Renverser le pouvoir artificiel

8 juillet 2025 Ă  01:00

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Pour lutter contre la dĂ©sinformation, il faut reconstruire du social
    L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question.  Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s
     

Pour lutter contre la désinformation, il faut reconstruire du social

7 juillet 2025 Ă  01:00

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

  • ✇Dans les algorithmes
  • La santĂ© au prisme de son abandon
    Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un
     

La santé au prisme de son abandon

3 juillet 2025 Ă  00:55

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

  • ✇Dans les algorithmes
  • IA et Ă©ducation (2/2) : du dilemme moral au malaise social
    Suite de notre dossier sur IA et Ă©ducation (voir la premiĂšre partie). La bataille Ă©ducative est-elle perdue ? Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšv
     

IA et éducation (2/2) : du dilemme moral au malaise social

1 juillet 2025 Ă  00:41

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser Ă  Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique
    Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic.
     

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

25 juin 2025 Ă  01:00

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

  • ✇Dans les algorithmes
  • IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative
    A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e.  Pourtant, rappelait-il,
     

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

24 juin 2025 Ă  00:11

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

  • ✇Dans les algorithmes
  • 25 juin : DLA en fĂȘte !
    Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA. Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons p
     

25 juin : DLA en fĂȘte !

23 juin 2025 Ă  01:00

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

  • ✇Dans les algorithmes
  • Ecrire le code du numĂ©rique
    C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un gro
     

Ecrire le code du numérique

19 juin 2025 Ă  01:00

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.
  • ✇Dans les algorithmes
  • Chatbots, une adoption sans impact ?
    Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement
     

Chatbots, une adoption sans impact ?

18 juin 2025 Ă  01:00

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

  • ✇Dans les algorithmes
  • Pour une science de la subjectivitĂ©
    « J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â»  Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.  OĂč est le
     

Pour une science de la subjectivité

17 juin 2025 Ă  01:00

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

16 juin 2025 Ă  01:00

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

  • ✇Dans les algorithmes
  • La surveillance au travail s’internationalise
    Le rapport de Coworker sur le dĂ©ploiement des « petites technologies de surveillance » – petites, mais omniprĂ©sentes (qu’on Ă©voquait dans cet article) – rappelait dĂ©jĂ  que c’est un essaim de solutions de surveillance qui se dĂ©versent dĂ©sormais sur les employĂ©s (voir Ă©galement notre article “RĂ©guler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystĂšme des petites technologies intĂšgre la
     

La surveillance au travail s’internationalise

11 juin 2025 Ă  01:00

Le rapport de Coworker sur le dĂ©ploiement des « petites technologies de surveillance » – petites, mais omniprĂ©sentes (qu’on Ă©voquait dans cet article) – rappelait dĂ©jĂ  que c’est un essaim de solutions de surveillance qui se dĂ©versent dĂ©sormais sur les employĂ©s (voir Ă©galement notre article “RĂ©guler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystĂšme des petites technologies intĂšgre la surveillance et le contrĂŽle algorithmique dans le quotidien des travailleurs, souvent Ă  leur insu, sans leur consentement ni leur protection”. L’enquĂȘte  observe cette extension dans six pays – le Mexique, la Colombie, le BrĂ©sil, le NigĂ©ria, le Kenya et l’Inde – “oĂč les cadres juridiques sont obsolĂštes, mal appliquĂ©s, voire inexistants”. Le rapport rĂ©vĂšle comment les startups financĂ©es par du capital-risque amĂ©ricain exportent des technologies de surveillance vers les pays du Sud, ciblant des rĂ©gions oĂč la protection de la vie privĂ©e et la surveillance rĂ©glementaire sont plus faibles. Les premiers Ă  en faire les frais sont les travailleurs de l’économie Ă  la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus dĂ©guisĂ©e en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus prĂ©sentĂ©e comme un outil de sĂ©curitĂ©, de bien-ĂȘtre et de productivitĂ©, masquant une surveillance coercitive sous couvert de santĂ© et d’efficacitĂ©â€.

Pourtant, “des Ă©boueurs en Inde aux chauffeurs de VTC au NigĂ©ria, les travailleurs rĂ©sistent au contrĂŽle algorithmique en organisant des manifestations, en crĂ©ant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

  • ✇Dans les algorithmes
  • Qui est l’utilisateur des LLM ?
    Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comp
     

Qui est l’utilisateur des LLM ?

10 juin 2025 Ă  00:24

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

  • ✇Dans les algorithmes
  • IA : intelligence austĂ©ritaire
    Aux Etats-Unis, la collusion entre les gĂ©ants de la tech et l’administration Trump vise Ă  “utiliser l’IA pour imposer des politiques d’austĂ©ritĂ© et crĂ©er une instabilitĂ© permanente par des dĂ©cisions qui privent le public des ressources nĂ©cessaires Ă  une participation significative Ă  la dĂ©mocratie”, explique l’avocat Kevin De Liban Ă  Tech Policy. Aux Etats-Unis, la participation dĂ©mocratique suppose des ressources. “Voter, contacter des Ă©lus, assister Ă  des rĂ©unions, s’associer, imaginer un monde
     

IA : intelligence austéritaire

6 juin 2025 Ă  00:58

Aux Etats-Unis, la collusion entre les gĂ©ants de la tech et l’administration Trump vise Ă  “utiliser l’IA pour imposer des politiques d’austĂ©ritĂ© et crĂ©er une instabilitĂ© permanente par des dĂ©cisions qui privent le public des ressources nĂ©cessaires Ă  une participation significative Ă  la dĂ©mocratie”, explique l’avocat Kevin De Liban Ă  Tech Policy. Aux Etats-Unis, la participation dĂ©mocratique suppose des ressources. “Voter, contacter des Ă©lus, assister Ă  des rĂ©unions, s’associer, imaginer un monde meilleur, faire des dons Ă  des candidats ou Ă  des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisĂ©es soient bien plus enclines Ă  participer que celles qui ont des moyens limitĂ©s. Dans un pays oĂč prĂšs de 30 % de la population vit en situation de pauvretĂ© ou au bord de la pauvretĂ© et oĂč 60 % ne peuvent s’offrir un minimum de qualitĂ© de vie, la dĂ©mocratie est dĂ©savantagĂ©e dĂšs le dĂ©part”. L’IA est largement utilisĂ©e dĂ©sormais pour accentuer ce fossĂ©. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements mĂ©dicaux nĂ©cessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou rĂ©duire les soins Ă  domicile pour les personnes handicapĂ©es. Les gouvernements ont de plus en plus recours Ă  l’IA pour dĂ©terminer l’éligibilitĂ© aux programmes de prestations sociales ou accuser les bĂ©nĂ©ficiaires de fraude. Les propriĂ©taires utilisent l’IA pour filtrer les locataires potentiels, souvent Ă  l’aide de vĂ©rifications d’antĂ©cĂ©dents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employĂ©s, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activitĂ©s. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prĂ©dire quels Ă©lĂšves pourraient commettre un dĂ©lit Ă  l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la dĂ©tresse d’usagers, les empĂȘchant de comprendre ce Ă  quoi ils sont confrontĂ©s, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces dĂ©cisions difficiles Ă  contester. Et au final, cela contribue Ă  renforcer l’exclusion des personnes Ă  faibles revenus de la participation dĂ©mocratique. Le risque, bien sĂ»r, c’est que ces calculs et les formes d’exclusion qu’elles gĂ©nĂšrent s’étendent Ă  d’autres catĂ©gories sociales
 D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des dĂ©cisions sur toutes les catĂ©gories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour amĂ©liorer significativement l’accĂšs Ă  l’emploi, au logement, aux soins de santĂ©, Ă  l’éducation ou aux prestations sociales Ă  une Ă©chelle Ă  la hauteur de ses dommages. Cette dynamique actuelle suggĂšre que l’objectif sous-jacent de la technologie est d’enraciner les inĂ©galitĂ©s et de renforcer les rapports de force existants”. Pour rĂ©pondre Ă  cette intelligence austĂ©ritaire, il est nĂ©cessaire de mobiliser les communautĂ©s touchĂ©es. L’adhĂ©sion ouverte de l’administration Trump et des gĂ©ants de la technologie Ă  l’IA est en train de crĂ©er une crise urgente et visible, susceptible de susciter la rĂ©sistance gĂ©nĂ©ralisĂ©e nĂ©cessaire au changement. Et “cette prise de conscience technologique pourrait bien ĂȘtre la seule voie vers un renouveau dĂ©mocratique”, estime De Liban.

  • ✇Dans les algorithmes
  • De notre vectorisation et de ses consĂ©quences
    De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une rĂ©flexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a dĂ©finie, est un “processus par lequel des entitĂ©s sociales — individus, groupes, communautĂ©s — sont transformĂ©es en porteurs de variables directionnelles, c’est-Ă -dire en vecteurs dotĂ©s d’une orientation prĂ©dĂ©terminĂ©e dans un espace conceptuel saturĂ© de valeurs diffĂ©rentielles”. Cela consiste en fait Ă  appliquer Ă  chaque profil des v
     

De notre vectorisation et de ses conséquences

5 juin 2025 Ă  01:00

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une rĂ©flexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a dĂ©finie, est un “processus par lequel des entitĂ©s sociales — individus, groupes, communautĂ©s — sont transformĂ©es en porteurs de variables directionnelles, c’est-Ă -dire en vecteurs dotĂ©s d’une orientation prĂ©dĂ©terminĂ©e dans un espace conceptuel saturĂ© de valeurs diffĂ©rentielles”. Cela consiste en fait Ă  appliquer Ă  chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustĂ©es Ă  nos identitĂ©s numĂ©riques, comme les mots clĂ©s publicitaires qui nous caractĂ©risent, les traitements qui nous spĂ©cifient, les donnĂ©es qui nous positionnent, par exemple, le genre, l’ñge, notre niveau de revenu
 Du moment que nous sommes assignĂ©s Ă  une valeur, nous y sommes rĂ©duits, dans une forme d’indiffĂ©renciation qui produisent des identitĂ©s et des altĂ©ritĂ©s “rigidifiĂ©es” qui structurent “l’espace social selon des lignes de dĂ©marcation dont l’arbitraire est dissimulĂ© sous l’apparence d’une objectivitĂ© naturalisĂ©e”. C’est le cas par exemple quand les donnĂ©es vous caractĂ©risent comme homme ou femme. Le problĂšme est que ces assignations que nous ne maĂźtrisons pas sont indĂ©passables. Les discours sur l’égalitĂ© de genres peuvent se multiplier, plus la diffĂ©rence entre homme et femme s’en trouve rĂ©affirmĂ©, comme un “horizon indĂ©passable de l’intelligibilitĂ© sociale”. Melkom Boghossian dans une note trĂšs pertinente pour la fondation Jean JaurĂšs ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inĂ©galitĂ©s de genre, lorsqu’il ne questionne pas le processus vectoriel lui-mĂȘme, risque ainsi de reproduire les prĂ©supposĂ©s mĂȘmes qu’il prĂ©tend combattre”. C’est-Ă -dire que le processus en Ɠuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitĂ©e par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opĂšre Ă  travers un chaĂźnage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient rĂ©ciproquement. Cette mĂ©tavectorisation produit une topologie identitaire d’une complexitĂ© croissante qui excĂšde les possibilitĂ©s de reprĂ©sentation des modĂšles vectoriels classiques”. Nos assignations dĂ©pendent bien souvent de chaĂźnes d’infĂ©rences, comme l’illustrait le site They see yours photos que nous avions Ă©voquĂ©. Les dĂ©bats sur les identitĂ©s trans ou non binaires, constituent en ce sens “des points de tension rĂ©vĂ©lateurs oĂč s’exprime le caractĂšre intrinsĂšquement problĂ©matique de toute tentative de rĂ©duction vectorielle de la complexitĂ© existentielle”. Plus que de permettre de dĂ©passer nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes dĂ©sormais dans des situations indĂ©passables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-Ă -dire sa capacitĂ© Ă  traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indĂ©passable de la pensĂ©e et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette mĂȘme mĂ©thodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent gĂ©nĂ©ralement sur la valorisation diffĂ©rentielle des positions vectorielles plutĂŽt que sur la pertinence mĂȘme du dĂ©coupage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsĂšque”, sans pouvoir le remettre en cause, mĂȘme par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd Ă  toute parole qui revendique une position non assignable ou qui conteste la lĂ©gitimitĂ© mĂȘme de l’assignation.” “Cette insensibilitĂ© n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-mĂȘme. Elle rĂ©sulte de la nĂ©cessitĂ© structurelle d’effacer les singularitĂ©s irrĂ©ductibles pour maintenir l’efficacitĂ© des catĂ©gorisations gĂ©nĂ©rales. Le paradigme vectoriel ne peut maintenir sa cohĂ©rence qu’en traitant les cas rĂ©calcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions nĂ©gligeables ou des anomalies pathologiques. Ce phĂ©nomĂšne produit une forme spĂ©cifique de violence Ă©pistĂ©mique qui consiste Ă  dĂ©lĂ©gitimer systĂ©matiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particuliĂšrement Ă  l’encontre des individus dont l’expĂ©rience subjective contredit ou excĂšde les assignations vectorielles qui leur sont imposĂ©es — non pas simplement parce qu’ils se rĂ©assignent Ă  une position vectorielle diffĂ©rente, mais parce qu’ils contestent la lĂ©gitimitĂ© mĂȘme du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “gĂ©nĂšre un rĂ©seau dense d’attributions croisĂ©es oĂč chaque individu est simultanĂ©ment assignateur et assignĂ©, vectorisant et vectorisĂ©. Cette configuration produit un systĂšme auto entretenu oĂč les assignations se renforcent mutuellement Ă  travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des prĂ©jugĂ©s sociaux, “qui substitue Ă  l’arbitraire subjectif du prĂ©jugĂ© individuel l’arbitraire objectivĂ© du calcul algorithmique”. Les termes eux-mĂȘmes deviennent performatifs : “ils ne se contentent pas de dĂ©crire une rĂ©alitĂ© prĂ©existante, mais contribuent activement Ă  la constituer par l’acte mĂȘme de leur Ă©nonciation”. “Ces mots-vecteurs tirent leur lĂ©gitimitĂ© sociale de leur ancrage dans des dispositifs statistiques qui leur confĂšrent une apparence d’objectivitĂ© scientifique”. “Les donnĂ©es statistiques servent Ă  construire des catĂ©gories opĂ©rationnelles qui, une fois instituĂ©es, acquiĂšrent une forme d’autonomie par rapport aux rĂ©alitĂ©s qu’elles prĂ©tendent simplement reprĂ©senter”

Pour Chatonsky, la vectorisation dĂ©stabilise profondĂ©ment les identitĂ©s politiques traditionnelles et rend problĂ©matique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhĂšrent Ă  ces assignations et ceux qui contestent la lĂ©gitimitĂ© mĂȘme de ces assignations. “Les dĂ©bats politiques conventionnels se limitent gĂ©nĂ©ralement Ă  contester des assignations vectorielles spĂ©cifiques sans jamais remettre en question le principe mĂȘme de la vectorisation comme modalitĂ© fondamentale d’organisation du social”. Nous sommes politiquement coincĂ©s dans la vectorisation
 qui est Ă  la fois “un horizon qui combine la rĂ©duction des entitĂ©s Ă  des vecteurs manipulables (vectorisation), la prĂ©diction de leurs trajectoires futures sur la base de ces rĂ©ductions (anticipation), et le contrĂŽle permanent de ces trajectoires pour assurer leur conformitĂ© aux prĂ©dictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensĂ©e et d’organisation sociale qui Ă©chappent Ă  la logique mĂȘme de la vectorisation”, c’est-Ă -dire de nous extraire de l’identitĂ© comme force d’organisation du social, de donner de la place au doute plutĂŽt qu’à la certitude ainsi qu’à trouver les modalitĂ©s d’une forme de rĂ©troaction. 

  • ✇Dans les algorithmes
  • “Sans rĂ©pit”
    Nidle (contraction de No Idle, qu’on pourrait traduire par “sans rĂ©pit”) est le nom d’un petit appareil qui se branche sur les machines Ă  coudre. Le capteur mesure le nombre de piĂšces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivitĂ©, rapporte Rest of the World. Outre les machines automatisĂ©es, pour coudre des boutons ou des poches simples, ces outils de surveillance visent Ă  augmenter la productivitĂ©, Ă  l’heure oĂč la main d’Ɠuvr
     

“Sans rĂ©pit”

4 juin 2025 Ă  01:00

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans rĂ©pit”) est le nom d’un petit appareil qui se branche sur les machines Ă  coudre. Le capteur mesure le nombre de piĂšces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivitĂ©, rapporte Rest of the World. Outre les machines automatisĂ©es, pour coudre des boutons ou des poches simples, ces outils de surveillance visent Ă  augmenter la productivitĂ©, Ă  l’heure oĂč la main d’Ɠuvre se fait plus rare. Pour rĂ©pondre Ă  la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvriĂšre estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmentĂ© de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son Ă©cran qui lui indique de tenir la cadence.

  • ✇Dans les algorithmes
  • L’IA est une technologie comme les autres
    Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniquĂ© le livre, AI Snake Oil – signent pour le Knight un long article pour dĂ©monter les risques existentiels de l’IA gĂ©nĂ©rale. Pour eux, l’IA est une « technologie normale Â». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricitĂ© ou internet, mais cela signifie qu’ils considĂšrent « l’IA comme un outil dont nous pouvons et devons garder le contrĂŽle, et nous soutenons que cet objectif ne nĂ©cessite ni inte
     

L’IA est une technologie comme les autres

3 juin 2025 Ă  01:00

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniquĂ© le livre, AI Snake Oil – signent pour le Knight un long article pour dĂ©monter les risques existentiels de l’IA gĂ©nĂ©rale. Pour eux, l’IA est une « technologie normale Â». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricitĂ© ou internet, mais cela signifie qu’ils considĂšrent « l’IA comme un outil dont nous pouvons et devons garder le contrĂŽle, et nous soutenons que cet objectif ne nĂ©cessite ni interventions politiques drastiques ni avancĂ©es technologiques Â». L’IA n’est pas appelĂ©e Ă  dĂ©terminer elle-mĂȘme son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts Ă©conomiques et sociĂ©taux transformateurs seront lents (de l’ordre de plusieurs dĂ©cennies) Â».

Selon eux, dans les annĂ©es Ă  venir « une part croissante du travail des individus va consister Ă  contrĂŽler l’IA Â». Mais surtout, considĂ©rer l’IA comme une technologie courante conduit Ă  des conclusions fondamentalement diffĂ©rentes sur les mesures d’attĂ©nuation que nous devons y apporter, et nous invite, notamment, Ă  minimiser le danger d’une superintelligence autonome qui viendrait dĂ©vorer l’humanitĂ©.

La vitesse du progrĂšs est plus linĂ©aire qu’on le pense 

« Comme pour d’autres technologies Ă  usage gĂ©nĂ©ral, l’impact de l’IA se matĂ©rialise non pas lorsque les mĂ©thodes et les capacitĂ©s s’amĂ©liorent, mais lorsque ces amĂ©liorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, Ă  la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-Ă -dire que l’élargissement des applications Ă  d’innombrables secteurs est souvent lent mais dĂ©cisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matiĂšre d’IA ne devraient pas ĂȘtre de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intĂ©gration de l’IA dans un large Ă©ventail de processus productifs. L’enjeu tient bien plus Ă  Ă©largir les champs d’application des innovations qu’à maĂźtriser la course Ă  la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les dĂ©ploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sĂ©curitĂ© est lente. MĂȘme dans le domaine de « l’optimisation prĂ©dictive Â», c’est-Ă -dire la prĂ©diction des risques pour prendre des dĂ©cisions sur les individus, qui se sont multipliĂ©es ces derniĂšres annĂ©es, l’IA n’est pas trĂšs prĂ©sente, comme l’avaient pointĂ© les chercheurs dans une Ă©tude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexitĂ© et l’opacitĂ© de l’IA font qu’elle est peu adaptĂ©e pour ces enjeux. Les risques de sĂ©curitĂ© et de dĂ©faillance font que son usage y produit souvent de piĂštres rĂ©sultats. Sans compter que la rĂ©glementation impose dĂ©jĂ  des procĂ©dures qui ralentissent les dĂ©ploiements, que ce soit la supervision des dispositifs mĂ©dicaux ou l’IA Act europĂ©en. D’ailleurs, “lorsque de nouveaux domaines oĂč l’IA peut ĂȘtre utilisĂ©e de maniĂšre significative apparaissent, nous pouvons et devons les rĂ©glementer Â».

MĂȘme en dehors des domaines critiques pour la sĂ©curitĂ©, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses Ă©tudes estiment que l’usage de l’IA gĂ©nĂ©rative est dĂ©jĂ  trĂšs fort. Une Ă©tude trĂšs commentĂ©e constatait qu’en aoĂ»t 2024, 40 % des adultes amĂ©ricains utilisaient dĂ©jĂ  l’IA gĂ©nĂ©rative. Mais cette percĂ©e d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumĂ©riste d’une approche productive, la seconde Ă©tait bien moins maĂźtrisĂ©e que la premiĂšre. L’adoption est une question d’utilisation du logiciel, et non de disponibilitĂ©, rappellent les chercheurs. Si les outils sont dĂ©sormais accessibles immĂ©diatement, leur intĂ©gration Ă  des flux de travail ou Ă  des habitudes, elle, prend du temps. Entre utiliser et intĂ©grer, il y a une diffĂ©rence que le nombre d’utilisateurs d’une application ne suffit pas Ă  distinguer. L’analyse de l’électrification par exemple montre que les gains de productivitĂ© ont mis des dĂ©cennies Ă  se matĂ©rialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de rĂ©aliser des gains de productivitĂ©, c’est surtout la refonte complĂšte de l’agencement des usines autour de la logique des chaĂźnes de production Ă©lectrifiĂ©es. 

Les deux chercheurs estiment enfin que nous sommes confrontĂ©s Ă  des limites Ă  la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux dĂ©cennies Ă  se dĂ©velopper, du fait des contraintes de sĂ©curitĂ© nĂ©cessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais trĂšs souvent, “l’écart entre la capacitĂ© et la fiabilitĂ©â€ reste fort. La perspective d’agents IA pour la rĂ©servation de voyages ou le service clients est moins Ă  risque que la conduite autonome, mais cet apprentissage n’est pas simple Ă  rĂ©aliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour ĂȘtre dĂ©ployĂ©. MĂȘme dans le domaine de la recommandation sur les rĂ©seaux sociaux, le fait qu’elle s’appuie sur des modĂšles d’apprentissage automatique n’a pas supprimĂ© la nĂ©cessitĂ© de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour dĂ©ployer de l’IA est fortement limitĂ©e en raison des coĂ»ts sociaux de l’expĂ©rimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou rĂ©pondre Ă  des examens, comme Ă  ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles rĂ©elles. En fait, trop souvent, les indicateurs permettent de mesurer les progrĂšs des mĂ©thodes d’IA, mais peinent Ă  mesurer leurs impacts ou l’adoption, c’est-Ă -dire l’intensitĂ© de son utilisation. Kapoor et Narayanan insistent : les impacts Ă©conomiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrĂšs. En fait, il est probable que cette surproduction mĂȘme limite l’innovation. Une Ă©tude a ainsi montrĂ© que dans les domaines de recherche oĂč le volume d’articles scientifiques est plus Ă©levĂ©, il est plus difficile aux nouvelles idĂ©es de percer. 

L’IA va rester sous contrĂŽle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacitĂ© Ă  raisonner clairement sur un monde dotĂ© d’une IA avancĂ©e. Assez souvent, l’intelligence elle-mĂȘme est assez mal dĂ©finie, selon un spectre qui irait de la souris Ă  l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriĂ©tĂ© en jeu pour analyser les impacts de l’IA. C’est plutĂŽt le pouvoir – la capacitĂ© Ă  modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisĂ© pour accroĂźtre nos capacitĂ©s. La diffĂ©rence entre l’IA et les capacitĂ©s humaines reposent surtout dans la vitesse. Les machines nous dĂ©passent surtout en terme de vitesse, d’oĂč le fait que nous les ayons dĂ©veloppĂ© surtout dans les domaines oĂč la vitesse est en jeu.  

“Nous prĂ©voyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraĂźnĂ©s (en particulier les Ă©quipes humaines, et surtout si elle est complĂ©tĂ©e par des outils automatisĂ©s simples) dans la prĂ©vision d’évĂ©nements gĂ©opolitiques (par exemple, les Ă©lections). Nous faisons la mĂȘme prĂ©diction pour les tĂąches consistant Ă  persuader les gens d’agir contre leur propre intĂ©rĂȘt”. En fait, les systĂšmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prĂ©disent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrĂŽle reste fort, des audits Ă  la surveillance des systĂšmes en passant par la sĂ©curitĂ© intĂ©grĂ©e. “En cybersĂ©curitĂ©, le principe du « moindre privilĂšge » garantit que les acteurs n’ont accĂšs qu’aux ressources minimales nĂ©cessaires Ă  leurs tĂąches. Les contrĂŽles d’accĂšs empĂȘchent les personnes travaillant avec des donnĂ©es et des systĂšmes sensibles d’accĂ©der Ă  des informations et outils confidentiels non nĂ©cessaires Ă  leur travail. Nous pouvons concevoir des protections similaires pour les systĂšmes d’IA dans des contextes consĂ©quents. Les mĂ©thodes de vĂ©rification formelle garantissent que les codes critiques pour la sĂ©curitĂ© fonctionnent conformĂ©ment Ă  leurs spĂ©cifications ; elles sont dĂ©sormais utilisĂ©es pour vĂ©rifier l’exactitude du code gĂ©nĂ©rĂ© par l’IA.” Nous pouvons Ă©galement emprunter des idĂ©es comme la conception de systĂšmes rendant les actions de changement d’état rĂ©versibles, permettant ainsi aux humains de conserver un contrĂŽle significatif, mĂȘme dans des systĂšmes hautement automatisĂ©s. On peut Ă©galement imaginer de nouvelles idĂ©es pour assurer la sĂ©curitĂ©, comme le dĂ©veloppement de systĂšmes qui apprennent Ă  transmettre les dĂ©cisions aux opĂ©rateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systĂšmes agents dont l’activitĂ© est visible et lisible par les humains, ou encore la crĂ©ation de structures de contrĂŽle hiĂ©rarchiques dans lesquelles des systĂšmes d’IA plus simples et plus fiables supervisent des systĂšmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le dĂ©veloppement et l’adoption de l’IA avancĂ©e, l’innovation se multipliera pour trouver de nouveaux modĂšles de contrĂŽle humain”.

Pour eux d’ailleurs, Ă  l’avenir, un nombre croissant d’emplois et de tĂąches humaines seront affectĂ©s au contrĂŽle de l’IA. Lors des phases d’automatisation prĂ©cĂ©dentes, d’innombrables mĂ©thodes de contrĂŽle et de surveillance des machines ont Ă©tĂ© inventĂ©es. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrĂŽler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilitĂ© et du contrĂŽle en favorisant l’efficacitĂ© et l’automatisation doit toujours ĂȘtre contrebalancĂ©e. Les IA mal contrĂŽlĂ©es risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutĂŽt que les systĂšmes trop autonomes et insuffisamment supervisĂ©s sont vite dĂ©branchĂ©s. Nul n’a avantage Ă  se passer du contrĂŽle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant Ă  dĂ©ployer une IA de plus en plus puissante sans supervision ni contrĂŽle adĂ©quats sous prĂ©texte de concurrence, et que les acteurs les plus sĂ»rs soient supplantĂ©s par des acteurs prenant plus de risques, est souvent vite remisĂ©e par la rĂ©gulation. “De nombreuses stratĂ©gies rĂ©glementaires sont mobilisables, que ce soient celles axĂ©es sur les processus (normes, audits et inspections), les rĂ©sultats (responsabilitĂ©) ou la correction de l’asymĂ©trie d’information (Ă©tiquetage et certification).” En fait, rappellent les chercheurs, le succĂšs commercial est plutĂŽt liĂ© Ă  la sĂ©curitĂ© qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aĂ©ronautique, “l’intĂ©gration de l’IA a Ă©tĂ© limitĂ©e aux normes de sĂ©curitĂ© existantes, au lieu qu’elles soient abaissĂ©es pour encourager son adoption, principalement en raison de la capacitĂ© des rĂ©gulateurs Ă  sanctionner les entreprises qui ne respectent pas les normes de sĂ©curitĂ©â€. Dans le secteur automobile, pourtant, pendant longtemps, la sĂ©curitĂ© n’était pas considĂ©rĂ©e comme relevant de la responsabilitĂ© des constructeurs. mais petit Ă  petit, les normes et les attentes en matiĂšre de sĂ©curitĂ© se sont renforcĂ©es. Dans le domaine des recommandations algorithmiques des mĂ©dias sociaux par contre, les prĂ©judices sont plus difficiles Ă  mesurer, ce qui explique qu’il soit plus difficile d’imputer les dĂ©faillances aux systĂšmes de recommandation. “L’arbitrage entre innovation et rĂ©glementation est un dilemme rĂ©current pour l’État rĂ©gulateur”. En fait, la plupart des secteurs Ă  haut risque sont fortement rĂ©glementĂ©s, rappellent les deux chercheurs. Et contrairement Ă  l’idĂ©e rĂ©pandue, il n’y a pas que l’Europe qui rĂ©gule, les Etats-Unis et la Chine aussi ! Quant Ă  la course aux armements, elle se concentre surtout sur l’invention des modĂšles, pas sur l’adoption ou la diffusion qui demeurent bien plus dĂ©terminantes pourtant. 

RĂ©pondre aux abus. Jusqu’à prĂ©sent, les principales dĂ©fenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modĂšles, estiment les chercheurs. Le problĂšme fondamental est que la nocivitĂ© d’un modĂšle dĂ©pend du contexte, contexte souvent absent du modĂšle, comme ils l’expliquaient en montrant que la sĂ©curitĂ© n’est pas une propriĂ©tĂ© du modĂšle. Le modĂšle chargĂ© de rĂ©diger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisĂ© Ă  des fins marketing ou d’hameçonnage ; les interventions au niveau du modĂšle seraient donc inefficaces. Ainsi, les dĂ©fenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations lĂ©gitimes), mais plutĂŽt les systĂšmes d’analyse et de filtrage des e-mails qui dĂ©tectent les schĂ©mas suspects, et les protections au niveau du navigateur. Se dĂ©fendre contre les cybermenaces liĂ©es Ă  l’IA nĂ©cessite de renforcer les programmes de dĂ©tection des vulnĂ©rabilitĂ©s existants plutĂŽt que de tenter de restreindre les capacitĂ©s de l’IA Ă  la source. Mais surtout, “plutĂŽt que de considĂ©rer les capacitĂ©s de l’IA uniquement comme une source de risque, il convient de reconnaĂźtre leur potentiel dĂ©fensif. En cybersĂ©curitĂ©, l’IA renforce dĂ©jĂ  les capacitĂ©s dĂ©fensives grĂące Ă  la dĂ©tection automatisĂ©e des vulnĂ©rabilitĂ©s, Ă  l’analyse des menaces et Ă  la surveillance des surfaces d’attaque”. “Donner aux dĂ©fenseurs l’accĂšs Ă  des outils d’IA puissants amĂ©liore souvent l’équilibre attaque-dĂ©fense en leur faveur”. En modĂ©ration de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider Ă  identifier les opĂ©rations d’influence coordonnĂ©es. Nous devons investir dans des applications dĂ©fensives plutĂŽt que de tenter de restreindre la technologie elle-mĂȘme, suggĂšrent les chercheurs. 

Le dĂ©salignement. Une IA mal alignĂ©e agit contre l’intention de son dĂ©veloppeur ou de son utilisateur. Mais lĂ  encore, la principale dĂ©fense contre le dĂ©salignement se situe en aval plutĂŽt qu’en amont, dans les applications plutĂŽt que dans les modĂšles. Le dĂ©salignement catastrophique est le plus spĂ©culatif des risques, rappellent les chercheurs. “La crainte que les systĂšmes d’IA puissent interprĂ©ter les commandes de maniĂšre catastrophique repose souvent sur des hypothĂšses douteuses quant au dĂ©ploiement de la technologie dans le monde rĂ©el”. Dans le monde rĂ©el, la surveillance et le contrĂŽle sont trĂšs prĂ©sents et l’IA est trĂšs utile pour renforcer cette surveillance et ce contrĂŽle. Les craintes liĂ©es au dĂ©salignement de l’IA supposent que ces systĂšmes dĂ©jouent la surveillance, alors que nous avons dĂ©veloppĂ©s de trĂšs nombreuses formes de contrĂŽle, qui sont souvent d’autant plus fortes et redondantes que les dĂ©cisions sont importantes. 

Les risques systĂ©miques. Si les risques existentiels sont peu probables, les risques systĂ©miques, eux, sont trĂšs courants. Parmi ceux-ci figurent “l’enracinement des prĂ©jugĂ©s et de la discrimination, les pertes d’emplois massives dans certaines professions, la dĂ©gradation des conditions de travail, l’accroissement des inĂ©galitĂ©s, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystĂšme de l’information, le dĂ©clin de la libertĂ© de la presse, le recul dĂ©mocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques Ă©voquĂ©s prĂ©cĂ©demment”. Car ces risques dĂ©coulent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intĂ©rĂȘts, l’IA ne faisant qu’amplifier les instabilitĂ©s existantes dans notre sociĂ©tĂ©. Nous devrions bien plus nous soucier des risques cumulatifs que des risques dĂ©cisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant Ă  rĂ©orienter la rĂ©gulation de l’IA, notamment en favorisant la rĂ©silience. Pour l’instant, l’élaboration des politiques publiques et des rĂ©glementations de l’IA est caractĂ©risĂ©e par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la sociĂ©tĂ©. Si les probabilitĂ©s de risque existentiel de l’IA sont trop peu fiables pour Ă©clairer les politiques, il n’empĂȘche que nombre d’acteurs poussent Ă  une rĂ©gulation adaptĂ©e Ă  ces risques existentiels. Alors que d’autres interventions, comme l’amĂ©lioration de la transparence, sont inconditionnellement utiles pour attĂ©nuer les risques, quels qu’ils soient. Se dĂ©fendre contre la superintelligence exige que l’humanitĂ© s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrĂŽle centralisĂ© sur l’IA, qui risque d’ĂȘtre un remĂšde pire que le mal. Or, nous devrions bien plus nous prĂ©occuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inĂ©galitĂ©s. Pour nous dĂ©fendre contre ces risques-ci, pour empĂȘcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, dĂ©fendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, amĂ©liorer le financement stratĂ©gique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et amĂ©liorer nos connaissances sur les risques et leur attĂ©nuation. Ils proposent Ă©galement d’amĂ©liorer la surveillance des usages, des risques et des Ă©checs, passant par les dĂ©clarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de donnĂ©es d’incidents de l’IA) ou la protection des lanceurs d’alerte
 Enfin, il proposent que les “donnĂ©es probantes” soient un objectif prioritaire, c’est-Ă -dire d’amĂ©liorer l’accĂšs de la recherche.

Dans le domaine de l’IA, la difficultĂ© consiste Ă  Ă©valuer les risques avant le dĂ©ploiement. Pour amĂ©liorer la rĂ©silience, il est important d’amĂ©liorer la responsabilitĂ© et la rĂ©silience, plus que l’analyse de risque, c’est-Ă -dire des dĂ©marches de contrĂŽle qui ont lieu aprĂšs les dĂ©ploiements. “La rĂ©silience exige Ă  la fois de minimiser la gravitĂ© des dommages lorsqu’ils surviennent et la probabilitĂ© qu’ils surviennent.” Pour attĂ©nuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la dĂ©mocratie, la libertĂ© de la presse ou l’équitĂ© dans le monde du travail. C’est-Ă -dire d’amĂ©liorer la rĂ©silience sociĂ©tale au sens large. 

Pour Ă©laborer des politiques technologiques efficaces, il faut ensuite renforcer les capacitĂ©s techniques et institutionnelles de la recherche, des autoritĂ©s et administrations. Sans personnels compĂ©tents et informĂ©s, la rĂ©gulation de l’IA sera toujours difficile. Les chercheurs invitent mĂȘme Ă  “diversifier l’ensemble des rĂ©gulateurs et, idĂ©alement, Ă  introduire la concurrence entre eux plutĂŽt que de confier la responsabilitĂ© de l’ensemble Ă  un seul rĂ©gulateur”.

Par contre, Kapoor et Narayanan se dĂ©fient fortement des politiques visant Ă  promouvoir une non-prolifĂ©ration de l’IA, c’est-Ă -dire Ă  limiter le nombre d’acteurs pouvant dĂ©velopper des IA performantes. Les contrĂŽles Ă  l’exportation de matĂ©riel ou de logiciels visant Ă  limiter la capacitĂ© des pays Ă  construire, acquĂ©rir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modĂšles d’IA Ă  pondĂ©ration ouverte
 sont des politiques qui favorisent la concentration plus qu’elles ne rĂ©duisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le mĂȘme modĂšle, les vulnĂ©rabilitĂ©s de ce modĂšle peuvent ĂȘtre exploitĂ©es dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “rĂ©aliser les avantages de l’IA”, c’est-Ă -dire accĂ©lĂ©rer l’adoption des bĂ©nĂ©fices de l’IA et attĂ©nuer ses inconvĂ©nients. Pour cela, estiment-ils, nous devons ĂȘtre plus souples sur nos modalitĂ©s d’intervention. Par exemple, ils estiment que pour l’instant catĂ©goriser certains domaines de dĂ©ploiement de l’IA comme Ă  haut risque est problĂ©matique, au prĂ©texte que dans ces secteurs (assurance, prestation sociale ou recrutement
), les technologies peuvent aller de la reconnaissance optique de caractĂšres, relativement inoffensives, Ă  la prise de dĂ©cision automatisĂ©es dont les consĂ©quences sont importantes. Pour eux, il faudrait seulement considĂ©rer la prise de dĂ©cision automatisĂ©e dans ces secteurs comme Ă  haut risque. 

Un autre enjeu repose sur l’essor des modĂšles fondamentaux qui a conduit Ă  une distinction beaucoup plus nette entre les dĂ©veloppeurs de modĂšles, les dĂ©veloppeurs en aval et les dĂ©ployeurs (parmi de nombreuses autres catĂ©gories). Une rĂ©glementation insensible Ă  ces distinctions risque de confĂ©rer aux dĂ©veloppeurs de modĂšles des responsabilitĂ©s en matiĂšre d’attĂ©nuation des risques liĂ©s Ă  des contextes de dĂ©ploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modĂšles fondamentaux et de l’imprĂ©visibilitĂ© de tous les contextes de dĂ©ploiement possibles.

Enfin, lorsque la rĂ©glementation Ă©tablit une distinction binaire entre les dĂ©cisions entiĂšrement automatisĂ©es et celles qui ne le sont pas, et ne reconnaĂźt pas les degrĂ©s de surveillance, elle dĂ©courage l’adoption de nouveaux modĂšles de contrĂŽle de l’IA. Or de nombreux nouveaux modĂšles sont proposĂ©s pour garantir une supervision humaine efficace sans impliquer un humain dans chaque dĂ©cision. Il serait imprudent de dĂ©finir la prise de dĂ©cision automatisĂ©e de telle sorte que ces approches engendrent les mĂȘmes contraintes de conformitĂ© qu’un systĂšme sans supervision. Pour les deux chercheurs, “opposer rĂ©glementation et diffusion est un faux compromis, tout comme opposer rĂ©glementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas rĂ©guler, mais bien de garantir de la souplesse. La lĂ©gislation garantissant la validitĂ© juridique des signatures et enregistrement Ă©lectroniques promulguĂ©e en 2000 aux Etats-Unis a jouĂ© un rĂŽle dĂ©terminant dans la promotion du commerce Ă©lectronique et sa diffusion. La lĂ©gislation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le dĂ©veloppement du secteur par la crĂ©ation de pilotes certifiĂ©s. Nous devons trouver pour l’IA Ă©galement des rĂ©glementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bĂ©nĂ©fices de l’IA afin de les rendre plus Ă©quitables et d’indemniser les personnes qui risquent de subir les consĂ©quences de l’automatisation. Le renforcement des filets de sĂ©curitĂ© sociale contribuera Ă  attĂ©nuer l’inquiĂ©tude actuelle du public face Ă  l’IA dans de nombreux pays”. Et les chercheurs de suggĂ©rer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis Ă  mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste Ă©quilibre entre une adoption trop prĂ©cipitĂ©e qui gĂ©nĂšre des dĂ©faillances et de la mĂ©fiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privĂ©.

  • ✇Dans les algorithmes
  • De l’instrumentalisation du numĂ©rique par l’action publique
    L’avant dernier numĂ©ro de la revue RĂ©seaux est consacrĂ© Ă  la dĂ©matĂ©rialisation. “La numĂ©risation des administrations redĂ©finit le rapport Ă  l’État et ouvre Ă  des procĂšs de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numĂ©ro, qui rappelle que ces dĂ©veloppements suivent des phases en regardant celles des pays scandinaves, pionniers en la matiĂšre. Pourtant, lĂ -bas comme ailleurs, la numĂ©risation n’a pas aidĂ© ou apaisĂ© la relation administrative, au con
     

De l’instrumentalisation du numĂ©rique par l’action publique

2 juin 2025 Ă  01:00

L’avant dernier numĂ©ro de la revue RĂ©seaux est consacrĂ© Ă  la dĂ©matĂ©rialisation. “La numĂ©risation des administrations redĂ©finit le rapport Ă  l’État et ouvre Ă  des procĂšs de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numĂ©ro, qui rappelle que ces dĂ©veloppements suivent des phases en regardant celles des pays scandinaves, pionniers en la matiĂšre. Pourtant, lĂ -bas comme ailleurs, la numĂ©risation n’a pas aidĂ© ou apaisĂ© la relation administrative, au contraire. LĂ -bas aussi, elle rend plus difficile l’accĂšs aux droits. En fait, plus qu’un changement d’outillage, elle est une â€œĂ©volution de nature politique” qui redĂ©finit les rapports Ă  l’État, Ă  la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, crĂ©ant des situations d’accĂšs inĂ©galitaires qui restreignennt la qualitĂ© et la continuitĂ© des services publics. “La dĂ©matĂ©rialisation de l’action publique signe en cela une double dĂ©lĂ©gation. D’un cĂŽtĂ©, certaines opĂ©rations sont dĂ©lĂ©guĂ©es aux dispositifs techniques ; de l’autre, on constate un dĂ©placement complĂ©mentaire de celles-ci vers les usagers, qui portent dĂ©sormais la charge et la responsabilitĂ© du bon dĂ©roulement des dĂ©marches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se dĂ©brouiller et les autres. L’accĂšs aux outils numĂ©riques et leur maĂźtrise devient un nouveau critĂšre d’éligibilitĂ© aux droits, gĂ©nĂ©rateur de non-recours : le numĂ©rique devient une “charge supplĂ©mentaire” pour les plus vulnĂ©rables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultĂ©s, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “dĂ©placer le pĂ©rimĂštre de leurs missions premiĂšres”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab AccĂšs sur le dispositif Conseiller numĂ©rique France Services (CnFS) montre qu’il se rĂ©vĂšle fragile, profitant d’abord aux structures prĂ©alablement les plus engagĂ©es sur l’inclusion numĂ©rique. L’État s’est appuyĂ© sur le plan de relance europĂ©en afin de transfĂ©rer aux acteurs locaux la prise en charge d’un problĂšme public dont les conseillers numĂ©riques doivent assumer la charge. Les moyens s’avĂšrent « structurellement insuffisants pour stabiliser une rĂ©ponse proportionnĂ©e aux besoins ». À l’échelle nationale, les dĂ©marches en ligne se placent en tĂȘte des aides rĂ©alisĂ©es par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexĂ©s Ă  la numĂ©risation des administrations »; et de constater qu’il y a lĂ  une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numĂ©rique – qui ne parvient pas Ă  rĂ©pondre aux besoins gĂ©nĂ©rĂ©s par une autre action publique – les politiques de dĂ©matĂ©rialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant Ă  certains acteurs, notamment aux acteurs de la dĂ©matĂ©rialisation de la relation administrative, qu’il n’a permis de rĂ©pondre Ă  la gĂ©ographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes ĂągĂ©es, moins en rĂ©ponse Ă  des besoins qu’en raison du ciblage de l’offre elle-mĂȘme : elle capte d’abord des publics « disponibles », pas nĂ©cessairement ceux qui en ont le plus besoin ». Enfin, la dĂ©gressivitĂ© des financements a, quant Ă  elle, « produit un effet de sĂ©lection, qui a accentuĂ© les inĂ©galitĂ©s entre acteurs et territoires », notamment au dĂ©triment des acteurs de la mĂ©diation numĂ©rique.

La gouvernance par dispositifs numĂ©riques faciliterait l’avĂšnement d’une administration d’orientation nĂ©olibĂ©rale priorisant les valeurs du marchĂ©, explique Granjon. L’administration « renforcerait son contrĂŽle sur les populations, mais, paradoxalement, perdrait le contrĂŽle sur ses principaux outils, notamment ceux d’aide Ă  la dĂ©cision quant Ă  l’octroi de droits et de subsides ». La dĂ©cision confiĂ©e aux procĂ©dures de calcul, laisse partout peu de marge de manƓuvre aux agents, les transformant en simples exĂ©cutants. A PĂŽle Emploi, par exemple, il s’agit moins de trouver un emploi aux chĂŽmeurs que de les rendre « autonomes » avec les outils numĂ©riques. Pour PĂ©rine Brotcorne pourtant, malgrĂ© la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des dĂ©veloppements numĂ©riques des services publics. Rien n’est fait par exemple pour l’usager en difficultĂ© par exemple pour qu’il puisse dĂ©lĂ©guer la prise en charge de ses tĂąches administratives Ă  un tiers, comme le soulignait rĂ©cemment le DĂ©fenseur des droits. Les interfaces numĂ©riques, trop complexes, fabriquent “de l’incapacitĂ©â€ pour certains publics, notamment les plus Ă©loignĂ©s et les plus vulnĂ©rables. Brotcorne montre d’ailleurs trĂšs bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invitĂ©s Ă  s’exprimer. L’étude souligne que prĂšs de la moitiĂ© des usagers n’arrivent pas Ă  passer la premiĂšre Ă©tape des services publics numĂ©riques que ce soit se connecter, prendre rendez-vous ou mĂȘme tĂ©lĂ©charger un formulaire. Dans un autre article, signĂ© Anne-Sylvie Pharabod et CĂ©line Borelle, les deux chercheuses auscultent les pratiques administratives numĂ©risĂ©es ordinaires qui montrent que la numĂ©risation est une longue habituation, oĂč les dĂ©marches apprises pour un service permettent d’en aborder d’autres. Les dĂ©marches administratives sont un univers de tĂąches dont il faut apprendre Ă  se dĂ©brouiller, comme faire se peut, et qui en mĂȘme temps sont toujours remises Ă  zĂ©ro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identitĂ©, ou des documents Ă  uploader. “La diversitĂ© des dĂ©marches, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des interfaces et l’évolution rapide des outils liĂ©e Ă  des amĂ©liorations incrĂ©mentales (notamment en matiĂšre de sĂ©curitĂ©) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numĂ©riques au sein du Service public de l’emploi a pour consĂ©quence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numĂ©rique se voit investie de la fonction de rĂ©gulation des comportements des usagers, des agents publics, mais Ă©galement de bien d’autres publics, notamment tous ceux utilisant ses donnĂ©es et plateformes. A cette aune, France Travail est amenĂ© Ă  devenir un « animateur d’écosystĂšme emploi/formation/insertion » connectant divers Ă©chelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses diffĂ©rentes plateformes. Granjon invite Ă  s’intĂ©resser Ă  ces encastrements nouveaux et pas seulement aux guichets, ou Ă  la relation agent-public, pour mieux saisir comment les bases de donnĂ©es, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procĂ©dures que France Travail met en place. 

Le numĂ©ro de RĂ©seaux livre Ă©galement un intĂ©ressant article, trĂšs critique, du Dossier mĂ©dical partagĂ©, signĂ© Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intĂ©resse Ă  l’histoire de la gouvernance problĂ©matique du projet, qui explique en grande partie ses Ă©cueils, et au fait que le DMP ne semble toujours pas avoir trouvĂ© son utilitĂ© pour les professionnels de santĂ©.

Un autre article signĂ© Pauline Boyer explore le lancement du portail de donnĂ©es ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel GoĂ«ta et Élise Ho-Pun-Cheung s’intĂ©ressent quant Ă  eux Ă  la production de standards et aux difficultĂ©s de leur intĂ©gration dans le quotidien des agents, en observant le processus de standardisation des donnĂ©es des lieux de mĂ©diation numĂ©rique. L’article souligne la difficultĂ© des conseillers numĂ©riques Ă  inflĂ©chir la standardisation et montre que cette normalisation peine Ă  prĂ©voir les usages de la production de donnĂ©es.

Dans un article de recherche qui n’est pas publiĂ© par RĂ©seaux, mais complĂ©mentaire Ă  son dossier, le politologue nĂ©erlandais, Pascal D. Koenig explique que le dĂ©veloppement d’un État algorithmique modifie la relation avec les citoyens, ce qui nĂ©cessite de regarder au-delĂ  des seules propriĂ©tĂ©s des systĂšmes. L’intĂ©gration des algos et de l’IA dĂ©veloppe une relation plus impersonnelle, renforçant le contrĂŽle et l’asymĂ©trie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systĂšmes d’IA, qui remplacent ou assistent l’exĂ©cution des tĂąches humaines, introduisent un nouveau type de reprĂ©sentation des agents dans les organisations gouvernementales. Ils rĂ©duisent ainsi structurellement la reprĂ©sentation des citoyens – en tant qu’ĂȘtres humains – au sein de l’État et augmentent les asymĂ©tries de pouvoir, en Ă©tendant unilatĂ©ralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte Ă©galement les fondements de la reconnaissance sociale dans la relation citoyen-État, liĂ©s au comportement. En tant qu’agents artificiels, les systĂšmes d’IA manquent de comprĂ©hension et de compassion humaines, dont l’expression dans de nombreuses interactions est un Ă©lĂ©ment important pour reconnaĂźtre et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiĂ©rarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui Ă©rode le respect que les institutions leur tĂ©moignent”. Le manque d’empathie des systĂšmes est l’une des principales raisons pour lesquelles les individus s’en mĂ©fient, rappelle Koenig. Or, “la numĂ©risation et l’automatisation de l’administration rĂ©duisent les foyers d’empathie existants et contribuent Ă  une prise en compte Ă©troite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de comprĂ©hension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental oĂč le contact humain se rĂ©duit : moins reprĂ©sentatif, il est donc moins disposĂ© Ă  prendre des dĂ©cisions dans leur intĂ©rĂȘt.

  • ✇Dans les algorithmes
  • De la maĂźtrise de l’automatisation d’Etat
    Le dernier numĂ©ro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquĂȘtes de jeunes sociologues.  Camille Girard-Chanudet dĂ©crit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extĂ©rieur des tribunaux pour les transformer.  HĂ©loĂŻse Eloi‑Hammer observe les diffĂ©rences d’implĂ©mentations des algorithmes locaux dans Parcoursup pour montre
     

De la maütrise de l’automatisation d’Etat

28 mai 2025 Ă  01:00

Le dernier numĂ©ro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquĂȘtes de jeunes sociologues. 

Camille Girard-Chanudet dĂ©crit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extĂ©rieur des tribunaux pour les transformer. 

HĂ©loĂŻse Eloi‑Hammer observe les diffĂ©rences d’implĂ©mentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mĂȘmes moyens pour configurer la plateforme et que souvent, elles utilisent des procĂ©dĂ©s de sĂ©lection rudimentaires. Elle montre que, lĂ  aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposĂ©s aux valeurs des formations qui les mettent en Ɠuvre. 

JĂ©rĂ©mie Poiroux Ă©voque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrĂŽle technique des activitĂ©s maritimes qui permet de montrer comment le calcul et l’évolution de la rĂ©glementation sont mobilisĂ©es pour rĂ©duire les effectifs des services de l’Etat tout en amĂ©liorant le ciblage des contrĂŽles. Pour Poiroux, le systĂšme mis en place pose des questions quant Ă  son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens Ă  la prĂ©vention et Ă  l’accompagnement, afin de rĂ©duire son champ d’action au contrĂŽle et Ă  la punition”, ainsi qu’à Ă©loigner les agents au profit de rĂšgles venues d’en haut. 

Soizic PĂ©nicaud revient quant Ă  elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de diffĂ©rents collectifs n’est pas allĂ© de soi et que le recueil de tĂ©moignages a permis de soulever le problĂšme et d’incarner les difficultĂ©s auxquelles les personnes Ă©taient confrontĂ©es. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une rĂ©alitĂ©. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le dĂ©ploiement des algorithmes Ă  la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui prĂ©existe. “L’algorithme ne se substitue pas aux pratiques prĂ©cĂ©dentes de contrĂŽle. Il s’y intĂšgre (
). Il ne l’automatise pas non plus : il le « flĂšche »”. Elle rappelle, Ă  la suite du travail de Vincent Dubois dans ContrĂŽler les assistĂ©s, que le dĂ©veloppement des systĂšmes de calculs permettent Ă  la fois de produire un contrĂŽle rĂ©organisĂ©, national, au dĂ©triment de l’autonomie des agents et des caisses locales, ainsi que de lĂ©gitimer la culture du contrĂŽle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalitĂ© de son pouvoir”.

Mardi 3 juin Ă  19h30 Ă  la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisĂ©e autour des chercheurs et chercheuses qui ont participĂ© Ă  ce numĂ©ro. Nous y serons.

  • ✇Dans les algorithmes
  • L’IA peut-elle soutenir la dĂ©mocratie ?
    La politologue Erica Chenoweth est la directrice du Non Violent Action Lab Ă  Harvard. Elle a publiĂ© de nombreux livres pour montrer que la rĂ©sistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la rĂ©sistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prĂ©pare d’ailleurs un nouveau livre, The End of People Power, qui pointe le dĂ©clin dĂ©routant des mouvements de rĂ©sistance civile au cours de la derniĂšr
     

L’IA peut-elle soutenir la dĂ©mocratie ?

27 mai 2025 Ă  01:00

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab Ă  Harvard. Elle a publiĂ© de nombreux livres pour montrer que la rĂ©sistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la rĂ©sistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prĂ©pare d’ailleurs un nouveau livre, The End of People Power, qui pointe le dĂ©clin dĂ©routant des mouvements de rĂ©sistance civile au cours de la derniĂšre dĂ©cennie, alors mĂȘme que ces techniques sont devenues trĂšs populaires dans le monde entier. Lors d’une rĂ©cente confĂ©rence sur l’IA et les libertĂ©s dĂ©mocratiques organisĂ©e par le Knight First Amendment Institute de l’universitĂ© de Columbia, elle se demandait si l’IA pouvait soutenir les revendications dĂ©mocratiques, rapporte Tech Policy Press (vidĂ©o). L’occasion de rendre compte Ă  notre tour d’un point de vue dĂ©coiffant qui interroge en profondeur notre rapport Ă  la dĂ©mocratie.  

La récession démocratique est engagée

La dĂ©mocratie est en dĂ©clin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle mĂȘme de “rĂ©cession dĂ©mocratique” et estime que la sauvegarde des droits dĂ©mocratiques est partout en crise. 2025 pourrait ĂȘtre la premiĂšre annĂ©e, depuis longtemps, oĂč la majoritĂ© de la population mondiale vit sous des formes de gouvernement autoritaires plutĂŽt que dĂ©mocratiques. Ce recul est dĂ» Ă  la fois au dĂ©veloppement de l’autoritarisme dans les rĂ©gimes autocratiques et Ă  l’avancĂ©e de l’autocratie dans les dĂ©mocraties Ă©tablies, explique Chenoweth. Les avancĂ©es dĂ©mocratiques des 100 derniĂšres annĂ©es ont Ă©tĂ© nombreuses et assez gĂ©nĂ©rales. Elles ont d’abord Ă©tĂ© le fait de mouvements non violents, populaires, oĂč des citoyens ordinaires ont utilisĂ© les manifestations et les grĂšves, bien plus que les insurrections armĂ©es, pour dĂ©ployer la dĂ©mocratie lĂ  oĂč elle Ă©tait empĂȘchĂ©e. Mais ces succĂšs sont en dĂ©clin. Les taux de rĂ©ussite des mouvements populaires pacifistes comme armĂ©s, se sont effondrĂ©s, notamment au cours des dix derniĂšres annĂ©es. “Il y a quelque chose de global et de systĂ©mique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants Ă  ces mouvements sont devenus plus efficaces pour les vaincre en gĂ©nĂ©ral”.

Les Ă©pisodes de contestation rĂ©formistes (qui ne relĂšvent pas de revendications maximalistes, comme les mouvements dĂ©mocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes
 n’ont cessĂ© de subir des revers et des dĂ©faites au cours des deux derniĂšres dĂ©cennies, et ont mĂȘme diminuĂ© leur capacitĂ© Ă  obtenir des concessions significatives, Ă  l’image de la contestation de la rĂ©forme des retraites en France ou des mouvements Ă©cologiques, plus Ă©crasĂ©s que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisĂ©es que jamais. 

Selon la littĂ©rature, ce qui permet aux mouvements populaires de rĂ©ussir repose sur une participation large et diversifiĂ©e, c’est-Ă -dire transversale Ă  l’ensemble de la sociĂ©tĂ©, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans
 Et notamment quand ils suscitent le soutien de personnes trĂšs diffĂ©rentes les unes des autres. “Le principal dĂ©fi pour les mouvements de masse qui rĂ©clament un changement pour Ă©tendre la dĂ©mocratie consiste bien souvent Ă  disloquer les piliers des soutiens autocratiques comme l’armĂ©e ou les fonctionnaires. L’enjeu, pour les mouvements dĂ©mocratiques, consiste Ă  retourner la rĂ©pression Ă  l’encontre de la population en la dĂ©nonçant pour modifier l’opinion gĂ©nĂ©rale Â». Enfin, les mouvements qui rĂ©ussissent enchaĂźnent bien souvent les tactiques plutĂŽt que de reposer sur une technique d’opposition unique, afin de dĂ©multiplier les formes de pression. 

La rĂ©pression s’est mise Ă  niveau

Mais l’autocratie a appris de ses erreurs. Elle a adaptĂ© en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements dĂ©mocratiques l’emportent. “La premiĂšre consiste Ă  s’assurer que personne ne fasse dĂ©fection. La deuxiĂšme consiste Ă  dominer l’écosystĂšme de l’information et Ă  remporter la guerre de l’information. La troisiĂšme consiste Ă  recourir Ă  la rĂ©pression sĂ©lective de maniĂšre Ă  rendre trĂšs difficile pour les mouvements d’exploiter les moments d’intense brutalitĂ©. Et la quatriĂšme consiste Ă  perfectionner l’art de diviser pour mieux rĂ©gner”. Pour que l’armĂ©e ou la police ne fasse pas dĂ©fection, les autoritĂ©s ont amĂ©liorĂ© la formation des forces de sĂ©curitĂ©. La corruption et le financement permet de s’attacher des soutiens plus indĂ©fectibles. Les forces de sĂ©curitĂ© sont Ă©galement plus fragmentĂ©es, afin qu’une dĂ©fection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit Ă©galement de faire varier la rĂ©pression pour qu’une unitĂ© de sĂ©curitĂ© ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les rĂ©pressions des personnes dĂ©loyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la dĂ©fection des forces de sĂ©curitĂ©, et cette tendance s’est accentuĂ©e au fil du temps”.

La seconde adaptation clĂ© a consistĂ© Ă  gagner la guerre de l’information, notamment en dominant les Ă©cosystĂšmes de l’information. “Inonder la zone de rumeurs, de dĂ©sinformation et de propagande, dont certaines peuvent ĂȘtre créées et testĂ©es par diffĂ©rents outils d’IA, en fait partie. Il en va de mĂȘme pour la coupure d’Internet aux moments opportuns, puis sa rĂ©ouverture au moment opportun”.

Le troisiĂšme volet de la panoplie consiste Ă  appliquer une rĂ©pression sĂ©lective, consistant Ă  viser des individus plutĂŽt que les mouvements pour des crimes graves qui peuvent sembler dĂ©corrĂ©lĂ© des manifestations, en les accusant de terrorisme ou de prĂ©paration de coup d’Etat. ”La guerre juridique est un autre outil administratif clĂ©â€.

Le quatriĂšme volet consiste Ă  diviser pour mieux rĂ©gner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant Ă  des actions violentes pour gĂ©nĂ©rer des reflux d’opinion
 

Comment utiliser l’IA pour gagner ? 

Dans la montĂ©e de l’adaptation des techniques pour dĂ©faire leurs opposants, la technologie joue un rĂŽle, estime Erica Chenoweth. Jusqu’à prĂ©sent, les mouvements civiques ont plutĂŽt eu tendance Ă  s’approprier et Ă  utiliser, souvent de maniĂšre trĂšs innovantes, les technologies Ă  leur avantage, par exemple Ă  l’heure de l’arrivĂ©e d’internet, qui a trĂšs tĂŽt Ă©tĂ© utilisĂ© pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques Ă  utiliser l’IA, contrairement aux rĂ©gimes autocratiques. Pourtant, l’un des principaux problĂšmes des mouvements civiques consiste Ă  “cerner leur environnement opĂ©rationnel”, c’est-Ă -dire de savoir qui est connectĂ© Ă  qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? OĂč sont les vulnĂ©rabilitĂ©s du mouvement ? RĂ©flĂ©chir de maniĂšre crĂ©ative Ă  ces questions et enjeux, aux tactiques Ă  dĂ©ployer pourrait pourtant ĂȘtre un atout majeur pour que les mouvements dĂ©mocratiques rĂ©ussissent. 

Les mouvements dĂ©mocratiques passent bien plus de temps Ă  sensibiliser et communiquer qu’à faire de la stratĂ©gie, rappelle la chercheuse. Et c’est lĂ  deux enjeux oĂč les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des Ă©lections municipales russe, un algorithme a permis de contrĂŽler les images de vidĂ©osurveillance des bureaux de vote pour dĂ©tecter des irrĂ©gularitĂ©s permettant de dĂ©gager les sĂ©quences oĂč des bulletins prĂ©remplis avaient Ă©tĂ© introduits dans les urnes. Ce qui aurait demandĂ© un contrĂŽle militant Ă©puisant a pu ĂȘtre accompli trĂšs simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer trĂšs facilement Ă  des actions (des applications puissantes, mais parfois peu transparentes sur leurs mĂ©thodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent ĂȘtre mieux documentĂ©es et partagĂ©es pour qu’elles puissent servir Ă  d’autres. Certains groupes proposent d’ailleurs dĂ©jĂ  des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publiĂ© un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements dĂ©mocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent rĂ©ellement le succĂšs des mouvements dĂ©mocratiques. Encore faudrait-il que les mouvements dĂ©mocratiques puissent accĂ©der Ă  des outils d’IA qui ne partagent pas leurs donnĂ©es avec des plateformes et avec les autoritĂ©s. L’autre enjeu consiste Ă  construire des corpus adaptĂ©s pour aider les mouvements Ă  rĂ©sister. Les corpus de l’IA s’appuient sur des donnĂ©es des 125 derniĂšres annĂ©es, alors que l’on sait dĂ©jĂ  que ce qui fonctionnait il y a 60 ans ne fonctionne plus nĂ©cessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour dĂ©mĂȘler des processus dĂ©libĂ©ratifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait Ă©tĂ© notre projet dĂ©mocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques Ă  poser la question de l’utilisation de l’IA a leur profit, plutĂŽt que de la rejetter d’emblĂ©e comme l’instrument de l’autoritarisme, elle invite Ă  faire un pas de cĂŽtĂ© pour trouver des modalitĂ©s pour refaire gagner les luttes sociales.

On lui suggĂ©rera tout de mĂȘme de regarder du cĂŽtĂ© des projets que Audrey Tang mĂšne Ă  TaĂŻwan avec le Collective intelligence for collective progress, comme ses « assemblĂ©es d’alignement Â» qui mobilise l’IA pour garantir une participation Ă©quitable et une Ă©coute active de toutes les opinions. Comme Tang le dĂ©fend dans son manifeste, Plurality, l’IA pourrait ĂȘtre une technologie d’extension du dĂ©bat dĂ©mocratique pour mieux organiser la complexitĂ©. Tang parle d’ailleurs de broad listening (« Ă©coute Ă©largie Â») pour l’opposer au broadcasting, la diffusion de un vers tous. Une mĂ©thode mobilisĂ©e par un jeune ingĂ©nieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bĂ©nĂ©ficiĂ© d’une audience surprenante, sans nĂ©anmoins l’emporter. Son adversaire a depuis mobilisĂ© la mĂ©thode pour lancer une consultation, Tokyo 2050.

Des pistes Ă  observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisĂ©e. Ajouter de l’IA ne signifie pas que les dĂ©cisions demain seront plus justes, plus efficaces ou plus dĂ©mocratiques. Au contraire. Le risque est fort que cet ajout bĂ©nĂ©fice d’abord aux plus nantis au dĂ©triment de la diversitĂ©. L’enjeu demeure non pas d’ajouter des outils pour eux-mĂȘmes, mais de savoir si ces outils produisent du changement et au profit de qui !

  • ✇Dans les algorithmes
  • RĂ©utiliser, rĂ©parer, refuser, rĂ©clamer 
    Le soulĂšvement contre l’obsolescence programmĂ©e est bien engagĂ©, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, Ă©ditĂ© par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont ƓuvrĂ© Ă  dĂ©velopper un systĂšme d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle d
     

RĂ©utiliser, rĂ©parer, refuser, rĂ©clamer 

26 mai 2025 Ă  01:00

Le soulĂšvement contre l’obsolescence programmĂ©e est bien engagĂ©, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, Ă©ditĂ© par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont ƓuvrĂ© Ă  dĂ©velopper un systĂšme d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la rĂ©duction de la consommation et dans le recyclage, mais dans l’intĂ©gration Ă  grande Ă©chelle de l’ancien dans le nouveau. Hybrider les technologies dĂ©funtes et les intĂ©grer dans nos quotidiens est tout l’enjeu du monde Ă  venir, dans une forme de permaculture du calcul. ArrĂȘtons de dĂ©plorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La rĂ©utilisation et la rĂ©paration nous conduisent dĂ©sormais Ă  refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent dĂ©sormais “refuser d’ĂȘtre neutralisĂ©s, Ă©crasĂ©s et rĂ©duits au silence”, refuser de se faire rĂ©approprier. Nous devons rĂ©clamer la tech – c’était dĂ©jĂ  la conclusion de son prĂ©cĂ©dent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspirĂ© par le mouvement britannique des annĂ©es 90, qui rĂ©clamait dĂ©jĂ  la rue, pour reconquĂ©rir cet espace public contre la surveillance policiĂšre et la voiture.

“Reclaim the Tech Â» va plus loin en affirmant que « Nous sommes la technologie Â», explique Lovink. Cela signifie que la technologie n’est plus un phĂ©nomĂšne passager, imposĂ© : la technologie est en nous, nous la portons Ă  fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech Â», dĂ©crites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numĂ©rique actuelle est stagnante, elle n’est pas une Ă©chappatoire. Elle manque de direction et de destin. La volontĂ© d’organisation est absente maintenant que mĂȘme les rĂ©seaux Ă  faible engagement ont Ă©tĂ© supplantĂ©s par les plateformes. L’esprit du temps est rĂ©gressif, Ă  l’opposĂ© de l’accĂ©lĂ©rationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de donnĂ©es. Ce que nous vivons est une succession interminable de courtes poussĂ©es d’extase orgasmique, suivies de longues pĂ©riodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dĂ©vastateur sur la recherche et la mise en Ɠuvre d’alternatives durables, estime Lovink. L’optimisation prĂ©dictive a effacĂ© l’énergie intĂ©rieure de rĂ©volte que nous portons en nous. Il ne reste que des explosions de colĂšre, entraĂźnant des mouvements sociaux erratiques – une dynamique alimentĂ©e par une utilisation des rĂ©seaux sociaux Ă  courte durĂ©e d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialitĂ© visible dans la technologie et le design. Nous la voyons apparaĂźtre non seulement dans le cas des matiĂšres premiĂšres, mais aussi dans le contexte du « colonialisme des donnĂ©es ». 

Mais, s’il est essentiel d’exiger la dĂ©colonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « crĂ©olisation technologique ».

La dĂ©colonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cƓur mĂȘme de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, crĂ©ons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements gĂ©opolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion Ă  la destruction militaire bien rĂ©elle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratĂ©gies de sortie ne manquent pas. L’exode ne sera pas tĂ©lĂ©visĂ©. Le monde ne peut attendre la mise en Ɠuvre des principes de prĂ©vention des donnĂ©es. ArrĂȘtons dĂ©finitivement les flux de donnĂ©es !, clame Lovink. 

La « confidentialitĂ© » des donnĂ©es s’étant rĂ©vĂ©lĂ©e ĂȘtre un gouffre juridique impossible Ă  garantir, la prochaine option sera des mĂ©canismes intĂ©grĂ©s, des filtres empĂȘchant les donnĂ©es de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de donnĂ©es, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant aprĂšs la rĂ©volution, les « magasins de proximitĂ© » qui rendent les technologies aux gens ne se contenteront plus de rĂ©parer, mais nous permettront de vivre avec nos dĂ©chets, de les rendre visibles, Ă  nouveau fonctionnels, tout comme on rend Ă  nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalitĂ©s. 

  • ✇Dans les algorithmes
  • IA gĂ©nĂ©rative vs IA productive
    Encore une rĂ©flexion stimulante de Gregory Chatonsky, qui observe deux modes de relation Ă  l’IA gĂ©nĂ©rative. L’un actif-productif, l’autre passif-reproductif-mĂ©mĂ©tique. « L’infrastructure gĂ©nĂ©rative n’a pas d’essence unifiĂ©e ni de destination prĂ©dĂ©terminĂ©e — elle peut ĂȘtre orientĂ©e vers la production comme vers la consommation. Cette indĂ©termination constitutive des technologies gĂ©nĂ©ratives rĂ©vĂšle un aspect fondamental : nous nous trouvons face Ă  un systĂšme technique dont les usages et les implic
     

IA générative vs IA productive

23 mai 2025 Ă  01:00

Encore une rĂ©flexion stimulante de Gregory Chatonsky, qui observe deux modes de relation Ă  l’IA gĂ©nĂ©rative. L’un actif-productif, l’autre passif-reproductif-mĂ©mĂ©tique. « L’infrastructure gĂ©nĂ©rative n’a pas d’essence unifiĂ©e ni de destination prĂ©dĂ©terminĂ©e — elle peut ĂȘtre orientĂ©e vers la production comme vers la consommation. Cette indĂ©termination constitutive des technologies gĂ©nĂ©ratives rĂ©vĂšle un aspect fondamental : nous nous trouvons face Ă  un systĂšme technique dont les usages et les implications restent largement Ă  dĂ©finir Â».

« L’enjeu n’est donc pas de privilĂ©gier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports Ă  la gĂ©nĂ©ration dĂ©terminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualitĂ© fondamentale, nous pouvons commencer Ă  Ă©laborer une relation plus consciente et rĂ©flĂ©chie aux technologies gĂ©nĂ©ratives, capable de dĂ©passer aussi bien l’instrumentalisme naĂŻf que le dĂ©terminisme technologique.

La gĂ©nĂ©ration n’est ni intrinsĂšquement productive ni intrinsĂšquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous Ă©tablissons avec elle. C’est dans cette indĂ©termination constitutive que rĂ©sident sa rĂ©ponse Ă  la finitude. Â»

  • ✇Dans les algorithmes
  • La modĂ©ration n’est pas Ă©quitable
    Dans une riche et dĂ©taillĂ©e revue d’études sur la modĂ©ration des plateformes du web social, Lisa Macpherson de l’association Public Knowledge dĂ©montre que cette modĂ©ration n’est ni Ă©quitable ni neutre. En fait, les Ă©tudes ne dĂ©montrent pas qu’il y aurait une surmodĂ©ration des propos conservateurs, au contraire, les contenus de droite ayant tendance Ă  gĂ©nĂ©rer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modĂ©rĂ©s, c’est parce qu’i
     

La modĂ©ration n’est pas Ă©quitable

23 mai 2025 Ă  01:00

Dans une riche et dĂ©taillĂ©e revue d’études sur la modĂ©ration des plateformes du web social, Lisa Macpherson de l’association Public Knowledge dĂ©montre que cette modĂ©ration n’est ni Ă©quitable ni neutre. En fait, les Ă©tudes ne dĂ©montrent pas qu’il y aurait une surmodĂ©ration des propos conservateurs, au contraire, les contenus de droite ayant tendance Ă  gĂ©nĂ©rer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modĂ©rĂ©s, c’est parce qu’ils enfreignent plus volontiers les rĂšgles des plateformes en colportant de la dĂ©sinformation ou des propos haineux, et non du fait des biais politiques de la modĂ©ration. La modĂ©ration injustifiĂ©e, elle, touche surtout les communautĂ©s marginalisĂ©es (personnes racisĂ©es, minoritĂ©s religieuses, femmes, LGBTQ+). Les biais de modĂ©ration sont toujours dĂ©sĂ©quilibrĂ©s. Et les contenus de droite sont plus amplifiĂ©s que ceux de gauche. 

En France, rapporte Next, constatant le trĂšs faible taux de modĂ©ration de contenus haineux sur Facebook, le cofondateur de l’association #jesuislĂ  et activiste pour les droits numĂ©riques Xavier Brandao porte plainte contre Meta auprĂšs de l’Arcom au titre du DSA. En envoyant plus de 118 signalements Ă  Meta en quatre mois pour des discours racistes avĂ©rĂ©s, l’activiste s’est rendu compte que seulement 8 commentaires avaient Ă©tĂ© supprimĂ©s.

  • ✇Dans les algorithmes
  • ​​Droit des Ă©trangers, modĂšle de la maltraitance administrative
    “Le respect des droits fondamentaux des Ă©trangers est un marqueur essentiel du degrĂ© de protection des droits et des libertĂ©s dans un pays”, disait trĂšs clairement le DĂ©fenseur des droits en 2016. Le rapport pointait dĂ©jĂ  trĂšs bien nombre de dĂ©rives : atteintes aux droits constantes, exclusions du droit commun, surveillances spĂ©cifiques et invasives
 PrĂšs de 10 ans plus tard, contexte politique aidant, on ne sera pas Ă©tonnĂ© que ces atteintes se soient dĂ©gradĂ©es. Les rĂ©formes lĂ©gislatives en cont
     

​​Droit des Ă©trangers, modĂšle de la maltraitance administrative

22 mai 2025 Ă  01:00

“Le respect des droits fondamentaux des Ă©trangers est un marqueur essentiel du degrĂ© de protection des droits et des libertĂ©s dans un pays”, disait trĂšs clairement le DĂ©fenseur des droits en 2016. Le rapport pointait dĂ©jĂ  trĂšs bien nombre de dĂ©rives : atteintes aux droits constantes, exclusions du droit commun, surveillances spĂ©cifiques et invasives
 PrĂšs de 10 ans plus tard, contexte politique aidant, on ne sera pas Ă©tonnĂ© que ces atteintes se soient dĂ©gradĂ©es. Les rĂ©formes lĂ©gislatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidĂ© et ne cessent de dĂ©grader non seulement le droit, mais Ă©galement les services publics dĂ©diĂ©s. Ce qu’il se passe aux Etats-Unis n’est pas une exception

VoilĂ  longtemps que le droit des Ă©trangers en France est plus que malmenĂ©. VoilĂ  longtemps que les associations et autoritĂ©s indĂ©pendantes qui surveillent ses Ă©volutions le dĂ©noncent. Des travaux des associations comme la Cimade, Ă  ceux des autoritĂ©s indĂ©pendantes, comme le DĂ©fenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifĂšre de ce qui ne devrait ĂȘtre pourtant qu’un droit parmi d’autres. 

Couverture du livre France terre d’écueils.

Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, trĂšs concrĂštement, comment agit la maltraitance administrative Ă  l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spĂ©cialisĂ©e en droit des Ă©trangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les dĂ©faillances de l’administration Ă  destination des Ă©trangers. Une administration mise au pas, au service d’un propos politique de plus en plus dĂ©connectĂ© des rĂ©alitĂ©s, qui concentre des pratiques mortifĂšres et profondĂ©ment dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des Ă©trangers pourraient devenir un modĂšle de maltraitance Ă  appliquer Ă  tous les autres services publics. 

Le dysfonctionnement des services publics Ă  destination des Ă©trangers est caractĂ©risĂ© par plusieurs maux, dĂ©taille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits Ă  minima et qui se rĂ©duisent, ce sont partout des procĂ©dures Ă  rallonge, oĂč aucune instruction n’est disponible dans un dĂ©lai “normal”. Ce sont enfin une suspicion et une persĂ©cution systĂ©matique. L’ensemble produit un empĂȘchement organisĂ© qui a pour but de diminuer l’accĂšs au droit, d’entraver la rĂ©gularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontĂ©s Ă  des pratiques problĂ©matiques, mais des pratiques systĂ©miques qui finissent par faire modĂšle. 

Indisponibilité et lenteur systémique

France, Terre d’écueils dĂ©crit d’abord des chaĂźnes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur Ă  l’absurditĂ© qui nous saisit face Ă  la dĂ©shumanisation des Ă©trangers dans les parcours d’accĂšs aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilitĂ© d’un service : service tĂ©lĂ©phonique qui ne rĂ©pond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dĂ©pĂŽts sans rĂ©cĂ©pissĂ©s, dossier auquel il n’est pas possible d’accĂ©der ou de mettre Ă  jour
 Autant de pratiques qui sont lĂ  pour faire patienter c’est-Ă -dire pour dĂ©courager
 et qui nĂ©cessitent de connaĂźtre les mesures de contournements qui ne sont pas dans la procĂ©dure officielle donc, comme de documenter l’indisponibilitĂ© d’un site par la prise de capture d’écran rĂ©pĂ©tĂ©e, permettant de faire un recours administratif pour obliger le service Ă  proposer un rendez-vous Ă  un requĂ©rant. 

Toutes les procĂ©dures que l’avocate dĂ©crit sont interminables. Toutes oeuvrent Ă  dĂ©courager comme si ce dĂ©couragement Ă©tait le seul moyen pour dĂ©sengorger des services partout incapables de rĂ©pondre Ă  l’afflux des demandes. Si tout est kafkaĂŻen dans ce qui est dĂ©crit ici, on est surtout marquĂ© par la terrible lenteur des procĂ©dures, rallongĂ©es de recours eux-mĂȘmes interminables. Par exemple, l’Ofpra (Office Français de Protection des RĂ©fugiĂ©s et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procĂ©dure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 Ă  24 mois Ă  réétudier un dossier. Quand un ressortissant Ă©tranger obtient le statut de rĂ©fugiĂ©, il devrait obtenir un titre de sĂ©jour dans les 3 mois. En rĂ©alitĂ©, les cartes de sĂ©jour et les actes d’état civils mettent de longs mois Ă  ĂȘtre produits (douze mois en moyenne) ce qui prive les Ă©trangers de nombreux droits sociaux, comme de pouvoir s’inscrire Ă  France Travail ou de bĂ©nĂ©ficier des allocations familiales, du droit du travail. MĂȘme constat Ă  l’AES (admission exceptionnelle au sĂ©jour). Depuis 2023, la demande d’AES se fait en ligne et consiste Ă  enregistrer quelques documents pour amorcer la procĂ©dure. Mais les prĂ©fectures ne font de retour que 6 mois aprĂšs le dĂ©pĂŽt de la demande. Un rendez-vous n’est proposĂ© bien souvent qu’encore une annĂ©e plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour dĂ©poser un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter Ă  minima 3 Ă  4 annĂ©es pour une demande de rĂ©gularisation ! Sans compter qu’en cas de refus (ce qui est plutĂŽt majoritairement le cas), il faut ajouter la durĂ©e de la procĂ©dure de recours au tribunal administratif. MĂȘme chose en cas de refus de visa injustifiĂ©, qui nĂ©cessite plus de 2 ans de procĂ©dure pour obtenir concrĂštement le papier permettant de revenir en France. 

C’est un peu comme s’il fallait patienter des annĂ©es pour obtenir un rendez-vous chez un dermatologue pour vĂ©rifier un grain de beautĂ© inquiĂ©tant ou plusieurs mois pour obtenir des papiers d’identitĂ©. Dans le domaine du droit des Ă©trangers, la dĂ©gradation des services publics semble seulement plus prononcĂ©e qu’ailleurs.

Droits minimaux et décisions discrétionnaires

Le dysfonctionnement que dĂ©crit l’avocate n’est pas qu’administratif, il est Ă©galement juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procĂ©dure d’appel, qui est pourtant une garantie simple et forte d’une justice Ă©quitable. Les demandeurs ayant Ă©tĂ© refusĂ©s peuvent demander un rĂ©examen qui a souvent lieu dans le cadre de procĂ©dures « accĂ©lĂ©rĂ©es Â». Mais cette accĂ©lĂ©ration lĂ  ne consiste pas Ă  aller plus vite, elle signifie seulement que la dĂ©cision sera prise par un juge unique, et donc, potentiellement, moins Ă©quitable.

L’admission exceptionnelle au sĂ©jour (AES), autre possibilitĂ© pour obtenir une naturalisation, nĂ©cessite elle de faire une demande Ă  la prĂ©fecture de son domicile. MĂȘme si cette admission est bornĂ©e de conditions concrĂštes trĂšs lourdes (promesse d’embauche, prĂ©sence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans
), le prĂ©fet exerce ici une compĂ©tence discrĂ©tionnaire, puisqu’il Ă©value seul les demandes. « En matiĂšre de naturalisation, l’administration a un trĂšs large pouvoir d’apprĂ©ciation Â», souligne l’avocate. MĂȘme constat quant aux demandes de naturalisation, tout aussi compliquĂ©es que les autres demandes. L’entretien de naturalisation par exemple, qu’avait Ă©tudiĂ© le sociologue Abdellali Hajjat dans son livre, Les frontiĂšres de l’identitĂ© nationale, a tout d’une sinĂ©cure. Il consiste en un entretien discrĂ©tionnaire, sans procĂšs verbal ni enregistrement, sans programme pour se prĂ©parer Ă  y rĂ©pondre. Ce n’est pas qu’un test de culture gĂ©nĂ©ral d’ailleurs auquel nombre de Français auraient du mal Ă  rĂ©pondre, puisque de nombreuses questions ne relĂšvent pas d’un QCM, mais sont apprĂ©ciatives. Il n’y a mĂȘme pas de score minimal Ă  obtenir, comme ce peut-ĂȘtre le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez rĂ©pondre juste aux questions
 et ĂȘtre refusĂ©.

Suspicion, persĂ©cution et empĂȘchement systĂ©matiques

Le fait de chercher Ă  empĂȘcher les demandeurs d’asile d’accĂ©der Ă  un travail (en janvier 2024, une loi anti-immigration, une de plus, est mĂȘme venue interdire Ă  ceux qui ne disposent pas de titre de sĂ©jour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coĂ»ts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux Ă©trangers prĂ©sents sur le territoire. Et ce alors que 90% des personnes en situation irrĂ©guliĂšre travaillent quand mĂȘme, comme le souligne France StratĂ©gies dans son rapport sur l’impact de l’immigration sur le marchĂ© du travail. En fait, en les empĂȘchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de sĂ©jour d’un tiers, Ă  qui seront adressĂ©s les bulletins de salaires. Tiers qui prĂ©lĂšvent une commission de 30 Ă  50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.

Parce que le lien de paternitĂ© ou de maternitĂ© créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systĂ©matique quand elle Ă©tait avant un signe d’intĂ©gration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. EnquĂȘtes intrusives, abusives, surveillance policiĂšre, maires qui s’opposent aux unions (sans en avoir le droit)
 Alors qu’on ne comptait que 345 mariages annulĂ©s en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pĂ©nales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les dĂ©faillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire Ă  tous que ce sont les individus qui sont coupables des lacunes de l’administration française. 

Une politique du non accueil perdu dans ses amalgames

France, terre d’écueils, nous montre le parcours du combattant que reprĂ©sente partout la demande Ă  acquĂ©rir la nationalitĂ©. L’ouvrage nous montre ce que la France impose Ă  ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte. 

Ces dĂ©rives juridiques et administratives sont nĂ©es de l’amalgame sans cesse renouvelĂ© Ă  nous faire confondre immigration et dĂ©linquance. C’est ce que symbolise aujourd’hui le dĂ©lires sur les OQTF. L’OQTF est une dĂ©cision administrative prise par les prĂ©fectures Ă  l’encontre d’un Ă©tranger en situation irrĂ©guliĂšre, lui imposant un dĂ©part avec ou sans dĂ©lai. Or, contrairement Ă  ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majoritĂ© des personnes frappĂ©es par des OQTF ne sont coupables d’aucun dĂ©lit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffrĂ©. Les prĂ©fectures les dĂ©multiplent alors qu’elles sont trĂšs souvent annulĂ©es par les tribunaux. La France en Ă©met plus de 100 000 par an et en exĂ©cute moins de 7000. Elle Ă©met 30% des OQTF de toute l’Europe. Les services prĂ©fectoraux dĂ©diĂ©s sont surchargĂ©s et commettent des “erreurs de droit” comme le dit trĂšs pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrĂ©guliĂšre. Le contentieux des Ă©trangers reprĂ©sente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants Ă©trangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulĂ©es, nombre d’autres ne peuvent pas ĂȘtre exĂ©cutĂ©es. Peut-on sortir de cette spirale inutile, se demande l’avocate ?

Nous misons dĂ©sormais bien plus sur une fausse sĂ©curitĂ© que sur la sĂ»retĂ©. La sĂ»retĂ©, rappelle l’avocate, c’est la garantie que les libertĂ©s individuelles soient respectĂ©es, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sĂ»retĂ© nous garantit une administration Ă©quitable et juste. C’est elle que nous perdons en nous enfermant dans un dĂ©lire sĂ©curitaire qui a perdu contact avec la rĂ©alitĂ©. Les tĂ©moignages que livre Marianne Leloup-Dassonville montrent des personnes plutĂŽt privilĂ©giĂ©es, traumatisĂ©es par leurs rapports Ă  l’administration française. Les Ă©trangers sont partout assimilĂ©s Ă  des dĂ©linquants comme les bĂ©nĂ©ficiaires de droits sociaux sont assimilĂ©s Ă  des fraudeurs.

A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour Ă©viter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons rĂ©affirmer que l’administration ne peut se substituer nulle part Ă  la justice, car c’est assurĂ©ment par ce glissement lĂ  qu’on entraĂźne tous les autres. 

Hubert Guillaud

PS : Au Royaume-Uni, le ministĂšre de l’intĂ©rieur souhaite introduire deux outils d’IA dans les processus de dĂ©cisions de demande d’asile d’aprĂšs une Ă©tude pilote : une pour rĂ©sumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer lĂ -bas, la boĂźte noire des dĂ©cisions, au prĂ©texte d’amĂ©liorer « la vitesse Â» de dĂ©cision plutĂŽt que leur qualitĂ©, comme le souligne une Ă©tude critique. Comme quoi, on peut toujours imaginer pire pour encore dĂ©grader ce qui l’est dĂ©jĂ  considĂ©rablement.

MAJ du 23/05/2025 : L’extension des prĂ©rogatives de l’administration au dĂ©triment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertĂ©s individuelles, Ă  un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.

  • ✇Dans les algorithmes
  • Regouverner la monĂ©tisation ?
    Pour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut rĂ©guler les programmes de monĂ©tisation de contenus que proposent dĂ©sormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont Ă©tĂ© créés en 2025 seulement. Ces modĂšles de redistribution des revenus sont souvent trĂšs simples : plus le nombre de vues et d’engagements gĂ©nĂ©rĂ©s sont Ă©levĂ©s, plus la plateforme verse d’argent. Or, la communautĂ© de la rĂ©gul
     

Regouverner la monétisation ?

21 mai 2025 Ă  01:00

Pour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut rĂ©guler les programmes de monĂ©tisation de contenus que proposent dĂ©sormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont Ă©tĂ© créés en 2025 seulement. Ces modĂšles de redistribution des revenus sont souvent trĂšs simples : plus le nombre de vues et d’engagements gĂ©nĂ©rĂ©s sont Ă©levĂ©s, plus la plateforme verse d’argent. Or, la communautĂ© de la rĂ©gulation s’est beaucoup intĂ©ressĂ©e Ă  la modĂ©ration des contenus, aux recommandations publicitaires, aux problĂšmes que posent l’amplification algorithmique, mais elle s’est peu penchĂ©e sur la « gouvernance de leur monĂ©tisation », c’est-Ă -dire Ă  la façon dont les plateformes redistribuent l’argent et Ă  la maniĂšre dont leurs dĂ©cisions de monĂ©tisation Â« façonnent in fine l’environnement informationnel ».

Dans un rapport consacrĂ© au sujet, What to Fix estime que Â« les plateformes de mĂ©dias sociaux ont redistribuĂ© plus de 20 milliards de dollars de leurs revenus Ă  plus de 6 millions de comptes l’annĂ©e derniĂšre ». Â« Et pourtant, nous ignorons qui les plateformes ont payĂ©, combien elles ont payĂ©, ni pour quel contenu ! », rappelle Victoire Rio. L’enjeu n’est pas que cette redistribution n’ait pas lieu, bien au contraire, prĂ©cise-t-elle : Â« Ce qui m’inquiĂšte, c’est de laisser les dĂ©cisions de redistribution des revenus aux plateformes de mĂ©dias sociaux, sans transparence ni contrĂŽle ». Et notamment, le fait que ces revenus bĂ©nĂ©ficient de plus en plus Ă  des acteurs de la dĂ©sinformation ou encore le fait que ces financements puissent ĂȘtre coupĂ©s unilatĂ©ralement pour nombre d’acteurs lĂ©gitimes, avec des recours limitĂ©s et sans compensation pour les pertes de revenus associĂ©es. Or, ni le DSA europĂ©en, ni le Online Safety Act britannique, n’abordent clairement les systĂšmes de monĂ©tisation des plateformes comme un vecteur de risque. LĂ  encore, la transparence des modalitĂ©s de reversement est en cause, accuse Victoire Rio, qui souhaite que nous considĂ©rions les modalitĂ©s de monĂ©tisation comme un enjeu spĂ©cifique, c’est-Ă -dire un enjeu de rĂ©gulation.

Cette brÚve est parue originellement dans la lettre du Conseil national du numérique du 7 mai 2025.

  • ✇Dans les algorithmes
  • Pascal Chabot : CoincĂ©s dans les digitoses
    Pascal Chabot est philosophe et enseigne Ă  l’Institut des hautes Ă©tudes des communications sociales Ă  Bruxelles. Son plus rĂ©cent ouvrage, Un sens Ă  la vie : enquĂȘte philosophique sur l’essentiel (PUF, 2024) fait suite Ă  une riche production de livres, oĂč la question du numĂ©rique est toujours prĂ©sente, lancinante, quand elle n’est pas au cƓur de sa rĂ©flexion. L’occasion de revenir avec lui sur comment les enjeux numĂ©riques d’aujourd’hui questionnent la philosophie. Entretien. Dans les algorith
     

Pascal Chabot : Coincés dans les digitoses

20 mai 2025 Ă  01:00

Pascal Chabot est philosophe et enseigne Ă  l’Institut des hautes Ă©tudes des communications sociales Ă  Bruxelles. Son plus rĂ©cent ouvrage, Un sens Ă  la vie : enquĂȘte philosophique sur l’essentiel (PUF, 2024) fait suite Ă  une riche production de livres, oĂč la question du numĂ©rique est toujours prĂ©sente, lancinante, quand elle n’est pas au cƓur de sa rĂ©flexion. L’occasion de revenir avec lui sur comment les enjeux numĂ©riques d’aujourd’hui questionnent la philosophie. Entretien.

Dans les algorithmes : Dans votre dernier livre, Un sens Ă  la vie, vous vous interrogez sur le meaning washing, c’est Ă  la dire Ă  la fois sur la perte de sens de nos sociĂ©tĂ©s contemporaines et leur rĂ©cupĂ©ration, par exemple par le consumĂ©risme qui nous invite Ă  consommer pour donner du sens Ă  l’existence. Pour vous, notre monde contemporain est saisi d’une “dissonance majeure”, oĂč les sources de sens s’éloignent de nous du fait du dĂ©veloppement d’environnements entiĂšrement artificiels, du monde physique comme du monde numĂ©rique. 

Couverture du livre de Pascal Chabot, Un sens Ă  la vie.

Vous interrogez cette perte de sens ou notre difficultĂ©, frĂ©quente, Ă  retrouver du sens dans les contradictions de la modernitĂ©. Retrouver le sens nĂ©cessite de trouver comment circuler entre les sensations, les significations et les orientations, expliquez-vous, c’est-Ă -dire Ă  trouver des formes de circulations entre ce que l’on ressent, ce qu’on en comprend et lĂ  oĂč l’on souhaite aller. “Vivre, c’est faire circuler du sens”, le dĂ©sirer, se le rĂ©approprier. Mais le sens que tout Ă  chacun cherche est aujourd’hui bouleversĂ© par le numĂ©rique. Le sens “est transformĂ© par les modalitĂ©s de sa transmission” dites-vous. En quoi ces nouvelles modalitĂ©s de transmission modifient-elles notre comprĂ©hension mĂȘme du monde ?  

Pascal Chabot : Une chose qui m’intĂ©resse beaucoup en philosophie, c’est de comprendre comment des questions, anciennes, traditionnelles, sont Ă  la fois toujours actuelles et bouleversĂ©es par ce que nous vivons. Par rapport Ă  la question du sens, qui est un accord entre ce que l’on sent, ce que l’on comprend et ce que l’on devient, les choses ont peu bougĂ©. Un ancien grec ou un humaniste de la Renaissance auraient pu faire des constats sur le sens de la vie proches des miens, pour peu qu’ils aient Ă©tĂ© en dehors des trĂšs grands rĂ©cits de transcendance qui s’imposaient alors, oĂč le sens est donnĂ© par Dieu ou le Salut, c’est Ă  dire oĂč le sens a un nom avec une majuscule. Cette façon de faire circuler du sens dans nos vies, on la partage avec nos lointains prĂ©dĂ©cesseurs dans l’histoire de la philosophie. Il y a une lignĂ©e humaine dans laquelle nous sommes chacun profondĂ©ment inscrits. 

Cela Ă©tant, aprĂšs avoir dit la continuitĂ©, il faut penser la rupture. Et la rupture, selon moi, elle est dans le branchement de nos consciences Ă  ce que j’appelle le surconscient numĂ©rique. La conscience, telle qu’elle est ordinairement dĂ©finie Ă  partir du XXe siĂšcle et bien sĂ»r de Freud, est toujours couplĂ©e Ă  son inconscient. Cette dĂ©couverte, d’un enrichissement inĂ©dit, mĂȘme si l’on ne sait pas toujours trĂšs bien ce qu’est l’inconscient, est restĂ©e d’une grande originalitĂ©, en apportant ce binĂŽme conscience-inconscience qui permet d’enrichir notre comprĂ©hension de la pensĂ©e, en accord avec une nature humaine profonde, allant des grands mythes freudiens Ă  la nature, dans lesquels notre inconscient peut s’exprimer, que ce soit via la sexualitĂ© ou la contemplation. Ce binĂŽme a permis de crĂ©er des sens nouveaux. Cependant, je crois qu’on est de plus en plus dĂ©branchĂ©s de notre inconscient. C’est pourquoi une partie de la psychiatrie et de la psychanalyse ont un mal fou Ă  comprendre ce qu’il se passe avec les nouvelles pathologies. En revanche, on est beaucoup plus branchĂ©, on fait couple, avec ce surconscient auquel on a accĂšs dĂšs qu’on fait le geste de consulter un Ă©cran. Ce mot surconscient, créé par analogie avec l’inconscient, est un mot assez large qui dĂ©signe pour moi un rĂ©seau, un dĂŽme d’information, de communication, de protocoles d’échanges, d’images, qui a une certaine conscience. Une conscience relative comme l’inconscient a lui-mĂȘme une conscience relative. Ce n’est pas une conscience en terme de « JE Â», mais de « NOUS Â». C’est un savoir exploitable par la conscience et l’inconscient et qui est de plus en plus dĂ©terminant sur notre conscience comme sur notre inconscient. 

Dans les algorithmes : Mais on pourrait dire que ce surconscient existait avant le numĂ©rique, non ? Des grands rĂ©cits Ă  la presse, toutes nos formes mĂ©diatiques et culturelles y participaient. Pourquoi le numĂ©rique modifierait-il particuliĂšrement ce rapport ?  

Pascal Chabot : Oui, toute Ɠuvre culturelle, de la presse Ă  la littĂ©rature, crĂ©e des bulles de signification, un cadre de signification, avec lequel nous sommes en dialogue. La graphosphĂšre, comme on l’a parfois appelĂ©, existe. Mais la grande diffĂ©rence, c’est que le monde numĂ©rique propose un monde oĂč les significations ont une vie propre. Ce que TolstoĂŻ a Ă©crit par exemple, a Ă©tĂ© Ă©crit une fois pour toute. On se rĂ©fĂšre Ă  Guerre et Paix Ă  partir des significations qui ont Ă©tĂ© donnĂ©es depuis un Ă©crit stabilisĂ©. Si Guerre et Paix continue Ă  vivre, c’est par l’acte d’enrichissement du livre dans notre imagination, dans nos souvenirs, dans notre mĂ©moire. Dans le monde du surconscient numĂ©rique, il n’y a pas d’inertie. Les informations sont modifiĂ©es, mises Ă  jour, rĂ©pĂ©tĂ©es, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation lĂ  est assez spĂ©cifique, centrĂ©e sur les personnes, calibrĂ©e pour chacun d’entre nous. 

Cette personnalisation est une caractĂ©ristique importante. Il y en a une autre, celle du temps. Quand on se rĂ©fĂšre Ă  un livre Ă©crit Ă  la fin du XIXe siĂšcle, on fait venir dans le temps prĂ©sent un objet du passĂ©. La sphĂšre numĂ©rique est caractĂ©risĂ©e par un temps nouveau, comme je l’évoquais dans Avoir le temps, oĂč j’essayais de dire, qu’il y a eu deux grands temps. Le temps comme destin, c’est le temps de la nature, et le temps du progrĂšs, celui de la construction d’un monde commun. Dans le numĂ©rique on vit un hypertemps. Un temps de synchronisation permanente. Un temps oĂč la nouveautĂ© est tout le temps prĂ©sente. Un temps dĂ©comptĂ©, Ă  rebours. Le temps du surconscient est aussi cet hypertemps. On est de moins en moins dans l’espace et de plus en plus dans des bulles temporelles qui s’ouvrent notamment quand on est dans la consommation de l’écran, oĂč l’on se branche Ă  un hypertemps commun. 

« Dans le monde du surconscient numĂ©rique, il n’y a pas d’inertie. Les informations sont modifiĂ©es, mises Ă  jour, rĂ©pĂ©tĂ©es, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation lĂ  est assez spĂ©cifique, centrĂ©e sur les personnes, calibrĂ©e pour chacun d’entre nous. Â»

Dans les algorithmes : Cette consommation d’écran, ce pas de cĂŽtĂ© dans nos rĂ©alitĂ©s, nĂ©cessite de « faire le geste Â» dites-vous, c’est-Ă -dire d’ouvrir son smartphone. Geste que nous faisons des centaines de fois par jour. « Nous passons nos vies Ă  caresser une vitre Â», ironise l’écrivain Alain Damasio. C’est consulter, nous brancher en permanence, dans un geste qui est dĂ©sormais si prĂ©sent dans notre quotidien, qu’il ne semble nullement le perturber, alors qu’il l’entrecoupe sans arrĂȘt. Or, ce geste nous coupe de nos environnements. Il rĂ©duit nos sensations, limite nos orientations
 Comme si ce geste Ă©tait le symptĂŽme de notre envahissement par ce surconscient
 

Pascal Chabot : C’est effectivement sa matĂ©rialisation. C’est par ce geste que le surconscient colonise nos consciences. On dit beaucoup qu’on vit une mutation anthropologique majeure, mais elle est orchestrĂ©e par des ultraforces, c’est-Ă -dire des moyens qui ne sont pas une fin mais une force en soi, comme le sont la finance ou le numĂ©rique. « Faire le geste Â» nous fait changer de rĂ©alitĂ©, nous fait muter, nous fait passer dans un autre monde. Un monde trĂšs libidinal, un monde qui sait nos intentions, qui satisfait nos dĂ©sirs. Un monde qui nous rend captif mais qui nous permet surtout de quitter une rĂ©alitĂ© qui nous apparaĂźt de moins en moins satisfaisante. Le rapport au prĂ©sent, Ă  la matĂ©rialitĂ©, nous apparaĂźt dĂ©sormais plus pauvre que le voyage dans le surconscient de l’humanitĂ©. La plupart d’entre nous sommes devenus incapables de rester 5 minutes sans « faire le geste Â». Toute addiction est aphrodisiaque : elle nous promet un dĂ©sir qu’on ne peut plus avoir ailleurs. Comme si notre conscience et notre inconscient ne nous suffisaient plus. 

Dans les algorithmes : Vous reconnaissez pourtant que ce surconscient a des vertus : « il fait exploser nos comprĂ©hensions Â», dites-vous. Vous expliquez que le rendement informationnel du temps que l’on passe sur son smartphone – diffĂ©rent de son impact intellectuel ou affectif – est bien supĂ©rieur Ă  la lecture d’un livre ou mĂȘme d’un dialogue avec un collĂšgue. Que notre connexion au rĂ©seau permet de zoomer et dĂ©zoomer en continue, comme disait le sociologue Dominique Cardon, nous permet d’aller du micro au macro. Nous sommes plongĂ©s dans un flux continu de signifiants. “Les sensations s’atrophient, les significations s’hypertrophient. Quant aux orientations, en se multipliant et se complexifiant, elles ouvrent sur des mondes labyrinthiques” qui se reconfigurent selon nos circulations. Nous sommes plongĂ©s dans un surconscient tentaculaire qui vient inhiber notre inconscient et notre conscience. Ce surconscient perturbe certes la circulation du sens. Mais nos Ă©crans ne cessent de produire du sens en permanence


Pascal Chabot : Oui, mais ce surconscient apporte de l’information, plus que du sens. Je parle bien de rendement informationnel. Quand les livres permettent eux de dĂ©ployer l’imagination, la crĂ©ativitĂ©, la sensibilitĂ©, l’émotivité  de les ancrer dans nos corps, de dialoguer avec l’inconscient. En revanche, ce que nous offre le surconscient en terme quantitatif, en prĂ©cision, en justesse est indĂ©niable. Comme beaucoup, j’ai mutĂ© des mondes de la bibliothĂšque au monde du surconscient. Il Ă©tait souvent difficile de retrouver une information dans le monde des livres. Alors que le surconscient, lui, est un monde sous la main. Nous avons un accĂšs de plus en plus direct Ă  l’information. Et celle-ci se rapproche toujours plus de notre conscience, notamment avec ChatGPT. La recherche Google nous ouvrait une forme d’arborescence dans laquelle nous devions encore choisir oĂč aller. Avec les chatbots, l’information arrive Ă  nous de maniĂšre plus directe encore. 

Mais l’information n’est ni le savoir ni la sagesse et sĂ»rement pas le sens. 

Dans les algorithmes : Vous dites d’ailleurs que nous sommes entrĂ©s dans des sociĂ©tĂ©s de la question aprĂšs avoir Ă©tĂ© des sociĂ©tĂ©s de la rĂ©ponse. Nous sommes en train de passer de la rĂ©ponse qu’apporte un article de WikipĂ©dia, Ă  une sociĂ©tĂ© de l’invite, Ă  l’image de l’interface des chatbots qui nous envahissent, et qui nous invitent justement Ă  poser des questions – sans nĂ©cessairement en lire les rĂ©ponses d’ailleurs. Est-ce vraiment une sociĂ©tĂ© de la question, de l’interrogation, quand, en fait, les rĂ©ponses deviennent sans importance ? 

Pascal Chabot : Quand j’évoque les sociĂ©tĂ©s de la question et de la rĂ©ponse, j’évoque les sociĂ©tĂ©s modernes du XVIIe et du XVIIIe siĂšcle, des sociĂ©tĂ©s oĂč certaines choses ne s’interrogent pas, parce qu’il y a des rĂ©ponses partout. La question du sens ne hante pas les grands penseurs de cette Ă©poque car pour eux, le sens est donnĂ©. Les sociĂ©tĂ©s de la question naissent de la mort de Dieu, de la perte de la transcendance et du fait qu’on n’écrit plus le sens en majuscule. Ce sont des sociĂ©tĂ©s de l’inquiĂ©tude et du questionnement. La question du sens de la vie est une question assez contemporaine finalement. C’est Nietzsche qui est un des premiers Ă  la poser sous cette forme lĂ . 

Dans la sociĂ©tĂ© de la question dans laquelle nous entrons, on interroge les choses, le sens
 Mais les rĂ©ponses qui nous sont faites restent dĂ©sincanĂ©es. Or, pour que le sens soit prĂ©sent dans une existence, il faut qu’il y ait un enracinement, une incarnation
 Il faut que le corps soit lĂ  pour que la signification soit comprise. Il faut une parole et pas seulement une information. De mĂȘme, l’orientation, le chemin et son caractĂšre initiatique comme dĂ©routant, produisent du sens. 

Mais, si nous le vivons ainsi c’est parce que nous avons vĂ©cu dans un monde de sensation, de signification et d’orientation relativement classique. Les plus jeunes n’ont pas nĂ©cessairement ces rĂ©flexes. Certains sont dĂ©jĂ  couplĂ©s aux outils d’IA gĂ©nĂ©rative qui leurs servent de coach particuliers en continue
 C’est un autre rapport au savoir qui arrive pour une gĂ©nĂ©ration qui n’a pas le rapport au savoir que nous avons construit. 

Dans les algorithmes : Vous expliquez que cette extension du surconscient produit des pathologies que vous qualifiez de digitoses, pour parler d’un conflit entre la conscience et le surconscient. Mais pourquoi parlez-vous de digitose plutĂŽt que de nouvelles nĂ©vroses ou de nouvelles psychoses ? 

Pascal Chabot : Quand j’ai travaillĂ© sur la question du burn-out, j’ai pu constater que le domaine de la santĂ© mentale devait Ă©voluer. Les concepts classiques, de nĂ©vrose ou de psychose, n’étaient plus opĂ©rants pour dĂ©crire ces nouvelles afflictions. Nous avions des notions orphelines d’une thĂ©orie plus englobante. Le burn-out ou l’éco-anxiĂ©tĂ© ne sont ni des nĂ©vroses ni des psychoses. Pour moi, la santĂ© mentale avait besoin d’un aggiornamento, d’une mise Ă  jour. J’ai cherchĂ© des analogies entre inconscient et surconscient, le ça, le lĂ , le refoulement et le dĂ©foulement
 J’ai d’abord trouvĂ© le terme de numĂ©rose avant de lui prĂ©fĂ©rĂ© le terme de digitose en rĂ©fĂ©rence au digital plus qu’au numĂ©rique. C’est un terme qui par son suffixe en tout cas ajoute un penchant pathologique au digital. Peu Ă  peu, les digitoses se sont structurĂ©es en plusieurs familles : les digitoses de scission, d’avenir, de rivalité  qui m’ont permis de crĂ©er une typologie des problĂšmes liĂ©s Ă  un rapport effrĂ©nĂ© ou sans conscience au numĂ©rique qui gĂ©nĂšre de nouveaux types de pathologies. 

Dans les algorithmes : Le terme de digitose, plus que le lien avec le surconscient, n’accuse-t-il pas plus le messager que le message ? Sur l’éco-anxiĂ©tĂ©, l’information que l’on obtient via le numĂ©rique peut nous amener Ă  cette nouvelle forme d’inquiĂ©tude sourde vis Ă  vis du futur, mais on peut ĂȘtre Ă©co-anxieux sans ĂȘtre connectĂ©. Or, dans votre typologie des digitoses, c’est toujours le rapport au numĂ©rique qui semble mis au banc des accusĂ©s
 

Pascal Chabot : Je ne voudrais pas donner l’impression que je confond le thermomĂštre et la maladie effectivement. Mais, quand mĂȘme : le mĂ©dia est le message. Ce genre de pathologies lĂ , qui concernent notre rapport au rĂ©el, arrivent dans un monde oĂč le rĂ©el est connu et transformĂ© par le numĂ©rique. Pour prendre l’exemple de l’éco-anxiĂ©tĂ©, on pourrait tout Ă  fait faire remarquer qu’elle a existĂ© avant internet. Le livre de Rachel Carson, Le printemps silencieux, par exemple, date des annĂ©es 60. 

Mais, ce qui est propre au monde numĂ©rique est qu’il a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas. L’avenir a toujours Ă©tĂ© le lieu de l’opacitĂ©, comblĂ© par de grands rĂ©cits mythiques ou apocalyptiques. Aujourd’hui, l’apport informationnel majeur du numĂ©rique, permet d’avoir pour chaque rĂ©alitĂ© un ensemble de statistiques prospectives extrĂȘmement fiables. On peut trouver comment vont Ă©voluer les populations d’insectes, la fonte des glaciers, les tempĂ©ratures globales comme locales
 Ce n’est pas uniquement le mĂ©dia numĂ©rique qui est mobilisĂ© ici, mais la science, la technoscience, les calculateurs
 c’est-Ă -dire la forme contemporaine du savoir. Les rapports du Giec en sont une parfaite illustration. Ils sont des Ă©ventails de scĂ©narios chiffrĂ©s, sourcĂ©s, documentĂ©s
 assortis de probabilitĂ©s et validĂ©s collectivement. Ils font partie du surconscient, du dĂŽme de savoir dans lequel nous Ă©voluons et qui Ă©tend sa chape d’inquiĂ©tude et de soucis sur nos consciences. L’éco-anxiĂ©tĂ© est une digitose parce que c’est le branchement Ă  ce surconscient lĂ  qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numĂ©rique est le vecteur. 

« Le numĂ©rique a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas Â»

Dans les algorithmes : Ce n’est pas le fait que ce soit numĂ©rique, c’est ce que ce branchement transforme en nous
 

Pascal Chabot : Oui, c’est la mĂȘme chose dans le monde du travail, par rapport Ă  la question du burn-out
 Nombre de burn-out sont liĂ©s Ă  des facteurs extra-numĂ©riques qui vont des patrons chiants, aux collĂšgues toxiques
 et qui ont toujours existĂ©, hĂ©las. Mais dans la structure contemporaine du travail, dans son exigence, dans ce que les algorithmes font de notre rapport au systĂšme, au travail, Ă  la sociĂ©té  ces nouveaux branchements, ce reporting constant, cette normalisation du travail
 renforcent encore les souffrances que nous endurons. 

« L’éco-anxiĂ©tĂ© est une digitose parce que c’est le branchement Ă  ce surconscient lĂ  qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numĂ©rique est le vecteur. Â»

Dans les algorithmes : Outre la digitose de scission (le burn-out), et la digitose d’avenir (l’éco-anxiĂ©tĂ©) dont vous nous avez parlĂ©, vous Ă©voquez aussi la digitose de rivalitĂ©, celle de notre confrontation Ă  l’IA et de notre devenir machine. Expliquez-nous !

Pascal Chabot : Il faut partir de l’écriture pour la comprendre. Ce que l’on dĂ©lĂšgue Ă  un chatbot, c’est de l’écriture. Bien sĂ»r, elles peuvent gĂ©nĂ©rer bien d’autres choses, mais ce sont d’abord des machines qui ont appris Ă  aligner des termes en suivant les grammaires pour produire des rĂ©ponses sensĂ©es, c’est-Ă -dire qui font sens pour quelqu’un qui les lit. Ce qui est tout Ă  fait perturbant, c’est que de cette sorte de graphogenĂšse, de genĂšse du langage graphique, naĂźt quelque chose comme une psychogenĂšse. C’est simplement le bon alignement de termes qui rĂ©pond Ă  telle ou telle question qui nous donne l’impression d’une intentionnalitĂ©. Depuis que l’humanitĂ© est l’humanitĂ©, un terme Ă©crit nous dit qu’il a Ă©tĂ© pensĂ© par un autre. Notre rapport au signe attribue toujours une paternitĂ©. L’humanitĂ© a Ă©tĂ© créée par les Ecritures. Les sociĂ©tĂ©s religieuses, celles des grands monothĂ©ismes, sont des sociĂ©tĂ©s du livre. Être en train de dĂ©lĂ©guer l’écriture Ă  des machines qui le feront de plus en plus correctement, est quelque chose d’absolument subjuguant. Le problĂšme, c’est que l’humain est paresseux et que nous risquons de prendre cette voie facile. Nos consciences sont pourtant nĂ©es de l’écriture. Et voilĂ  que dĂ©sormais, elles se font Ă©crire par des machines qui appartiennent Ă  des ultraforces qui ont, elles, des visĂ©es politiques et Ă©conomiques. Politique, car Ă©crire la rĂ©ponse Ă  la question « la dĂ©mocratie est-elle un bon rĂ©gime ? Â» dĂ©pendra de qui relĂšvent de ces ultraforces. Économique, comme je m’en amusait dans L’homme qui voulait acheter le langage
 car l’accĂšs Ă  ChatGPT est dĂ©jĂ  payant et on peut imaginer que les accĂšs Ă  de meilleures versions demain, pourraient ĂȘtre plus chĂšres encore. La capitalisme linguistique va continuer Ă  se dĂ©velopper. L’écriture, qui a Ă©tĂ© un outil d’émancipation dĂ©mocratique sans commune mesure (car apprendre Ă  Ă©crire a toujours Ă©tĂ© le marqueur d’entrĂ©e dans la sociĂ©tĂ©), risque de se transformer en simple outil de consommation. Outre la rivalitĂ© existentielle de l’IA qui vient dĂ©valuer notre intelligence, les impacts politiques et Ă©conomiques ne font que commencer. Pour moi, il y dans ce nouveau rapport quelque chose de l’ordre de la dĂ©possession, d’une dĂ©possession trĂšs trĂšs profonde de notre humanitĂ©. 

Dans les algorithmes : Ecrire, c’est penser. Être dĂ©possĂ©der de l’écriture, c’est ĂȘtre dĂ©possĂ©dĂ© de la pensĂ©e.

Pascal Chabot : Oui et cela reste assez vertigineux. Notamment pour ceux qui ont appris Ă  manier l’écriture et la pensĂ©e. Ecrire, c’est s’emparer du langage pour lui injecter un rythme, une stylistique et une heuristique, c’est-Ă -dire un outil de dĂ©couverte, de recherche, qui nous permet de stabiliser nos relations Ă  nous-mĂȘmes, Ă  autrui, au savoir
 Quand on termine un mail, on rĂ©flĂ©chit Ă  la formule qu’on veut adopter en fonction de la relation Ă  l’autre que nous avons
 jusqu’à ce que les machines prennent cela en charge. On a l’impression pour le moment d’ĂȘtre au stade de la rivalitĂ© entre peinture et photographie vers 1885. Souvenons-nous que la photographie a balayĂ© le monde ancien. 

Mais c’est un monde dont il faut reconnaĂźtre aussi les limites et l’obsolescence. Le problĂšme des nouvelles formes qui viennent est que le sens qu’elles proposent est bien trop extĂ©rieur aux individus. On enlĂšve l’individu au sens. On est dans des significations importĂ©es, dans des orientations qui ne sont pas vĂ©cues existentiellement. 

Dans les algorithmes : Pour répondre aux pathologies des digitoses, vous nous invitez à une thérapie de civilisation. De quoi avons-nous besoin pour pouvoir répondre aux digitoses ?

Pascal Chabot : La conscience, le fait d’accompagner en conscience ce que nous faisons change la donne. RĂ©flĂ©chir sur le temps, prendre conscience de notre rapport temporel, change notre rapport au temps. RĂ©flĂ©chir Ă  la question du sens permet de prendre une hauteur et de crĂ©er une sĂ©rie de filtres permettant de distinguer des actions insensĂ©es qui relĂšvent Ă  la fois des grandes transcendance avec une majuscule que des conduites passives face au sens. La thĂ©rapie de la civilisation, n’est rien d’autre que la philosophie. C’est un plaidoyer pro domo ! Mais la philosophie permet de redoubler ce que nous vivons d’une sorte de conscience de ce que nous vivons : la rĂ©flexivitĂ©. Et cette façon de rĂ©flĂ©chir permet d’évaluer et garder vive la question de l’insensĂ©, de l’absurde et donc du sens. 

Dans les algorithmes : Dans ce surconscient qui nous aplatit, comment vous situez-vous face aux injonctions Ă  dĂ©brancher, Ă  ne plus Ă©couter la tĂ©lĂ©vision, la radio, Ă  dĂ©brancher les Ă©crans ? Cela relĂšve d’un levier, du coaching comportemental ou est-ce du meaning washing ?

Pascal Chabot : Je n’y crois pas trop. C’est comme manger des lĂ©gumes ou faire pipi sous la douche. Les mouvements auxquels nous sommes confrontĂ©s sont bien plus profonds. Bien sĂ»r, chacun s’adapte comme il peut. Je ne cherche pas Ă  ĂȘtre jugeant. Mais cela nous rappelle d’ailleurs que la civilisation du livre et de l’écrit a fait beaucoup de dĂ©gĂąts. La conscience nous aide toujours Ă  penser mieux. Rien n’est neutre. ConfrontĂ©s aux ultraforces, on est dans un monde qui dĂ©veloppe des anti-rapports, Ă  la fois des dissonnances, des dĂ©nis ou des esquives pour tenter d’échapper Ă  notre impuissance. 

Dans les algorithmes : Vous ĂȘtes assez alarmiste sur les enjeux civilisationnels de l’intelligence artificielle que vous appelez trĂšs joliment des « communicants artificiels Â». Et de l’autre, vous nous expliquez que ces outils vont continuer la dĂ©mocratisation culturelle Ă  l’Ɠuvre. Vous rappelez d’ailleurs que le protestantisme est nĂ© de la gĂ©nĂ©ralisation de la lecture et vous posez la question : « que naĂźtra-t-il de la gĂ©nĂ©ralisation de l’écriture ? Â» 

Mais est-ce vraiment une gĂ©nĂ©ralisation de l’écriture Ă  laquelle nous assistons ? On parle de l’écriture de et par des machines. Et il n’est pas sĂ»r que ce qu’elles produisent nous pĂ©nĂštrent, nous traversent, nous Ă©mancipent. Finalement, ce qu’elles produisent ne sont que des rĂ©ponses qui ne nous investissent pas nĂ©cessairement. Elles font Ă  notre place. Nous leur dĂ©lĂ©guons non seulement l’écriture, mais Ă©galement la lecture
 au risque d’abandonner les deux. Est-ce que ces outils produisent vraiment une nouvelle dĂ©mocratisation culturelle ? Sommes-nous face Ă  un nouvel outil interculturel ou assistons-nous simplement Ă  une colonisation et une expansion du capitalisme linguistique ?

Pascal Chabot : L’écriture a toujours Ă©tĂ© une sorte de ticket d’entrĂ©e dans la sociĂ©tĂ© et selon les types d’écritures dont on Ă©tait capable, on pouvait pĂ©nĂ©trer dans tel ou tel milieu. L’écriture est trĂšs clairement un marqueur de discrimination sociale. C’est le cas de l’orthographe, trĂšs clairement, qui est la marque de niveaux d’éducation. Mais au-delĂ  de l’orthographe, le fait de pouvoir rĂ©diger un courrier, un CV
 est quelque chose de trĂšs marquĂ© socialement. Dans une formation Ă  l’argumentation dans l’équivalent belge de France Travail, j’ai Ă©tĂ© marquĂ© par le fait que pour les demandeurs d’emploi, l’accĂšs Ă  l’IA leur changeait la vie, leur permettant d’avoir des CV, des lettres de motivation adaptĂ©es. Pour eux, c’était un boulet de ne pas avoir de CV corrects. MĂȘme chose pour les Ă©tudiants. Pour nombre d’entre eux, Ă©crire est un calvaire et ils savent trĂšs bien que c’est ce qu’ils ne savent pas toujours faire correctement. Dans ces nouveaux types de couplage que l’IA permet, branchĂ©s sur un surconscient qui les aide, ils ont accĂšs Ă  une assurance nouvelle. 

Bien sĂ»r, dans cette imitation, personne n’est dupe. Mais nous sommes conditionnĂ©s par une sociĂ©tĂ© qui attribue Ă  l’auteur d’un texte les qualitĂ©s de celui-ci, alors que ses productions ne sont pas que personnelles, elles sont d’abord le produit des classes sociales de leurs auteurs, de la sociĂ©tĂ© dont nous sommes issus. Dans ce nouveau couplage Ă  l’IA, il me semble qu’il y a quelque chose de l’ordre d’une dĂ©mocratisation. 

Dans les algorithmes : Le risque avec l’IA, n’est-il pas aussi, derriĂšre la dĂ©possession de l’écriture, notre dĂ©possession du sens lui-mĂȘme ? Le sens nous est dĂ©sormais imposĂ© par d’autres, par les rĂ©sultats des machines. Ce qui m’interroge beaucoup avec l’IA, c’est cette forme de dĂ©lĂ©gation des significations, leur aplatissement, leur moyennisation. Quand on demande Ă  ces outils de nous reprĂ©senter un mexicain, ils nous livrent l’image d’une personne avec un sombrero ! Or, faire sociĂ©tĂ©, c’est questionner tout le temps les significations pour les changer, les modifier, les faire Ă©voluer. Et lĂ , nous sommes confrontĂ©s Ă  des outils qui les figent, qui excluent ce qui permet de les remettre en cause, ce qui sort de la norme, de la moyenne
 

Pascal Chabot : Oui, nous sommes confrontĂ©s Ă  un « Bon gros bon sens Â» qui n’est pas sans rappeler Le dictionnaire des idĂ©es de reçues de Flaubert
 

Dans les algorithmes : 
mais le dictionnaire des idĂ©es reçues Ă©tait ironique, lui !

Pascal Chabot : Il est ironique parce qu’il a vu l’humour dans le « Bon gros bon sens Â». Dans la sociĂ©tĂ©, les platitudes circulent. C’est la tĂąche de la culture et de la crĂ©ativitĂ© de les dĂ©passer. Car le « Bon gros bon sens Â» est aussi trĂšs politique : il est aussi un sens commun, avec des assurances qui sont rabachĂ©es, des slogans rĂ©pĂ©tĂ©s
. Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est trĂšs loin de ce qui est subtil, de ce qui est fin, polysĂ©mique, ambiguĂ«, plein de doute, raffinĂ©, Ă©trange, surrĂ©aliste
 C’est-Ă -dire tout ce qui fait la vie de la culture. On est plongĂ© dans un pragmatisme anglo-saxon, qui a un rapport au langage trĂšs peu polysĂ©mique d’ailleurs. Le problĂšme, c’est que ce « Bon gros bon sens Â» est beaucoup plus invasif. Il a une force d’autoritĂ©. Le produit de ChatGPT ne nous est-il pas prĂ©sentĂ© d’ailleurs comme un summum de la science ? 

« Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est trĂšs loin de ce qui est subtil, de ce qui est fin, polysĂ©mique, ambiguĂ«, plein de doute, raffinĂ©, Ă©trange, surrĂ©aliste
 C’est-Ă -dire tout ce qui fait la vie de la culture. Â»

Dans les algorithmes : Et en mĂȘme temps, ce calcul laisse bien souvent les gens sans prise, sans moyens d’action individuels comme collectifs. 

Le point commun entre les diffĂ©rentes digitoses que vous listez me semble-t-il est que nous n’avons pas de rĂ©ponses individuelles Ă  leur apporter. Alors que les nĂ©vroses et psychoses nĂ©cessitent notre implication pour ĂȘtre rĂ©parĂ©es. Face aux digitoses, nous n’avons pas de clefs, nous n’avons pas de prises, nous sommes sans moyen d’action individuels comme collectifs. Ne sommes nous pas confrontĂ©s Ă  une surconscience qui nous dĂ©munie ? 

Pascal Chabot : Il est certain que le couplage des consciences au surconscient, en tant qu’elle est un processus de civilisation, apparaĂźt comme un nouveau destin. Il s’impose, pilotĂ© par des ultraforces sur lesquelles nous n’avons pas de prise. En ce sens, il s’agit d’un nouveau destin, avec tout ce que ce terme charrie d’imposition et d’inexorabilitĂ©. 

En tant que les digitoses expriment le versant problĂ©matique de ce nouveau couplage, elles aussi ont quelque chose de fatal. BranchĂ©e Ă  une rĂ©alitĂ© numĂ©rique qui la dĂ©passe et la dĂ©termine, la conscience peine souvent Ă  exprimer sa libertĂ©, qui est pourtant son essence. La rivalitĂ© avec les IA, l’eco-anxiĂ©tĂ©, la scission avec le monde sensible : autant de digitoses qui ont un aspect civilisationnel, presque indĂ©pendant du libre-arbitre individuel. Les seules rĂ©ponses, en l’occurrence, ne peuvent ĂȘtre que politiques. Mais lĂ  aussi, elles ne sont pas faciles Ă  imaginer. 

Or on ne peut pourtant en rester lĂ . Si ce seul aspect nĂ©cessaire existait, toute cette thĂ©orie ne serait qu’une nouvelle formulation de l’aliĂ©nation. Mais les digitoses ont une composante psychologique, de mĂȘme que les nĂ©vroses et psychoses. Cette composante recĂšle aussi des leviers de rĂ©sistance. La prise de conscience, la luciditĂ©, la reappropriation, l’hygiĂšne mentale, une certaine dĂ©sintoxication, le choix de brancher sa conscience sur des rĂ©alitĂ©s extra-numĂ©riques, et tant d’autres stratĂ©gies encore, voire tant d’autres modes de vies, peuvent trĂšs clairement tempĂ©rer l’emprise de ces digitoses sur l’humain. C’est dire que l’individu, face Ă  ce nouveau destin civilisationnel, garde des marges de rĂ©sistance qui, lorsqu’elles deviennent collectives, peuvent ĂȘtre puissantes. 

Les digitoses sont donc un dĂ©fi et un repoussoir  : une occasion de chercher et d’affirmer des libertĂ©s nouvelles dans un monde oĂč s’inventent sous nos yeux de nouveaux dĂ©terminismes. 

Dans les algorithmes : DerriĂšre le surconscient, le risque n’est-il pas que s’impose une forme de sur-autoritĂ©, de sur-vision
 sur lesquelles, il sera difficile de crĂ©er des formes d’échappement, de subtilitĂ©, d’ambiguitĂ©. On a l’impression d’ĂȘtre confrontĂ© Ă  une force politique qui ne dit pas son nom mais qui se donne un nouveau moyen de pouvoir


Pascal Chabot : C’est clair que la question est celle du pouvoir, politique et Ă©conomique. Les types de rĂ©sistances sont extrĂȘmement difficiles Ă  inventer. C’est le propre du pouvoir de rendre la rĂ©sistance Ă  sa force difficile. On est confrontĂ© Ă  un tel mĂ©lange de pragmatisme, de facilitation de la vie, de crĂ©ation d’une bulle de confort, d’une enveloppe oĂč les rĂ©ponses sont faciles et qui nous donnent accĂšs Ă  de nouveaux mondes, comme le montrait la question de la dĂ©mocratisation qu’on Ă©voquait Ă  l’instant
 que la servitude devient trĂšs peu apparente. Et la perte de subtilitĂ© et d’ambiguĂŻtĂ© est peu vue, car les gains Ă©conomiques supplantent ces pertes. Qui se rend compte de l’appauvrissement ? Il faut avoir un pied dans les formes culturelles prĂ©cĂ©dentes pour cela. Quand les choses seront plus franches, ce que je redoute, c’est que nos dĂ©mocraties ne produisent pas de rĂ©cits numĂ©riques pour faire entendre une autre forme de puissance. 

Dans les algorithmes : En 2016 vous avez publiĂ©, ChatBot le robot, une trĂšs courte fable Ă©crite bien avant l’avĂšnement de l’IA gĂ©nĂ©rative, qui met en scĂšne un jury de philosophes devant dĂ©cider si une intelligence artificielle est capable de philosopher. Ce petit drame philosophique oĂč l’IA fomente des rĂ©ponses Ă  des questions philosophiques, se rĂ©vĂšle trĂšs actuel 9 ans plus tard. Qualifieriez vous ChatGPT et ses clones de philosophes ?

Pascal Chabot : Je ne suis pas sĂ»r. Je ne suis pas sĂ»r que ce chatbot lĂ  se le dĂ©cernerait Ă  lui, comme il est difficile Ă  un artiste de se dire artiste. Mon Chatbot Ă©tait un rĂ©calcitrant, ce n’est pas le cas des outils d’IA d’aujourd’hui. Il leur manque un rapport au savoir, le lien entre la sensation et la signification. La philosophie ne peut pas ĂȘtre juste de la signification. Et c’est pour cela que l’existentialisme reste la matrice de toute philosophie, et qu’il n’y a pas de philosophie qui serait non-existentielle, c’est-Ă -dire pure crĂ©ation de langage. La graphogenĂšse engendre une psychogenĂšse. Mais la psychogenĂšse, cette imitation de la conscience, n’engendre ni philosophie ni pensĂ©e humaine. Il n’y a pas de conscience artificielle. La conscience est liĂ©e Ă  la naissance, la mort, la vie. 

Dans les algorithmes : La question de l’incalculabitĂ© est le sujet de la confĂ©rence USI 2025 Ă  laquelle vous allez participer. Pour un un philosophe, qu’est-ce qui est incalculable ? 

Pascal Chabot : L’incalculable, c’est le subtil ! L’étymologie de subtil, c’est subtela, littĂ©ralement, ce qui est en-dessous d’une toile. En dessous d’une toile sur laquelle on tisse, il y a Ă©vidĂ©mment la trame, les fils de trame. Le subtil, c’est les fils de trame, c’est-Ă -dire nos liens majeurs, les liens Ă  nous-mĂȘmes, aux autres, au sens, Ă  la culture, nos liens amoureux, amicaux
 Et tout cela est profondĂ©ment de l’ordre de l’incalculable. Et tout cela est mĂȘme profanĂ© quand on les calcule. Ces liens sont ce qui rĂ©siste intrinsĂšquement Ă  la calculabilitĂ©, qui est pourtant l’un des grands ressort de l’esprit humain et pas seulement des machines. Le problĂšme, c’est qu’on est tellement dans une idĂ©ologie de la calculabilitĂ© qu’on ne perçoit mĂȘme plus qu’on peut faire des progrĂšs dans le domaine du subtil. DĂ©sormais, le progrĂšs semble liĂ© Ă  la seule calculabilitĂ©. Le progrĂšs est un progrĂšs du calculable et de l’utile. Or, je pense qu’il existe aussi un progrĂšs dans le domaine du subtil. Dans l’art d’ĂȘtre ami par exemple, dans l’art d’ĂȘtre liĂ© Ă  soi-mĂȘme ou aux autres, il y a moyen de faire des progrĂšs. Il y a lĂ  toute une zone de dĂ©veloppement, de progrĂšs (nous ne devons pas laisser le terme uniquement Ă  la civilisation techno-Ă©conomique), de progrĂšs subtil. Un progrĂšs subtil, incalculable, mais extrĂȘmement prĂ©cieux. 

Propos recueillis par Hubert Guillaud. 

Pascal Chabot sera l’un des intervenants de la confĂ©rence USI 2025 qui aura lieu lundi 2 juin Ă  Paris et dont le thĂšme est « la part incalculable du numĂ©rique » et pour laquelle Danslesalgorithmes.net est partenaire.

  • ✇Dans les algorithmes
  • Aux US, le prix des Ă©tudes s’ajuste selon celui que vous ĂȘtes prĂȘts Ă  payer
    Les tarifs des Ă©tudes dans les grandes universitĂ©s amĂ©ricaines sont trĂšs Ă©levĂ©s et les Ă©tablissements se livrent Ă  une concurrence fĂ©roce que ce soit pour fixer les prix des frais de scolaritĂ© comme pour fixer les rĂ©ductions qu’elles distribuent sous forme de bourses. Ces rĂ©ductions peuvent ĂȘtre considĂ©rables : en moyenne, elles permettent de rĂ©duire le prix de plus de 56% pour les nouveaux Ă©tudiants et peuvent monter jusqu’à six chiffres sur le coĂ»t total des Ă©tudes. Or, explique Ron Lieber, po
     

Aux US, le prix des Ă©tudes s’ajuste selon celui que vous ĂȘtes prĂȘts Ă  payer

19 mai 2025 Ă  01:00

Les tarifs des Ă©tudes dans les grandes universitĂ©s amĂ©ricaines sont trĂšs Ă©levĂ©s et les Ă©tablissements se livrent Ă  une concurrence fĂ©roce que ce soit pour fixer les prix des frais de scolaritĂ© comme pour fixer les rĂ©ductions qu’elles distribuent sous forme de bourses. Ces rĂ©ductions peuvent ĂȘtre considĂ©rables : en moyenne, elles permettent de rĂ©duire le prix de plus de 56% pour les nouveaux Ă©tudiants et peuvent monter jusqu’à six chiffres sur le coĂ»t total des Ă©tudes. Or, explique Ron Lieber, pour le New York Times, les prix comme les rĂ©ductions dĂ©pendent de calculs complexes, d’algorithmes opaques, mis au point discrĂštement depuis des dĂ©cennies par des cabinets de conseil opĂ©rant dans l’ombre, notamment EAB et Ruffalo Noel Levitz (RNL) qui appartiennent Ă  des sociĂ©tĂ©s de capital-investissement. 

Lieber raconte la mise au point d’un algorithme dĂ©diĂ© au Boston College par Jack Maguire dans les annĂ©es 70, visant Ă  accorder des rĂ©ductions ciblĂ©es sur la base de la qualitĂ© des candidats plutĂŽt que sur leurs moyens financiers, dans le but que nombre d’entre eux acceptent l’offre d’étude qui leur sera faite. Les sociĂ©tĂ©s qui proposent des algorithmes parlent, elles, “d’optimisation de l’aide financiĂšre”. Pour cela, elles utilisent les donnĂ©es sociodĂ©mographiques que les Ă©tudiants remplissent lors d’une demande d’information. S’ensuit des Ă©changes numĂ©riques nourris entre universitĂ©s et candidats pour Ă©valuer leur engagement en mesurant tout ce qui est mesurable : clics d’ouvertures aux messages qui leurs sont adressĂ©s, nombre de secondes passĂ©es sur certaines pages web. L’EAB utilise plus de 200 variables pour fixer le prix d’admission en s’appuyant sur les donnĂ©es de plus de 350 clients et plus de 1,5 milliard d’interactions avec des Ă©tudiants. Pour chaque profil, des matrices sont produites mesurant Ă  la fois la capacitĂ© de paiement et Ă©valuant la rĂ©ussite scolaire du candidat avant que les Ă©coles ne fassent une offre initiale qui Ă©volue au grĂ© des discussions avec les familles. L’article Ă©voque par exemple un Ă©tablissement qui “a offert aux Ă©tudiants provenant d’autres Etats une rĂ©duction trois fois supĂ©rieure au prix catalogue par Ă©tudiant par rapport Ă  celle proposĂ©e aux Ă©tudiants de l’Etat, tout en leur faisant payer le double du prix net”. Le but de l’offre Ă©tait de les attirer en leur faisant une proposition qu’ils ne pouvaient pas refuser. 

Mais contrairement Ă  ce que l’on croit, les « bourses Â» ne sont pas que des bourses sur critĂšres sociaux. C’est mĂȘme de moins en moins le cas. Bien souvent, les universitĂ©s proposent des bourses Ă  des gens qui n’en ont pas besoin, comme une forme de remise tarifaire. En fait, la concurrence pour attirer les Ă©tudiants capables de payer est trĂšs forte, d’oĂč l’enjeu Ă  leur offrir des remises convaincantes, et les familles ont vite compris qu’elles pouvaient jouer de cette concurrence. En fait, constate une responsable administrative : “je pensais que l’aide financiĂšre servait Ă  amĂ©liorer l’accĂšs, mais ce n’est plus le cas. C’est devenu un modĂšle Ă©conomique.” Les bourses ne servent plus tant Ă  permettre aux plus dĂ©munis d’accĂ©der Ă  l’universitĂ©, qu’à moduler la concurrence inter-Ă©tablissement, Ă  chasser les Ă©tudiants qui ont les capacitĂ©s de payer.

En 2023, EAB a lancĂ© Appily, un portail universitaire grand public Ă  l’ambiance positive, une plateforme de mise en relation entre futurs Ă©tudiants Ă  la maniĂšre d’une application de rencontre qui compte dĂ©jĂ  3 millions d’utilisateurs. Le recrutement d’étudiants est en passe de devenir de plus en plus concurrentiel Ă  l’heure oĂč les financements des universitĂ©s s’apprĂȘtent Ă  se tarit sous les coupes de l’administration Trump et oĂč la venue d’étudiants Ă©trangers devient extrĂȘmement difficile du fait des nouvelles politiques d’immigration mises en place. Comme on le constatait dans d’autres rapports tarifaires, dans les Ă©tudes supĂ©rieures Ă©galement, le marketing numĂ©rique a pris le contrĂŽle : lĂ  encore, le meilleur prix est devenu celui que les Ă©tudiants et les familles sont prĂȘts Ă  payer.

  • ✇Dans les algorithmes
  • La crise de l’emploi créée par l’IA est dĂ©jĂ  lĂ  !
    « La crise de l’emploi via l’IA est arrivĂ©e. Elle est lĂ , maintenant. Elle ne ressemble simplement pas Ă  ce que beaucoup attendaient. La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai dĂ©jĂ  Ă©crit, Ă  l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une sĂ©rie de dĂ©cisions managĂ©riales prises par des dirigeants cherchant Ă  rĂ©duire les coĂ»ts de main-d’Ɠuvre et Ă  consolider le contrĂŽle de leurs org
     

La crise de l’emploi créée par l’IA est dĂ©jĂ  lĂ  !

16 mai 2025 Ă  01:00

« La crise de l’emploi via l’IA est arrivĂ©e. Elle est lĂ , maintenant. Elle ne ressemble simplement pas Ă  ce que beaucoup attendaient.

La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai dĂ©jĂ  Ă©crit, Ă  l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une sĂ©rie de dĂ©cisions managĂ©riales prises par des dirigeants cherchant Ă  rĂ©duire les coĂ»ts de main-d’Ɠuvre et Ă  consolider le contrĂŽle de leurs organisations. La crise de l’emploi dans l’IA n’est pas une apocalypse d’emplois robotisĂ©s Ă  la SkyNet : c’est le Doge qui licencie des dizaines de milliers d’employĂ©s fĂ©dĂ©raux sous couvert d’une « stratĂ©gie IA prioritaire Â».

La crise de l’emploi dans l’IA ne se rĂ©sume pas au dĂ©placement soudain de millions de travailleurs d’un seul coup ; elle se manifeste plutĂŽt par l’attrition dans les industries crĂ©atives, la baisse des revenus des artistes, Ă©crivains et illustrateurs indĂ©pendants, et par la propension des entreprises Ă  embaucher moins de travailleurs humains.

En d’autres termes, la crise de l’emploi dans l’IA est davantage une crise de la nature et de la structure du travail qu’une simple tendance Ă©mergeant des donnĂ©es Ă©conomiques Â», explique Brian Merchant. « Les patrons ont toujours cherchĂ© Ă  maximiser leurs profits en utilisant des technologies de rĂ©duction des coĂ»ts. Et l’IA gĂ©nĂ©rative a Ă©tĂ© particuliĂšrement efficace pour leur fournir un argumentaire pour y parvenir, et ainsi justifier la dĂ©gradation, la dĂ©responsabilisation ou la destruction d’emplois prĂ©caires Â». Le Doge en est une parfaite illustration : « il est prĂ©sentĂ© comme une initiative de rĂ©duction des coĂ»ts visant Ă  gĂ©nĂ©rer des gains d’efficacitĂ©, mais il dĂ©truit surtout massivement des moyens de subsistance et Ă©rode le savoir institutionnel Â».

« On entend souvent dire que l’IA moderne Ă©tait censĂ©e automatiser les tĂąches rĂ©barbatives pour que nous puissions tous ĂȘtre plus crĂ©atifs, mais qu’au lieu de cela, elle est utilisĂ©e pour automatiser les tĂąches crĂ©atives Â». Pourquoi ? Parce que l’IA gĂ©nĂ©rative reste performante pour « certaines tĂąches qui ne nĂ©cessitent pas une fiabilitĂ© constante, ce qui explique que ses fournisseurs ciblent les industries artistiques et crĂ©atives Â».

Luis von Ahn, PDG milliardaire de la cĂ©lĂšbre application d’apprentissage des langues Duolingo, a annoncĂ© que son entreprise allait officiellement ĂȘtre axĂ©e sur l’IA. Mais ce n’est pas nouveau, voilĂ  longtemps que la startup remplace ses employĂ©s par de l’IA. En rĂ©alitĂ©, les employĂ©s ne cessent de corriger les contenus produits par l’IA au dĂ©triment du caractĂšre original et de la qualitĂ©.

  • ✇Dans les algorithmes
  • Nuages sur les infrastructures publiques : repenser la gouvernance d’internet Ă  l’ùre des hyperscalers
    Dans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montĂ©e de la prise de conscience de la dĂ©pendance europĂ©enne aux clouds amĂ©ricains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl Â» sur Amazon Web Services, a initiĂ© une rĂ©flexion nationale sur l’indĂ©pendance des infrastructures, sur laquelle la chercheuse a publiĂ© un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalem
     

Nuages sur les infrastructures publiques : repenser la gouvernance d’internet Ă  l’ùre des hyperscalers

15 mai 2025 Ă  01:00

Dans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montĂ©e de la prise de conscience de la dĂ©pendance europĂ©enne aux clouds amĂ©ricains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl Â» sur Amazon Web Services, a initiĂ© une rĂ©flexion nationale sur l’indĂ©pendance des infrastructures, sur laquelle la chercheuse a publiĂ© un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalement Ă©tĂ© stoppĂ©e par les politiciens nĂ©erlandais au profit de rĂ©ponses apportĂ©es par les fournisseurs locaux.

Ces dĂ©bats relatifs Ă  la souverainetĂ© sont dĂ©sormais prĂ©sents dans toute l’Europe, remarque-t-elle, Ă  l’image du projet EuroStack, qui propose de dĂ©velopper une « souverainetĂ© technologique europĂ©enne Â». Son initiatrice, Francesca Bria, plaide pour la crĂ©ation d’un un Fonds europĂ©en pour la souverainetĂ© technologique dotĂ© de 10 milliards d’euros afin de soutenir cette initiative, ainsi que pour des changements politiques tels que la prioritĂ© donnĂ©e aux technologies europĂ©ennes dans les marchĂ©s publics, l’encouragement de l’adoption de l’open source et la garantie de l’interopĂ©rabilitĂ©. Ce projet a reçu le soutien d’entreprises europĂ©ennes, qui alertent sur la crise critique de dĂ©pendance numĂ©rique qui menace la souverainetĂ© et l’avenir Ă©conomique de l’Europe.

La chercheuse souligne pourtant pertinemment le risque d’une dĂ©fense uniquement souverainiste, consistant Ă  construire des clones des services amĂ©ricains, c’est-Ă -dire un remplacement par des Ă©quivalents locaux. Pour elle, il est nĂ©cessaire de Â« repenser radicalement l’économie politique sous-jacente qui façonne le fonctionnement des systĂšmes numĂ©riques et leurs bĂ©nĂ©ficiaires Â». Nous devons en profiter pour repenser la position des acteurs. Quand les acteurs migrent leurs infrastructure dans les nuages amĂ©ricains, ils ne font pas que dĂ©placer leurs besoins informatiques, bien souvent ils s’adaptent aussi Ă  des changements organisationnels, liĂ©s Ă  l’amenuisements de leurs compĂ©tences techniques. Un cloud souverain europĂ©en ou national n’adresse pas l’enjeu de perte de compĂ©tences internes que le cloud tiers vient soulager. L’enjeu n’est pas de choisir un cloud plutĂŽt qu’un autre, mais devrait ĂȘtre avant tout de rĂ©duire la dĂ©pendance des services aux clouds, quels qu’ils soient. Des universitaires des universitĂ©s d’Utrecht et d’Amsterdam ont ainsi appelĂ© leurs conseils d’administration, non pas Ă  trouver des solutions de clouds souverains, mais Ă  rĂ©duire la dĂ©pendance des services aux services en nuage. Pour eux, la migration vers le cloud transforme les universitĂ©s Â« d’une source d’innovation technique et de diffusion de connaissances en consommateurs de services Â».

Les initiatives locales, mĂȘme trĂšs bien financĂ©es, ne pourront jamais concurrencer les services en nuage des grands acteurs du numĂ©rique amĂ©ricain, rappelle Corinne Cath. Les remplacer par des offres locales Ă©quivalentes ne peut donc pas ĂȘtre l’objectif. Le concept de souverainetĂ© numĂ©rique produit un cadrage nationaliste voire militariste qui peut-ĂȘtre tout aussi prĂ©judiciable Ă  l’intĂ©rĂȘt gĂ©nĂ©ral que l’autonomie technologique pourrait souhaiter porterNous n’avons pas besoin de cloner les services en nuage amĂ©ricains, mais « de dĂ©velopper une vision alternative du rĂŽle de l’informatique dans la sociĂ©tĂ©, qui privilĂ©gie l’humain sur la maximisation du profit Â». Ce ne sont pas seulement nos dĂ©pendances technologiques que nous devons rĂ©soudre, mais Ă©galement concevoir et financer des alternatives qui portent d’autres valeurs que celles de l’économie numĂ©rique amĂ©ricaine. « Les systĂšmes et les Ă©conomies fondĂ©s sur les principes de suffisance, de durabilitĂ©, d’équitĂ© et de droits humains, plutĂŽt que sur l’abondance informatique et l’expansion des marchĂ©s, offrent une voie plus prometteuse Â».

  • ✇Dans les algorithmes
  • Au BrĂ©sil, la sĂ©curitĂ© sociale sous IA ne fait pas mieux qu’ailleurs
    Depuis 2018, l’administration brĂ©silienne s’est mise Ă  l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisĂ©es d’ici la fin 2025. ProblĂšme : au BrĂ©sil comme partout ailleurs, le systĂšme dysfonctionne et rejette de nombreuses demandes Ă  tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les rĂšgles de calcul de la sĂ©curitĂ© sociale Ă  leur
     

Au BrĂ©sil, la sĂ©curitĂ© sociale sous IA ne fait pas mieux qu’ailleurs

14 mai 2025 Ă  01:00

Depuis 2018, l’administration brĂ©silienne s’est mise Ă  l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisĂ©es d’ici la fin 2025. ProblĂšme : au BrĂ©sil comme partout ailleurs, le systĂšme dysfonctionne et rejette de nombreuses demandes Ă  tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les rĂšgles de calcul de la sĂ©curitĂ© sociale Ă  leur Ă©gard. « Les utilisateurs mĂ©contents des dĂ©cisions peuvent faire appel auprĂšs d’un comitĂ© interne de ressources juridiques, ce qui doit Ă©galement se faire via l’application de la sĂ©curitĂ© sociale brĂ©silienne. Le dĂ©lai moyen d’attente pour obtenir une rĂ©ponse est de 278 jours Â».

  • ✇Dans les algorithmes
  • Doge : la fin du cloisonnement des donnĂ©es
    A l’heure oĂč, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent Ă  poursuivre les ressortissants Ă©trangers pour les reconduire aux frontiĂšres, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux Ă©trangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcĂ© la surveillance des citoyens et plus encore des ressortissants d’origine Ă©trangĂšre. Le Brennan Center fo
     

Doge : la fin du cloisonnement des données

13 mai 2025 Ă  01:00

A l’heure oĂč, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent Ă  poursuivre les ressortissants Ă©trangers pour les reconduire aux frontiĂšres, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux Ă©trangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcĂ© la surveillance des citoyens et plus encore des ressortissants d’origine Ă©trangĂšre. Le Brennan Center for Justice a publiĂ© en 2022 un rapport sur la montĂ©e de l’utilisation des rĂ©seaux sociaux dans ces activitĂ©s de surveillance et rappelle que ceux-ci sont massivement mobilisĂ©s pour la surveillance des opposants politiques, notamment depuis Occupy et depuis 2014 pour le contrĂŽle des demandes d’immigration et les contrĂŽles aux frontiĂšres, rappelle The Verge

Le premier projet de loi du second mandat de Donald Trump Ă©tait un texte concernant l’immigration clandestine, nous rappelle Le Monde. C’est un texte qui propose la dĂ©tention automatique par les forces de l’ordre fĂ©dĂ©rales de migrants en situation irrĂ©guliĂšre qui ont Ă©tĂ© accusĂ©s, condamnĂ©s ou inculpĂ©s pour certains dĂ©lits, mĂȘmes mineurs, comme le vol Ă  l’étalage. 

La lutte contre l’immigration est au cƓur de la politique du prĂ©sident amĂ©ricain, qui dĂ©nonce une “invasion” et annonce vouloir dĂ©porter 11 millions d’immigrants illĂ©gaux, au risque que le tissu social des Etats-Unis, nation d’immigrants, se dĂ©chire, rappelait The Guardian. DĂšs janvier, l’administration Trump a mis fin Ă  l’application CBP One, seule voie pour les demandeurs d’asile dĂ©sirant entrer lĂ©galement sur le territoire des Etats-Unis pour prendre rendez-vous avec l’administration douaniĂšre amĂ©ricaine et rĂ©gulariser leur situation. La suppression unilatĂ©rale de l’application a laissĂ© tous les demandeurs d’asile en attente d’un rendez-vous sans recours, rapportait Le Monde

Une opération de fusion des informations sans précédent

Cette politique est en train de s’accĂ©lĂ©rer, notamment en mobilisant toutes les donnĂ©es numĂ©riques Ă  sa disposition, rapporte Wired. Le Doge est en train de construire une base de donnĂ©es dĂ©diĂ©e aux Ă©trangers, collectant les donnĂ©es de plusieurs administrations, afin de crĂ©er un outil de surveillance d’une portĂ©e sans prĂ©cĂ©dent. L’enjeu est de recouper toutes les donnĂ©es disponibles, non seulement pour mieux caractĂ©riser les situations des Ă©trangers en situation rĂ©guliĂšre comme irrĂ©guliĂšre, mais Ă©galement les gĂ©olocaliser afin d’aider les services de police chargĂ©s des arrestations et de la dĂ©portation, d’opĂ©rer. 

Jusqu’à prĂ©sent, il existait d’innombrables bases de donnĂ©es disparates entre les diffĂ©rentes agences et au sein des agences. Si certaines pouvaient ĂȘtre partagĂ©es, Ă  des fins policiĂšres, celles-ci n’ont jamais Ă©tĂ© regroupĂ©es par dĂ©faut, parce qu’elles sont souvent utilisĂ©es Ă  des fins spĂ©cifiques. Le service de l’immigration et des douanes (ICE, Immigration and Customs Enforcement) et le dĂ©partement d’investigation de la sĂ©curitĂ© intĂ©rieure (HSI, Homeland Security Investigations), par exemple, sont des organismes chargĂ©s de l’application de la loi et ont parfois besoin d’ordonnances du tribunal pour accĂ©der aux informations sur un individu dans le cadre d’enquĂȘtes criminelles, tandis que le service de citoyennetĂ© et d’immigration des États-Unis (USCIS, United States Citizenship and Immigration Services) des États-Unis collecte des informations sensibles dans le cadre de la dĂ©livrance rĂ©guliĂšre de visas et de cartes vertes. 

Des agents du Doge ont obtenu l’accĂšs aux systĂšmes de l’USCIS. Ces bases de donnĂ©es  contiennent des informations sur les rĂ©fugiĂ©s et les demandeurs d’asile, des donnĂ©es sur les titulaires de cartes vertes, les citoyens amĂ©ricains naturalisĂ©s et les bĂ©nĂ©ficiaires du programme d’action diffĂ©rĂ©e pour les arrivĂ©es d’enfants. Le Doge souhaite Ă©galement tĂ©lĂ©charger des informations depuis les bases de donnĂ©es de myUSCIS, le portail en ligne oĂč les immigrants peuvent dĂ©poser des demandes, communiquer avec l’USCIS, consulter l’historique de leurs demandes et rĂ©pondre aux demandes de preuves Ă  l’appui de leur dossier. AssociĂ©es aux informations d’adresse IP des personnes qui consultent leurs donnĂ©es, elles pourraient servir Ă  gĂ©olocaliser les immigrants. 

Le dĂ©partement de sĂ©curitĂ© intĂ©rieur (DHS, Department of Homeland Security) dont dĂ©pendent certaines de ces agences a toujours Ă©tĂ© trĂšs prudent en matiĂšre de partage de donnĂ©es. Ce n’est plus le cas. Le 20 mars, le prĂ©sident Trump a d’ailleurs signĂ© un dĂ©cret exigeant que toutes les agences fĂ©dĂ©rales facilitent « le partage intra- et inter-agences et la consolidation des dossiers non classifiĂ©s des agences », afin d’entĂ©riner la politique de rĂ©cupĂ©ration de donnĂ©es tout azimut du Doge. Jusqu’à prĂ©sent, il Ă©tait historiquement « extrĂȘmement difficile » d’accĂ©der aux donnĂ©es que le DHS possĂ©dait dĂ©jĂ  dans ses diffĂ©rents dĂ©partements. L’agrĂ©gation de toutes les donnĂ©es disponibles « reprĂ©senterait une rupture significative dans les normes et les politiques en matiĂšre de donnĂ©es », rappelle un expert. Les agents du Doge ont eu accĂšs Ă  d’innombrables bases, comme Ă  Save, un systĂšme de l’USCIS permettant aux administrations locales et Ă©tatiques, ainsi qu’au gouvernement fĂ©dĂ©ral, de vĂ©rifier le statut d’immigration d’une personne. Le Doge a Ă©galement eu accĂšs Ă  des donnĂ©es de la sĂ©curitĂ© sociale et des impĂŽts pour recouper toutes les informations disponibles. 

Le problĂšme, c’est que la surveillance et la protection des donnĂ©es est Ă©galement rendue plus difficile. Les coupes budgĂ©taires et les licenciements ont affectĂ© trois services clĂ©s qui constituaient des garde-fous importants contre l’utilisation abusive des donnĂ©es par les services fĂ©dĂ©raux, Ă  savoir le Bureau des droits civils et des libertĂ©s civiles (CRCL, Office for Civil Rights and Civil Liberties), le Bureau du mĂ©diateur chargĂ© de la dĂ©tention des immigrants et le Bureau du mĂ©diateur des services de citoyennetĂ© et d’immigration. Le CRCL, qui enquĂȘte sur d’éventuelles violations des droits de l’homme par le DHS et dont la crĂ©ation a Ă©tĂ© mandatĂ©e par le CongrĂšs est depuis longtemps dans le collimateur du Doge. 

Le 5 avril, le DHS a conclu un accord avec les services fiscaux (IRS) pour utiliser les donnĂ©es fiscales. Plus de sept millions de migrants travaillent et vivent aux États-Unis. L’ICE a Ă©galement rĂ©cemment versĂ© des millions de dollars Ă  l’entreprise privĂ©e Palantir pour mettre Ă  jour et modifier une base de donnĂ©es de l’ICE destinĂ©e Ă  traquer les immigrants, a rapportĂ© 404 Media. Le Washington Post a rapportĂ© Ă©galement que des reprĂ©sentants de Doge au sein d’agences gouvernementales – du DĂ©partement du Logement et du DĂ©veloppement urbain Ă  l’Administration de la SĂ©curitĂ© sociale – utilisent des donnĂ©es habituellement confidentielles pour identifier les immigrants sans papiers. Selon Wired, au DĂ©partement du Travail, le Doge a obtenu l’accĂšs Ă  des donnĂ©es sensibles sur les immigrants et les ouvriers agricoles. La fusion de toutes les donnĂ©es entre elles pour permettre un accĂšs panoptique aux informations est depuis l’origine le projet mĂȘme du ministĂšre de l’efficacitĂ© amĂ©ricain, qui espĂšre que l’IA va lui permettre de rendre le traitement omniscient

Le changement de finalitĂ©s de la collecte de donnĂ©es, moteur d’une dĂ©fiance gĂ©nĂ©ralisĂ©e

L’administration des impĂŽts a donc acceptĂ© un accord de partage d’information et de donnĂ©es avec les services d’immigration, rapporte la NPR, permettant aux agents de l’immigration de demander des informations sur les immigrants faisant l’objet d’une ordonnance d’expulsion. DerriĂšre ce qui paraĂźt comme un simple accĂšs Ă  des donnĂ©es, il faut voir un changement majeur dans l’utilisation des dossiers fiscaux. Les modalitĂ©s de ce partage d’information ne sont pas claires puisque la communication du cadre de partage a Ă©tĂ© expurgĂ©e de trĂšs nombreuses informations. Pour Murad Awawdeh, responsable de la New York Immigration Coalition, ce partage risque d’instaurer un haut niveau de dĂ©fiance Ă  respecter ses obligations fiscales, alors que les immigrants paient des impĂŽts comme les autres et que les services fiscaux assuraient jusqu’à prĂ©sent aux contribuables sans papiers la confidentialitĂ© de leurs informations et la sĂ©curitĂ© de leur dĂ©claration de revenus.

La NPR revient Ă©galement sur un autre changement de finalitĂ©, particuliĂšrement problĂ©matique : celle de l’application CBP One. Cette application lancĂ©e en 2020 par l’administration Biden visait Ă  permettre aux immigrants de faire une demande d’asile avant de pĂ©nĂ©trer aux Etats-Unis. Avec l’arrivĂ©e de l’administration Trump, les immigrants qui ont candidatĂ© Ă  une demande d’asile ont reçu une notification les enjoignants Ă  quitter les Etats-Unis et les donnĂ©es de l’application ont Ă©tĂ© partagĂ©es avec les services de police pour localiser les demandeurs d’asile et les arrĂȘter pour les reconduire aux frontiĂšres. Pour le dire simplement : une application de demande d’asile est dĂ©sormais utilisĂ©e par les services de police pour identifier ces mĂȘmes demandeurs et les expulser. Les finalitĂ©s sociales sont transformĂ©es en finalitĂ©s policiĂšres. La confidentialitĂ© mĂȘme des donnĂ©es est dĂ©truite.

CBP One n’est pas la seule application dont la finalitĂ© a Ă©tĂ© modifiĂ©e. Une belle enquĂȘte du New York Times Ă©voque une application administrĂ©e par Geo Group, l’un des principaux gestionnaires privĂ©s de centres pĂ©nitentiaires et d’établissements psychiatriques aux Etats-Unis. Une application que des Ă©trangers doivent utiliser pour se localiser et s’identifier rĂ©guliĂšrement, Ă  la maniĂšre d’un bracelet Ă©lectronique. RĂ©cemment, des utilisateurs de cette application ont Ă©tĂ© convoquĂ©s Ă  un centre d’immigration pour mise Ă  jour de l’application. En fait, ils ont Ă©tĂ© arrĂȘtĂ©s. 

Geo Group a dĂ©veloppĂ© une activitĂ© lucrative d’applications et de bracelets Ă©lectroniques pour surveiller les immigrants pour le compte du gouvernement fĂ©dĂ©ral qui ont tous Ă©tĂ© mis au service des procĂ©dures d’expulsion lancĂ©es par l’administration Trump, constatent nombre d’associations d’aides aux Ă©trangers. “Alors mĂȘme que M. Trump rĂ©duit les dĂ©penses du gouvernement fĂ©dĂ©ral, ses agences ont attribuĂ© Ă  Geo Group de nouveaux contrats fĂ©dĂ©raux pour hĂ©berger des immigrants sans papiers. Le DHS envisage Ă©galement de renouveler un contrat de longue date avec l’entreprise – d’une valeur d’environ 350 millions de dollars l’an dernier – pour suivre les quelque 180 000 personnes actuellement sous surveillance”. Ce programme “d’alternative Ă  la dĂ©tention en centre de rĂ©tention Â» que Noor Zafar, avocate principale Ă  l’American Civil Liberties Union, estime relever plutĂŽt d’une “extension Ă  la dĂ©tention”, consiste en des applications et bracelets Ă©lectroniques. Les programmes de Geo Group, coĂ»teux, n’ont pas Ă©tĂ© ouverts Ă  la concurrence, rapporte le New York Times, qui explique Ă©galement que ses programmes sont en plein boom. Ces applications permettent aux employĂ©s de Geo Group de savoir en temps rĂ©el oĂč se trouvent leurs porteurs, leur permettent de dĂ©limiter des zones dont ils ne peuvent pas sortir sans dĂ©clencher des alertes. 

Une confiance impossible !

Ces exemples amĂ©ricains de changement de finalitĂ©s sont emblĂ©matiques et profondĂ©ment problĂ©matiques. Ils ne se posent pourtant pas que de l’autre cĂŽtĂ© de l’Atlantique. Utiliser des donnĂ©es produites dans un contexte pour d’autres enjeux et d’autres contextes est au cƓur des fonctionnements des systĂšmes numĂ©riques, comme nous l’avions vu Ă  l’époque du Covid. Les finalitĂ©s des traitements des services numĂ©riques qu’on utilise sont rarement claires, notamment parce qu’elles peuvent ĂȘtre mises Ă  jour unilatĂ©ralement et ce, sans garantie. Et le changement de finalitĂ© peut intervenir Ă  tout moment, quelque soit l’application que vous utilisez. Remplir un simple questionnaire d’évaluation peut finalement, demain, ĂȘtre utilisĂ© par le service qui le conçoit ou d’autres pour une toute autre finalitĂ©, et notamment pour rĂ©duire les droits des utilisateurs qui y ont rĂ©pondu. RĂ©pondre Ă  un questionnaire de satisfaction de votre banque ou d’un service public, qui semble anodin, peut divulguer des donnĂ©es qui seront utilisĂ©es pour d’autres enjeux. Sans renforcer la protection absolue des donnĂ©es, le risque est que ces exemples dĂ©multiplient la mĂ©fiance voire le rejet des citoyens et des administrĂ©s. A quoi va ĂȘtre utilisĂ© le questionnaire qu’on me propose ? Pourra-t-il ĂȘtre utilisĂ© contre moi ? Qu’est-ce qui me garantie qu’il ne le sera pas ? 

La confiance dans l’utilisation qui est faite des donnĂ©es par les services, est en train d’ĂȘtre profondĂ©ment remise en question par l’exemple amĂ©ricain et pourrait avoir des rĂ©percussions sur tous les services numĂ©riques, bien au-delĂ  des Etats-Unis. La spĂ©cialiste de la sĂ©curitĂ© informatique, Susan Landau, nous l’avait pourtant rappelĂ© quand elle avait Ă©tudiĂ© les dĂ©faillances des applications de suivi de contact durant la pandĂ©mie : la confidentialitĂ© est toujours critique. Elle parlait bien sĂ»r des donnĂ©es de santĂ© des gens, mais on comprend qu’assurer la confidentialitĂ© des donnĂ©es personnelles que les autoritĂ©s dĂ©tiennent sur les gens est tout aussi critique. Les dĂ©faillances de confidentialitĂ© sapent la confiance des autoritĂ©s qui sont censĂ©es pourtant ĂȘtre les premiĂšres garantes des donnĂ©es personnelles des citoyens. 

Aurait-on oublié pourquoi les données sont cloisonnées ?

« Ces systĂšmes sont cloisonnĂ©s pour une raison », rappelle Victoria Noble, avocate Ă  l’Electronic Frontier Foundation. « Lorsque vous centralisez toutes les donnĂ©es d’une agence dans un rĂ©fĂ©rentiel central accessible Ă  tous les membres de l’agence, voire Ă  d’autres agences, vous augmentez considĂ©rablement le risque que ces informations soient consultĂ©es par des personnes qui n’en ont pas besoin et qui les utilisent Ă  des fins inappropriĂ©es ou rĂ©pressives, pour les instrumentaliser, les utiliser contre des personnes qu’elles dĂ©testent, des dissidents, surveiller des immigrants ou d’autres groupes. »

« La principale inquiĂ©tude dĂ©sormais est la crĂ©ation d’une base de donnĂ©es fĂ©dĂ©rale unique contenant tout ce que le gouvernement sait sur chaque personne de ce pays », estime Cody Venzke de l’Union amĂ©ricaine pour les libertĂ©s civiles (ACLU). « Ce que nous voyons est probablement la premiĂšre Ă©tape vers la crĂ©ation d’un dossier centralisĂ© sur chaque habitant.» Wired rapporte d’ailleurs que l’ACLU a dĂ©posĂ© plainte contre l’Administration de la SĂ©curitĂ© Sociale (SSA) et le DĂ©partement des Anciens Combattants (VA) qui ont ouvert des accĂšs de donnĂ©es sensibles au Doge en violation de la loi sur la libertĂ© d’information, aprĂšs en avoir dĂ©jĂ  dĂ©posĂ© une en fĂ©vrier contre le TrĂ©sor amĂ©ricain pour les mĂȘmes raisons (alors que ce n’est pas nĂ©cessairement la seule maniĂšre de procĂ©der. ConfrontĂ© aux demandes du Doge, le rĂ©gulateur des marchĂ©s financiers amĂ©ricains, rapporte Reuters, a pour l’instant pu crĂ©er une Ă©quipe de liaison spĂ©cifique pour rĂ©pondre aux demandes d’information du Doge, afin que ses Ă©quipes n’aient pas accĂšs aux donnĂ©es de l’autoritĂ© des marchĂ©s financiers). 

En dĂ©posant plainte, l’ACLU cherche notamment Ă  obtenir des documents pour saisir exactement ce Ă  quoi a accĂšs le Doge. “Les AmĂ©ricains mĂ©ritent de savoir qui a accĂšs Ă  leurs numĂ©ros de sĂ©curitĂ© sociale, Ă  leurs informations bancaires et Ă  leurs dossiers mĂ©dicaux”, explique une avocate de l’ACLU. 

Le cloisonnement des donnĂ©es, des bases, selon leurs finalitĂ©s et les agences qui les administrent, est un moyen non seulement d’en prĂ©server l’intĂ©gritĂ©, mais Ă©galement d’en assurer la sĂ©curitĂ© et la confidentialitĂ©. Ce sont ces verrous qui sont en train de sauter dans toutes les administrations sous la pression du Doge, posant des questions de sĂ©curitĂ© inĂ©dites, comme nous nous en inquiĂ©tons avec Jean Cattan dans une lettre du Conseil national du numĂ©rique. Ce sont les mesures de protection d’une dĂ©mocratie numĂ©rique qui sont en train de voler en Ă©clat

Pour Wired, Brian Barrett estime que les donnĂ©es qu’agrĂšge le Doge ne sont pas tant un outil pour produire une hypothĂ©tique efficacitĂ©, qu’une arme au service des autoritĂ©s. La question de l’immigration n’est qu’un terrain d’application parmi d’autres. La brutalitĂ© qui s’abat sur les Ă©trangers, les plus vulnĂ©rables, les plus dĂ©munis, est bien souvent une prĂ©figuration de son extension Ă  toutes les autres populations, nous disait le philosophe Achille Mbembe dans Brutalisme

Et maintenant que les croisements de donnĂ©es sont opĂ©rationnels, que les donnĂ©es ont Ă©tĂ© rĂ©cupĂ©rĂ©es par les Ă©quipes du Doge, l’enjeu va ĂȘtre de les faire parler, de les mettre en pratique. 

Finalement, le dĂ©part annoncĂ© ou probable de Musk de son poste en premiĂšre ligne du Doge ne signe certainement pas la fin de cette politique, toute impopulaire qu’elle soit (enfin, Musk est bien plus impopulaire que les Ă©conomies dans les services publics qu’il propose), mais au contraire, le passage Ă  une autre phase. Le Doge a pris le contrĂŽle, et il s’agit dĂ©sormais de rendre les donnĂ©es productives. L’efficacitĂ© n’est plus de rĂ©duire les dĂ©penses publiques de 2 000 milliards de dollars, comme le promettait Musk Ă  son arrivĂ©e. Il a lui-mĂȘme reconnu qu’il ne visait plus que 150 milliards de dollars de coupe en 2025, soit 15 % de l’objectif initial, comme le soulignait Le Monde. Mais le dĂ©bat sur les coupes et l’efficacitĂ©, sont d’abord un quolifichet qu’on agite pour dĂ©tourner l’attention de ce qui se dĂ©roule vraiment, Ă  savoir la fin de la vie privĂ©e aux Etats-Unis. En fait, la politique initiĂ©e par le Doge ne s’arrĂȘtera pas avec le retrait probable de Musk. IL n’en a Ă©tĂ© que le catalyseur.

Elizabeth Lopatto pour The Verge explique elle aussi que l’ùre du Doge ne fait que commencer. MalgrĂ© ses Ă©checs patents et l’explosion des plaintes judiciaires Ă  son encontre (Bloomberg a dĂ©nombrĂ© plus de 300 actions en justice contre les dĂ©cisions prises par le prĂ©sident Trump : dans 128 affaires, ils ont suspendu les dĂ©cisions de l’administration Trump). Pour elle, Musk ne va pas moins s’immiscer dans la politique publique. Son implication risque surtout d’ĂȘtre moins publique et moins visible dans ses ingĂ©rences, afin de prĂ©server son Ă©go et surtout son portefeuille. Mais surtout, estime-t-elle, les tribunaux ne sauveront pas les AmĂ©ricains des actions du Doge, notamment parce que dans la plupart des cas, les dĂ©cisions tardent Ă  ĂȘtre prises et Ă  ĂȘtre effectives. Pourtant, si les tribunaux Ă©taient favorables Ă  « l’élimination de la fraude et des abus », comme le dit Musk – Ă  ce stade, ils devraient surtout Ɠuvrer Ă  â€œĂ©liminer le Doge” !

Ce n’est malgrĂ© tout pas la direction qui est prise, au contraire. MĂȘme si Musk s’en retire, l’administration continue Ă  renforcer le pouvoir du Doge qu’à l’éteindre. C’est ainsi qu’il faut lire le rĂ©cent hackathon aux services fiscaux ou le projet qui s’esquisse avec Palantir. L’ICE, sous la coupe du Doge, vient de demander Ă  Palantir, la sulfureuse entreprise de Thiel, de construire une plateforme dĂ©diĂ©e, explique Wired : “ImmigrationOS”, « le systĂšme d’exploitation de l’immigration Â» (sic). Un outil pour “choisir les personnes Ă  expulser”, en accordant une prioritĂ© particuliĂšre aux personnes dont le visa est dĂ©passĂ© qui doivent, selon la demande de l’administration, prendre leurs dispositions pour “s’expulser elles-mĂȘmes des Etats-Unis”. L’outil qui doit ĂȘtre livrĂ© en septembre a pour fonction de cibler et prioriser les mesures d’application, c’est-Ă -dire d’aider Ă  sĂ©lectionner les Ă©trangers en situation irrĂ©guliĂšre, les localiser pour les arrĂȘter. Il doit permettre de suivre que les Ă©trangers en situation irrĂ©guliĂšre prennent bien leur disposition pour quitter les Etats-Unis, afin de mesurer la rĂ©alitĂ© des dĂ©parts, et venir renforcer les efforts des polices locales, bras armĂ©es des mesures de dĂ©portation, comme le pointait The Markup

De ImmigrationOS au panoptique américain : le démantÚlement des mesures de protection de la vie privée

Dans un article pour Gizmodo qui donne la parole Ă  nombre d’opposants Ă  la politique de destructions des silos de donnĂ©es, plusieurs rappellent les propos du sĂ©nateur dĂ©mocrate Sam Ervin, auteur de la loi sur la protection des informations personnelles suite au scandale du Watergate, qui redoutait le caractĂšre totalitaire des informations gouvernementales sur les citoyens. Pour Victoria Noble de l’Electronic Frontier Foundation, ce contrĂŽle pourrait conduire les autoritĂ©s Ă  « exercer des reprĂ©sailles contre les critiques adressĂ©es aux reprĂ©sentants du gouvernement, Ă  affaiblir les opposants politiques ou les ennemis personnels perçus, et Ă  cibler les groupes marginalisĂ©s. Â» N’oubliez pas qu’il s’agit du mĂȘme prĂ©sident qui a qualifiĂ© d’« ennemis » les agents Ă©lectoraux, les journalistes, les juges et, en fait, toute personne en dĂ©saccord avec lui. Selon Reuters, le Doge a dĂ©jĂ  utilisĂ© l’IA pour dĂ©tecter les cas de dĂ©loyautĂ© parmi les fonctionnaires fĂ©dĂ©raux. Pour les dĂ©fenseurs des libertĂ©s et de la confidentialitĂ©, il est encore temps de renforcer les protections citoyennes. Et de rappeler que le passage de la sĂ»retĂ© Ă  la sĂ©curitĂ©, de la dĂ©fense contre l’arbitraire Ă  la dĂ©fense de l’arbitraire, vient de ce que les Ă©lus ont passĂ© bien plus d’énergie Ă  lĂ©gifĂ©rer pour la surveillance qu’à Ă©tablir des garde-fous contre celle-ci, autorisant toujours plus de dĂ©rives, comme d’autoriser la surveillance des individus sans mandats de justice.

Pour The Atlantic, Ian Bogost et Charlie Warzel estiment que le Doge est en train de construire le panoptique amĂ©ricain. Ils rappellent que l’administration est l’univers de l’information, composĂ©e de constellations de bases de donnĂ©es. Des impĂŽts au travail, toutes les administrations collectent et produisent des donnĂ©es sur les AmĂ©ricains, et notamment des donnĂ©es particuliĂšrement sensibles et personnelles. Jusqu’à prĂ©sent, de vieilles lois et des normes fragiles ont empĂȘchĂ© que les dĂ©pĂŽts de donnĂ©es ne soient regroupĂ©s. Mais le Doge vient de faire voler cela en Ă©clat, prĂ©parant la construction d’un Etat de surveillance centralisĂ©. En mars, le prĂ©sident Trump a publiĂ© un dĂ©cret visant Ă  Ă©liminer les silos de donnĂ©es qui maintiennent les informations sĂ©parĂ©ment. 

Dans leur article, Bogost et Warzel listent d’innombrables bases de donnĂ©es maintenues par des agences administratives : bases de donnĂ©es de revenus, bases de donnĂ©es sur les lanceurs d’alerte, bases de donnĂ©es sur la santĂ© mentale d’anciens militaires
 L’IA promet de transformer ces masses de donnĂ©es en outils “consultables, exploitables et rentables”. Mais surtout croisables, interconnectables. Les entreprises bĂ©nĂ©ficiant de prĂȘts fĂ©dĂ©raux et qui ont du mal Ă  rembourser, pourraient dĂ©sormais ĂȘtre punies au-delĂ  de ce qui est possible, par la rĂ©vocation de leurs licences, le gel des aides ou de leurs comptes bancaires. Une forme d’application universelle permettant de tout croiser et de tout inter-relier. Elles pourraient permettre de cibler la population en fonction d’attributs spĂ©cifiques. L’utilisation actuelle par le gouvernement de ces donnĂ©es pour expulser des Ă©trangers, et son refus de fournir des preuves d’actes rĂ©prĂ©hensibles reprochĂ©es Ă  certaines personnes expulsĂ©es, suggĂšre que l’administration a dĂ©jĂ  franchi la ligne rouge de l’utilisation des donnĂ©es Ă  des fins politiques

Le Doge ne se contente pas de dĂ©manteler les mesures de protection de la vie privĂ©e, il ignore qu’elles ont Ă©tĂ© rĂ©digĂ©es. Beaucoup de bases ont Ă©tĂ© conçues sans interconnectivitĂ© par conception, pour protĂ©ger la vie privĂ©e. “Dans les cas oĂč le partage d’informations ou de donnĂ©es est nĂ©cessaire, la loi sur la protection de la vie privĂ©e de 1974 exige un accord de correspondance informatique (Computer Matching Agreement, CMA), un contrat Ă©crit qui dĂ©finit les conditions de ce partage et assure la protection des informations personnelles. Un CMA est « un vĂ©ritable casse-tĂȘte », explique un fonctionnaire, et constitue l’un des moyens utilisĂ©s par le gouvernement pour dĂ©courager l’échange d’informations comme mode de fonctionnement par dĂ©faut”

La centralisation des donnĂ©es pourrait peut-ĂȘtre permettre d’amĂ©liorer l’efficacitĂ© gouvernementale, disent bien trop rapidement Bogost et Warzel, alors que rien ne prouve que ces croisements de donnĂ©es produiront autre chose qu’une discrimination toujours plus Ă©tendue car parfaitement granulaire. La protection de la vie privĂ©e vise Ă  limiter les abus de pouvoir, notamment pour protĂ©ger les citoyens de mesures de surveillance illĂ©gales du gouvernement

DerriĂšre les bases de donnĂ©es, rappellent encore les deux journalistes, les donnĂ©es ne sont pas toujours ce que l’on imagine. Toutes les donnĂ©es de ces bases ne sont pas nĂ©cessairement numĂ©risĂ©es. Les faire parler et les croiser ne sera pas si simple. Mais le Doge a eu accĂšs Ă  des informations inĂ©dites. “Ce que nous ignorons, c’est ce qu’ils ont copiĂ©, exfiltrĂ© ou emportĂ© avec eux”. 

“Doge constitue l’aboutissement logique du mouvement Big Data” : les donnĂ©es sont un actif. Les collecter et les croiser est un moyen de leur donner de la valeur. Nous sommes en train de passer d’une administration pour servir les citoyens Ă  une administration pour les exploiter, suggĂšrent certains agents publics. Ce renversement de perspective “correspond parfaitement Ă  l’éthique transactionnelle de Trump”. Ce ne sont plus les intĂ©rĂȘts des amĂ©ricains qui sont au centre de l’équation, mais ceux des intĂ©rĂȘts commerciaux des services privĂ©s, des intĂ©rĂȘts des amis et alliĂ©s de Trump et Musk.

La menace totalitaire de l’accaparement des donnĂ©es personnelles gouvernementales

C’est la mĂȘme inquiĂ©tude qu’exprime la politiste Allison Stanger dans un article pour The Conversation, qui rappelle que l’accĂšs aux donnĂ©es gouvernementales n’a rien Ă  voir avec les donnĂ©es personnelles que collectent les entreprises privĂ©es. Les rĂ©fĂ©rentiels gouvernementaux sont des enregistrements vĂ©rifiĂ©s du comportement humain rĂ©el de populations entiĂšres. « Les publications sur les rĂ©seaux sociaux et les historiques de navigation web rĂ©vĂšlent des comportements ciblĂ©s ou intentionnels, tandis que les bases de donnĂ©es gouvernementales capturent les dĂ©cisions rĂ©elles et leurs consĂ©quences. Par exemple, les dossiers Medicare rĂ©vĂšlent les choix et les rĂ©sultats en matiĂšre de soins de santĂ©. Les donnĂ©es de l’IRS et du TrĂ©sor rĂ©vĂšlent les dĂ©cisions financiĂšres et leurs impacts Ă  long terme. Les statistiques fĂ©dĂ©rales sur l’emploi et l’éducation rĂ©vĂšlent les parcours scolaires et les trajectoires professionnelles. Â» Ces donnĂ©es lĂ , capturĂ©es pour faire tourner et entraĂźner des IA sont Ă  la fois longitudinales et fiables. « Chaque versement de la SĂ©curitĂ© sociale, chaque demande de remboursement Medicare et chaque subvention fĂ©dĂ©rale constituent un point de donnĂ©es vĂ©rifiĂ© sur les comportements rĂ©els. Ces donnĂ©es n’existent nulle part ailleurs aux États-Unis avec une telle ampleur et une telle authenticitĂ©. Â» « Les bases de donnĂ©es gouvernementales suivent des populations entiĂšres au fil du temps, et pas seulement les utilisateurs actifs en ligne. Elles incluent les personnes qui n’utilisent jamais les rĂ©seaux sociaux, n’achĂštent pas en ligne ou Ă©vitent activement les services numĂ©riques. Pour une entreprise d’IA, cela impliquerait de former les systĂšmes Ă  la diversitĂ© rĂ©elle de l’expĂ©rience humaine, plutĂŽt qu’aux simples reflets numĂ©riques que les gens projettent en ligne.«  A terme, explique Stanger, ce n’est pas la mĂȘme IA Ă  laquelle nous serions confrontĂ©s. « Imaginez entraĂźner un systĂšme d’IA non seulement sur les opinions concernant les soins de santĂ©, mais aussi sur les rĂ©sultats rĂ©els des traitements de millions de patients. Imaginez la diffĂ©rence entre tirer des enseignements des discussions sur les rĂ©seaux sociaux concernant les politiques Ă©conomiques et analyser leurs impacts rĂ©els sur diffĂ©rentes communautĂ©s et groupes dĂ©mographiques sur des dĂ©cennies Â». Pour une entreprise dĂ©veloppant des IA, l’accĂšs Ă  ces donnĂ©es constituerait un avantage quasi insurmontable. « Un modĂšle d’IA, entraĂźnĂ© Ă  partir de ces donnĂ©es gouvernementales pourrait identifier les schĂ©mas thĂ©rapeutiques qui rĂ©ussissent lĂ  oĂč d’autres Ă©chouent, et ainsi dominer le secteur de la santĂ©. Un tel modĂšle pourrait comprendre comment diffĂ©rentes interventions affectent diffĂ©rentes populations au fil du temps, en tenant compte de facteurs tels que la localisation gĂ©ographique, le statut socio-Ă©conomique et les pathologies concomitantes. Â» Une entreprise d’IA qui aurait accĂšs aux donnĂ©es fiscales, pourrait « dĂ©velopper des capacitĂ©s exceptionnelles de prĂ©vision Ă©conomique et de prĂ©vision des marchĂ©s. Elle pourrait modĂ©liser les effets en cascade des changements rĂ©glementaires, prĂ©dire les vulnĂ©rabilitĂ©s Ă©conomiques avant qu’elles ne se transforment en crises et optimiser les stratĂ©gies d’investissement avec une prĂ©cision impossible Ă  atteindre avec les mĂ©thodes traditionnelles Â». Explique Stanger, en Ă©tant peut-ĂȘtre un peu trop dithyrambique sur les potentialitĂ©s de l’IA, quand rien ne prouve qu’elles puissent faire mieux que nos approches plus classiques. Pour Stanger, la menace de l’accĂšs aux donnĂ©es gouvernementales par une entreprise privĂ©e transcende les prĂ©occupations relatives Ă  la vie privĂ©e des individus. Nous deviendrons des sujets numĂ©riques plutĂŽt que des citoyens, prĂ©dit-elle. Les donnĂ©es absolues corrompt absolument, rappelle Stanger. Oubliant peut-ĂȘtre un peu rapidement que ce pouvoir totalitaire est une menace non seulement si une entreprise privĂ©e se l’accapare, mais Ă©galement si un Etat le dĂ©ploie. La menace d’un Etat totalitaire par le croisement de toutes les donnĂ©es ne rĂ©side pas seulement par l’accaparement de cette puissance au profit d’une entreprise, comme celles de Musk, mais Ă©galement au profit d’un Etat. 

Nombre de citoyens Ă©taient dĂ©jĂ  rĂ©signĂ©s face Ă  l’accumulation de donnĂ©es du secteur privĂ©, face Ă  leur exploitation sans leur consentement, concluent Bogost et Warzel. L’idĂ©e que le gouvernement cĂšde Ă  son tour ses donnĂ©es Ă  des fins privĂ©es est scandaleuse, mais est finalement prĂ©visible. La surveillance privĂ©e comme publique n’a cessĂ© de se dĂ©velopper et de se renforcer. La rupture du barrage, la levĂ©e des barriĂšres morales, limitant la possibilitĂ© Ă  recouper l’ensemble des donnĂ©es disponibles, n’était peut-ĂȘtre qu’une question de temps. Certes, le pire est dĂ©sormais devant nous, car cette rupture de barriĂšre morale en annonce d’autres. Dans la kleptocratie des donnĂ©es qui s’est ouverte, celles-ci pourront ĂȘtre utilisĂ©es contre chacun, puisqu’elles permettront dĂ©sormais de trouver une justification rĂ©troactive voire de l’inventer, puisque l’intĂ©gritĂ© des bases de donnĂ©es publiques ne saurait plus ĂȘtre garantie. Bogost et Warzel peuvent imaginer des modalitĂ©s, en fait, dĂ©sormais, les systĂšmes n’ont mĂȘme pas besoin de corrĂ©ler vos dons Ă  des associations pro-palestiniennes pour vous refuser une demande de prĂȘt ou de subvention. Il suffit de laisser croire que dĂ©sormais, le croisement de donnĂ©es le permet. 

Pire encore, “les AmĂ©ricains sont tenus de fournir de nombreuses donnĂ©es sensibles au gouvernement, comme des informations sur le divorce d’une personne pour garantir le versement d’une pension alimentaire, ou des dossiers dĂ©taillĂ©s sur son handicap pour percevoir les prestations d’assurance invaliditĂ© de la SĂ©curitĂ© sociale”, rappelle Sarah Esty, ancienne conseillĂšre principale pour la technologie et la prestation de services au ministĂšre amĂ©ricain de la SantĂ© et des Services sociaux. “Ils ont agi ainsi en Ă©tant convaincus que le gouvernement protĂ©gerait ces donnĂ©es et que seules les personnes autorisĂ©es et absolument nĂ©cessaires Ă  la prestation des services y auraient accĂšs. Si ces garanties sont violĂ©es, ne serait-ce qu’une seule fois, la population perdra confiance dans le gouvernement, ce qui compromettra Ă  jamais sa capacitĂ© Ă  gĂ©rer ces services”. C’est exactement lĂ  oĂč l’AmĂ©rique est plongĂ©e. Et le risque, devant nous, est que ce qui se passe aux Etats-Unis devienne un modĂšle pour saper partout les garanties et la protection des donnĂ©es personnelles

Hubert Guillaud

  • ✇Dans les algorithmes
  • Les mĂ©dias sociaux ont envahi nos structures sociales pour les dissoudre
    Si Zuck peut dire que les mĂ©dias sociaux sont morts, c’est parce qu’il sait trĂšs bien qui a tenu le couteau : lui-mĂȘme !, explique Kyle Chayka pour le New Yorker. MĂȘme constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer Ă  la dĂ©manteler en tant que lieu de rĂ©sistance Ă  la commercialisation, Ă  la marchandisation et Ă  la mĂ©diatisation. Saboter le graphe social a Ă©tĂ© plus rĂ©munĂ©rateur que l’exploiter, car les p
     

Les médias sociaux ont envahi nos structures sociales pour les dissoudre

7 mai 2025 Ă  01:01

Si Zuck peut dire que les mĂ©dias sociaux sont morts, c’est parce qu’il sait trĂšs bien qui a tenu le couteau : lui-mĂȘme !, explique Kyle Chayka pour le New Yorker. MĂȘme constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer Ă  la dĂ©manteler en tant que lieu de rĂ©sistance Ă  la commercialisation, Ă  la marchandisation et Ă  la mĂ©diatisation. Saboter le graphe social a Ă©tĂ© plus rĂ©munĂ©rateur que l’exploiter, car les personnes isolĂ©es sont des consommateurs plus fiables” (
) “Les rĂ©seaux sociaux ont toujours voulu que vous dĂ©testiez vos amis”.

  • ✇Dans les algorithmes
  • A l’heure des investissements « philosophiques Â»
    Les grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques Â» ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marchĂ© qui opĂ©rationnalisent leurs convictions. Et tandis que les milliardaires de l’ùre industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures Ă©rigent des fonds d’investissement qui font Ă©galement office de forteresses idĂ©ologiques. Â» Evgeny Morozov sort la ka
     

A l’heure des investissements « philosophiques Â»

7 mai 2025 Ă  01:00

Les grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques Â» ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marchĂ© qui opĂ©rationnalisent leurs convictions. Et tandis que les milliardaires de l’ùre industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures Ă©rigent des fonds d’investissement qui font Ă©galement office de forteresses idĂ©ologiques. Â» Evgeny Morozov sort la kalach pour montrer que leurs idĂ©es ne sont que des arguments pour dĂ©fendre leurs positions ! « Ils ont colonisĂ© Ă  la fois le mĂ©dia et le message, le systĂšme et le monde rĂ©el Â».

Pour les nouveaux lĂ©gislateurs de la tech, l’intellectuel archĂ©ologue d’hier est mort, il l’ont eux-mĂȘmes remplacĂ©. Experts en dĂ©molition, ils n’écrivent plus sur l’avenir, mais l’installe. Ils ne financent plus de think tank, mais les suppriment. Ils dirigent eux-mĂȘmes le dĂ©bat « dans une production torrentielle qui Ă©puiserait mĂȘme Balzac Â», Ă  coups de mĂšmes sur X repris en Une des journaux internationaux. « Leur droit divin de prĂ©dire dĂ©coule de leur divinitĂ© avĂ©rĂ©e Â». « Leurs dĂ©clarations prĂ©sentent l’ancrage et l’expansion de leurs propres programmes non pas comme l’intĂ©rĂȘt personnel de leurs entreprises, mais comme la seule chance de salut du capitalisme Â».

L’accĂ©lĂ©ration et l’audace entrepreneuriale sont pour eux le seul antidote Ă  la sclĂ©rose systĂ©mique. Leur objectif : rĂ©aligner l’intelligentsia technologique sur le pouvoir de l’argent traditionnel en purifiant ses rangs des pensĂ©es subversives. Dans le Washington de Trump, ils n’arrivent pas en invitĂ©s, mais en architectes, pour faire ce qu’ils ne cessent de faire : manipuler la rĂ©alitĂ©. « En réécrivant les rĂ©glementations, en canalisant les subventions et en rĂ©ajustant les attentes du public, les intellectuels oligarques transforment des rĂȘves fiĂ©vreux – fiefs de la blockchain, fermes martiennes – en futurs apparemment plausibles Â».

Reste que le déni de réalité risque bien de les rattraper, prédit Morozov.

  • ✇Dans les algorithmes
  • Samah Karaki : « Le social est incalculable Â»
    Samah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais Ă  succĂšs, Le talent est une fiction (JC LattĂšs, 2023) et L’empathie est politique (JC LattĂšs, 2024). La force des livres de Karaki consiste Ă  remettre en perspective nos idĂ©es prĂ©conçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intĂšgre Ă  cette lecture des perspectives sociales et politiques, nous invitant Ă  prendre du recul sur nos Ă©motions et nos comportements pour mie
     

Samah Karaki : « Le social est incalculable Â»

6 mai 2025 Ă  01:00

Samah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais Ă  succĂšs, Le talent est une fiction (JC LattĂšs, 2023) et L’empathie est politique (JC LattĂšs, 2024). La force des livres de Karaki consiste Ă  remettre en perspective nos idĂ©es prĂ©conçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intĂšgre Ă  cette lecture des perspectives sociales et politiques, nous invitant Ă  prendre du recul sur nos Ă©motions et nos comportements pour mieux les politiser. Interview.

Dans les algorithmes : Dans vos deux derniers essais, vous ne faites pas qu’une lecture neuroscientifique de nos comportements, mais vous immergez les apports de la recherche en neuroscience et en psychologie de perspectives sociales et politiques. Dans l’un comme dans l’autre, vous nous invitez Ă  prendre du recul sur nos Ă©motions et nos comportements, pour mieux les politiser. Est-ce Ă  dire que vous ne trouvez pas les apports des neurosciences suffisamment politiques ?

Samah Karaki : Effectivement, je trouve que les neurosciences s’intĂ©ressent peu aux facteurs sociaux. La lecture des comportements y est souvent faite d’une façon rĂ©ductionniste, depuis des Ă©tudes en laboratoire, oĂč les comportements ne ressemblent pas Ă  ce qui se produit dans la vie rĂ©elle. Cela ne veut pas dire que ces apports ne peuvent pas ĂȘtre mis au service d’une lecture sociologique pour autant. Les neuroscientifiques n’ont jamais prĂ©tendu le contraire d’ailleurs
 C’est souvent la vulgarisation scientifique qui fait des gĂ©nĂ©ralisations, qui souvent bĂąti un « pont trop loin Â», et passe, un peu facilement, de la cellule au comportement. Sans compter que le piĂšge naturalisant de la biologie peut avoir tendance Ă  ignorer certains facteurs visibles et invisibles, alors qu’ils peuvent influer sur des facteurs biologiques. Dans la formation mĂȘme des biologistes, on ne rend pas toujours compte de la complexitĂ© de ces interactions. 

Ainsi, on a connu une phase monogĂ©nique jusque dans les annĂ©es 90, oĂč l’on cherchait les gĂšnes de tels ou tels phĂ©notypes ou de tels comportements. On s’est depuis Ă©loignĂ© de cette approche pour une approche plus polygĂ©nique oĂč l’on admet qu’il y a des milliers de gĂšnes qui peuvent donner un phĂ©notype donnĂ©. Reste que l’impĂ©rialisme biologique qui a rĂ©gnĂ© au XIXe siĂšcle a parfois tendance Ă  revenir, avec des propos de gĂ©nĂ©ticiens du comportement qui donnent une primautĂ© sur l’explication des comportements par le biologique. 

La difficultĂ© des neurosciences, c’est qu’on ne peut pas reproduire les facteurs sociologiques au sein d’un laboratoire. D’oĂč l’importance de s’ouvrir aux lectures d’autres disciplines, d’éclairer les neurosciences d’autres disciplines. 

Dans les algorithmes : Cette discussion en tout cas, entre les apports des neurosciences et les apports de la sociologie, est souvent trĂšs riche dans vos livres. Ces deux essais nous montrent que les comportements des autres influencent profondĂ©ment les nĂŽtres. Dans Le talent est un fiction, vous nous dites que les comportements des Ă©ducateurs ont le plus d’effet sur nos capacitĂ©s Ă  croire en nos chances de rĂ©ussite. Dans L’empathie est politique, vous nous dites Ă©galement que celle-ci est trĂšs dĂ©pendante de nos reprĂ©sentations, de nos ancrages sociologiques, et que pour faire advenir des comportements pro-sociaux et dĂ©passer nos rĂ©ponses Ă©motionnelles, nous devons dĂ©passer les influences qui nous façonnent et les dĂ©construire. Les deux essais donnent l’impression que nous sommes des Ă©ponges sociales et que nous avons beaucoup de mal Ă  nous en extraire. Que nos croyances et nos reprĂ©sentations nous façonnent bien plus qu’on le pense. En ĂȘtre conscient suffit-il Ă  dĂ©passer nos biais ?

Samah Karaki : Absolument pas, hĂ©las. Aujourd’hui, on parle de cognition incarnĂ©e, qui est un paradigme qui rĂšgne de plus en plus sur la lecture que nous faisons de notre maniĂšre de penser. Cela signifie que la cognition n’existe pas que dans nos cerveaux mais aussi dans nos corps et que nos corps existent aussi dans notre rapport aux autres. Cela signifie que ma cognition est traversĂ©e par celle des autres. C’est bien sĂ»r ce qui a facilitĂ© la survie de notre espĂšce. En tant qu’ĂȘtres physiquement vulnĂ©rables, nous avons besoin de rĂ©cupĂ©rer des informations pour explorer un danger ou des opportunitĂ©s. Et ces informations ne proviennent pas uniquement de notre traitement sensoriel, mais passent aussi par ce qu’on observe chez les autres. En fait, les autres aussi nous permettent de traiter l’information. Cela ne concerne pas que l’espĂšce humaine d’ailleurs, les plantes aussi construisent un traitement informationnel collectif pour pouvoir avoir des rĂ©actions au monde. La cognition incarnĂ©e permet de mieux saisir l’intersubjectivitĂ© par laquelle on comprend les interactions avec les autres. 

Reste Ă  savoir si l’on peut transcender cette intersubjectivitĂ©. En fait, une fois que nous avons automatisĂ© un apprentissage, on l’opĂšre comme on respire. Quand un apprentissage a pris en nous, il devient de l’ordre de l’intuition. On peut certes regarder notre respiration de maniĂšre consciente, mais cette conscience lĂ  ne nous permet pas de faire autre chose en mĂȘme temps. On a attribuĂ© une grande puissance Ă  notre capacitĂ© Ă  nous regarder penser, plus que ce qu’elle est vraiment. Or, dĂ©tecter en nous une influence, ne signifie pas qu’on soit en capacitĂ© de la changer. C’est une approche spinoziste que certains neuroscientifiques rejoignent aujourd’hui : se rendre compte de ses dĂ©terminismes ne signifie pas qu’on va les transcender. 

Reste que cette prise de conscience nous permet de nous organiser pour pouvoir, peut-ĂȘtre ou parfois, changer l’influence Ă  sa racine. On n’opĂšre pas un changement au sein de sa propre cognition, par coertion cognitive, mais on peut s’organiser pour influer sur les systĂšmes qui nous dĂ©terminent. Il y a donc des brĂšches que nous pouvons opĂ©rer dans un dĂ©terminisme, mais il ne faut pas sur-exagĂ©rer la force de la volontĂ©. Le libre-arbitre, dans l’état actuel des connaissances en neurosciences, n’existe pas vraiment. Nos automatismes sont beaucoup plus Ă©crasants que notre force Ă  les observer ou Ă  y rĂ©sister. 

ModĂ©rons cependant ces constats en rappelant que les Ă©tudes sur le libre-arbitre sont faites en laboratoire : on ne peut donc pas Ă©carter qu’il n’y ait aucune rĂ©sistance cognitive Ă  soi-mĂȘme. Les travaux sur la rĂ©sistance cognitive et l’anticipation du regret montrent que ce sont des aptitudes mentales qui permettent de montrer que l’on sait observer ses influences et y rĂ©sister. Mais cela a un coĂ»t Ă©nergĂ©tique important qui implique un ralentissement de l’action cognitive. Or, notre cognition ne peut pas se baser sur une rĂ©sistance permanente Ă  soi. Il est donc utopique et trĂšs optimiste de penser que nous aurions beaucoup de pouvoir sur notre propre pensĂ©e. 

Dans les algorithmes : Je suis frappĂ© par le fait que vos deux essais questionnent profondĂ©ment notre rapport Ă  la domination. Notre dĂ©sir de domination est-il impossible Ă  rassasier ? D’oĂč vient un tel besoin de domination ? 

Samah Karaki : Certes. Mais il ne faut pas croire que cela relĂšverait d’une forme de nature humaine. C’est le sens de mon prochain ouvrage : nous ne devons pas naturaliser la domination comme un trait biologique. Ce n’est ni Jean-Jacques Rousseau ni Hobbes ! L’homme n’est ni bon Ă  l’état de nature, ni Ă©goĂŻste et tournĂ© vers la domination Ă  l’état de nature. Par contre, la domination est une façon de diviser et simplifier le rĂ©el. Comme on a besoin de crĂ©er des endogroupes et des exogroupes, de catĂ©goriser les phĂ©nomĂšnes, les personnes et les sujets autour de nous, la catĂ©gorisation, au niveau de la proximitĂ© de l’autre, se fait naturellement. Elle se fait dĂ©jĂ  chez le bĂ©bĂ© par exemple, qui va montrer une prĂ©fĂ©rence pour les visages familiers et une anxiĂ©tĂ© et une mĂ©fiance vis-Ă -vis de ce qui lui est inconnu et Ă©trange.. 

Reste que la catĂ©gorisation hiĂ©rarchique, verticale, est quelque chose qui s’impose surtout socialement
 C’est lĂ  oĂč l’on peut rejoindre un peu plus Jean-Jacques Rousseau, dans le sens oĂč l’instinct de conservation nous pousse Ă  entretenir nos hiĂ©rarchies. La sociĂ©tĂ© peut nous pousser Ă  catĂ©goriser dans les statuts sociaux une valeur sociale, qui dĂ©pend de nos intĂ©rĂȘts Ă©conomiques. Cela ne se fait pas tant Ă  l’échelle individuelle, mais Ă  l’échelle de systĂšmes hiĂ©rarchiques qui cherchent Ă  assurer leur survie. Je ne fais pas partie des neuroscientifiques qui vont dire que le besoin d’acquĂ©rir du pouvoir ou de dominer ou de consommer (ce qui Ă©tait aussi une thĂ©orie trĂšs rĂ©pandue il y a quelques annĂ©es sur le rapport Ă  la crise climatique, qu’il serait dans notre nature d’user de la vitalitĂ© des autres pour soi-mĂȘme) nous constitue
 Pour moi, il n’y a besoin ni de pessimisme ni d’optimisme anthropologique. Mais d’observations de nos systĂšmes complexes, riches, diffĂ©rents, historiquement comme gĂ©ographiquement, qui nous imposent des formes de domination. Sans compter toutes les rĂ©compenses qu’on peut obtenir en se positionnant dans les Ă©chelles de la hiĂ©rarchie de domination. 

Dans les algorithmes : Dans Le talent est une fiction, vous expliquez que le mĂ©rite est une justification a posteriori. “Dans une sociĂ©tĂ© inĂ©galitaire, ceux qui arrivent au sommet veulent ou ont besoin de croire que leur succĂšs est moralement justifiĂ©â€, alors que ni le talent ni les efforts ne savent renverser la pesanteur du social. Nos propres progrĂšs dĂ©pendent bien plus des autres, du contexte, et de notre rapport aux autres, que simplement de nous-mĂȘmes, de notre talent ou de notre travail, qui sont en fait bien plus hĂ©ritĂ©s qu’acquis. “Croire que notre mĂ©rite dĂ©coule de nos talents et de notre travail personnel encourage l’égoĂŻsme, la discrimination et l’indiffĂ©rence face au sort des autres”. A quoi sert alors cette fiction du mĂ©rite, qui est partout autour de nous ?

Couverture du livre, Le talent est une fiction.

Samah Karaki : La fiction du mĂ©rite, que beaucoup de sociologues dĂ©crivent comme nĂ©cessaire car elle vient remplacer l’hĂ©ritocratie de l’ancien rĂ©gime, stipule que toute personne a un potentiel qu’elle nourrit par ses efforts et ses liens, dispose d’un principe d’émancipation, Ă  l’image de la dĂ©claration des Droits de l’Homme qui l’a Ă©rigĂ©e en principe. Chacun Ă  le droit de tenter sa chance. En cela, cette fiction est rassurante, car elle paraĂźt comme un ordre plus juste. C’est aussi une fiction sĂ©curisante, car elle dit que les hommes de pouvoir ont les compĂ©tences pour occuper ces positions de pouvoir. Elle est aussi  rassurante pour ceux qui perdent dans ce systĂšme, puisqu’elle lĂ©gitime aussi cette perte. La fiction de la mĂ©ritocratie est finalement apaisante pour la sociĂ©tĂ©, car elle ne pousse pas Ă  analyser les raisons des inĂ©galitĂ©s et donc Ă  Ă©ventuellement les subvertir. La fiction du mĂ©rite, nous donne l’illusion que si on n’y arrive pas, c’est parce qu’on n’a pas le talent ou qu’on n’a pas assez travaillĂ©. Elle permet finalement de stabiliser la sociĂ©tĂ©. 

Mais ce que je montre dans Le Talent est une fiction, c’est que la sociĂ©tĂ© repose toujours sur une hĂ©ritocratie qui finit par se valider par elle-mĂȘme. Certes, ce n’est pas parce qu’on a hĂ©ritĂ© qu’on n’a pas mĂ©ritĂ©. Mais l’hĂ©ritage permet plus que le travail de faire fructifier son potentiel. Ceux qui disent que la mĂ©ritocratie est un principe juste et Ă©mancipateur, disent souvent qu’on n’est pas dans une vraie mĂ©ritocratie. Mais en fait, les personnes qui hĂ©ritent finissent bien plus que d’autres par hĂ©riter d’une position de pouvoir parce qu’ils intĂšgrent les bonnes formations et les opportunitĂ©s qui leurs permettent de lĂ©gitimer leur position d’arrivĂ©e. 

Dans les algorithmes : Nous devrions remettre en question notre “crĂ©dentialisme” – c’est-Ă -dire la croyance que les qualifications acadĂ©miques ou autres identifiants prestigieux sont la meilleure mesure de l’intelligence ou de la capacitĂ©. Comment pourrions-nous rĂ©inventer nos croyances dans le mĂ©rite pour le rendre plus inclusif, pour qu’il accorde une place Ă  d’autres formes de mĂ©rite que la seule rĂ©ussite sociale ? Pensez-vous que ce soit un enjeu de sociĂ©tĂ© important aujourd’hui de rĂ©inventer le mĂ©rite ?

Samah Karaki : La mĂ©ritocratie ne peut pas reposer que sur des critĂšres de rĂ©ussite, car on a aussi le droit de s’émanciper « sur place Â», sans Ă©lĂ©vation Ă©conomique. Nous n’avons pas tous le culte de l’ambition. Et nous avons tous le droit Ă  la dignitĂ©, au-delĂ  de ce qu’on rĂ©alise ou pas. La concentration de certains types d’aptitudes qui seules mĂšneraient Ă  la rĂ©ussite a peut-ĂȘtre fonctionnĂ© Ă  une Ă©poque oĂč on avait besoin d’aptitudes liĂ©es au raisonnement abstrait, comme le proposaient les tests QI ou comme le valorise le systĂšme acadĂ©mique. L’aptitude de raisonnement abstrait – qui signifie principalement une rapiditĂ© et une aisance de processus mentaux logico-mathĂ©matiques – est en opposition avec d’autres types d’aptitudes comme celle de la rĂ©sistance cognitive. Penser vite est l’opposĂ© de penser lentement, car penser lentement consiste comme on l’a dit Ă  rĂ©sister et remettre en question. Cela nous dit que si nous n’avons pas assez dĂ©veloppĂ© cette rĂ©flexivitĂ© mentale et le doute de sa pensĂ©e, on peut avoir du mal face Ă  l’incertitude, mais ĂȘtre trĂšs bons sur la rĂ©solution de problĂšmes. En fait, on n’a aucune idĂ©e, aucun indicateur sur l’entraĂźnement de ces autres aptitudes, du talent liĂ© au doute
 Je propose d’ailleurs qu’on s’intĂ©resse Ă  ces autres aptitudes. On peut ĂȘtre Ă  l’aise dans le raisonnement abstrait et mal Ă  l’aise dans d’autres aptitudes. Cela nous rappelle d’ailleurs que le gĂ©nie solitaire n’existe pas. C’est bien souvent les discordes dans nos façons de penser qui permettent de parvenir Ă  des pensĂ©es complexes, notamment dans les situations incertaines. MĂȘme notre dĂ©finition de l’intelligence artificielle s’appelle intelligence parce qu’on la compare Ă  la nĂŽtre dans un anthropomorphisme qui nous rappelle qu’on n’arrive pas Ă  concevoir d’autres façons d’apprĂ©hender le monde. Or, aujourd’hui, on devrait dĂ©finir l’intelligence autrement. En neuroscience, on parle d’ailleurs plutĂŽt d’aptitudes que d’intelligence. 

« Penser vite est l’opposĂ© de penser lentement, car penser lentement consiste comme on l’a dit Ă  rĂ©sister et remettre en question. Â»

Dans les algorithmes : Vous concluez Le Talent est une fiction par la nĂ©cessitĂ© de plus d’empathie et de diversitĂ© pour Ă©largir la mesure de la rĂ©ussite. Au regard de votre second livre, plus critique sur les limites de l’empathie, votre constat est-il toujours d’actualitĂ© ? 

Samah Karaki : Oui, parce que si on ne se projette pas dans d’autres façons de vivre le monde et dans d’autres conditions pour le vivre, on risque de rester camper sur une seule façon de lire les trajectoires. C’est pour cela que les procĂ©dures de sĂ©lection dans les formations se basent sur des critĂšres Ă©prouvĂ©s, celles des personnes qui sĂ©lectionnent et donc des personnes qui ont elles-mĂȘmes rĂ©ussi dans ces mĂȘmes formations. Par cette empathie, je suggĂ©rais qu’on puisse s’ouvrir Ă  d’autres trajectoires et inclure ces trajectoires dans les processus de sĂ©lection pour ne pas qu’ils ne se ferment, qu’ils favorisent l’entre-soi. Notre façon de vivre dans le monde n’est pas universelle. C’est ce que je disais sur la question de la rĂ©ussite, c’est ce que je rĂ©pĂšte sur la question de la morale dans L’empathie est politique. Il n’y a pas une recette et une seule de ce qu’est d’avoir une vie rĂ©ussie. Nous devons nous ouvrir Ă  d’autres dĂ©finitions, Ă  d’autres formes d’attachements
 Et nous devons arrĂȘter de dĂ©considĂ©rer les perdants de nos systĂšmes sociaux. Nos sociĂ©tĂ©s nous invitent trop souvent Ă  rĂ©ussir Ă  un seul jeu selon une seule rĂšgle, alors que nous avons tous des habilitĂ©s diffĂ©rentes au dĂ©part. C’est comme si nous Ă©tions invitĂ©s Ă  un concours de natation, jugĂ©s par des poissons. 

Je n’aime pas parler de personnes atypiques, qui me semble une forme d’essentialisation. La psychiatrie, heureusement, sort d’une dĂ©finition dĂ©ficitaire, oĂč certaines personnes auraient des dĂ©ficits par rapport Ă  la norme et que la sociĂ©tĂ© doit les amener Ă  cette norme. En psychiatrie, on parle plutĂŽt de « spectre Â» dĂ©sormais et de diffĂ©rences d’apprĂ©hension de l’apprentissage. C’est lĂ  un vrai progrĂšs. Mais les systĂšmes scolaires et professionnels, eux, sont toujours dans une approche dĂ©ficitaire. Nous avons encore besoin d’y diversifier la norme. Ce n’est pas que la norme n’est pas bonne d’ailleurs, mais elle est totalitaire, trop rigide. On ne peut pas vivre en Ă©tant une espĂšce si complexe et si riche pour atteindre une seule forme normative d’exister. 

« Nous devons arrĂȘter de dĂ©considĂ©rer les perdants de nos systĂšmes sociaux. Nos sociĂ©tĂ©s nous invitent trop souvent Ă  rĂ©ussir Ă  un seul jeu selon une seule rĂšgle, alors que nous avons tous des habilitĂ©s diffĂ©rentes au dĂ©part Â». « On ne peut pas vivre en Ă©tant une espĂšce si complexe et si riche pour atteindre une seule forme normative d’exister Â».

Couverture du livre, L’empathie est politique.

Dans les algorithmes : L’empathie est politique est incontestablement une suite et une rĂ©ponse de votre prĂ©cĂ©dent livre, puisqu’il interroge ce qui le concluait, l’empathie. Notre capacitĂ© d’empathie est trĂšs plastique, modulable, sĂ©lective. Le film de Jonathan Glazer, La Zone d’intĂ©rĂȘt, le montre trĂšs bien, en soulignant la grande normalitĂ© d’une famille nazie qui parvient trĂšs bien Ă  faire abstraction de l’horreur qui se dĂ©roule Ă  cĂŽtĂ© d’eux, en Ă©tant compatissante pour les siens et indiffĂ©rentes aux hurlements et aux coups de feux qui leur parvient de l’autre cĂŽtĂ© des murs de leur maison. L’empathie n’est pas une capacitĂ© universelle ou naturelle, mais sociale, orientĂ©e et orientable. Politique. Elle est biaisĂ©e par la proximitĂ© sociale : on se sent plus proche de ceux qui nous sont proches, socialement ou culturellement. Nous la convoquons pour nous donner l’illusion de comprĂ©hension des autres, mais « nous nous projetons bien plus dans l’autre que nous ne le comprenons Â», dites-vous. Aurions-nous une forme d’illusion Ă  comprendre l’autre ?

Samah Karaki : Vous avez citĂ© les trois limites que je pose Ă  l’empathie. D’abord, qu’elle est mĂ©caniquement sĂ©lective, car on n’a pas assez d’attention disponible pour se projeter dans les expĂ©riences de tout le monde. On rĂ©serve donc cette habilitĂ© Ă  ceux qui nous sont proches, Ă  ceux qui appartiennent Ă  notre cercle, Ă  notre endogroupe. Et en plus, elle est influencĂ©e par les cadrages culturels, politiques, mĂ©diatiques qui viennent positionner les groupes humains selon une hiĂ©rarchie de valeur. L’empathie est une aptitude qui cherche une similitude – « l’impĂ©rialisme du mĂȘme Â», disait LĂ©vinas -, c’est-Ă -dire qu’elle cherche en l’autre mon semblable – ce qui est sa force et sa limite. Cela signifie que si je ne trouve pas dans l’autre mon semblable je ne vais pas l’humaniser et lui attribuer de l’empathie. Cela nous montre qu’elle n’est pas trĂšs fiable. On peut dĂ©cider que l’autre n’est pas notre semblable, comme nous le rappelle le film de Glazer justement. 

Enfin, on est attachĂ© Ă  ce qui nous ressemble, ce qui est une forme de narcissisme de l’espĂšce. Mais, cette impression de similitude est bien souvent factice. L’expĂ©rience de l’autre n’est bien souvent pas celle qu’on imagine qu’elle est. C’est la troisiĂšme limite Ă  l’empathie. MĂȘme quand on arrive Ă  s’identifier Ă  l’autre, aprĂšs plein d’examens de similitude morale et de traits de comportements ou de sensibilitĂ© intellectuelle
 Ă  la fin, on est dans l’illusion de la comprĂ©hension de l’autre, car on ne le voit que lĂ  oĂč on s’y retrouve ! Si on est exclu d’une expĂ©rience par exemple, on l’analyse mal avec nos outils limitĂ©s et tronquĂ©s car nous n’avons pas nĂ©cessairement les vies riches que nous imaginerions avoir. Avoir connu la souffrance par exemple ne signifie pas qu’on soit capable de comprendre celle des autres. Les expĂ©riences restent toujours singuliĂšres. 

Dans les algorithmes : Oui, vous dites que l’appartenance est une perception. Nous autoproduisons nos propres stĂ©rĂ©otypes sociaux. Les Ă©tudiants blancs sont plus susceptibles d’interprĂ©ter une bousculade comme violente lorsqu’elle est causĂ©e par une personne noire que par une personne blanche. Notre interprĂ©tation semble toujours confirmer nos stĂ©rĂ©otypes plutĂŽt qu’elle ne les remet en cause. Et les informations qui confirment nos stĂ©rĂ©otypes sont mieux mĂ©morisĂ©es que celles qui les rĂ©futent. Comment peut-on lutter contre nos reprĂ©sentations et nos stĂ©rĂ©otypes, dans lesquels nous sommes engluĂ©s ? 

Samah Karaki : En fait, les biais de confirmation nous simplifient notre lecture du monde. Nous avons envie d’avoir un favoritisme d’endogroupe au profit de notre groupe et de son image. Par recherche de cohĂ©rence, et d’efficience, on a tendance Ă  prĂ©server l’image de groupe qui miroite sur notre image de soi, et donc c’est pour cela qu’on a tendance Ă  favoriser notre groupe. On explique et on pardonne bien mieux les comportements nĂ©gatifs de nos proches que ceux des gens de l’exogroupe. On a plus de facilitĂ©s Ă  juger les groupes externes avec des caractĂ©ristiques trĂšs rĂ©ductrices. Cela nous rassure sur notre position morale et notre image de nous-mĂȘmes. Si on reprend l’exemple du film de Glazer, l’indiffĂ©rence de cette famille s’explique aussi parce que ces personnes pensent qu’elles sont dans le camp du bien et que l’effacement du groupe humain qui est de l’autre cĂŽtĂ© des murs est une nĂ©cessitĂ©. Ces personnes ne sont pas que indiffĂ©rentes. Elles sont persuadĂ©es que cet effacement est nĂ©cessaire pour la survie de leur propre groupe. Cette victimisation inversĂ©e sert le groupe, comme l’instrumentalisation des animaux nous sert Ă  lĂ©gitimer notre nourriture, notre agriculture. Il y a quelques siĂšcles en arriĂšre, l’instrumentalisation du corps des esclaves pour l’économie europĂ©enne Ă©tait considĂ©rĂ©e comme une nĂ©cessitĂ©. En fait, l’empathie ne disparaĂźt pas par simple indiffĂ©rence, elle disparaĂźt aussi par le sentiment d’ĂȘtre victime. L’effacement de l’autre devient une forme de lĂ©gitime dĂ©fense. 

Ce sont lĂ  des mĂ©canismes qui nous simplifient le monde. On peut ramener ces mĂ©canismes Ă  leur biologie. On a besoin de simplifier le monde car on n’a pas assez d’énergie. Mais on a aussi besoin d’ĂȘtre en cohĂ©rence avec sa propre image. C’est lĂ  oĂč s’intĂšgrent les cadrages politiques et sociaux qui donnent Ă  chaque groupe l’impression d’ĂȘtre dominĂ© ou menacĂ© par l’autre. C’est en cela que ces affects nous Ă©loignent d’une lecture objective des situations. Je ne veux pas dire dans mon livre que tous les affects sont lĂ©gitimes, bien au contraire. Tous sont rĂ©els et prĂ©cis, mais ne sont pas objectivement situĂ©s au mĂȘme endroit. Et c’est pour cela que nous avons besoin de quelque chose que nous avons produit, suite Ă  la Shoah d’ailleurs, qui est le droit humanitaire international. C’est un moyen de nous protĂ©ger de notre propre raison et de notre propre dĂ©finition de ce qui est moral. 

Dans les algorithmes : C’est le moyen que nous avons pour sortir du cercle infernal de l’empathie envers son endogroupe. DĂ©velopper des rĂšgles qui s’appliquent Ă  tous ? 

Samah Karaki : Oui. Ce sont des rĂšgles que nous avons construites avec notre organisation sociale. Ce sont des rĂšgles auxquelles on se conforme pour naviguer dans les interactions sociales qui nous lient. Des rĂšgles qui nous permettent de conserver nos droits, de ne pas cĂ©der Ă  des affects et donc, ce sont des rĂšgles oĂč tout le monde n’est pas gagnant de la mĂȘme façon mais qui peuvent rĂ©gir des biens collectifs supĂ©rieurs aux intĂ©rĂȘts d’un groupe par rapport Ă  d’autres. C’est pourquoi je suggĂšre de sortir du lexique affectif qui revient souvent aujourd’hui et qui ne se concrĂ©tise pas en action politique, car il se suffirait Ă  lui-mĂȘme, justifiant mĂȘme certaines inerties. L’affect nous Ă©vite de passer Ă  des actions concrĂštes.

Dans les algorithmes : Vous ĂȘtes trĂšs critique sur la maniĂšre dont nous pouvons rĂ©parer l’empathie. Vous dites par exemple que ce ne sont pas les formations Ă  l’empathie qui vont permettre de mettre fin Ă  l’organisation hiĂ©rarchique des sociĂ©tĂ©s humaines. 

Samah Karaki : Les formations Ă  l’empathie qui parlent de l’histoire des oppressions, de ce qu’ont vĂ©cu les groupes humains opprimĂ©s, permettent de modifier notre apprĂ©hension du monde. Éviter ces sujets ne donne pas des outils pour comprendre, pour questionner les raisons qui font que nous avons des biais racistes. Je ne pense pas que ce soit en sachant que nous sommes biaisĂ©s que nous pouvons rĂ©soudre les biais. Car le biais consiste Ă  suivre un automatisme appris, comme quand on respire. Je ne pense pas que la bonne maniĂšre de faire consiste Ă  rĂ©sister Ă  ces apprentissages, mais de les modifier, d’acquĂ©rir une autre lecture. 

En fait, je voudrais qu’on sorte un peu de notre fainĂ©antise intellectuelle. Aujourd’hui, par exemple, trop souvent, quand on fait des films sur des populations opprimĂ©es, on ne prend pas le temps d’analyser, d’amener les personnes concernĂ©es, de modifier les conditions de production pour sortir du regard que l’on porte sur elles pour donner la voix Ă  leurs propres regards. Et on justifie cette fainĂ©antise intellectuelle par l’affect, l’intuition ou la crĂ©ation spontanĂ©e. Peut-ĂȘtre aussi par romantisme de notre nature, en expliquant qu’on comprendra par soi-mĂȘme. C’est comme quand on dit que les enfants sont bons par nature. Ce n’est pas le cas pourtant. Le racisme est prĂ©sent chez les enfants Ă  partir de 3 ans si on ne leur explique pas les structures de suprĂ©matie qui structurent nos sociĂ©tĂ©s. J’invite Ă  faire nĂŽtre ce que la journaliste Douce Dibondo appelle « l’épistĂ©mologie de la connaissance contre celle de l’ignorance Â». Nous devons parler des sujets qui fĂąchent plutĂŽt que de demander aux gens de travailler leur capacitĂ© d’identification. Nous ne nous identifions pas assez aux personnes qui ne nous ressemblent pas. Nous devons le dire et le rĂ©pĂ©ter : nous avons une difficultĂ© Ă  nous identifier Ă  certains comme nous n’entendons pas les sons sous une certaine frĂ©quence. Les formations sur l’empathie par l’identification ne rĂ©soudront pas les problĂšmes de harcĂšlement scolaire ou de comportements de domination.

« Je ne pense pas que ce soit en sachant que nous sommes biaisĂ©s que nous pouvons rĂ©soudre les biais. Pour les modifier, il nous faut acquĂ©rir une autre lecture Â». « Nous devons parler des sujets qui fĂąchent plutĂŽt que de demander aux gens de travailler leur capacitĂ© d’identification Â»

Dans les algorithmes : Ce que vous dites, c’est que nous avons besoin d’une lecture plus politique de nos rapports sociaux ?

Samah Karaki : Oui. On a besoin d’une lecture historique en tout cas. Et nous devrions d’ailleurs beaucoup valoriser la lecture historique Ă  l’heure oĂč les tentatives d’effacement de certaines histoires se multiplient tout autour de nous. Nous devons dĂ©fendre ce patrimoine. Cet attachement aux faits, au rĂ©el, doit nous permettre de nous Ă©loigner des attitudes complotistes au monde. Nous avons un devoir de protĂ©ger cette discipline. 

Dans les algorithmes : Dans votre second livre, vous parlez un peu du numĂ©rique. Vous nous dites qu’on est confrontĂ©, sur les rĂ©seaux sociaux, Ă  une empathie un peu factice. Que les algorithmes basĂ©s sur la viralitĂ© cherchent d’abord et avant tout Ă  produire de l’émotion, de l’exacerbation de nos sensations, de nos sentiments. En analysant 430 milliards de vidĂ©os, le facteur le plus puissant du succĂšs viral est la rĂ©ponse Ă©motionnelle (“Plus l’intensitĂ© de l’émotion suscitĂ©e par le contenu sera grande, plus les gens auront tendance Ă  le partager”). Vous dites mĂȘme que le numĂ©rique favorise une forme de  « tourisme affectif Â»â€Š

Samah Karaki : Si on prend la question en la ramenant Ă  l’attention avant mĂȘme de parler de rĂ©seaux sociaux, il nous faut observer ce que la prĂ©diction des calculs produit. Que ce soit des sons ou des images, l’attention passe d’un niveau phasique Ă  un niveau tonique, avec des changements de circulation Ă©lectro-chimique dans le cerveau quand je suis dans ce que l’on appelle un Ă©cart de prĂ©diction. Cet Ă©cart de prĂ©diction, c’est ce qu’on appelle l’émotion. C’est ce qui nous surprend, nous Ă©meut. Et nous avons besoin de rĂ©duire cet Ă©cart de prĂ©diction en analysant cette information. Et ce travail d’analyse me fait dĂ©penser de l’énergie. S’il ne se passe rien d’intĂ©ressant dans un Ă©change, je peux perdre mon attention car je ne fais plus le travail qui fait que je suis en train de rĂ©duire les Ă©carts de prĂ©diction. C’est un peu comme cela qu’on apprend aussi. Face Ă  une information nouvelle, on a un Ă©cart de prĂ©diction : soit on rejette cette nouvelle information, soit on l’intĂšgre dans nos prĂ©dictions, ce qui nous permet ensuite de revenir Ă  ce que l’on appelle un monde Ă©motionnellement neutre ou stable. 

Un contenu viral est donc un contenu qui va produire un Ă©cart de prĂ©diction. C’est pourquoi ils sont souvent Ă©motionnels. Ils captent notre attention et crĂ©ent un attachement par rapport Ă  ces contenus. Dans la vie intime, c’est le mĂȘme processus qui nous fait nous attacher Ă  certaines personnes plutĂŽt qu’à d’autres, parce que ces personnes produisent en nous des dĂ©placements. La viralitĂ© repose sur des objets qui attirent l’attention, qui produisent un travail Ă©motionnel et ce travail nous fait crĂ©er un lien avec ces contenus. Faire reposer l’intĂ©rĂȘt sur un travail Ă©motionnel peut vite ĂȘtre pernicieux, car il nous empĂȘche par exemple de saisir le contexte de ce que l’on regarde, car notre cognition est dĂ©jĂ  sollicitĂ©e pour rĂ©tablir l’équilibre Ă©motionnel qui nous atteint.

La seconde chose qui peut se produire, c’est que l’exposition Ă  un mĂȘme Ă©cart de rĂ©pĂ©tition, finit par l’aplatir, comme quand on est exposĂ© Ă  un son rĂ©pĂ©titif qu’on finit par ne plus entendre. Face Ă  des contenus Ă©motionnels rĂ©pĂ©titifs, nous finissons par nous engourdir. Face au flux d’affect, les contenus viraux finissent par ne plus provoquer de rĂ©action en nous. Beaucoup d’études montrent que l’exposition rĂ©pĂ©tĂ©e Ă  des contenus violents abaisse notre capacitĂ© Ă  ĂȘtre Ă©mu par ces contenus. De mĂȘme quand nous sommes exposĂ©s Ă  des contenus de personnes en souffrance. Le risque, c’est que par leur rĂ©pĂ©tition, nous normalisions des contenus qui devraient nous heurter, nous faire rĂ©agir. Les Ă©tudes montrent que cette exposition rĂ©pĂ©tĂ©e peut conduire Ă  la violence de certains et surtout Ă  l’inertie. 

Le tourisme affectif est un troisiĂšme niveau. Quand on scroll ces contenus affectifs, nous faisons un travail, comme si nous les vivions Ă  notre tour. Ces contenus nouveaux nous dĂ©paysent, nous surprennent. Le tourisme, dans la vie rĂ©elle, consiste Ă  chercher quelque chose qui nous dĂ©place, qui ne corresponde pas Ă  nos prĂ©dictions. Le problĂšme, c’est que quand ce tourisme se fait sur la souffrance des autres, ce dĂ©placement devient indĂ©cent, car alors, on instrumentalise ce que vivent les autres pour notre propre dĂ©placement et notre propre Ă©mancipation. C’est pour cela que j’estime que nous ne devons pas nous suffire Ă  l’émotion et Ă  l’empathie. L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nĂ©cessaire. 

« L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nĂ©cessaire. Â» 

Dans les algorithmes : Le numĂ©rique Ă©tait censĂ© nous ouvrir Ă  la diversitĂ© du monde, Ă  nous rendre plus conscient des diffĂ©rences. On a l’impression Ă  vous lire qu’il favorise surtout des comportements homophiles, rĂ©duits Ă  notre endogroupe. danah boyd, disait “La technologie ne bouleverse pas les clivages sociaux. Au contraire, elle les renforce”. Partagez-vous ce constat ? Pourquoi sa promesse de diversitĂ© n’est-elle pas rĂ©alisĂ©e selon vous ? 

Samah Karaki : Cette amplification n’est pas dans la nature des technologies. C’est liĂ© Ă  leur usage surtout et le fait que nos technologies suivent nos biais, nos biais de confirmation, produisent des effets bulles
 Mais la technologie peut aussi aider Ă  faire circuler la connaissance nĂ©cessaire pour comprendre les oppressions. On peut aussi dĂ©couvrir des pensĂ©es qui ne sont pas institutionnalisĂ©es, ou peu rĂ©fĂ©rencĂ©es. Elle peut aussi nous permettre de nous organiser, pour refuser ou questionner un systĂšme. Mais effectivement, elle peut aussi servir Ă  confirmer nos stĂ©rĂ©otypes et reprĂ©sentations : nous conforter dans notre façon de voir le monde. 

Les derniĂšres Ă©lections amĂ©ricaines se sont beaucoup faites sur les rĂ©seaux sociaux. Il n’y a eu qu’un dĂ©bat tĂ©lĂ©visĂ© entre les deux candidats. La persuasion c’est faite aussi avec les outils. Pourtant, plus que de s’en mĂ©fier, nous devrions chercher Ă  les comprendre pour les mettre au service d’une autre façon d’apprĂ©hender la connaissance. Le dĂ©bat sur l’utilisation des technologies a toujours accompagnĂ© ses avancĂ©es. Souvent on est un peu naĂŻf avec elles. On crĂ©e des outils qui nous ressemblent. Mais on peut toujours les transcender. Il y a aussi sur les rĂ©seaux sociaux des voies alternatives, subversives, subalternes qui existent. Nous devons questionner et nous mĂ©fier des algorithmes, comme on se mĂ©fie de la nicotine en prĂ©cisant ce qu’elle nous fait. On est en devoir d’avoir une littĂ©ratie des mĂ©dias qui s’apprend Ă  l’école comme tout autre outil de connaissance. Et c’est une fois que nous avons cette connaissance que nous pouvons juger de ce qu’on dĂ©cide d’en faire collectivement. Aujourd’hui, trop peu de gens comprennent comment fonctionnent les algorithmes. Sur TikTok, la majoritĂ© des jeunes qui l’utilisent ne comprennent pas son fonctionnement, alors que c’est essentiel. La formation aux mĂ©dias, cela devrait ĂȘtre une formation obligatoire pour s’en protĂ©ger et les utiliser pour la dĂ©couverte intellectuelle nous permettant d’accĂ©der Ă  des personnes auxquelles nous n’aurions pas accĂšs autrement. Mais aussi pour faire rebondir ses idĂ©es avec d’autres personnes distantes. C’est la question de l’usage et de la connaissance de ces outils que nous devons mener une bataille, en plus de celle de la transparence des algorithmes qui a lieu Ă  l’échelle europĂ©enne. 

Dans les algorithmes : Quel regard portez-vous sur l’Intelligence artificielle ? D’autant que celle-ci semble avoir un rĂŽle important sur nos reprĂ©sentations culturelles et nos stĂ©rĂ©otypes. Pour ma part, j’ai l’impression que l’IA favorise et amplifie nos reprĂ©sentations culturelles les plus partagĂ©es. Ce qu’on pourrait appeler la « moyennisation culturelle de nos reprĂ©sentations Â» (comme quand on demande Ă  une IA de produire l’image d’un mexicain et qu’elle va produire l’image d’un homme avec un sombrero). Le risque n’est-il pas que nos stĂ©rĂ©otypes sociaux et comportementaux, demain, soient encore plus marquĂ©s qu’ils ne sont, plus indĂ©pĂ©trables – alors que vous nous dites dans vos livres que nous devons les questionner, les dĂ©construire ?

Samah Karaki : Pour moi, l’IA nous confronte Ă  ce qui ne va pas chez nous. Elle n’invente pas nos stĂ©rĂ©otypes. Elle nous montre au contraire Ă  quel point nous sommes rĂ©ducteurs, Ă  quels points nous sommes eurocentrĂ©s, hĂ©tĂ©rocentrĂ©s, validistes
 L’IA nous expose ce que nous sommes. En exposant ce que nous sommes, elle montre aussi aux jeunes gĂ©nĂ©rations ce que le monde est, au risque de ne pas leur permettre de sĂ©parer la reprĂ©sentation du rĂ©el. Mais je trouve trĂšs intĂ©ressant que nous soyons confrontĂ©s au ridicule de nos reprĂ©sentations. Critiquer ce que les IA produisent, c’est un peu comme les formations Ă  l’empathie qui ne veulent pas parler des problĂšmes qui structurent nos rapports de force. Alors que cela devrait nous inviter Ă  comprendre avec quoi nous nourrissons ces machines, que ce soit nos reprĂ©sentations comme d’ailleurs toutes les Ă©tudes qui les dĂ©fient. C’est comme si l’IA nous renvoyait un Ă©tat des lieux de lĂ  oĂč nous en sommes dans notre comprĂ©hension, qui sera toujours tronquĂ©e, car nous analysons ces reprĂ©sentations avec les mĂȘmes cerveaux qui l’ont produit. Sans compter qu’avec l’IA, nous en restons Ă  une dĂ©finition de l’intelligence qui colle aux intĂ©rĂȘts de l’homme. Quand nous attribuons Ă  l’IA des intentions, nous le faisons parce que nous n’arrivons pas, dans les limites de notre intelligence, Ă  nous imaginer autre chose que des intentions humaines. C’est aussi une des grandes limites de notre intelligence : d’ĂȘtre aussi obsĂ©dĂ©e par soi au point de ne pas voir dans ce qui se produit dans l’IA ce qui nous est incomprĂ©hensible ou parallĂšle. Elle nous permet de nous rappeler que notre espĂšce n’est peut-ĂȘtre pas centrale dans l’apprĂ©hension du monde, comme nous le rappelle aussi le reste du vivant. La puissance de l’IA nous permet de douter de soi, en tant qu’individu, mais aussi de notre espĂšce. Peut-ĂȘtre peut-elle nous aider Ă  trouver un peu d’humilitĂ© Ă©pistĂ©mologique, en nous renvoyant Ă  nous-mĂȘmes et Ă  nos propres limites. 

Nous n’avons pas Ă  fermer les yeux parce que l’IA nous renvoie des mexicains stĂ©rĂ©otypĂ©s ou des mĂ©decins qui sont toujours des hommes blancs. C’est l’occasion plutĂŽt de poser des questions. Pourquoi avons-nous ces reprĂ©sentations ? Qui nourrit ces systĂšmes ? Quelle partie du monde les nourrit ? Comme dans les Ă©tudes en psychologie et neurosciences d’ailleurs, il y a un eurocentrisme et une lecture de la psychologie humaine Ă  travers 25% de ceux qui la constituent.  

Dans les algorithmes : La question de l’incalculabitĂ© est le sujet de la confĂ©rence USI 2025 Ă  laquelle vous allez participer. Pour une spĂ©cialiste des neurosciences, qu’est-ce qui est incalculable ? 

Samah Karaki : Pour moi, l’incalculabe, ce sont les interactions qui se sont produites dans notre cognition depuis notre vie intra-utĂ©rine en interaction avec notre patrimoine gĂ©nĂ©tique, qui ne sont pas ni une addition ni une compĂ©tition, mais une interaction qui font de nous ce que nous sommes d’une maniĂšre incalculable et qui ridiculisent nos tentatives Ă  quantifier l’humain. Que ce soit au niveau de nos compĂ©tences, de nos prises de dĂ©cisions ou de nos jugements, on les pense rationnels et calculables, alors qu’ils reposent sur des Ă©carts de prĂ©diction extrĂȘmement prĂ©cis, mais sans avoir d’outils pour les dĂ©mĂȘler. C’est ce que je dĂ©fends dans Le mĂ©rite est une fiction. Quand je vois un rĂ©sultat, je ne peux pas remonter aux raisons qui l’expliquent. Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Cela nous dit de nous mĂ©fier de tout ce qu’on appelle talent, personnalité  Et cela nous invite enfin Ă  admettre une forme d’incertitude constitutive de l’homme. 

« Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Â» 

Propos recueillis par Hubert Guillaud.

Samah Karaki sera l’une des intervenantes de la confĂ©rence USI 2025 qui aura lieu lundi 2 juin Ă  Paris et dont le thĂšme est « la part incalculable du numĂ©rique » et pour laquelle Danslesalgorithmes.net est partenaire.

  • ✇Dans les algorithmes
  • Des dĂ©lires tarifaires au blocage Ă©conomique
    Le 2 avril 2025, le prĂ©sident amĂ©ricain a mis Ă  exĂ©cution sa dĂ©cision d’augmenter unilatĂ©ralement les droits de douane pour les produits Ă©trangers entrant sur le sol amĂ©ricain. Trump a pourtant rapidement rĂ©tropĂ©dalĂ©, mais sans annuler complĂštement les augmentations (voir le dĂ©tail des mesures et revirements prises par l’administration amĂ©ricaine sur WikipĂ©dia). Les tarifs ont Ă©tĂ© modĂ©rĂ©s depuis (sauf pour la Chine), notamment pour certains secteurs (dont les produits technologiques), abaissĂ©s v
     

Des délires tarifaires au blocage économique

5 mai 2025 Ă  01:00

Le 2 avril 2025, le prĂ©sident amĂ©ricain a mis Ă  exĂ©cution sa dĂ©cision d’augmenter unilatĂ©ralement les droits de douane pour les produits Ă©trangers entrant sur le sol amĂ©ricain. Trump a pourtant rapidement rĂ©tropĂ©dalĂ©, mais sans annuler complĂštement les augmentations (voir le dĂ©tail des mesures et revirements prises par l’administration amĂ©ricaine sur WikipĂ©dia). Les tarifs ont Ă©tĂ© modĂ©rĂ©s depuis (sauf pour la Chine), notamment pour certains secteurs (dont les produits technologiques), abaissĂ©s voire figĂ©s pour 90 jours, mais avec la menace que les augmentations reprennent dans 3 mois. Suite Ă  la panique boursiĂšre, Ă  d’innombrables contestations (notamment judiciaires d’Etats amĂ©ricains) et reprĂ©sailles des pays touchĂ©s par ces nouvelles exigences tarifaires, les tarifs douaniers mondiaux sont devenus partout l’inconnu des perspectives Ă©conomiques. Cette politique de sanctions commerciales et de protectionnisme a surtout dĂ©clenchĂ© une grande incertitude Ă©conomique, non seulement tout autour de la planĂšte, mais plus encore aux Etats-Unis. 

Partout, les Ă©conomistes dĂ©noncent une politique inconsĂ©quente, qui s’apprĂȘte surtout Ă  ralentir les Ă©changes, relancer l’inflation et ralentir l’innovation, plus que de protĂ©ger l’industrie amĂ©ricaine. Explications. 

Incertitude généralisée

L’escalade des tarifs et les revirements de Trump ont surtout produit ce que tout le monde dĂ©teste en Ă©conomie : de l’incertitude. C’était particuliĂšrement flagrant concernant les droits de douane des produits technologiques, dans un premier temps impactĂ©s par les Ă©volutions tarifaires, puis soudainement exclues, visiblement sous la pression des entreprises de la tech qui ont su imposer un lobbying puissant sur le prĂ©sident Trump, ce qui est loin d’ĂȘtre le cas de nombre d’autres secteurs de l’économie qui n’ont pas l’oreille prĂ©sidentielle pour les protĂ©ger. « Les va-et-vient de l’administration Trump concernant les droits de douane sur les produits technologiques sĂšment la confusion dans un secteur fortement dĂ©pendant des chaĂźnes d’approvisionnement mondiales Â», explique The Hill. L’exemption des droits de douane sur les produits technologiques n’est annoncĂ©e que comme temporaire. Or, « Les entreprises apprĂ©cient la stabilitĂ©, la prĂ©visibilitĂ© et la certitude de l’environnement commercial, et cela s’applique non seulement Ă  la politique commerciale, mais aussi aux niveaux institutionnels, programmatiques, rĂ©glementaires, etc. » En fait, tant que l’issue des nĂ©gociations sur l’évolution des tarifs restera floue, les investissements des entreprises risquent d’ĂȘtre freinĂ©s. Pour l’économiste Paul Krugman : l’exemption des produits Ă©lectroniques des droits de douane n’est pas un retour Ă  la raison de Trump ou de son administration, c’est surtout le signe qu’ils pilotent Ă  vue sans savoir oĂč ils vont. Le yoyo des tarifs est en train de gĂ©nĂ©rer une incertitude fatale pour les entreprises amĂ©ricaines, estime Krugman.

Comment les des droits de douane
 vont favoriser les plus forts

Pour David Dayen de The American Prospect, les droits de douane imposĂ©s par Trump vont surtout favoriser les monopoles, notamment parce que les exemptions, comme vient de le connaĂźtre le secteur technologique, ne sont pas des solutions Ă  la portĂ©e des petites entreprises. Aux Etats-Unis, le gĂ©ant de l’alimentation Albertsons a annoncĂ© qu’il refusera l’augmentation du coĂ»t des produits, invitant les producteurs Ă  assumer seuls la charge de l’élĂ©vation des droits de douane, sans vouloir les faire porter sur les consommateurs finaux. Il est probable que les deux autres gĂ©ants de la distribution, Walmart et Kroger, imposent les mĂȘmes conditions Ă  leurs fournisseurs. Mais les indĂ©pendants, eux, ne pourront pas imposer les mĂȘmes rĂšgles. Le problĂšme, explique Dayen, c’est que la guerre tarifaire est concomitante Ă  l’affaiblissement des aides aux petites entreprises du fait du dĂ©mantĂšlement des agences fĂ©dĂ©rales, Ă  l’image de la Small Business Administration. Or, rappelle le Wall Street Journal, les petites entreprises amĂ©ricaines sont responsables d’un tiers des importations amĂ©ricaines et elles ne pourront pas Ă©viter la hausse des coĂ»ts due aux droits de douane, ni en transfĂ©rer la charge Ă  quelqu’un d’autre. « La situation pourrait empirer avec l’annonce par la Chine d’imposer des contrĂŽles Ă  l’exportation de terres rares et d’aimants vers les États-Unis Â», qui pourrait paralyser des secteurs entiers de la production amĂ©ricaine, explique le New York Times.

Sans alternatives nationales pour rapatrier rapidement leur production aux Etats-Unis et avec peu de temps pour s’adapter, de nombreuses PME sont dĂ©jĂ  en difficultĂ©. Celles qui optent pour l’augmentation du prix de leurs produits se mettent Ă  produire des « frais de douane Â» sur les factures de leurs clients pour accroĂźtre la pression populaire Ă  leur contestation voire Ă  leur suppression. Mais l’augmentation des tarifs risque surtout de rapidement dĂ©tourner les consommateurs de produits devenus trop chers. Les droits de douane de Trump n’avaient peut-ĂȘtre pas l’objectif de favoriser la concentration de l’économie amĂ©ricaine, mais le fait que les plus grands acteurs puissent nĂ©gocier des exemptions Ă  leur avantage pourraient bien d’abord et avant tout renforcer certains monopoles. 

Pour un responsable de la division antitrust du ministĂšre de la Justice, l’inflation de ces derniĂšres annĂ©es avait dĂ©jĂ  permis Ă  des entreprises de se livrer Ă  des pratiques extrĂȘmement nĂ©fastes pour la sociĂ©té  le risque est que les droits de douane permettent Ă  nombre d’acteurs d’augmenter leurs tarifs au-delĂ  du nĂ©cessaire, Ă  l’image de la rĂ©cente grippe aviaire qui a Ă©tĂ© une explication bien commode pour augmenter le prix des Ɠufs aux Etats-Unis, ces derniers mois. En effet, aux Etats-Unis, le prix des Ɠufs a augmentĂ© de 53%. L’explication la plus communĂ©ment avancĂ©e pour expliquer « l’eggflation Â» serait dĂ» Ă  la grippe aviaire et Ă  l’abattage en masse qui en a rĂ©sultĂ©, explique Basel Musharbash dans sa newsletter, Big. Pourtant, souligne-t-il, la production d’oeufs n’a pas baissĂ©e : par rapport Ă  2021, la baisse de la production d’oeufs n’a Ă©tĂ© que de 3 Ă  5 %, alors que la consommation d’oeufs est passĂ©e de 206 oeufs par AmĂ©ricain et par an en 2021 Ă  190 oeufs en 2024 (-7,5%). Sans compter que l’exportation d’Ɠufs a Ă©galement reculé  L’augmentation des tarifs n’est donc pas liĂ©e Ă  la baisse de production, comme on l’entend trop souvent, mais Ă  la nouvelle concentration du marchĂ©. Cal-Maine Foods – le plus grand producteur d’Ɠufs et le seul Ă  publier ses donnĂ©es financiĂšres en tant que sociĂ©tĂ© cotĂ©e en bourse – a vu ses profits s’envoler avec l’épidĂ©mie de grippe aviaire, “dĂ©passant le milliard de dollars pour la premiĂšre fois de son histoire”. En fait, Cal-Maine a rĂ©alisĂ© des marges sans prĂ©cĂ©dent de 70 Ă  145 % sur les coĂ»ts de production agricoles. Pour Doctorow, l’oeuflation est typique d’une inflation de la cupiditĂ©, liĂ©e Ă  l’établissement de monopoles sur les marchĂ©s. Pour nombre d’entreprises, la reprise de l’inflation pourrait bien ĂȘtre une aubaine pour continuer Ă  augmenter leurs tarifs. 

L’augmentation des tarifs ne relocalisera pas la production

Wired explique pourquoi nombre de petites entreprises amĂ©ricaines ne peuvent pas produire aux Etats-Unis. Pour elles, bien souvent, il n’y a pas d’alternative Ă  faire produire en Chine, quels que soient le niveau des droits de douane, notamment parce que l’appareil productif amĂ©ricain n’est plus disponible. En fait, la hausse des droits de douane Ă  eux seuls ne suffiront pas Ă  inciter les entreprises Ă  s’implanter aux États-Unis, affirme Kyle Chan, chercheur spĂ©cialisĂ© dans la politique industrielle Ă  l’universitĂ© de Princeton. Si les coĂ»ts bas sont une raison importante qui motive l’approvisionnement en Chine, la raison pour laquelle la production manufacturiĂšre en Chine est moins chĂšre que dans d’autres rĂ©gions n’est pas toujours liĂ©e au salaire des travailleurs ni Ă  une moindre qualitĂ©. Au contraire. L’industrie chinoise est trĂšs qualifiĂ©e, spĂ©cialisĂ©e et intĂ©grĂ©e. « La Chine est Ă©galement un leader mondial dans la production d’outils industriels, ce qui signifie que les usines peuvent facilement adapter leurs machines aux besoins en constante Ă©volution de leurs clients Â». Non seulement la production chinoise sait s’adapter aux exigences, mais elle sait produire aussi tant en petites qu’en grosses quantitĂ©s. Enfin, rapatrier la production aux Etats-Unis nĂ©cessiterait de construire des usines, voire de faire venir des spĂ©cialistes chinois pour cela, ce qui avec les politiques d’immigration mises en place s’avĂ©rerait dĂ©sormais impossible. 

Dans un Ă©ditorial saignant, le modĂ©rĂ© Financial Times n’a pas de mots assez durs contre la hausse des tarifs douaniers dĂ©cidĂ©s par Trump qu’il qualifie de « pire acte d’autodestruction de l’histoire Ă©conomique amĂ©ricaine Â». Pour l’économie amĂ©ricaine, les effets les plus immĂ©diats des mesures de Trump seront une hausse de l’inflation et un ralentissement de l’activitĂ© Ă©conomique. MĂȘme son de cloche pour David Brooks dans le New York Times : « Trump construit des murs. Ses politiques commerciales entravent non seulement la circulation des biens, mais aussi celle des idĂ©es, des contacts, des technologies et des amitiĂ©s. Ses politiques d’immigration ont le mĂȘme effet. Il s’en prend aux institutions et aux communautĂ©s les plus impliquĂ©es dans les Ă©changes internationaux Â». C’est oublier que les grandes nations sont des carrefours, rappelle Brooks. « Elles ont Ă©tĂ© des lieux oĂč des gens du monde entier se sont rencontrĂ©s, ont Ă©changĂ© des idĂ©es et en ont inventĂ© de nouvelles ensemble Â». L’entrĂ©e en vigueur des droits de douane aux Etats-Unis n’est pas le « Jour de la LibĂ©ration Â» de l’AmĂ©rique comme le clame Trump, mais risque bien plus d’ĂȘtre le « Jour de la Stagnation Â» et du dĂ©clin de l’empire amĂ©ricain.

La presse amĂ©ricaine se fait l’écho des effets trĂšs immĂ©diats que les tarifs douaniers ont sur le commerce. Le New York Times par exemple explique que les droits de douane rĂ©duisent dĂ©jĂ  les importations de voitures et paralysent les usines amĂ©ricaines, du fait de piĂšces indisponibles, comme aux pires temps de la pandĂ©mie. Avec les tarifs douaniers, Trump espĂšre faire revivre l’industrie manufacturiĂšre d’aprĂšs-guerre, qui, jusque dans les annĂ©es 70, a employĂ© plus de 20 millions d’AmĂ©ricains, rappelle le New York Times. Mais les pĂŽles industriels ont largement pĂ©riclitĂ© depuis. Les Ă©conomistes eux-mĂȘmes restent profondĂ©ment sceptiques : pour eux, les droits de douane ne suffiront pas Ă  rĂ©tablir l’industrie d’antan. Ils ne suffisent pas Ă  faire une politique industrielle. 

Pour Wired, le gouvernement Trump, en mĂȘme temps qu’il augmentait les droits de douane, a surtout arrĂȘtĂ© de financer le programme qui a stimulĂ© l’industrie amĂ©ricaine pendant des dĂ©cennies, le Manufacturing Extension Partnership (MEP), un programme et un rĂ©seau d’aide Ă  l’industrialisation pour les PME amĂ©ricaines. Dans une tribune, Brian Desse, ancien prĂ©sident du Conseil Ă©conomique des Etats-Unis durant l’administration Biden, rappelle que l’industrie automobile amĂ©ricaine est dĂ©sormais Ă  la traĂźne dans la course Ă  l’innovation. 60% des piĂšces qui constituent les vĂ©hicules amĂ©ricains sont importĂ©es et les droits de douane vont surtout venir renchĂ©rir les prix des vĂ©hicules des constructeurs nationaux. Mais Trump ne s’est pas attaquĂ© qu’aux droits de douane. Son projet de rĂ©duire les incitations fiscales pour l’innovation et la production nationale de batteries par exemple a gelĂ© les investissements des constructeurs amĂ©ricains : au premier trimestre 2025, les entreprises ont annulĂ© plus de 6 milliards de dollars de projets de fabrication de batteries. Or, ces incitations fiscales ont permis de limiter le retard dans la production de batteries, qui est aujourd’hui le lieu de la course Ă  l’innovation pour la voiture du futur. Trump enferme les Etats-Unis dans un piĂšge luddiste, qui risque bien plus de pĂ©naliser les entreprises amĂ©ricaines que de les aider Ă  dĂ©velopper leurs capacitĂ©s d’innovation et d’investissements. 

Le Financial Times semble assez inquiet de l’escalade des tarifs douaniers lancĂ©e par le prĂ©sident AmĂ©ricain. Les marchĂ©s Ă©galement, qui anticipent plutĂŽt un ralentissement Ă©conomique mondial voire une rĂ©cession. “Les droits de douane de Trump n’ont pas accĂ©lĂ©rĂ© la croissance Ă©conomique amĂ©ricaine. Au contraire, ils l’ont probablement stoppĂ©e”, rapporte Vox. Les entrepreneurs de la Tech, qui s’étaient ralliĂ©s massivement Ă  Trump, sont en train de faire la grimace. Pourtant, pour l’instant, souligne The Verge, ils restent assez silencieux sur l’augmentation des tarifs malgrĂ© l’impact certain sur leur activitĂ©. Il faut dire que personne ne souhaite se mettre Trump Ă  dos. 

Dans le New York Times, la journaliste Patricia Cohen estime que les perturbations Ă©conomiques introduites par le gouvernement Trump seront difficiles Ă  inverser, notamment parce que le reste du monde, lui, va rapidement s’y adapter. “Les chaĂźnes d’approvisionnement seront rĂ©organisĂ©es, de nouveaux partenariats seront conclus, et les Ă©tudiants, chercheurs et talents technologiques Ă©trangers trouveront d’autres destinations oĂč migrer.” 

Face au virage protectionniste de l’AmĂ©rique, PĂ©kin se positionne dĂ©jĂ  comme le dĂ©fenseur du libre-Ă©change et le nouveau leader du systĂšme commercial mondial. Comme le montrait un reportage du New York Times, les entreprises chinoises s’adaptent dĂ©jĂ  et rĂ©orientent leurs marchĂ©s et leurs budgets publicitaires, quand ils ne se mettent pas Ă  s’adresser directement aux AmĂ©ricains, explique la Technology Review, pour leur proposer des modalitĂ©s de vente directe pour rĂ©duire les prix en tentant de contourner l’augmentation des tarifs, comme les commissions des grandes plateformes chinoises de B2B, qui mettent les fabricants en relation avec les entreprises amĂ©ricaines.

Les consĂ©quences ne se font pas attendre. Les tarifs de la Fast Fashion ont augmentĂ© de 300% et les sites Shein et Temu ont clairement affichĂ© sur leurs sites l’impact des droits de douanes de chaque produit. Sur Amazon, Trump a appelĂ© personnellement Jeff Bezos pour que celui-ci n’affiche pas, en plus du prix des produits, les droits de douane spĂ©cifiques de chacun, afin que les consommateurs ne voient pas l’impact des tarifs douaniers sur le prix des produits. Bezos a visiblement cĂ©dĂ© trĂšs facilement. Le grand dĂ©fenseur de la libertĂ© et du libre marchĂ©, celui qui avait promis de mettre sa fortune en rempart contre les intimidations, n’a pas Ă©tĂ© plus courageux que les autres, ironise The Verge. Amazon a prĂ©fĂ©rĂ© faire pression sur ses fournisseurs pour que leurs prix n’augmentent pas et qu’ils absorbent eux-mĂȘmes l’augmentation plutĂŽt que de rĂ©duire les commissions que prĂ©lĂšve sa plateforme. 

En s’intĂ©ressant aux consĂ©quences sur une vaste gamme de produits, The Verge montre surtout que plus personne n’y comprend rien
 Et que l’incomprĂ©hension gĂ©nĂšre un fort attentisme des entreprises amĂ©ricaines qui ralentissent leurs achats comme leurs investissements. L’évolution des tarifs va Ă©galement “modifier les habitudes de consommation des AmĂ©ricains, ainsi que la production et les produits des entreprises amĂ©ricaines”. Les droits de douane ressemblent Ă  une arme automatique qui tire dans tous les sens. Mais nul ne sait qui elle va abattre en premier. Ce qui est sĂ»r, c’est que la guerre commerciale, elle, a dĂ©jĂ  commencĂ©. Et elle ne va bĂ©nĂ©ficier Ă  personne, sauf aux plus grandes entreprises qui vont continuer d’imposer leurs conditions Ă  toutes les autres.

  • ✇Dans les algorithmes
  • L’administration Trump compromet le dĂ©veloppement de l’IA
    L’avenir du leadership amĂ©ricain en matiĂšre d’IA est compromis, estime Matteo Wong pour The Atlantic. Les produits d’IA gĂ©nĂ©rative dĂ©veloppĂ©s par les grandes entreprises de l’IA amĂ©ricaine s’appuient sur des travaux de recherche, alors que le financement des universitĂ©s est attaquĂ© par le gouvernement Trump. Si Trump se prĂ©sente comme le dĂ©fenseur de l’IA, notamment en finançant le projet Stargate, c’est oublier que Â« l’IA gĂ©nĂ©rative n’est pas seulement une industrie : c’est une technologie qui
     

L’administration Trump compromet le dĂ©veloppement de l’IA

30 avril 2025 Ă  01:00

L’avenir du leadership amĂ©ricain en matiĂšre d’IA est compromis, estime Matteo Wong pour The Atlantic. Les produits d’IA gĂ©nĂ©rative dĂ©veloppĂ©s par les grandes entreprises de l’IA amĂ©ricaine s’appuient sur des travaux de recherche, alors que le financement des universitĂ©s est attaquĂ© par le gouvernement Trump. Si Trump se prĂ©sente comme le dĂ©fenseur de l’IA, notamment en finançant le projet Stargate, c’est oublier que Â« l’IA gĂ©nĂ©rative n’est pas seulement une industrie : c’est une technologie qui repose sur des innovations Â» et de la R&D. « L’industrie de l’IA a transformĂ© des recherches fondamentales antĂ©rieures en avancĂ©es majeures, propulsant les modĂšles de gĂ©nĂ©ration de langage et d’images vers des sommets impressionnants. Mais si ces entreprises souhaitent aller au-delĂ  des chatbots, leurs laboratoires d’IA ne peuvent fonctionner sans Ă©tudiants diplĂŽmĂ©s. Â»  « Aux États-Unis, on ne dĂ©croche pas de doctorat sans financement fĂ©dĂ©ral Â», rappelle le journaliste.

« De 2018 Ă  2022, le gouvernement a soutenu prĂšs de 50 milliards de dollars de projets universitaires liĂ©s Ă  l’IA, qui ont simultanĂ©ment reçu environ 14 milliards de dollars de subventions non fĂ©dĂ©rales, selon une Ă©tude menĂ©e par Julia Lane, Ă©conomiste du travail Ă  l’UniversitĂ© de New York. Une part importante des subventions est consacrĂ©e Ă  la rĂ©munĂ©ration des professeurs, des Ă©tudiants de troisiĂšme cycle et des chercheurs postdoctoraux, qui enseignent gĂ©nĂ©ralement eux-mĂȘmes en licence, puis travaillent ou crĂ©ent des entreprises privĂ©es, apportant leur expertise et leurs idĂ©es nouvelles. Jusqu’à 49 % du coĂ»t de dĂ©veloppement de modĂšles d’IA avancĂ©s, tels que Gemini et GPT-4, est reversĂ© au personnel de recherche« . Dans un article pour Nature, Julia Lane tentait d’évaluer le poids des dĂ©penses de recherche et des investissements publics dans l’IA, en soulignant la difficultĂ©, notamment parce qu’elle ne se limite pas aux seuls laboratoires d’IA. Certains chercheurs estiment mĂȘme que quatre cinquiĂšmes des Ă©conomies de certains pays avancĂ©s peuvent dĂ©sormais ĂȘtre qualifiĂ©s de « difficiles Ă  mesurer Â».

« L’innovation est le fruit d’investissements fĂ©dĂ©raux, c’est un investissement dans les personnes Â», explique Mme Lane. Â« Si les entreprises d’IA souhaitent appliquer leurs modĂšles Ă  des problĂšmes scientifiques – par exemple en oncologie ou en physique des particules – ou construire des machines « superintelligentes Â», elles auront besoin de personnel dotĂ© d’une formation scientifique sur mesure qu’une entreprise privĂ©e ne peut tout simplement pas fournir. RĂ©duire drastiquement le financement du NIH, de la NSF et d’autres organismes de financement de la recherche, ou retirer directement des fonds aux universitĂ©s, pourrait entraĂźner une baisse de l’innovation, une diminution du nombre de chercheurs en IA formĂ©s aux États-Unis et, in fine, une industrie amĂ©ricaine moins prospĂšre Â».

  • ✇Dans les algorithmes
  • Doge : la privatisation des services publics
    Il reste difficile de suivre ce qui se dĂ©roule de l’autre cĂŽtĂ© de l’Atlantique depuis l’arrivĂ©e de Trump au pouvoir, ce dĂ©mantĂšlement de l’AmĂ©rique, comme nous l’appelions. Nous avons tentĂ© Ă©galement de faire le point de ce qu’était le Doge, de quelle efficacitĂ© il Ă©tait le nom, Ă  savoir un piratage, un remplacement dĂ©mocratique, une porte ouverte pour la corruption et l’escroquerie
 Depuis, les articles s’accumulent encore. Un son de cloche complĂ©mentaire le prĂ©sente souvent comme une privatisa
     

Doge : la privatisation des services publics

29 avril 2025 Ă  01:00

Il reste difficile de suivre ce qui se dĂ©roule de l’autre cĂŽtĂ© de l’Atlantique depuis l’arrivĂ©e de Trump au pouvoir, ce dĂ©mantĂšlement de l’AmĂ©rique, comme nous l’appelions. Nous avons tentĂ© Ă©galement de faire le point de ce qu’était le Doge, de quelle efficacitĂ© il Ă©tait le nom, Ă  savoir un piratage, un remplacement dĂ©mocratique, une porte ouverte pour la corruption et l’escroquerie
 Depuis, les articles s’accumulent encore. Un son de cloche complĂ©mentaire le prĂ©sente souvent comme une privatisation inĂ©dite des services publics. Explorons cette piste. 

Une privatisation inédite : les délégataires aux commandes

Le Doge tient d’une privatisation inĂ©dite des services publics, assĂšne Brett Heinz pour The American Prospect, rappelant que si Musk a dĂ©pensĂ© 290 millions de dollars pour l’élection de Trump, ses entreprises ont reçu plus de 38 milliards de dollars d’aides gouvernementales au cours des deux derniĂšres dĂ©cennies. 

En fait, le Doge ne vise pas Ă  accroĂźtre l’efficacitĂ© gouvernementale, mais bien Ă  dĂ©manteler la fonction publique en ciblant les dĂ©penses que Musk et Trump dĂ©sapprouvent, tout en centralisant le pouvoir dĂ©cisionnel Ă  la Maison Blanche. Mais surtout, le Doge entĂ©rine une nouvelle stratĂ©gie : « l’accession de sous-traitants gouvernementaux comme Musk au rang de dĂ©cideurs politiques Â». Ce sont ceux qu’on appellerait en France les dĂ©lĂ©gataires des services publics qui prennent les commandes. 

« La seule classe parasitaire qui profite de l’inefficacitĂ© du gouvernement est constituĂ©e de sous-traitants gouvernementaux Ă  but lucratif comme Musk, qui s’enrichissent sur l’argent des contribuables en fournissant des services hors de prix pour compenser le manque de capacitĂ©s de l’État, tout en utilisant leurs milliards pour manipuler le systĂšme Ă  leur avantage. Permettre Ă  des sous-traitants comme lui de dĂ©cider de la façon dont le gouvernement dĂ©pense l’argent est Ă  la fois un affront Ă  la dĂ©mocratie et une invitation ouverte Ă  davantage de corruption Â», explique Heinz.

« La plupart des AmĂ©ricains ignorent Ă  quel point leur gouvernement a dĂ©jĂ  Ă©tĂ© privatisĂ©. On estimait en 2017 que plus de 40 % des personnes travaillant pour le gouvernement ne sont pas rĂ©ellement des fonctionnaires. Ce sont des sous-traitants d’entreprises privĂ©es, embauchĂ©s pour prendre en charge une tĂąche particuliĂšre du secteur public. Dans certains secteurs gouvernementaux, comme l’armĂ©e, le recours aux sous-traitants est monnaie courante : en 2019, on comptait 1,5 sous-traitant pour chaque soldat amĂ©ricain en Irak et en Afghanistan. Â»

Pour le dire autrement, le gouvernement fĂ©dĂ©ral ne souffre pas d’un effectif plĂ©thorique, au contraire : il y a moins d’employĂ©s fĂ©dĂ©raux en 2015 qu’en 1984. Par contre, la sous-traitance privĂ©e, elle, a explosĂ©. « Entre 2013 et 2023, les dĂ©penses totales consacrĂ©es Ă  l’attribution de contrats fĂ©dĂ©raux ont augmentĂ© de prĂšs de 65 % Â»

La croyance dans l’efficacitĂ© de la sous-traitance privĂ©e n’a jamais Ă©tĂ© corroborĂ©e par des preuves solides, rappelle Heinz. Reste que, dĂ©sormais, ces contractants ne veulent pas seulement rĂ©soudre pour plus cher les problĂšmes du secteur public, ils veulent aussi pouvoir dĂ©cider, pour le gouvernement, de la nature du problĂšme. « Les entrepreneurs ne veulent pas simplement obĂ©ir aux ordres du gouvernement, mais fonctionner comme un para-État capable d’influencer les ordres que le gouvernement leur donne. À l’instar du rĂȘve de Musk de construire des voitures autonomes, l’industrie rĂȘve d’un entrepreneur auto-contractant. Et Musk lui-mĂȘme teste ce concept. Â» Brett Heinz rappelle que les rafles de donnĂ©es du Doge ont d’abord ciblĂ© des agences fĂ©dĂ©rales oĂč Musk avait des conflits d’intĂ©rĂȘts. « En le qualifiant d’ailleurs d’« employĂ© spĂ©cial du gouvernement », la Maison Blanche lui impose des normes Ă©thiques moins strictes que la plupart des fonctionnaires qu’il licencie. Â» Et Musk n’est pas le seul sous-traitant du gouvernement Ă  y Ă©tendre son pouvoir. « On entend souvent dire que le gouvernement devrait ĂȘtre gĂ©rĂ© « davantage comme une entreprise ». Le cas du Doge nous montre pourtant le contraire. Si nous voulions rĂ©ellement un gouvernement plus efficace, il faudrait rĂ©duire le nombre de sous-traitants et embaucher davantage de fonctionnaires, souvent plus rentables et toujours plus responsables et transparents. Musk fait le contraire, offrant Ă  ses entreprises et alliĂ©s davantage d’opportunitĂ©s d’intervenir et de proposer des travaux surĂ©valuĂ©s et de qualitĂ© douteuse. Â»

L’effondrement des services publics

Le Washington Post raconte l’effondrement de la SĂ©curitĂ© sociale amĂ©ricaine. L’agence fĂ©dĂ©rale, qui verse 1 500 milliards de dollars par an en prestations sociales Ă  73 millions de retraitĂ©s, Ă  leurs survivants et aux AmĂ©ricains pauvres et handicapĂ©s a vu ses effectifs fondre. Son site web est souvent en panne depuis que le Doge a pris les commandes, empĂȘchant de nombreux bĂ©nĂ©ficiaires de mettre Ă  jour leurs demandes ou d’obtenir des informations sur des aides qui ne viennent plus. 12% des 57 000 employĂ©s ont Ă©tĂ© licenciĂ©s. Des milliers d’AmĂ©ricains s’inquiĂštent auprĂšs de leurs dĂ©putĂ©s ou de l’agence des versements Ă  venir. « La sĂ©curitĂ© sociale est la principale source de revenus d’environ 40 % des AmĂ©ricains ĂągĂ©s Â». En sous-effectif et en manque de budgets de fonctionnement depuis longtemps, la purge est en train de laminer ce qu’il restait du service. Mais, face aux retraitĂ©s inquiets, les employĂ©s ont peu de rĂ©ponses Ă  apporter, et ce alors que les escroqueries en ligne se multiplient, profitant de l’aubaine que l’inquiĂ©tude gĂ©nĂšre auprĂšs d’eux. Certains bureaux estiment que les gens pourraient ĂȘtre privĂ©s de prestations pendant des mois. 

Wired rapporte que le Doge a dĂ©cidĂ© de réécrire le code du systĂšme de la SĂ©curitĂ© sociale amĂ©ricaine, afin de se dĂ©barrasser du langage Cobol avec lequel il a Ă©tĂ© Ă©crit depuis l’origine et que peu de dĂ©veloppeurs maĂźtrisent. Réécrire ce code en toute sĂ©curitĂ© prendrait des annĂ©es : le Doge souhaite que cela se fasse en quelques mois. Qu’importe si cela bloque les versements d’allocation de millions d’AmĂ©ricains. 

En 2020, pour Logic Mag, Mar Hicks avait explorĂ© les enjeux du langage Cobol depuis lequel nombre d’applications des services publics sont construites (et pas seulement aux Etats-Unis, notamment parce que ces systĂšmes sont souvent anciens, hĂ©ritages de formes de calcul prĂ©cĂ©dant l’arrivĂ©e d’internet). Mar Hicks rappelait dĂ©jĂ  que ce vieux langage de programmation avait Ă©tĂ©, durant la pandĂ©mie, un bouc-Ă©missaire idĂ©al pour expliquer la dĂ©faillance de nombre de services publics Ă  rĂ©pondre Ă  l’accroissement des demandes d’aides des administrĂ©s. Pourtant depuis 6 dĂ©cennies, les programmes Ă©crits en Cobol se sont rĂ©vĂ©lĂ©s extrĂȘmement robustes, trĂšs transparents et trĂšs accessibles. C’est sa grande accessibilitĂ© et sa grande lisibilitĂ© qui a conduit les informaticiens Ă  le dĂ©nigrer d’ailleurs, lui prĂ©fĂ©rant des langages plus complexes, valorisant leurs expertises d’informaticiens. Le problĂšme c’est que ces systĂšmes nĂ©cessitent surtout une maintenance constante. Or, c’est celle-ci qui a fait souvent dĂ©faut, notamment du fait des logiques d’austĂ©ritĂ© qui ont rĂ©duit le personnel en charge de la maintenance des programmes. “C’est ce manque d’investissement dans le personnel, dĂ» Ă  l’austĂ©ritĂ©, plutĂŽt que la fiction rĂ©pandue selon laquelle les programmeurs aux compĂ©tences obsolĂštes partaient Ă  la retraite, qui a Ă©liminĂ© les programmeurs Cobol des annĂ©es avant cette rĂ©cente crise.“ Hicks souligne que nous ne manquons pas de programmeurs Cobol. En fait, explique-t-elle : “la technologie actuelle pourrait bĂ©nĂ©ficier davantage de la rĂ©silience et de l’accessibilitĂ© que Cobol a apportĂ©es Ă  l’informatique, en particulier pour les systĂšmes Ă  fort impact”. 

“Les systĂšmes anciens ont de la valeur, et construire constamment de nouveaux systĂšmes technologiques pour des profits Ă  court terme au dĂ©triment des infrastructures existantes n’est pas un progrĂšs. En rĂ©alitĂ©, c’est l’une des voies les plus rĂ©gressives qu’une sociĂ©tĂ© puisse emprunter Â». “Le bonheur et le malheur d’une bonne infrastructure, c’est que lorsqu’elle fonctionne, elle est invisible : ce qui signifie que trop souvent, nous n’y accordons pas beaucoup d’attention. Jusqu’à ce qu’elle s’effondre”.

  • ✇Dans les algorithmes
  • DĂ©gouverner ?
    En 2021, aprĂšs les confinements de la pandĂ©mie de Covid-19, la question des chaĂźnes d’approvisionnement et de leur pilotage s’est reposĂ©e depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles ĂȘtre si vulnĂ©rables dans les tensions ? Si le monde nous semble si incomprĂ©hensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non tradui
     

Dégouverner ?

28 avril 2025 Ă  01:00

En 2021, aprĂšs les confinements de la pandĂ©mie de Covid-19, la question des chaĂźnes d’approvisionnement et de leur pilotage s’est reposĂ©e depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles ĂȘtre si vulnĂ©rables dans les tensions ?

Si le monde nous semble si incomprĂ©hensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero. Des chaĂźnes d’approvisionnement automatisĂ©es aux Ă©changes commerciaux Ă  haute frĂ©quence, la complexitĂ© rend le monde « inconnaissable Â» Ă  toute intelligence humaine. Pire souligne-t-il, pour gĂ©nĂ©rer toujours plus de croissance, les systĂšmes automatisĂ©s doivent augmenter sans cesse leur complexitĂ©. Aucun humain n’est capable de comprendre ce qu’il se passe derriĂšre les Ă©crans : chaque jour, 82,2 ans de vidĂ©o sont tĂ©lĂ©chargĂ©s sur YouTube ; 500 millions de tweets sont Ă©changĂ©s, l’équivalent d’un livre de 10 millions de pages ! En 2014 dĂ©jĂ , l’écrivain a passĂ© une semaine sur un porte-conteneur
 Et ce qui l’a le plus frappĂ©, c’était de constater combien chaque dĂ©cision Ă©tait prise par la technologie. Du grutier au capitaine, chacun recevait des instructions via des algorithmes de gestion, acceptĂ©s et respectĂ©s sans conteste par des professionnels compĂ©tents, quand bien mĂȘme ces dĂ©cisions ne se motivaient d’aucune explication. Ainsi, explique-t-il, le capitaine du bateau recevait rĂ©guliĂšrement des courriels automatisĂ©s lui demandant de ralentir le navire, sans que la compagnie maritime lui en explique la raison. Comme si nous avions dĂ©jĂ  lĂąchĂ© prise sur la motivation des dĂ©cisions et l’explicabilitĂ© du monde


Qu’importe, tant qu’il y a de la nourriture et des vĂȘtements dans les magasins, de l’argent dans les distributeurs, des histoires sur notre Instagram
 Tout semble dĂ©sormais se faire tout seul, sans avoir besoin de s’en inquiĂ©ter ! Pourtant, ces systĂšmes complexes peuvent tomber en panne. 2020 par exemple, a permis de constater combien les chaĂźnes d’approvisionnement pouvaient ĂȘtre sous pression, entraĂźnant leurs lots de pĂ©nuries. Les chaĂźnes d’approvisionnement subissent Ă©galement rĂ©guliĂšrement les offensives de logiciels malveillants
 Pourtant, Ă  ce jour, aucune dĂ©faillance n’a Ă©tĂ© rĂ©ellement catastrophique, comme si l’effondrement liĂ© Ă  la complexitĂ© Ă©tait finalement bien plus rĂ©silient qu’escomptĂ©. C’est Ă  se demander si ces rĂ©seaux finalement ne fonctionnent pas trop bien, malgrĂ© leur opacitĂ© intrinsĂšque. Nous leur avons donnĂ© un grand pouvoir dĂ©cisionnel pour atteindre leurs objectifs le plus efficacement possible et ils y arrivent relativement bien
 pour autant qu’on ne les inspecte pas en dĂ©tail, souligne Maughan, car ils ne sont pas dotĂ©s de capacitĂ© Ă  prendre des dĂ©cisions Ă©thiques ou des jugements moraux sur ce qu’ils font – nous rappelant les propos de Miriam Posner sur les limites de la transformation logicielle de la chaĂźne logistique. En fait, rappelle Maughan, par sa conception mĂȘme, le rĂ©seau de la chaĂźne d’approvisionnement mondial fait perdurer et accroĂźt les inĂ©galitĂ©s : son rĂŽle est de tirer parti des Ă©carts de niveaux de vie pour faire produire dans les pays oĂč cette production est la moins chĂšre et expĂ©dier les marchandises Ă  l’autre bout du monde pour les vendre Ă  profit. Ces constats se prolongent jusqu’aux plateformes de streaming qui fournissent des contenus de divertissement illimitĂ©s, au dĂ©triment des revenus de ceux qui les produisent. Tout comme le capitaine du porte-conteneur, nous avons de moins en moins de contrĂŽle politique sur nos dĂ©mocraties elles-mĂȘmes, explique Maughan. Pour paraphraser le cinĂ©aste Adam Curtis, au lieu d’élire des dirigeants visionnaires, nous ne faisons en fait que voter pour des cadres intermĂ©diaires dans un systĂšme mondial complexe que personne ne contrĂŽle entiĂšrement. Le rĂ©sultat de cette situation ressemble de plus en plus Ă  un vide dĂ©mocratique. Nous vivons Ă  une Ă©poque oĂč les Ă©lecteurs ont un niveau record de mĂ©fiance envers les politiciens, en partie parce qu’ils peuvent sentir cette dĂ©connexion, soutient Maughan : ils voient dans la rĂ©alitĂ© quotidienne que, malgrĂ© leurs revendications, les politiciens ne peuvent pas apporter de changements, comme si nul ne pouvait plus agir sur le systĂšme dĂ©cisionnel automatisĂ©. Pire, souligne Maughan, nombre de politiques pensent qu’on ne doit pas rĂ©parer le systĂšme, mais accĂ©lĂ©rer le processus de dĂ©rĂ©glementation, c’est-Ă -dire donner plus de pouvoir encore Ă  l’automatisation en rĂ©seau.

Pour Maughan, il nous faut trouver des moyens pour accroĂźtre notre connaissance de l’inconnaissable et des stratĂ©gies pour contrer l’impuissance et l’anxiĂ©tĂ© que le systĂšme produit, conclut-il. Nous pourrions ĂȘtre tout Ă  fait d’accord avec lui, si l’on ne constatait pas, avec le temps, que cette demande d’explication et d’éthique, Ă  force d’ĂȘtre rĂ©pĂ©tĂ©e, semble s’éloigner de nous Ă  mesure que les systĂšmes se dĂ©ploient et s’enracinent. PlutĂŽt que d’exiger une transparence qui semble partout reculer Ă  mesure qu’on la mobilise, ne faut-il pas mieux regarder ce qui l’empĂȘche ? Pourquoi ces chaĂźnes semblent-elles de plus en plus fortes et de moins en moins gouvernables ? Peut-ĂȘtre faut-il entendre qu’elles n’ont pas pour but d’ĂȘtre gouvernables justement – ou plus exactement que leur structuration (qui elle est bien gouvernĂ©e) tend surtout Ă  produire, volontairement, de l’ingouvernabilitĂ©, c’est-Ă -dire Ă  rĂ©duire la portĂ©e de ceux qui peuvent les gouverner


Un monde sans gouvernance accessible ?

La revue juridique Transnational Legal Theory se saisissait justement dans un numĂ©ro rĂ©cent du concept de « non-gouvernance Â» (ungovernance). Dans les diffĂ©rentes contributions Ă  ce numĂ©ro, plusieurs sens ressortaient, montrant que le concept avait certainement encore besoin d’ĂȘtre affinĂ©. Pour certains auteurs, la non-gouvernance semblait plutĂŽt tenir d’une ingouvernabilitĂ©, d’une impossibilitĂ© Ă  gouverner du fait de l’absence de structures et d’instruments pour se faire. Pour d’autres, la non-gouvernance semblait plutĂŽt relever d’une dĂ©gouvernance, d’un recul de la gouvernementalitĂ©, comme le proposent les procĂ©dures reposant sur les algorithmes et l’intelligence artificielle par exemple (en suivant le concept de gouvernementalitĂ© algorithmique dĂ©fini par Antoinette Rouvroy et Thomas Berns, qui est un changement de modalitĂ©s de gouvernement justement visant Ă  faire disparaĂźtre le Â« projet mĂȘme de gouverner Â»).

Ainsi, les juristes Deval Desai et Andrew Lang, dans leur article introductif dĂ©finissent la non-gouvernance comme des projets globaux qui poursuivent de grandes visions sous des revendications d’universalitĂ© sans pour autant proposer de prescriptions adĂ©quates, sans possibilitĂ© de faire correspondre les structures institutionnelles aux rĂ©sultats.

Plus prĂ©cisĂ©ment, expliquent-ils, la non-gouvernance globale ne signifie pas une absence de gouvernance, mais des tensions entre le fait que le cĂŽtĂ© mondial trouble la gouvernance et le fait que la gouvernance trouble son projet mondial. Pour eux, la non-gouvernance fonctionne dans un contexte de grandes visions (comme le marchĂ© ou l’État de droit) qui ne disposent pas de voies de recours adaptĂ©es
 et qui donc souffrent d’une impossibilitĂ© d’action (c’est-Ă -dire que les structures institutionnelles ne peuvent pas matcher avec les rĂ©sultats souhaitĂ©s), ce qui conduit Ă  la fois Ă  poursuivre leur action et Ă  en constater l’impossibilitĂ©, tant et si bien que le succĂšs ne se mesure pas dans sa capacitĂ© Ă  construire des institutions adaptĂ©es, mais plutĂŽt Ă  rĂ©arranger sans cesse les grandes visions initiales.

Pour leurs confrĂšres Dimitri Van Den Meerssche et Geoff Gordon, le risque et la rĂ©silience sont la nouvelle architecture normative. En prenant l’exemple du fonctionnement de la banque mondiale, les deux chercheurs soulignent que le risque et la complexitĂ© ne sont plus considĂ©rĂ©s comme des conditions limitant un projet, mais comme des Ă©lĂ©ments constitutifs, visant Ă  gouverner depuis des outils qui reposent sur l’inconnaissabilitĂ©. Un autre article signĂ© Stephen Humpreys s’intĂ©resse Ă  la non-gouvernance de la question climatique. Pour ce dernier, le GIEC par exemple a souvent soulignĂ© que la gouvernance de la question climatique – ou plutĂŽt son absence – Ă©tait justement un obstacle majeur au rĂšglement du problĂšme climatique. Ou pour le dire autrement, que les structures de gouvernance existantes sont en elles-mĂȘmes un obstacle Ă  la gestion du climat. Pour Humphreys, la non-gouvernance signifie ici plutĂŽt un refus provisoire, stratĂ©gique ou conscient de mĂ©canismes de contrĂŽles par rapport aux compĂ©tences institutionnelles existantes. Le rĂ©gime de droit construit pour contenir le changement climatique est imparfait et complexe et s’inscrit dans un vaste rĂ©seau d’appareils rĂ©glementaires interconnectĂ©s. Si la question climatique est d’abord un problĂšme de connaissance que le GIEC Ă©claire et cartographie, celui-ci ne gouverne pas la politique climatique qui est laissĂ©e aux dĂ©cideurs politiques (ainsi qu’aux organisations internationales, aux institutions scientifiques, aux ONG voire mĂȘme aux entreprises ou aux individus
). Quand on regarde certains secteurs par exemple, comme le pĂ©trole ou l’aviation, toute la question est de savoir ce qui doit ĂȘtre rĂ©gi, par qui et comment
 et selon quelles pratiques rĂ©glementaires. La question de la non-gouvernance ne consiste pas Ă  reconnaĂźtre la complexitĂ© ou l’incohĂ©rence des politiques, mais Ă  comprendre comment leurs interactions peuvent ĂȘtre comprises comme quelque chose de nĂ©cessaire, de rationnel ou d’utile, plutĂŽt que comme quelque chose de contingent, irrationnel, erronĂ© ou inĂ©vitable.

Il distingue plusieurs modes de non-gouvernance : agnostique, expĂ©rimentale, inoculative ou catastrophique. Pour lui, explique-t-il, la non-gouvernance est le rĂ©sultat accidentel ou fortuit d’un ensemble de dĂ©cisions rationnelles, soutenues par un vaste appareil rĂ©glementaire, mais qui se rĂ©vĂšle au final trĂšs sĂ©lectif et qui surtout intĂšgre et prĂ©sume l’incertitude Ă  toute rĂ©solution. Pour Christine Belll’ingouvernance n’est pas hors du droit, mais dans ses failles, ses assemblages, ses mises Ă  jour, ses dissonances
 Pour Zinaida Millerla justice transitionnelle par exemple relĂšve d’une forme de non-gouvernance oĂč les objectifs de justice, d’apaisement, de vĂ©ritĂ© et rĂ©conciliation semblent plus importants que les solutions mobilisĂ©es (voir son article). Pour Michelle Burgis-Kasthala, les accords d’Oslo qui ont dĂ©fini les modalitĂ©s des rapports entre IsraĂ©liens et Palestiniens reposent beaucoup plus sur une absence de gouvernance que sur des modalitĂ©s de gouvernements claires, qui ont permis aux acteurs d’y introduire d’innombrables perturbations (voir son article).

Le numĂ©ro de Transnational Legal Theory ne s’intĂ©resse pas au numĂ©rique. Mais le concept de non-gouvernance voire de dĂ©gouvernance par les systĂšmes techniques mĂ©riteraient certainement d’ĂȘtre explorĂ©s et prĂ©cisĂ©s plus avant. À l’heure oĂč les systĂšmes techniques nous font entrer dans une gestion Ă  vue, agile et rĂ©active en continue, oĂč les outillages de la dĂ©cision n’ont jamais Ă©tĂ© aussi nourris pour modĂ©liser le futur, ceux-ci peinent pourtant Ă  dessiner un futur, comme le soulignait trĂšs justement le chercheur Olivier Ertzscheid en rendant compte d’une discussion avec Antoinette Rouvroy justement. Â« De fait, c’est peut-ĂȘtre prĂ©cisĂ©ment parce que les gouvernements sont noyĂ©s par les (en partie) fausses capacitations Ă  prĂ©voir Â« le Â» futur qu’ils se retrouvent aussi incapables de dessiner Â« un Â» futur. La quasi-certitude de pouvoir juguler la part d’incertitude du monde, diminue plus qu’elle n’augmente la capacitĂ© d’agir en situation d’incertitude. Â»

La dĂ©sorganisation : mode de fonctionnement des organisations ?

Nous voici confrontĂ©s Ă  des errements rĂ©pĂ©tĂ©s que la crise sanitaire a d’autant plus amplifiĂ©s qu’elle a mis de cĂŽtĂ© les questions d’équitĂ© et d’égalitĂ©, au profit d’une efficacitĂ© qui serait seule essentielle quand tout le reste ne le serait plus. Reste que l’efficacitĂ© de la rĂ©ponse Ă  la pandĂ©mie a elle aussi butĂ© sur les modalitĂ©s de rĂ©ponse, sur ses rĂ©ponses opĂ©rationnelles, comme le soulignaient les chercheurs en sociologie des organisations, Henri BergeronOlivier BorrazPatrick Castel et François Dedieu dans leur trĂšs stimulant bilan de la pandĂ©mie Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020). Les chercheurs s’y interrogeaient : pourquoi les situations de crises donnent lieu Ă  une telle crĂ©ativitĂ© organisationnelle rendant les plans prĂ©parĂ©s avec tant d’attention caduque avant d’ĂȘtre mis en oeuvres ? Pourquoi ce foisonnement augmente-t-il les problĂšmes de coordination qu’ils sont censĂ©s rĂ©soudre ?

Pour les chercheurs, nous questionnons le poids des dĂ©faillances ou des mĂ©rites individuels et nĂ©gligeons les dimensions collectives et organisationnelles des dĂ©cisions. Nous minimisons les risques et signaux certainement parce que les organisations sont mal Ă©quipĂ©es pour les faire remonter. Â« La coopĂ©ration et la coordination demeurent le maillon faible – le « peu-pensĂ© Â» – des dispositifs organisationnels Â», d’oĂč le fait qu’ils sortent des cadres en cas de crise, mais souvent au dĂ©triment de ce qui en est exclu (comme les considĂ©rations Ă©conomiques exclues du cadrage trĂšs hospitalier de la crise). Dans un monde saturĂ© d’organisations, nous peinons toujours Ă  les organiser ! Certainement parce que cette organisation est intimement liĂ©e au pouvoir (ce qui n’est pas sans Ă©voquer pour moi, les questions posĂ©es par FrĂ©dĂ©ric Laloux dans Reinventing organisations). Dans la gestion Ă©litaire et sanitaire de la crise que nous connaissons, les organisations et protocoles créés ont favorisĂ© une dĂ©cision Ă  courte vue, top-down, conflictuelle
 expliquent-ils. DerriĂšre leurs analyses, les auteurs consacrent tout un chapitre sur comment apprendre des crises, comment passer de la recherche de culpabilitĂ©s Ă  la rĂ©forme des causes structurelles, appelant Ă  crĂ©er une sorte d’observatoire des crises pour en tirer des enseignements qui ne soient plus singuliers – car les crises ne le sont pas – mais systĂ©miques. En dĂ©nonçant, avec rigueur, l’excĂšs de confiance, la saturation dĂ©sorganisationnelle, la gestion Ă©litaire, l’exubĂ©rante crĂ©ativitĂ© procĂ©durale, l’épuisement dĂ©cisionniste et contradictoire
 les chercheurs soulignent nĂ©anmoins que ces dĂ©fauts demeurent le lot commun de toutes nos organisations.

Le Â« command and control Â» autoritaire produit rarement ce qu’on en attend. Il produit surtout de la dĂ©fiance. Finalement, Ă  les lire, on se dit que la non-gouvernance, la dĂ©sorganisation ou la production de l’ingouvernabilité  sont peut-ĂȘtre les diverses facettes d’une rĂ©ponse Ă  une mĂȘme complexitĂ©. Sous cet angle, la non-gouvernance tiendrait plus d’une rĂ©ponse infrastructurelle aux incertitudes. En ce sens, finalement, l’opacitĂ©, la coupure dĂ©mocratique et l’absence d’éthique semblent plutĂŽt tenir de rĂ©ponses pour entretenir l’inactionnabilitĂ© du monde, un moyen pour rĂ©duire, mĂȘme dans l’adversitĂ©, le nombre de ceux qui peuvent gouverner ? Ne pas gouverner n’est pas tant un moyen de dĂ©sinnover, comme le prĂŽnait le philosophe Alexandre Monnin dans nos pages, mais plutĂŽt un moyen pour assurer la continuitĂ© du monde. DĂ©gouverner, tient du symptĂŽme plus que du remĂšde. DĂ©gouverner, c’est assurĂ©ment invisibiliser toute gouvernance.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 6 janvier 2021.

  • ✇Dans les algorithmes
  • Du rĂŽle du logiciel dans la chaĂźne d’approvisionnement
    En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rĂŽle du logiciel dans les chaĂźnes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaĂźnes logistiques ne sont pas Ă©thiques, c’est parce que l’éthique n’est pas une donnĂ©e que traite leurs logiciels. Explication. Professeure Ă  l’universitĂ© de Californie et spĂ©cialiste des questions technologiques, Miriam Posner signe dans le New Yorker une trĂšs intĂ©ressante tribune sur la transformation logicielle de
     

Du rîle du logiciel dans la chaüne d’approvisionnement

24 avril 2025 Ă  01:00

En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rĂŽle du logiciel dans les chaĂźnes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaĂźnes logistiques ne sont pas Ă©thiques, c’est parce que l’éthique n’est pas une donnĂ©e que traite leurs logiciels. Explication.

Professeure Ă  l’universitĂ© de Californie et spĂ©cialiste des questions technologiques, Miriam Posner signe dans le New Yorker une trĂšs intĂ©ressante tribune sur la transformation logicielle de la chaĂźne logistique.

En consultant un rapport (« cauchemardesque Â») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dĂ©nonce les conditions de travail sur les chaĂźnes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?

De l’abstraction des chaünes d’approvisionnements

Quand elle a demandĂ© Ă  ses Ă©tudiants de travailler sur la question de la chaĂźne d’approvisionnement de matĂ©riel Ă©lectronique, elle s’est rendu compte que, quand bien mĂȘme certaines entreprises se vantent de connaĂźtre et maĂźtriser leur chaĂźne logistique de bout en bout, aucune ne sait exactement d’oĂč proviennent les composants qu’elles utilisent. Â« Cette ignorance est inhĂ©rente au mode de fonctionnement des chaĂźnes d’approvisionnement Â». La coque de plastique d’une tĂ©lĂ©vision par exemple peut-ĂȘtre construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularitĂ© : si une entreprise cesse son activitĂ©, ses partenaires immĂ©diats peuvent la remplacer rapidement, sans nĂ©cessairement avoir Ă  consulter qui que ce soit, ce qui rend la chaĂźne trĂšs souple et adaptable
 Mais rend Ă©galement trĂšs difficile l’identification des multiples maillons de la chaĂźne logistique.

Nous avons une vision souvent abstraite des chaĂźnes d’approvisionnements que nous n’imaginons que comme des chaĂźnes physiques. Or leur gestion est devenue complĂštement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaĂźnes logicielles elles non plus ne voient ni les usines, ni les entrepĂŽts, ni les travailleurs. Elles regardent des Ă©crans et des tableurs : leur vision de la chaĂźne d’approvisionnement est tout aussi abstraite que la nĂŽtre, explique la chercheuse.

Le leader logiciel de la chaĂźne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas tĂ©lĂ©charger sur l’App Store. C’est un logiciel industriel spĂ©cialisĂ© qui se dĂ©ploie Ă  l’échelle d’entreprises pour piloter la chaĂźne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilitĂ© ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dĂ©diĂ©e.

Le logiciel est complexe. Il se prĂ©sente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaĂźne d’approvisionnement (commande, fabrication, emballage, expĂ©ditions
). La conception d’une chaĂźne est un processus qui implique plusieurs opĂ©rateurs et entreprises, sous forme de « composants Â». Un spĂ©cialiste de la demande par exemple entre des informations sur les ventes passĂ©es (variations saisonniĂšres, promotions planifiĂ©es, etc.) et le logiciel calcule combien de produits doivent ĂȘtre fabriquĂ©s. Un autre spĂ©cialiste utilise des informations sur les dĂ©lais d’expĂ©ditions, les coĂ»ts de stockage, les capacitĂ©s d’usine pour crĂ©er un « plan de rĂ©seau logistique Â» qui dĂ©termine le moment oĂč chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis Ă  un autre spĂ©cialiste pour planifier la production et calculer le calendrier dĂ©taillĂ© qui vont dĂ©terminer la maniĂšre dont le processus se dĂ©roulera sur le terrain le plus prĂ©cisĂ©ment possible. Tout cela prend la forme de sĂ©ries de feuilles de calcul, de cases Ă  cocher, de fenĂȘtres contextuelles
 qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matĂ©rialitĂ© de l’information qui s’incarne aujourd’hui dans le tableur. C’est Â« pourtant lĂ  que les prĂ©visions de marchĂ©s sont traduites en ordre de marche des travailleurs Â», explique Posner. La planification de la production et le calendrier dĂ©taillĂ© reposent sur des « heuristiques Â», des algorithmes intĂ©grĂ©s qui rĂ©partissent la production et donc la main d’oeuvre pour que les installations fonctionnent Ă  leur capacitĂ© maximale. D’ailleurs, souligne Miriam Posner, l’exĂ©cution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble Ă  une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaĂźne.

L’utilisation de SAP est difficile reconnaĂźt la chercheuse. Chaque tĂąche est compliquĂ©e Ă  configurer, avec d’innombrables paramĂštres Ă  valider. Le plus souvent, ce travail est divisĂ© et nĂ©cessite de multiples interventions diffĂ©rentes. En fait, Â« aucun individu ne possĂšde une image dĂ©taillĂ©e de l’ensemble de la chaĂźne d’approvisionnement. Au lieu de cela, chaque spĂ©cialiste sait seulement ce dont ses voisins ont besoin. Â»

« Dans un tel systĂšme, un sentiment d’inĂ©vitabilitĂ© s’installe. Les donnĂ©es dictent un ensemble de conditions qui doivent ĂȘtre remplies, mais rien n’explique comment ces donnĂ©es ont Ă©tĂ© obtenues. Pendant ce temps, le logiciel joue un rĂŽle actif, en peaufinant le plan pour rĂ©pondre aux conditions le plus efficacement possible. Les optimiseurs intĂ©grĂ©s de SAP dĂ©terminent comment rĂ©pondre aux besoins de la production avec le moins de « latence Â» et au moindre coĂ»t possible (le logiciel suggĂšre mĂȘme comment optimiser un conteneur pour Ă©conomiser sur les frais d’expĂ©dition). Cela implique que des composants particuliers deviennent disponibles Ă  des moments particuliers. Les consĂ©quences de cette optimisation incessante sont bien documentĂ©es. Les sociĂ©tĂ©s qui commandent des produits transmettent leurs demandes dĂ©terminĂ©es par calcul Ă  leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employĂ©s. Ainsi, China Labour Watch a constatĂ© que les travailleurs de la ville de Heyuan en Chine chargĂ©s de fabriquer une poupĂ©e Disney que Miriam a achetĂ©e Ă  ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupĂ©es par jour et gagnent un centime pour chaque poupĂ©e qu’ils complĂštent. Â»

De la distance spatiale, temporelle et informationnelle

Pour la chercheuse, le dĂ©fi majeur dans la gestion de la chaĂźne d’approvisionnement est la grande distance – Â« spatiale, temporelle et informationnelle Â» â€“ qui sĂ©pare le processus du monde rĂ©el de la fabrication et de la consommation. Ces distances introduisent de nombreux problĂšmes, comme l’effet « coup de fouet Â», qui consiste Ă  ce que chaque niveau produise plus que prĂ©vu pour mieux rĂ©pondre Ă  la demande ou ajuster ses bĂ©nĂ©fices avec ses coĂ»ts. Le battement d’ailes d’un consommateur peut-ĂȘtre amplifiĂ© de maniĂšre dĂ©mesurĂ©e par la chaĂźne. En fait, la demande temps rĂ©el du pilotage que produit le logiciel ne correspond pas vraiment Ă  la rĂ©alitĂ© effective des multiples chaĂźnes de production, oĂč chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des dĂ©lais, la disponibilitĂ© de fournitures ou la surproduction pour rĂ©duire les coĂ»ts
). Pourtant, le logiciel procĂšde d’une vision qui maximise le temps rĂ©el et donne l’illusion d’ĂȘtre au coeur de la tour de contrĂŽle de la production.

L’autre effet coup de fouet, bien sĂ»r, s’applique directement aux travailleurs des diffĂ©rentes usines prestataires de la chaĂźne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se rĂ©vĂšlent plus exigeantes et plus punitives.

Dans le numĂ©ro 4 de l’excellent magazine Logic, Miriam Posner avait dĂ©jĂ  livrĂ© une rĂ©flexion sur le sujet. Elle y rappelait dĂ©jĂ  que si les questions de l’architecture physique de la chaĂźne d’approvisionnement mondialisĂ©e Ă©tait souvent Ă©tudiĂ©e (notamment dans The Box de Marc Levinson qui s’intĂ©ressait au rĂŽle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des Ă©changes de donnĂ©es et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaĂźne d’approvisionnement est pourtant l’un des domaines d’activitĂ© qui connaĂźt la plus forte croissance, mais qui opĂšre de maniĂšre assez discrĂšte, car les informations qu’elle traite sont trĂšs concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaĂźne d’approvisionnement incarnĂ©e et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises Ă  construire leurs chaĂźnes d’approvisionnement, l’incapacitĂ© des entreprises Ă  visualiser cette chaĂźne est une fonction mĂȘme de l’architecture logicielle. Pour Miriam Posner, le terme de chaĂźne d’approvisionnement est finalement trompeur : cette chaĂźne Â« ressemble beaucoup plus Ă  un rĂ©seau de voies navigables, avec des milliers de minuscules affluents composĂ©s de sous-traitants qui s’écoulent dans de plus grandes riviĂšres d’assemblage, de production et de distribution. Â»

Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portĂ©s Ă  notre connaissance : c’est surtout le cas de quelques chaĂźnes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus rĂ©pandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux oĂč la chaĂźne se recompose Ă  chaque approvisionnement, Ă  chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’ĂȘtre tous intĂ©grĂ©s Ă  la chaĂźne logicielle. Les usines gĂ©antes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins prĂ©sentables qui permettent Ă  la chaĂźne d’ĂȘtre extrĂȘmement rĂ©siliente et robuste. En fait, Â« il n’y a pas de tour de contrĂŽle supervisant les rĂ©seaux d’approvisionnement Â», les noeuds ne parlent qu’à leurs voisins immĂ©diats.

Du rĂŽle de l’échelle pour gĂ©rer l’information et de la modularitĂ© pour gĂ©rer la complexitĂ©

« Ces infrastructures physiques distribuĂ©es ressemblent finalement beaucoup au rĂ©seau invisible qui les rend possibles : internet Â». À chaque Ă©tape de la transformation, le produit est transformĂ© en marchandise. Et l’information qui l’accompagnait transformĂ©e Ă  son tour. Du plastique devient une coque qui devient une tĂ©lĂ©vision
 En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour rĂ©cupĂ©rer une tonne d’or, vous devez en acheter Ă  plein d’endroits diffĂ©rents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.

Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une mĂ©thode familiĂšre Ă  tout programmeur et architecte de systĂšmes. Elle consiste Ă  gĂ©rer la complexitĂ© par des unitĂ©s fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spĂ©cifiant les entrĂ©es et sorties oĂč les modalitĂ©s qu’il prend en charge. Les systĂšmes modulaires permettent notamment de gĂ©rer la complexitĂ© et d’amĂ©liorer un module sans avoir Ă  toucher les autres : chacun Ă©tant une sorte de « boite noire Â» vis-Ă -vis des autres.

Comme l’explique Andrew Russell, historien de l’informatique, la modularitĂ©, nĂ©e dans l’architecture, a Ă©tĂ© un moyen de structurer les organisations comme l’économie. Â« C’est une sorte de caractĂ©ristique de la modernitĂ© Â». Et les chaĂźnes d’approvisionnement sont hautement modulaires, Ă  l’image du conteneur, standardisĂ© et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe oĂč, ce qui permet aux marchandises transportĂ©es de passer Ă  l’échelle globale.

« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles Ă  gĂ©rer lorsque l’objectif de votre systĂšme est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une maniĂšre diffĂ©rente de faire les choses, de sorte que vous sachiez tout cela Â», explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle Â». Et l’échelle, bien sĂ»r, est la clĂ© d’une Ă©conomie mondialisĂ©e. Â»

Pour Miriam Posner, le passage Ă  l’échelle – la fameuse scalabilitĂ© – explique pourquoi les branches d’un rĂ©seau d’approvisionnement disparaissent. Cela aide Ă©galement Ă  expliquer pourquoi la syndicalisation transnationale a Ă©tĂ© si difficile : pour rĂ©pondre aux demandes du marchĂ©, les ateliers ont appris Ă  se rendre interchangeables. Un peu comme si Â« nous avions assimilĂ© les leçons de la modularitĂ© d’une maniĂšre psychologique Â».

La traçabilitĂ© de bout en bout ! Mais pour quelle transparence ?

Reste Ă  savoir si la technologie peut remĂ©dier au problĂšme qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systĂšmes de gestion de la chaĂźne d’approvisionnement.

La premiĂšre permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numĂ©ro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaĂźnes d’approvisionnement mondiales. Le problĂšme est que l’une comme l’autre peuvent vite ĂȘtre vidĂ©es de leurs sens si elles ne sont qu’une chaĂźne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne rĂ©solvent les problĂšmes liĂ©s Ă  la transformation de produits. Pour Bonanni, elles ne rĂ©solvent pas non plus le manque de visibilitĂ© : quand tout le monde est incitĂ© Ă  agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargĂ© de fournir plus d’informations que nĂ©cessaire. Si ces technologies pourraient certes fournir des informations dĂ©taillĂ©es sur les conditions de travail et le respect des normes de sĂ©curitĂ©, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant Ă  accroĂźtre l’efficacitĂ©, le contrĂŽle, la rapiditĂ© et la sĂ©curitĂ© des informations puissent devenir demain des moyens pour s’assurer de chaĂźnes d’approvisionnement socialement responsables.

Dans le domaine de la gestion des chaĂźnes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sĂ»r l’apprentissage automatique, via des algorithmes capables de faire de meilleures prĂ©visions et de prendre des dĂ©cisions. AppliquĂ© Ă  la chaĂźne logistique, le machine learning pourrait aider Ă  dĂ©terminer les fournisseurs et les itinĂ©raires qui livreront les marchandises de la maniĂšre la plus rapide et la plus fiable. Les algorithmes pourraient prĂ©dire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs rĂ©sultats. Et demain, les rĂ©seaux d’approvisionnement pourraient se reconfigurer automatiquement, de maniĂšre dynamique, selon cette Ă©valuation de risques
 Pas sĂ»r que cette piste amĂ©liore la cĂ©citĂ© collective des outils, pointe Posner. Pas sĂ»r non plus qu’elle soit si accessible quand dĂ©jĂ  les donnĂ©es utilisĂ©es ne savent pas grand-chose de la qualitĂ© des fournisseurs.

En fait, ces technologies nous montrent que les spĂ©cialistes de la gestion de la chaĂźne logistique ne parlent pas de la mĂȘme transparence ou de la mĂȘme visibilitĂ© que le consommateur final. La transparence de la chaĂźne logistique ne vise pas Ă  aider Ă  comprendre d’oĂč vient un produit, mais vise Ă  amĂ©liorer son efficacitĂ© : diminuer le coĂ»t tout en maximisant la rapiditĂ©.

Quel levier pour transformer l’approvisionnement ?

Les dĂ©fis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de vĂ©ritables efforts pour crĂ©er un contrĂŽle dĂ©mocratique des chaĂźnes d’approvisionnement, nous en sommes venus Ă  les considĂ©rer comme fonctionnant de maniĂšre autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mĂȘmes.

En 2014, le Guardian a signalĂ© que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme Ă  bord de crevettiers au large des cĂŽtes thaĂŻlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptĂŽme plus qu’une cause des modalitĂ©s d’approvisionnement elles-mĂȘmes. Et effectivement, il est possible d’avoir une chaĂźne d’approvisionnement parfaitement efficace, mais Ă©galement parfaitement ignorante des conditions de travail qu’elle implique.

Reste que nous avons construit les rĂ©seaux dĂ©centralisĂ©s tels qu’ils opĂšrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaĂźne d’approvisionnement souligne que Walmart par exemple exige un contrĂŽle parfait sur certains aspects de sa chaĂźne d’approvisionnement : notamment sur les prix et les dĂ©lais de livraison, et ce au dĂ©triment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaĂźne d’approvisionnement est profondĂ©ment liĂ©e Ă  un systĂšme conçu pour s’adapter Ă  la variĂ©tĂ© de produits que nous produisons et Ă  la rapiditĂ© avec lesquelles nous les produisons. Et cette absence d’information est intĂ©grĂ©e dans les logiciels mĂȘmes qui produisent la mondialisation. Exiger une chaĂźne logistique plus transparente et plus juste nĂ©cessite d’intĂ©grer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacitĂ© et de la scalabilitĂ© qui les font fonctionner.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.

  • ✇Dans les algorithmes
  • De la matĂ©rialisation des donnĂ©es
    En 2017, Paul Dourish publiait « The Stuff of Bits Â», un livre qui s’intĂ©ressait Ă  notre rapport aux tableurs et aux impacts matĂ©riels de l’information numĂ©rique sur la rĂ©alitĂ©. Une maniĂšre de saisir et comprendre comment le monde rĂ©el est pilotĂ© par les outils numĂ©riques dans les organisations. Relecture. La couverture du livre Stuff of bits. Paul Dourish (Wikipedia) a signĂ© au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une maniĂšre un peu
     

De la matérialisation des données

22 avril 2025 Ă  01:00

En 2017, Paul Dourish publiait « The Stuff of Bits Â», un livre qui s’intĂ©ressait Ă  notre rapport aux tableurs et aux impacts matĂ©riels de l’information numĂ©rique sur la rĂ©alitĂ©. Une maniĂšre de saisir et comprendre comment le monde rĂ©el est pilotĂ© par les outils numĂ©riques dans les organisations. Relecture.

La couverture du livre Stuff of bits.

Paul Dourish (Wikipedia) a signĂ© au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une maniĂšre un peu cavaliĂšre par « La substance de l’information Â»), un livre qui s’intĂ©resse aux impacts matĂ©riels de l’information numĂ©rique. Comment la simulation numĂ©rique, nos outils de modĂ©lisation et nos outils de travail façonnent-ils Ă  rebours notre expĂ©rience ? Pour le professeur d’informatique et anthropologue, les arrangements matĂ©riels de l’information, c’est-Ă -dire la maniĂšre dont elle est reprĂ©sentĂ©e, dont elle est façonnĂ©e, dont on peut l’utiliser, ont une importance significative dans notre rapport Ă  l’information. Comme le soulignait le philosophe Donald Schön, le design reflĂšte notre conversation avec les matĂ©riaux. Dourish regarde comment le numĂ©rique impacte dĂ©sormais nos modalitĂ©s d’usage. Pour lui, Â« les matĂ©rialitĂ©s de l’information reposent sur des propriĂ©tĂ©s et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces reprĂ©sentations peuvent ĂȘtre créées, transmises, stockĂ©es, manipulĂ©es et mises Ă  profit Â». A la suite par exemple de Lev Manovich, il souligne combien la base de donnĂ©es est devenue la forme culturelle majeure du XXIe siĂšcle (aprĂšs le roman au XIXe et le film au XXe siĂšcle).

Dourish prend de nombreux exemples pour explorer son idĂ©e. Il dĂ©veloppe longuement les diffĂ©rentes façons de reprĂ©senter une mĂȘme image au format numĂ©rique, en observant les multiples maniĂšres de la coder : une image peut-ĂȘtre effectivement une image, mais Ă©galement peut-ĂȘtre produite par un programme ou une itĂ©ration. Reste que, mĂȘme dans le programme, des choses Ă©chappent Ă  la reprĂ©sentation, comme ce peut-ĂȘtre le cas par exemple de la vitesse d’exĂ©cution d’un programme pour reprĂ©senter cette image ou de la taille de la mĂ©moire de l’ordinateur utilisĂ©. Un programme est une sĂ©rie d’instructions, mais l’expĂ©rience qui rĂ©sulte de son exĂ©cution, elle, n’est pas spĂ©cifiĂ©e par le programme. Or, bien sĂ»r, la manipulation de cette image sera trĂšs diffĂ©rente selon la maniĂšre dont elle est codĂ©e. C’est bien Ă  cette relation entre les formes et les possibilitĂ©s que permettent les matĂ©riaux numĂ©riques que s’intĂ©resse Dourish. Comment leurs affordances, c’est-Ă -dire leurs propriĂ©tĂ©s relationnelles, façonnent-elles nos pratiques ?

Du rĂŽle du tableur dans les organisations

Dans son livre Dourish Ă©voque longuement un exemple significatif qui permet de mieux saisir lĂ  oĂč il souhaite nous emmener, ce qu’il estime qu’il nous faut dĂ©sormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events Â» des rĂ©unions organisĂ©es autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events Â», plus anciens et plus documentĂ©s, qui sont des rencontres organisĂ©es autour de la prĂ©sentation de documents projetĂ©s qui forment l’essentiel des rĂ©unions ou des confĂ©rences professionnelles – voir notamment « Les transformations de l’écosystĂšme de l’information dans le monde du travail Â» ou Â« PowerPoint, voilĂ  l’ennemi ! Â»).

Image : Exemple d’un « spreadsheet event Â» tirĂ© d’un blog local amĂ©ricain â€“ qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les rĂ©unions spreadsheet ne sont pas vraiment des rĂ©unions Tupperware : ce sont des rĂ©unions de travail autour d’un Ă©cran qui projette un tableur dont l’accĂšs est parfois partagĂ©. Souvent utilisĂ© pour travailler de maniĂšre collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer rĂ©cemment Bjarte Bogsnes), le tableur est utilisĂ© pour une multitude de raisons. C’est Ă  la fois un artefact de coordination et d’archivage des dĂ©cisions prises lors de l’évĂ©nement. Dourish rappelle d’ailleurs l’importance de l’enchevĂȘtrement des organisations et de leurs systĂšmes d’information : combien les « workflows Â» encodent les procĂ©dures, les processus et les rĂšgles d’organisation. Cet exemple permet Ă  Dourish de poser des questions sur comment nos outils façonnent nos usages. Â« Comment la matĂ©rialitĂ© d’un spreadsheet – Ă  la fois outils interactifs et systĂšmes de reprĂ©sentation – modĂšle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de rĂšgles, de limites, de possibilitĂ© ou d’opportunitĂ©s ? Â» Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexitĂ© d’action que permettent ces tableurs qui sont Ă  la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-Ă -dire que certains contenus ne sont pas fixĂ©s, mais calculĂ©s selon des formules via des donnĂ©es pouvant provenir d’autres cellules ou d’autres tableurs ou bases de donnĂ©es. C’est en cela que, malgrĂ© leur sĂ©cheresse apparente (des listes de chiffres le plus souvent), ces outils se rĂ©vĂšlent commodes pour rendre visibles de la complexitĂ© comme du dĂ©tail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des donnĂ©es ne sont pas calculĂ©es), ils permettent, alors qu’ils ne sont pas conçus pour cela, de gĂ©nĂ©rer de la planification d’activitĂ© ou de la priorisation d’activitĂ©, tout en facilitant le partage et d’information et de donnĂ©es.

Dourish insiste Ă©galement sur les limites de ces outils (par exemple, la difficultĂ© Ă  manipuler des blocs non contigus) ou leur potentiel (la possibilitĂ© d’ajouter des donnĂ©es et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide Ă  la rĂ©union : il rĂ©vĂšle l’organisation elle-mĂȘme, les participants discutant des donnĂ©es cellule aprĂšs cellule, colonne aprĂšs colonne
 Le tableau spĂ©cifie ce qui est Ă  l’ordre du jour et Ă©carte tout ce qui n’apparaĂźt pas sur le tableur. La distinction entre les donnĂ©es joue souvent comme une sĂ©paration des responsabilitĂ©s – ce qui pose d’ailleurs des questions sur les responsabilitĂ©s qui relĂšvent de ce qui n’est pas sur le tableur ou de ce qui est Ă  l’intersection des donnĂ©es ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer diffĂ©rents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnĂ©e est une donnĂ©e directe – inscrite – ou dĂ©rivĂ©e, c’est-Ă -dire calculĂ©e – c’est-Ă -dire si un chiffre est un nombre ou le rĂ©sultat d’une formule. Si le rĂŽle du tableur semble de faire ressembler les donnĂ©es Ă  un document papier oĂč toutes les valeurs auraient le mĂȘme statut, il faut saisir que ce n’est pas le cas, puisque ces donnĂ©es sont Ă©ditables et calculables, recomposables
 Il souligne par lĂ  comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas Ă©tĂ© conçu pour ĂȘtre le pilote de rĂ©unions. Si le cĂŽtĂ© dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalitĂ©s, comme le fait de ne pas pouvoir faire de recherche sur une donnĂ©e rĂ©sultant d’un calcul dans un trĂšs grand tableau.

Enfin, il montre Ă©galement que cet enregistrement d’activitĂ© est Ă©galement un enregistrement d’accord : l’important devient ce qui est notĂ© dans le tableau et non pas la discussion ou le calcul qui conduit Ă  inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgĂ©tisation s’impose par reproduction. Â« Les documents deviennent des enregistrements ; les enregistrements deviennent des modĂšles : les modĂšles deviennent des routines ; les routines deviennent des processus. Â» Ces outils encodent et fixent des relations Ă  la fois dans le tableur lui-mĂȘme (cette cellule doit toujours ĂȘtre la moyenne des chiffres de cette colonne) comme entre les entitĂ©s que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours ĂȘtre le rĂ©sultat de tel autre
).

Le dĂ©veloppement de l’usage de ces outils, malgrĂ© leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les donnĂ©es d’ĂȘtre toujours Ă  jour et de rĂ©aliser ce qu’ils Ă©noncent. Â« L’usage de formules est une façon de montrer que le tableur continuera Ă  faire son travail, mĂȘme si son contenu change : c’est un moyen de produire de la stabilitĂ© dans une forme qui ne l’est pas. Â» Ces rĂ©unions qui consistent Ă  Ă©diter et mettre Ă  jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’ĂȘtre les rĂ©unions powerpoint, mais bien de la dĂ©libĂ©ration et que le document qui fixe la rĂ©union n’est pas seulement produit, mais transformĂ© par la rĂ©union elle-mĂȘme. Si les tableurs dĂ©trĂŽnent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexitĂ© des donnĂ©es et des interactions entre elles. S’ils dĂ©trĂŽnent le tableau blanc, c’est parce que les tableurs ont une vie avant et aprĂšs la rĂ©union, d’une certaine maniĂšre qu’ils doivent ĂȘtre vivants, dynamiques
 Enfin, note encore Dourish, contrairement Ă  ce qu’on pourrait penser, la plupart de ces sĂ©ances utilisent un tableur non connectĂ© Ă  l’internet. Alors qu’un document partagĂ© en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrĂŽle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. Â« Explorer comment le calcul devient un objet avec lequel les gens doivent lutter Â»â€Š Comment le calcul façonne la forme des objets numĂ©riques, contraint nos interactions humaines elles-mĂȘmes et crĂ©ent de nouvelles structures d’interaction qui ne sont pas seulement numĂ©rique ou qui rĂ©troagissent au-delĂ  de leur caractĂšre numĂ©rique ? L’exemple des tableurs et des bases de donnĂ©es pour la coordination de groupe montre comment les organisations passent d’une forme linĂ©aire, narrative, Ă  des formes profondĂ©ment relationnelles. Â« La base de donnĂ©es est Ă  la fois une forme de reprĂ©sentation et une forme effective Â».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment Ă  cerner les enjeux de la matĂ©rialitĂ© de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour ĂȘtre facilement comprĂ©hensibles.

Reste que l’analyse qu’il livre sur comment les bases de donnĂ©es façonnent dĂ©sormais le monde matĂ©riel – et inversement – pointe bien sĂ»r leurs limites : Â« Si les organisations ne peuvent agir que sur les donnĂ©es dont elles disposent, alors les limites de leurs bases de donnĂ©es deviennent leurs contraintes d’action sur le monde. Â» Or, dans ce qui est projetĂ© lors de ce type de rĂ©union, les bases de donnĂ©es et les donnĂ©es demeurent bien souvent l’objet caché  La matĂ©rialitĂ© du numĂ©rique a donc des consĂ©quences sur la façon mĂȘme dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, Â« les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres
(
) tout comme les systĂšmes numĂ©riques indo-arabes et romains, diffĂ©rentes reprĂ©sentations impliquent diffĂ©rentes consĂ©quences pour les sortes de choses que l’on peut faire avec. Â» La rhĂ©torique du « virtuel Â» suggĂšre que le numĂ©rique serait indĂ©pendant des configurations et contraintes matĂ©rielles qui pĂšsent sur lui. Or, si le numĂ©rique dĂ©pend de grandes infrastructures matĂ©rielles, le numĂ©rique impose en retour des contraintes matĂ©rielles Ă  ceux qui les utilisent. Les objets numĂ©riques ont des particularitĂ©s propres et les systĂšmes de reprĂ©sentation qu’ils dĂ©terminent ont des manifestations directement matĂ©rielles. Et Dourish d’en appeler Ă  mieux comprendre Ă  la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier Ă  le dire, Ă  signaler les limites des intentions dans la production des systĂšmes numĂ©riques et leurs dĂ©tournements ou leurs bricolages. Pour lui, il est nĂ©cessaire de prendre au sĂ©rieux la matĂ©rialitĂ© du numĂ©rique. Cette matĂ©rialitĂ© explique-t-il encore relĂšve le plus souvent d’une « traduction Â», du passage d’une reprĂ©sentation Ă  une autre. Bien souvent, on nĂ©glige l’aspect matĂ©riel de ces transformations, alors qu’elles sont Ă©minemment importantes, comme le soulignait dĂ©jĂ  FrĂ©dĂ©ric Kaplan en s’intĂ©ressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue Ă  une autre. Il invite d’ailleurs Ă  parler plutĂŽt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformĂ©e en signal Ă©lectrique par l’usage du tĂ©lĂ©phone et rĂ©assemblĂ© en sons Ă  la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indĂ©pendant de ses manifestations matĂ©rielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur dĂ©sormais que l’astronomie ne concerne les tĂ©lescopes« , disait le mathĂ©maticien Edsger Dijkstra), qui invite Ă  refonder la science informatique en s’inspirant du Manifeste pour la pensĂ©e computationnelle (.pdf) de Jeanette Wing qui invitait dĂ©jĂ  Ă  changer de mode de pensĂ©e. Une conclusion hĂ©las un peu convenue.

On aurait aimĂ© que Dourish, plutĂŽt que de se perdre parfois dans la dissection de la matĂ©rialitĂ© du rĂ©seau, Ă©voque les succĂ©danĂ©s de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systĂšmes de visualisation de donnĂ©es, prolongent les effets qu’il pointe avec les « spreadsheets events Â». On aurait aimĂ© qu’il souligne d’autres exemples de simulations numĂ©riques, de virtualisation de la rĂ©alitĂ© (Ă  l’image des bombes nuclĂ©aires amĂ©ricaines qui continuent d’évoluer alors qu’aucune n’est testĂ©e en situation rĂ©elle, mais uniquement par simulation numĂ©rique ce qui implique que leurs limites reposent dĂ©sormais plus sur les capacitĂ©s de calcul que sur leur niveau de radioactivitĂ©) en s’intĂ©ressant par exemple plus avant aux contraintes qu’imposent les formes de modĂ©lisation Ă  la rĂ©alitĂ©. La conception d’armes nuclĂ©aires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingĂ©nieur. La rĂ©alitĂ© est façonnĂ©e par la modĂ©lisation que nous faisons du monde. D’oĂč la nĂ©cessitĂ© de s’y intĂ©resser toujours plus avant. De regarder toujours avec acuitĂ© l’enchevĂȘtrement toujours plus complexe du numĂ©rique au reste du monde et sa matĂ©rialisation.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.

  • ✇Dans les algorithmes
  • Internet : une si longue dĂ©possession
    En 2022, Ben Tarnoff fait paraĂźtre Internet for the people, the fight for the future, un livre essentiel pour comprendre les consĂ©quences de la privatisation d’internet. Retour de lecture. Ben Tarnoff est un chercheur et un penseur important des rĂ©seaux. Éditeur de l’excellent Logic Mag, il est Ă©galement l’un des membres de la Collective action in tech, un rĂ©seau pour documenter et faire avancer les mobilisations des travailleurs de la tech.  Il a publiĂ© notamment un manifeste, The Maki
     

Internet : une si longue dépossession

17 avril 2025 Ă  01:00

En 2022, Ben Tarnoff fait paraĂźtre Internet for the people, the fight for the future, un livre essentiel pour comprendre les consĂ©quences de la privatisation d’internet. Retour de lecture.

Ben Tarnoff est un chercheur et un penseur important des rĂ©seaux. Éditeur de l’excellent Logic Mag, il est Ă©galement l’un des membres de la Collective action in tech, un rĂ©seau pour documenter et faire avancer les mobilisations des travailleurs de la tech. 

Il a publiĂ© notamment un manifeste, The Making of tech worker movement â€“ dont avait rendu compte IrĂ©nĂ©e RĂ©gnauld dans Mais oĂč va le web ? -, ainsi que Voices from the Valley, un recueil de tĂ©moignages des travailleurs de la tech. Critique engagĂ©, ces derniĂšres annĂ©es, Tarnoff a notamment proposĂ©, dans une remarquable tribune pour Jacobin, d’abolir les outils numĂ©riques pour le contrĂŽle social (« Certains services numĂ©riques ne doivent pas ĂȘtre rendus moins commodes ou plus dĂ©mocratiques, mais tout simplement abolis Â»), ou encore, pour The Guardian, de dĂ©-informatiser pour dĂ©carboner le monde (en invitant Ă  rĂ©flĂ©chir aux activitĂ©s numĂ©riques que nous devrions suspendre, arrĂȘter, supprimer). Il publie ce jour son premier essai, Internet for the people, the fight of your digital future (Verso, 2022, non traduit). 

Internet for the People n’est pas une contre-histoire de l’internet, ni une histoire populaire du rĂ©seau (qui donnerait la voix Ă  ceux qui ne font pas l’histoire, comme l’avait fait l’historien Howard Zinn), c’est avant tout l’histoire de notre dĂ©prise, de comment nous avons Ă©tĂ© dĂ©possĂ©dĂ© d’internet, et comment nous pourrions peut-ĂȘtre reconquĂ©rir le rĂ©seau des rĂ©seaux. C’est un livre souvent amer, mais assurĂ©ment politique, qui tente de trouver les voies Ă  des alternatives pour nous extraire de l’industrialisation du net. Sa force, assurĂ©ment, est de trĂšs bien dĂ©crire comment l’industrialisation s’est structurĂ©e Ă  toutes les couches du rĂ©seau. Car si nous avons Ă©tĂ© dĂ©possĂ©dĂ©s, c’est bien parce qu’internet a Ă©tĂ© privatisĂ© par devers nous, si ce n’est contre nous. 

« Les rĂ©seaux ont toujours Ă©tĂ© essentiels Ă  l’expansion capitaliste et Ă  la globalisation. Ils participent Ă  la crĂ©ation des marchĂ©s, Ă  l’extraction des ressources, Ă  la division et Ă  la distribution du travail. Â» Pensez au rĂŽle du tĂ©lĂ©graphe dans l’expansion coloniale par exemple, comme aux cĂąbles sous-marins qui empruntent les routes maritimes des colons comme des esclaves – tout comme les donnĂ©es et processus de reporting standardisĂ©s ont Ă©tĂ© utilisĂ©s pour asseoir le commerce triangulaire et pour distancier dans et par les chiffres la rĂ©alitĂ© des violences commises par l’esclavage, comme l’explique l’historienne Caitlin Rosenthal dans son livre Accounting for Slavery : Masters & Management.

« La connectivitĂ© n’est jamais neutre. La croissance des rĂ©seaux a toujours Ă©tĂ© guidĂ©e par le dĂ©sir de puissance et de profit. Ils n’ont pas Ă©tĂ© conduits pour seulement convoyer de l’information, mais comme des mĂ©canismes pour forger des relations de contrĂŽle. Â» La dĂ©fiance envers le monde numĂ©rique et ses effets n’a cessĂ© de monter ces derniĂšres annĂ©es, dĂ©nonçant la censure, la dĂ©sinformation, la surveillance, les discriminations comme les inĂ©galitĂ©s qu’il gĂ©nĂšre. Nous sommes en train de passer du techlash aux technoluttes, d’une forme d’animositĂ© Ă  l’égard du numĂ©rique Ă  des luttes dont l’objet est d’abattre la technologie
 c’est-Ă -dire de dresser le constat qu’internet est brisĂ© et que nous devons le rĂ©parer. Pour Tarnoff, la racine du problĂšme est pourtant simple : Â« l’internet est brisĂ© parce que l’internet est un business Â». MĂȘme Â« un internet appartenant Ă  des entreprises plus petites, plus entrepreneuriales, plus rĂ©gulĂ©es, restera un internet qui marche sur le profit Â», c’est-Ă -dire Â« un internet oĂč les gens ne peuvent participer aux dĂ©cisions qui les affectent Â». L’internet pour les gens sans les gens est depuis trop longtemps le mode de fonctionnement de l’industrie du numĂ©rique, sans que rien d’autre qu’une contestation encore trop timorĂ©e ne vienne le remettre en cause. 

Ben Tarnoff et la couverture de son livre, Internet for the People.

Privatisation partout, justice nulle part

L’internet n’a pas toujours eu la forme qu’on lui connaĂźt, rappelle Tarnoff. NĂ© d’une maniĂšre expĂ©rimentale dans les annĂ©es 70, c’est Ă  partir des annĂ©es 90 que le processus de privatisation s’enclenche. Cette privatisation Â« n’est pas seulement un transfert de propriĂ©tĂ© du public au privĂ©, mais un mouvement plus complexe oĂč les entreprises ont programmĂ© le moteur du profit Ă  chaque niveau du rĂ©seau Â», que ce soit au niveau matĂ©riel, logiciel, lĂ©gislatif ou entrepreneurial
 Â« Certaines choses sont trop petites pour ĂȘtre observĂ©es sans un microscope, d’autres trop grosses pour ĂȘtre observĂ©es sans mĂ©taphores Â». Pour Tarnoff, nous devons regarder l’internet comme un empilement (stack, qui est aussi le titre du livre de Benjamin Bratton qui dĂ©compose et cartographie les diffĂ©rents rĂ©gimes de souverainetĂ© d’internet, qui se superposent et s’imbriquent les uns dans les autres), un agencement de tuyaux et de couches technologiques qui le compose, qui va des cĂąbles sous-marins aux sites et applications d’oĂč nous faisons l’expĂ©rience d’internet. Avec le dĂ©ploiement d’internet, la privatisation est remontĂ©e des profondeurs de la pile jusqu’à sa surface. Â« La motivation au profit n’a pas seulement organisĂ© la plomberie profonde du rĂ©seau, mais Ă©galement chaque aspect de nos vies en ligne Â».

En cela, Internet for the people se veut un manifeste, dans le sens oĂč il rend cette histoire de la privatisation manifeste. Ainsi, le techlash ne signifie rien si on ne le relie pas Ă  l’hĂ©ritage de cette dĂ©possession. Les inĂ©galitĂ©s d’accĂšs comme la propagande d’extrĂȘme droite qui fleurit sur les mĂ©dias sociaux sont Ă©galement les consĂ©quences de ces privatisations. Â« Pour construire un meilleur internet (ou le rĂ©parer), nous devons changer la façon dont il est dĂ©tenu et organisĂ©. Pas par un regard consistant Ă  amĂ©liorer les marchĂ©s, mais en cherchant Ă  les rendre moins dominants. Non pas pour crĂ©er des marchĂ©s ou des versions de la privatisation plus compĂ©titifs ou rĂ©glementĂ©s, mais pour les renverser Â»

« La “dĂ©privatisation” vise Ă  crĂ©er un internet oĂč les gens comptent plus que les profits Â». Nous devons prendre le contrĂŽle collectif des espaces en ligne, oĂč nos vies prennent dĂ©sormais place. Pour y parvenir, nous devons dĂ©velopper et encourager de nouveaux modĂšles de propriĂ©tĂ© qui favorisent la gouvernance collective et la participation, nous devons crĂ©er des structures qui favorisent ce type d’expĂ©rimentations. Or, Â« les contours prĂ©cis d’un internet dĂ©mocratique ne peuvent ĂȘtre dĂ©couverts que par des processus dĂ©mocratiques, via des gens qui s’assemblent pour construire le monde qu’ils souhaitent Â». C’est Ă  en crĂ©er les conditions que nous devons Ɠuvrer, conclut Tarnoff dans son introduction. 

Coincés dans les tuyaux

Dans la premiĂšre partie de son livre, Tarnoff s’intĂ©resse d’abord aux tuyaux en nous ramenant aux dĂ©buts du rĂ©seau. L’internet n’est alors qu’un langage, qu’un ensemble de rĂšgles permettant aux ordinateurs de communiquer. À la fin des annĂ©es 70, il est alors isolĂ© des forces du marchĂ© par les autoritĂ©s qui financent un travail scientifique de long terme. Il implique des centaines d’individus qui collaborent entre eux Ă  bĂątir ces mĂ©thodes de communication. C’est l’époque d’Arpanet oĂč le rĂ©seau bĂ©nĂ©ficie de l’argent de la Darpa (l’agence de la DĂ©fense amĂ©ricaine chargĂ©e du dĂ©veloppement des nouvelles technologies) et Ă©galement d’une Ă©thique open source qui va encourager la collaboration et l’expĂ©rimentation, tout comme la crĂ©ativitĂ© scientifique. Â« C’est l’absence de motivation par le profit et la prĂ©sence d’une gestion publique qui rend l’invention d’internet possible Â»

C’est seulement dans les annĂ©es 90 que les choses changent. Le gouvernement amĂ©ricain va alors cĂ©der les tuyaux Ă  des entreprises, sans rien exiger en retour. Le temps de l’internet des chercheurs est fini. Or, explique Tarnoff, la privatisation n’est pas venue de nulle part, elle a Ă©tĂ© planifiĂ©e. En cause, le succĂšs de l’internet de la recherche. NSFNet, le rĂ©seau de la Fondation nationale pour la science qui a succĂ©dĂ© Ă  Arpanet en 1985, en excluant les activitĂ©s commerciales, a fait naĂźtre en parallĂšle les premiers rĂ©seaux privĂ©s. Avec l’invention du web, qui rend l’internet plus convivial (le premier site web date de 1990, le navigateur Mosaic de 1993), les entreprises parviennent Ă  proposer les premiers accĂšs commerciaux Ă  NSFNet en 1991. En fait, le rĂ©seau national des fondations scientifiques n’a pas tant ouvert l’internet Ă  la compĂ©tition : il a surtout transfĂ©rĂ© l’accĂšs Ă  des opĂ©rateurs privĂ©s, sans leur imposer de conditions et ce, trĂšs rapidement. 

En 1995, la privatisation des tuyaux est achevĂ©e. Pour tout le monde, Ă  l’époque, c’était la bonne chose Ă  faire, si ce n’est la seule. Il faut dire que les annĂ©es 90 Ă©taient les annĂ©es d’un marchĂ© libre triomphant. La mainmise sur l’internet n’est finalement qu’une mise en application de ces idĂ©es, dans un moment oĂč la contestation n’était pas trĂšs vive, notamment parce que les utilisateurs n’étaient encore pas trĂšs nombreux pour dĂ©fendre un autre internet. D’autres solutions auraient pu ĂȘtre possibles, estime Tarnoff. Mais plutĂŽt que de les explorer, nous avons laissĂ© l’industrie dicter unilatĂ©ralement ses conditions. Pour elle, la privatisation Ă©tait la condition Ă  la popularisation d’internet. C’était un faux choix, mais le seul qui nous a Ă©tĂ© prĂ©sentĂ©, estime Tarnoff. L’industrie a rĂ©cupĂ©rĂ© une technologie patiemment dĂ©veloppĂ©e par la recherche publique. La dĂ©rĂ©gulation des tĂ©lĂ©coms concomitante n’a fait qu’accĂ©lĂ©rer les choses. Pour Tarnoff, nous avons ratĂ© les alternatives. Les profits les ont en tout cas fermĂ©. Et le Â«pillage Â» a continuĂ©. L’épine dorsale d’internet est toujours la propriĂ©tĂ© de quelques entreprises qui pour beaucoup sont alors aussi devenues fournisseurs d’accĂšs. La concentration de pouvoir prĂ©vaut Ă  tous les niveaux, Ă  l’image des principales entreprises qui organisent et possĂšdent l’information qui passent dans les rĂ©seaux. Google, Netflix, Facebook, Microsoft, Apple et Amazon comptent pour la moitiĂ© du trafic internet. La privatisation nous a promis un meilleur service, un accĂšs plus large, un meilleur internet. Pourtant, le constat est inverse. Les AmĂ©ricains payent un accĂšs internet parmi les plus chers du monde et le moins bon. Quant Ă  ceux qui sont trop pauvres ou trop Ă©loignĂ©s du rĂ©seau, ils continuent Ă  en ĂȘtre exclus. En 2018, la moitiĂ© des AmĂ©ricains n’avaient pas accĂšs Ă  un internet Ă  haut dĂ©bit. Et cette dĂ©connexion est encore plus forte si en plus d’habiter loin des villes vous avez peu de revenus. Aux États-Unis, l’accĂšs au rĂ©seau demeure un luxe. 

Mais l’internet privĂ© n’est pas seulement inĂ©quitable, il est surtout non-dĂ©mocratique. Les utilisateurs n’ont pas participĂ© et ne participent toujours pas aux choix de dĂ©ploiements techniques que font les entreprises pour eux, comme nous l’ont montrĂ©, trĂšs rĂ©cemment, les faux dĂ©bats sur la 5G. Â« Les marchĂ©s ne vous donnent pas ce dont vous avez besoin, ils vous donnent ce que vous pouvez vous offrir Â»Â« Le profit reste le principe qui dĂ©termine comment la connectivitĂ© est distribuĂ©e Â»

Pourtant, insiste Tarnoff, des alternatives existent aux monopoles des fournisseurs d’accĂšs. En 1935, Ă  Chattanooga, dans le Tennessee, la ville a dĂ©cidĂ© d’ĂȘtre propriĂ©taire de son systĂšme de distribution d’électricitĂ©, l’Electric Power Board. En 2010, elle a lancĂ© une offre d’accĂšs Ă  haut dĂ©bit, The Gig, qui est la plus rapide et la moins chĂšre des États-Unis, et qui propose un accĂšs mĂȘme Ă  ceux qui n’en ont pas les moyens. C’est le rĂ©seau haut dĂ©bit municipal le plus cĂ©lĂšbre des États-Unis. Ce n’est pas le seul. Quelque 900 coopĂ©ratives Ă  travers les États-Unis proposent des accĂšs au rĂ©seau. Non seulement elles proposent de meilleurs services Ă  petits prix, mais surtout, elles sont participatives, contrĂŽlĂ©es par leurs membres qui en sont aussi les utilisateurs. Toutes privilĂ©gient le bien social plutĂŽt que le profit. Elles n’ont pas pour but d’enrichir les opĂ©rateurs. À Detroit, ville particuliĂšrement pauvre et majoritairement noire, la connexion a longtemps Ă©tĂ© dĂ©sastreuse. Depuis 2016, le Detroit Community Technology Project (DCTP) a lancĂ© un rĂ©seau sans fil pour bĂ©nĂ©ficier aux plus dĂ©munis. Non seulement la communautĂ© possĂšde l’infrastructure, mais elle participe Ă©galement Ă  sa maintenance et Ă  son Ă©volution. DCTP investit des habitants en Â« digital stewards Â» chargĂ©s de maintenir le rĂ©seau, d’éduquer Ă  son usage, mais Ă©galement de favoriser la connectivitĂ© des gens entre eux, assumant par lĂ  une fonction politique Ă  la maniĂšre de Community organizers

Pour Tarnoff, brancher plus d’utilisateurs dans un internet privatisĂ© ne propose rien pour changer l’internet, ni pour changer sa propriĂ©tĂ©, ni son organisation, ni la maniĂšre dont on en fait l’expĂ©rience. Or, ces expĂ©riences de rĂ©seaux locaux municipaux dĂ©fient la fable de la privatisation. Elles nous montrent qu’un autre internet est possible, mais surtout que l’expĂ©rience mĂȘme d’internet n’a pas Ă  ĂȘtre nĂ©cessairement privĂ©e. La privatisation ne dĂ©crit pas seulement un processus Ă©conomique ou politique, mais Ă©galement un processus social qui nĂ©cessite des consommateurs passifs et isolĂ©s les uns des autres. À Detroit comme Ă  Chattanooga, les utilisateurs sont aussi des participants actifs Ă  la croissance, Ă  la maintenance, Ă  la gouvernance de l’infrastructure. Tarnoff rappelle nĂ©anmoins que ces rĂ©seaux municipaux ont Ă©tĂ© particuliĂšrement combattus par les industries du numĂ©riques et les fournisseurs d’accĂšs. Mais contrairement Ă  ce que nous racontent les grands opĂ©rateurs de rĂ©seaux, il y a des alternatives. Le problĂšme est qu’elles ne sont pas suffisamment dĂ©fendues, Ă©tendues, approfondies
 Pour autant, ces alternatives ne sont pas magiques. Â« La dĂ©centralisation ne signifie pas automatiquement dĂ©mocratisation : elle peut servir aussi Ă  concentrer le pouvoir plus qu’à le distribuer Â». Internet reste un rĂ©seau de rĂ©seau et les nƓuds d’interconnections sont les points difficiles d’une telle topographie. Pour assurer l’interconnexion, il est nĂ©cessaire Ă©galement de Â« dĂ©privatiser Â» l’épine dorsale des interconnexions de rĂ©seaux, qui devrait ĂȘtre gĂ©rĂ©e par une agence fĂ©dĂ©rale ou une fĂ©dĂ©ration de coopĂ©ratives. Cela peut sembler encore utopique, mais si l’internet n’est dĂ©privatisĂ© qu’à un endroit, cela ne suffira pas, car cela risque de crĂ©er des zones isolĂ©es, marginales et surtout qui peuvent ĂȘtre facilement renversĂ©es – ce qui n’est pas sans rappeler le dĂ©litement des initiatives de rĂ©seau internet sans fil communautaire, comme Paris sans fil, mangĂ©s par la concurrence privĂ©e et la commoditĂ© de service qu’elle proposent que nous Ă©voquions Ă  la fin de cet article

Dans les annĂ©es 90, quand la privatisation s’est installĂ©e, nous avons manquĂ© de propositions, d’un mouvement en dĂ©fense d’un internet dĂ©mocratique, estime Tarnoff. Nous aurions pu avoir, Â« une voie publique sur les autoroutes de l’information Â». Cela n’a pas Ă©tĂ© le cas. 

DĂ©sormais, pour dĂ©privatiser les tuyaux (si je ne me trompe pas, Tarnoff n’utilise jamais le terme de nationalisation, un concept peut-ĂȘtre trop loin pour le contexte amĂ©ricain), il faut rĂ©soudre plusieurs problĂšmes. L’argent, toujours. Les cartels du haut dĂ©bit reçoivent de fortes injections d’argent public notamment pour Ă©tendre l’accĂšs, mais sans rien vraiment produire pour y remĂ©dier. Nous donnons donc de l’argent Ă  des entreprises qui sont responsables de la crise de la connectivitĂ© pour la rĂ©soudre ! Pour Tarnoff, nous devrions surtout rediriger les aides publiques vers des rĂ©seaux alternatifs, amĂ©liorer les standards d’accĂšs, de vitesse, de fiabilitĂ©. Nous devrions Ă©galement nous assurer que les rĂ©seaux publics locaux fassent du respect de la vie privĂ©e une prioritĂ©, comme l’a fait Ă  son Ă©poque la poste, en refusant d’ouvrir les courriers ! Mais, si les lois et les rĂ©gulations sont utiles, Â« le meilleur moyen de garantir que les institutions publiques servent les gens, est de favoriser la prĂ©sence de ces gens Ă  l’intĂ©rieur de ces institutions Â». Nous devons aller vers des structures de gouvernances inclusives et expansives, comme le dĂ©fendent Andrew Cumbers et Thomas Hanna dans Â« Constructing the Democratic Public Entreprise Â»(.pdf) (Ă  prolonger par le rapport Democratic Digital Infrastructure qu’a publiĂ© Democracy Collaborative, le laboratoire de recherche et dĂ©veloppement sur la dĂ©mocratisation de l’économie).

Coincés dans les plateformes

Les annĂ©es 90 sont les annĂ©es du web. En 1995, l’internet ne ressemble plus tout Ă  fait Ă  un rĂ©seau de recherche. Avec 45 millions d’utilisateurs et 23 500 sites web, l’internet commence Ă  se transformer. Chez Microsoft, Bill Gates annonce qu’internet sera leur prioritĂ© numĂ©ro un. Jeff Bezos lance Amazon. Pierre Omidyar AuctionWeb, qui deviendra eBay. C’est le dĂ©but des grandes entreprises de l’internet, de celles qui deviendront des « plateformes Â», un terme qui mystifie plus qu’il n’éclaircit, qui permet de projeter sur la souverainetĂ© qu’elles conquiĂšrent une aura d’ouverture et de neutralitĂ©, quand elles ne font qu’ordonner et rĂ©gir nos espaces digitaux. Si la privatisation d’internet a commencĂ© par les fondements, les tuyaux, au mitan des annĂ©es 90, cette phase est terminĂ©e. Â« La prochaine Ă©tape consistera Ă  maximiser les profits dans les Ă©tages supĂ©rieurs, dans la couche applicative, lĂ  oĂč les utilisateurs utilisent l’internet Â». C’est le dĂ©but de la bulle internet jusqu’à son implosion. 

eBay a survĂ©cu au crash des annĂ©es 2000 parce qu’elle Ă©tait l’une des rares exceptions aux startups d’alors. eBay avait un business model et est devenu trĂšs rapidement profitable. eBay a aussi ouvert un modĂšle : l’entreprise n’a pas seulement offert un espace Ă  l’activitĂ© de ses utilisateurs, son espace a Ă©tĂ© constituĂ© par eux, en les impliquant dans son dĂ©veloppement, selon les principes de ce qu’on appellera ensuite le web 2.0. La valeur technique de l’internet a toujours Ă©tĂ© ailleurs. Sociale plus que technique, estime Tarnoff (pour ma part, je pense que ce n’est pas si clair, l’industrialisation inĂ©dite qui s’est construite avec le numĂ©rique, n’est pas uniquement sociale, elle me semble surtout Ă©conomique et politique). 

En 1971, quand Ray Tomlinson invente le mail, celui-ci devient trĂšs rapidement trĂšs populaire et reprĂ©sente trĂšs vite l’essentiel du trafic du premier rĂ©seau. L’e-mail a humanisĂ© le rĂ©seau. Les Ă©changes avec les autres sont rapidement devenu l’attraction principale. Avec eBay, Omidyar va rĂ©ussir Ă  refondre sa communautĂ© en marchĂ©. Le succĂšs des plateformes du web 2.0 va consister Ă  Â«fusionner les relations sociales aux relations de marchĂ© Â», par trois leviers : la position d’intermĂ©diaire (entre acheteurs et vendeurs), la souverainetĂ© (la plateforme façonne les interactions, Ă©crits les rĂšgles, fonctionne comme un lĂ©gislateur et un architecte) et bien sĂ»r les effets rĂ©seaux (plus les gens utilisent, plus l’espace prend de la valeur). La couche applicative de l’internet va ainsi se transformer en vastes centres commerciaux : des environnements clos, qui vont tirer leurs revenus Ă  la fois de la rente que procurent ces espaces pour ceux qui veulent en bĂ©nĂ©ficier et de la revente de donnĂ©es le plus souvent sous forme publicitaire (mais pas seulement). La collecte et l’analyse de donnĂ©es vont d’ailleurs trĂšs vite devenir la fonction primaire de ces Â« centres commerciaux en ligne Â»Â« La donnĂ©e a propulsĂ© la rĂ©organisation de l’internet Â», Ă  l’image de Google qui l’a utilisĂ© pour amĂ©liorer son moteur, puis pour vendre de la publicitĂ©, lui permettant de devenir, dĂšs 2002, profitable. C’est la logique mĂȘme du Capitalisme de surveillance de Shoshana Zuboff. Une logique qui prĂ©existait aux entreprises de l’internet, comme le raconte le pionnier des Ă©tudes sur la surveillance, Oscar H. Gandy, dans ses Ă©tudes sur les mĂ©dias de masse, les banques ou les compagnies d’assurances, mais qui va, avec la circulation des donnĂ©es, Ă©largir la surface de sa surveillance. 

MalgrĂ© toutes ses faiblesses (vous atteignez surtout les catĂ©gories produites par les systĂšmes que la rĂ©alitĂ© des gens, c’est-Ă -dire la maniĂšre dont le systĂšme caractĂ©rise les usagers, mĂȘme si ces caractĂšres se rĂ©vĂšlent souvent faux parce que calculĂ©s), la surveillance des utilisateurs pour leur livrer de la publicitĂ© ciblĂ©e va construire les principaux empires des Gafams que nous connaissons encore aujourd’hui. Si la publicitĂ© joue un rĂŽle essentiel dans la privatisation, les  Â«Empires Ă©lastiques Â» des Gafams, comme les appels Tarnoff, ne vont pas seulement utiliser l’analyse de donnĂ©es pour vendre des biens et de la publicitĂ©, ils vont aussi l’utiliser pour crĂ©er des places de marchĂ© pour les moyens de production, c’est-Ă -dire produire du logiciel pour l’internet commercial. 

« Quand le capitalisme transforme quelque chose, il tend Ă  ajouter plus de machinerie Â», rappelle Tarnoff avec les accents de PiĂšces et Main d’Ɠuvre. Avec les applications, les pages internet sont devenues plus dynamiques et complexes, Â« conçues pour saisir l’attention des utilisateurs, stimuler leur engagement, liĂ©es pour Ă©laborer des systĂšmes souterrains de collecte et d’analyse des donnĂ©es Â»Â« Les centres commerciaux en ligne sont devenus les lieux d’un calcul intensif. Comme le capitalisme a transformĂ© l’atelier en usine, la transformation capitaliste d’internet a produit ses propres usines Â», qu’on dĂ©signe sous le terme de cloud, pour mieux obscurcir leur caractĂšre profondĂ©ment industriel. Ces ordinateurs utilisĂ©s par d’autres ordinateurs, rappellent l’enjeu des origines du rĂ©seau : Ă©tendre le calcul et les capacitĂ©s de calcul. Tarnoff raconte ainsi la naissance, dĂšs 2004, de l’Elastic Compute Cloud (EC2) d’Amazon par Chris Pinkham et Christopher Brown, partis en Afrique du Sud pour rationaliser les entrailles numĂ©riques de la machine Amazon qui commençait Ă  souffrir des limites de l’accumulation de ses couches logicielles. EC2 lancĂ© en 2006 (devenu depuis Amazon Web Services, AWS, l’offre d’informatique en nuage), va permettre de vendre des capacitĂ©s informatiques et d’analyse mesurĂ©es et adaptables. Le cloud d’Amazon va permettre d’apporter un ensemble d’outils Ă  l’industrialisation numĂ©rique, de pousser plus loin encore la privatisation. Le Big Data puis les avancĂ©es de l’apprentissage automatisĂ© (l’intelligence artificielle) dans les annĂ©es 2010 vont continuer ces accĂ©lĂ©rations industrielles. La collecte et le traitement des donnĂ©es vont devenir partout un impĂ©ratif

Dans le mĂȘme temps, les utilisateurs ont conquis un internet devenu mobile. L’ordinateur devenant smartphone n’est plus seulement la machine Ă  tout faire, c’est la machine qui est dĂ©sormais partout, s’intĂ©grant non seulement en ligne, mais jusqu’à nos espaces physiques, dĂ©ployant un contrĂŽle logiciel jusque dans nos vies rĂ©elles, Ă  l’image d’Uber et de son management algorithmique. L’industrialisation numĂ©rique s’est ainsi Ă©tendue jusqu’à la coordination des forces de travail, dont la profitabilitĂ© a Ă©tĂ© accrue par la libĂ©ralisation du marchĂ© du travail. La contractualisation des travailleurs n’a Ă©tĂ© qu’une brĂšche supplĂ©mentaire dans la gestion algorithmique introduite par le dĂ©ploiement sans fin de l’industrie numĂ©rique, permettant dĂ©sormais de gĂ©rer les tensions sur les marchĂ©s du travail, localement comme globalement. La force de travail est elle-mĂȘme gĂ©rĂ©e en nuage, Ă  la demande. Nous voilĂ  dans le Human Cloud que dĂ©crit Gavin Mueller dans Breaking things at Work ou David Weil dans The Fissured Workplace

CoincĂ©s dans les profits !

Les biens rĂ©elles abstractions de ces empires Ă©lastiques ont enfin Ă©tĂ© rendues possibles par la financiarisation sans prĂ©cĂ©dent de cette nouvelle industrie. Tout l’enjeu de la privatisation d’internet, Ă  tous les niveaux de la pile, demeure le profit, rĂ©pĂšte Tarnoff. La financiarisation de l’économie depuis les annĂ©es 70 a elle aussi profitĂ© de cette industrialisation numĂ©rique
 Reste que la maximisation des profits des empires Ă©lastiques semble ne plus suffire. DĂ©sormais, les entreprises de la tech sont devenues des vĂ©hicules pour la pure spĂ©culation. La tech est l’un des rares centres de profit qui demeure dans des Ă©conomies largement en berne. La tech est dĂ©sormais le dernier archipel de super-profit dans un ocĂ©an de stagnation. Pire, la privatisation jusqu’aux couches les plus hautes d’internet, a programmĂ© la motivation du profit dans tous les recoins du rĂ©seau. De Comcast (fournisseur d’accĂšs), Ă  Facebook jusqu’à Uber, l’objectif est restĂ© de faire de l’argent, mĂȘme si cela se fait de maniĂšre trĂšs diffĂ©rente, ce qui implique des consĂ©quences sociales trĂšs diffĂ©rentes Ă©galement. Les fournisseurs d’accĂšs vendent des accĂšs Ă  l’internet, au bĂ©nĂ©fice des investisseurs et au dĂ©triment des infrastructures et de l’égalitĂ© d’accĂšs. Dans les centres commerciaux en ligne comme Facebook, on vend la monĂ©tisation de l’activitĂ© des utilisateurs ainsi que l’appareillage techno-politique qui va avec
 Dans Uber ou les plateformes du digital labor, on vend le travail lui-mĂȘme au moins disant dĂ©coupĂ© en microtranches et micro-tĂąches
 Mais tous ces Ă©lĂ©ments n’auraient pas Ă©tĂ© possibles hors d’internet. C’est la promesse d’innovation technologique qui persuade les autoritĂ©s de permettre Ă  ces entreprises Ă  dĂ©roger aux rĂšgles communes, qui persuade les investisseurs qu’ils vont rĂ©aliser une martingale mirifique. Mais dans le fond, toutes restent des machines non dĂ©mocratiques et des machines Ă  produire des inĂ©galitĂ©s. Toutes redistribuent les risques de la mĂȘme façon : Â« ils les poussent vers le bas, vers les plus faibles Â» (les utilisateurs comme les travailleurs) Â« et les rĂ©pandent autour d’eux. Ils tirent les rĂ©compenses vers le haut et les concentrent en de moins en moins de mains Â»

Pourtant, rappelle Tarnoff, l’action collective a Ă©tĂ© le meilleur moyen pour rĂ©duire les risques, Ă  l’image des rĂ©gulations qu’ont obtenues dans le passĂ© les chauffeurs de taxis
 jusqu’à ce qu’Uber paupĂ©rise tout le monde. L’existence des chauffeurs est devenue plus prĂ©caire Ă  mesure que la valorisation de l’entreprise s’est envolĂ©e. Le risque Ă  terme est que la machine nĂ©olibĂ©rale programmĂ©e jusqu’au cƓur mĂȘme des systĂšmes, ubĂ©rise tout ce qui reste Ă  ubĂ©riser, de l’agriculture Ă  la santĂ©, des services public Ă  l’école jusqu’au dĂ©veloppement logiciel lui-mĂȘme. 

Pourtant, les centres commerciaux en ligne sont trĂšs gourmands en travail. Tous ont recours Ă  une vaste force de travail invisible pour dĂ©velopper leurs logiciels, les maintenir, opĂ©rer les centres de donnĂ©es, labĂ©liser les donnĂ©es
 La sociologue Tressie McMillan Cottom parle d’« inclusion prĂ©datrice Â» pour qualifier la dynamique de l’économie politique d’internet. C’est une logique, une organisation et une technique qui consiste Ă  inclure les marginalisĂ©s selon des logiques extractives. C’est ce que montrait Safiya Umoja Noble dans Algorithms of oppression : les « filles noires Â» que l’on trouve dans une requĂȘte sur Google sont celles des sites pornos, les propositions publicitaires qui vous sont faites ne sont pas les mĂȘmes selon votre niveau de revenu ou votre couleur de peau. Les plus exclus sont inclus, mais Ă  la condition qu’ils absorbent les risques et renoncent aux moindres rĂ©compenses. L’oppression et les discriminations des espaces en ligne sont dĂ©sormais le fait d’une boucle de rĂ©troaction algorithmique qui ressasse nos stĂ©rĂ©otypes pour ne plus s’en extraire, enfermant chacun dans les catĂ©gories que spĂ©cifie la machine. Nous sommes dĂ©sormais pris dans une intrication, un enchevĂȘtrement d’effets, d’amplification, de polarisation, dont nous ne savons plus comment sortir. 

Les inĂ©galitĂ©s restent cependant insĂ©parables de la poursuite du profit pour le profit. La tech est devenue l’équivalent de l’industrie du TĂ©flon. Pour l’instant, les critiques sont mises en quarantaine, limitĂ©es au monde de la recherche, Ă  quelques activistes, Ă  quelques mĂ©dias indĂ©pendants. Le techlash a bien entrouvert combien la tech n’avait pas beaucoup de morale, ça n’empĂȘche pas les scandales des brĂšches de donnĂ©es de succĂ©der aux scandales des traitements iniques. RĂ©former l’internet pour l’instant consiste d’un cĂŽtĂ© Ă  Ă©crire de nouvelles rĂ©glementations pour limiter le pouvoir de ces monopoles. C’est le propos des New Brandeisians (faisant rĂ©fĂ©rence Ă  l’avocat amĂ©ricain Louis Brandeis, grand rĂ©formateur amĂ©ricain) qui veulent rendre les marchĂ©s plus compĂ©titifs en rĂ©duisant les monopoles des Gafams. Ces faiseurs de lois ont raison : les centres commerciaux en ligne ne sont pas assez rĂ©gulĂ©s ! Reste qu’ils souhaitent toujours un internet rĂ©gi par le marchĂ©, plus compĂ©titif que concentrĂ©. Pourtant, comme le souligne Nick Srnicek, l’auteur de Capitalisme de plateforme, c’est la compĂ©tition, plus que la taille, qui nĂ©cessite toujours plus de donnĂ©es, de traitements, de profits
 

Pour Tarnoff, il y a une autre stratĂ©gie : la dĂ©privatisation. Â« Que les marchĂ©s soient plus rĂ©gulĂ©s ou plus compĂ©titifs ne touchera pas le problĂšme le plus profond qui est le marchĂ© lui-mĂȘme. Les centres commerciaux en ligne sont conçus pour faire du profit et faire du profit est ce qui construit des machines Ă  inĂ©galitĂ©s Â».« L’exploitation des travailleurs Ă  la tĂąche, le renforcement des oppressions sexistes ou racistes en ligne, l’amplification de la propagande d’extrĂȘme-droite
 aucun de ces dommages sociaux n’existeraient s’ils n’étaient pas avant tout profitables. Â» Certes, on peut chercher Ă  attĂ©nuer ces effets
 Mais le risque est que nous soyons en train de faire comme nous l’avons fait avec l’industrie fossile, oĂč les producteurs de charbon se mettent Ă  la capture du CO2 plutĂŽt que d’arrĂȘter d’en brĂ»ler ! Pour Tarnoff, seule la dĂ©privatisation ouvre la porte Ă  un autre internet, tout comme les mouvements abolitionnistes et pour les droits civiques ont changĂ© la donne en adressant finalement le coeur du problĂšme et pas seulement ses effets (comme aujourd’hui, les mouvements pour l’abolition de la police ou de la prison).

Mais cette dĂ©privatisation, pour l’instant, nous ne savons mĂȘme pas Ă  quoi elle ressemble. Nous commençons Ă  savoir ce qu’il advient aprĂšs la fermeture des centres commerciaux (les Etats-Unis en ont fermĂ© beaucoup) : ils sont envahis par les oiseaux et les mauvaises herbes ! Sur l’internet, bien souvent, les noms de domaines abandonnĂ©s sont valorisĂ©s par des usines Ă  spam ! Si nous savons que les rĂ©seaux communautaires peuvent supplanter les rĂ©seaux privĂ©s en bas de couche technologique, nous avons peu d’expĂ©rience des alternatives qui peuvent se construire en haut des couches rĂ©seaux. 

Nous avons besoin d’expĂ©rimenter l’alternet !

Nous avons besoin d’expĂ©rimenter. L’enjeu, n’est pas de remplacer chaque centre commercial en ligne par son Ă©quivalent dĂ©privatisĂ©, comme de remplacer FB ou Twitter par leur clone placĂ© sous contrĂŽle public ou coopĂ©ratif et attendre des rĂ©sultats diffĂ©rents. Cela nĂ©cessite aussi des architectures diffĂ©rentes. Cela nĂ©cessite d’assembler des constellations de stratĂ©gies et d’institutions alternatives, comme le dit Angela Davis quand elle s’oppose Ă  la prison et Ă  la police. Pour Tarnoff, nous avons besoin de construire une constellation d’alternatives. Nous devons arrĂȘter de croire que la technologie doit ĂȘtre apportĂ©e aux gens, plutĂŽt que quelque chose que nous devons faire ensemble.

Comme le dit Ethan Zuckerman dans sa vibrante dĂ©fense d’infrastructures publiques numĂ©riques, ces alternatives doivent ĂȘtre plurielles dans leurs formes comme dans leurs buts, comme nous avons des salles de sports, des bibliothĂšques ou des Ă©glises pour construire l’espace public dans sa diversitĂ©. Nous avons besoin d’une dĂ©centralisation, non seulement pour combattre la concentration, mais aussi pour Ă©largir la diversitĂ© et plus encore pour rendre possible d’innombrables niveaux de participation et donc d’innombrables degrĂ©s de dĂ©mocratie. Comme Zuckerman ou Michael Kwet qui milite pour un « socialisme numĂ©rique Â»  avant lui, Tarnoff Ă©voque les logiciels libres, open source, les instances distribuĂ©es, l’interopĂ©rabilité , comme autant de leviers Ă  cet alternumĂ©risme. Il Ă©voque aussi une programmation publique, un cloud public comme nous avons finalement des mĂ©dias publics ou des bibliothĂšques. On pourrait mĂȘme imaginer, Ă  dĂ©faut de construire des capacitĂ©s souveraines, d’exiger d’Amazon de donner une portion de ses capacitĂ©s de traitements, Ă  dĂ©faut de les nationaliser. Nous avons besoin d’un secteur dĂ©privatisĂ© plus gros, plus fort, plus puissant. 

C’est oublier pourtant que ces idĂ©es (nationaliser l’internet ou Google hier, AWS demain
) ont dĂ©jĂ  Ă©tĂ© Ă©mises et oubliĂ©es. DĂ©considĂ©rĂ©es en tout cas. Tarnoff oublie un peu de se demander pourquoi elles n’ont pas Ă©tĂ© mises en Ɠuvre, pourquoi elles n’ont pas accrochĂ©. Qu’est-ce qui manque au changement pour qu’il ait lieu ?, semble la question rarement posĂ©e. Pour ma part, pourtant, il me semble que ce qui a fait la diffĂ©rence entre l’essor phĂ©nomĂ©nal de l’internet marchand et la marginalitĂ© des alternatives, c’est assurĂ©ment l’argent. MĂȘme si on peut se rĂ©jouir de la naissance de quelques coopĂ©ratives, Ă  l’image de Up&Go, CoopCycle ou nombre de plateformes coopĂ©ratives, les niveaux d’investissements des uns ne sont pas les niveaux d’investissements des autres. Le recul des politiques publiques Ă  investir dans des infrastructures publiques, on le voit, tient bien plus d’une dĂ©prise que d’une renaissance. Bien sĂ»r, on peut, avec lui, espĂ©rer que les donnĂ©es soient gĂ©rĂ©es collectivement, par ceux qui les produisent. Qu’elles demeurent au plus prĂšs des usagers et de ceux qui les coproduisent avec eux, comme le prĂŽnent les principes du fĂ©minisme de donnĂ©es et que dĂ©fendent nombre de collectifs politisĂ©s (Ă  l’image d’InterHop), s’opposant Ă  une fluidification des donnĂ©es sans limites oĂč l’ouverture sert bien trop ceux qui ont les moyens d’en tirer parti, et plus encore, profite Ă  ceux qui veulent les exploiter pour y puiser de nouveaux gains d’efficacitĂ© dans des systĂšmes produits pour aller Ă  l’encontre des gens. Pour dĂ©mocratiser la conception et le dĂ©veloppement des technologies, il faut crĂ©er des processus participatifs puissants, embarquĂ©s et embarquants. Â« Rien pour nous sans nous Â», disent les associations de handicapĂ©s, reprises par le mouvement du Design Justice.

« Ă‰crire un nouveau logiciel est relativement simple. CrĂ©er des alternatives soutenables et capables de passer Ă  l’échelle est bien plus difficile Â», conclut Tarnoff. L’histoire nous apprend que les TĂ©lĂ©coms ont menĂ© d’intenses campagnes pour limiter le pouvoir des rĂ©seaux communautaires, comme le pointait Ă  son tour Cory Doctorow, en soulignant que, du recul de la neutralitĂ© du net Ă  l’interdiction des rĂ©seaux haut dĂ©bit municipaux aux US (oui, tous les Etats ne les autorisent pas, du fait de l’intense lobbying des fournisseurs d’accĂšs privĂ©s !), les oppositions comme les rĂ©gulateurs trop faibles se font dĂ©vorer par les marchĂ©s ! Et il y a fort Ă  parier que les grands acteurs de l’internet mĂšnent le mĂȘme type de campagne Ă  l’encontre de tout ce qui pourra les dĂ©stabiliser demain. Mais ne nous y trompons pas, souligne Tarnoff, l’offensive Ă  venir n’est pas technique, elle est politique !

« Pour reconstruire l’internet, nous allons devoir reconstruire tout le reste Â». Et de rappeler que les Luddites n’ont pas tant chercher Ă  mener un combat d’arriĂšre garde que d’utiliser leurs valeurs pour construire une modernitĂ© diffĂ©rente. Le fait qu’ils n’y soient pas parvenus doit nous inquiĂ©ter. La dĂ©privatisation Ă  venir doit ĂȘtre tout aussi inventive que l’a Ă©tĂ© la privatisation Ă  laquelle nous avons assistĂ©. Nous avons besoin d’un monde oĂč les marchĂ©s comptent moins, sont moins prĂ©sents qu’ils ne sont
 Et ils sont certainement encore plus pesants et plus puissants avec le net que sans !

***

Tarnoff nous invite Ă  nous dĂ©faire de la privatisation comme d’une solution alors qu’elle tient du principal problĂšme auquel nous sommes confrontĂ©s. DerriĂšre toute privatisation, il y a bien une priva(tisa)tion, quelque chose qui nous est enlevĂ©, dont l’accĂšs et l’enjeu nous est soufflĂ©, retranchĂ©, dĂ©niĂ©. DerriĂšre l’industrialisation numĂ©rique, il y a une privatisation massive rappelions-nous il y a peu. Dans le numĂ©rique public mĂȘme, aux mains des cabinets de conseils, l’État est plus minimal que jamais ! MĂȘme aux États-Unis, oĂč l’État est encore plus croupion, les grandes agences vendent l’internet public Ă  des services privĂ©s qui renforcent l’automatisation des inĂ©galitĂ©s

MalgrĂ© la qualitĂ© de la synthĂšse que livre Ben Tarnoff dans son essai, nous semblons au final tourner en rond. Sans investissements massifs et orientĂ©s vers le bien public plutĂŽt que le profit, sans projets radicaux et leurs constellations d’alternatives, nous ne construirons ni l’internet de demain, ni un monde, et encore moins un monde capable d’affronter les ravages climatiques et les dissolutions sociales Ă  venir. L’enjeu dĂ©sormais semble bien plus de parvenir Ă  rĂ©cupĂ©rer les milliards accaparĂ©s par quelques-uns qu’autre chose ! Si nous avons certes besoin de constellations d’alternatives, il nous faut aussi saisir que ces constellations d’alternatives en sont rarement, en tout cas, que beaucoup ne sont que des projets politiques libĂ©raux et qu’elles obscurcissent la nĂ©cessitĂ© d’alternatives qui le soient. Le secteur marchand produit nombre d’alternatives mais qui demeurent pour l’essentiel des formes de marchandisation, sans s’en extraire, Ă  l’image de son instrumentation de la tech for good, qui conduit finalement Ă  paupĂ©riser et vider de son sens la solidaritĂ© elle-mĂȘme. Comme il le dit dans une interview pour The Verge, nous avons besoin de politiques et de mobilisations sur les enjeux numĂ©riques, pas seulement d’alternatives, au risque qu’elles n’en soient pas vraiment ! La constellation d’alternatives peut vite tourner au techwashing.  

Il manque Ă  l’essai de Ben Tarnoff quelques lignes sur comment rĂ©aliser une nĂ©cessaire dĂ©sindustrialisation du numĂ©rique (est-elle possible et comment ?), sur la nĂ©cessitĂ© d’une dĂ©financiarisation, d’une dĂ©marchandisation, d’une dĂ©sĂ©conomisation, voire d’un dĂ©financement de la tech, et donc pointer la nĂ©cessitĂ© d’autres modĂšles, comme l’investissement dĂ©mocratique qu’explorait rĂ©cemment Michael McCarthy dans Noema Mag. Et mĂȘme ce changement d’orientation de nos investissements risque d’ĂȘtre difficile, les moyens d’influence et de lobbying des uns n’étant pas au niveau de ceux des autres, comme s’en dĂ©solent les associations de dĂ©fense des droits amĂ©ricaines. C’est-Ă -dire, comme nous y invitait dans la conclusion de son dernier livre le sociologue Denis Colombi, Pourquoi sommes-nous capitalistes (malgrĂ© nous) ?, Ă  comment rebrancher nos choix d’investissements non pas sur la base des profits financiers qu’ils gĂ©nĂšrent, mais sur ce qu’ils produisent pour la collectivitĂ©. C’est un sujet que les spĂ©cialistes de la tech ne maĂźtrisent pas, certes. Mais tant qu’on demandera Ă  la tech de produire les meilleurs rendements du marchĂ© pour les actionnaires (15% Ă  minima !), elle restera le bras armĂ© du capital. Pour reconstruire l’internet, il faut commencer par reconstruire tout le reste ! 

Hubert Guillaud

A propos du livre de Ben Tarnoff, Internet for the people, the fight for our digital future, Verso, 2022. Cet article est paru originellement en deux partie en juin 2022 sur le site Le vent se lĂšve.

  • ✇Dans les algorithmes
  • Il est temps de faire entrer les voix des gens dans le code
    En 2022, David Robinson faisait paraĂźtre « Voices in the Code Â». Depuis, on ne s’étonnera pas qu’il soit devenu responsable de la suretĂ© des systĂšmes chez OpenAI. « Voices in the Code Â» est Ă  la fois une enquĂȘte passionnante sur la responsabilitĂ© des systĂšmes et une ode Ă  la participation publique, seule Ă  mĂȘme d’assurer leur gouvernance. Lecture. Avec Voices in the Code, David G. Robinson signe un livre important pour nous aider Ă  rendre les systĂšmes responsables. Robinson est l’un des dir
     

Il est temps de faire entrer les voix des gens dans le code

15 avril 2025 Ă  01:00

En 2022, David Robinson faisait paraĂźtre « Voices in the Code Â». Depuis, on ne s’étonnera pas qu’il soit devenu responsable de la suretĂ© des systĂšmes chez OpenAI. « Voices in the Code Â» est Ă  la fois une enquĂȘte passionnante sur la responsabilitĂ© des systĂšmes et une ode Ă  la participation publique, seule Ă  mĂȘme d’assurer leur gouvernance. Lecture.

Avec Voices in the CodeDavid G. Robinson signe un livre important pour nous aider Ă  rendre les systĂšmes responsables. Robinson est l’un des directeurs de l’Apple University, le centre de formation interne d’Apple. Il a surtout Ă©tĂ©, en 2011, le cofondateur d’Upturn, une association amĂ©ricaine qui promeut l’équitĂ© et la justice dans le design, la gouvernance et l’usage des technologies numĂ©riques. Voices in the code est un livre qui se concentre sur la gestion d’une question technique et une seule, en descendant dans ses trĂ©fonds, Ă  la maniĂšre d’une monographie : celle de l’évolution de l’algorithme d’attribution des greffons de rein aux Etats-Unis. Et cette histoire est riche d’enseignement pour comprendre comment nous devrions gĂ©rer les algorithmes les plus essentiels de nos sociĂ©tĂ©s. 

“Plus de technologie signifie d’abord moins de dĂ©mocratie”

De plus en plus de moments dĂ©cisifs de nos vies sont dĂ©cidĂ©s par des algorithmes : attribution de places dans l’enseignement supĂ©rieur, obtention de crĂ©dit bancaire, emploi, emprisonnement, accĂšs aux services publics
 DerriĂšre les verdicts opaques des systĂšmes techniques, nous avons tendance Ă  penser que leurs enjeux de conception n’est qu’une question technique. Ce n’est pas le cas. La mathĂ©maticienne Cathy O’Neil dans Algorithmes, la bombe Ă  retardement, nous le disait dĂ©jĂ  : les algorithmes sont des opinions embarquĂ©es dans du code. Et le risque est que confrontĂ©s Ă  ces systĂšmes nous perdions les valeurs et l’idĂ©al de sociĂ©tĂ© qui devraient les guider. Ces systĂšmes qui produisent des choix moraux et politiques sont souvent difficiles Ă  comprendre, peu contrĂŽlĂ©s, sujets aux erreurs. â€œLes choix Ă©thiques et dĂ©mocratiques pris par ces logiciels sont souvent enterrĂ©s sous une montagne de dĂ©tails techniques qui sont traitĂ©s eux-mĂȘmes comme s’ils Ă©taient techniques plus qu’éthiques”, explique Robinson. Pourtant, les algorithmes n’ont aucune raison d’ĂȘtre mystĂ©rieux et leurs limites morales devraient ĂȘtre partagĂ©es, notamment pour que nous puissions faire collectivement le travail nĂ©cessaire pour les amĂ©liorer. 

Les algorithmes permettent de traiter des donnĂ©es massives et sont particuliĂšrement populaires pour prendre des dĂ©cisions sur les personnes – et notamment les plus dĂ©munies -, parce qu’ils permettent justement de procĂ©der Ă  des traitements de masses tout en rĂ©duisant les coĂ»ts de ces traitements. Cela n’est pas sans consĂ©quences. â€œTrop souvent, plus de technologie signifie d’abord moins de dĂ©mocratie”, constate Robinson. Le problĂšme, c’est que quand les dĂ©cisions difficiles sont embarquĂ©es dans des logiciels, ces dĂ©cisions sont plus dures Ă  comprendre et plus difficiles Ă  contrĂŽler. Les logiciels agissent depuis des donnĂ©es toujours imparfaites et la comprĂ©hension de leurs biais et lacunes n’est pas accessible Ă  tous. La quantification semble souvent neutre et objective, mais c’est surtout un moyen de prendre des dĂ©cisions â€œsans avoir l’air de dĂ©cider”, comme le disait l’historien des sciences Theodore Porter dans son livre, Trust in numbers. Trop souvent, l’implantation d’algorithmes est le dĂ©cret d’application des lois. Le problĂšme, c’est que trop souvent, la politique n’est pas assez prĂ©cise, les ingĂ©nieurs comme les administrations avant eux, doivent en produire une interprĂ©tation qui a des consĂ©quences directes sur ceux qui sont affectĂ©s par le calcul. Nos lois et politiques sont remplies d’ambiguĂŻtĂ©s. Le risque auquel nous sommes confrontĂ©s c’est de laisser dĂ©cider aux ingĂ©nieurs et systĂšmes le rĂŽle de dĂ©finir les frontiĂšres morales des systĂšmes techniques qu’ils mettent en place. 

Le problĂšme, bien souvent, demeure l’accĂšs aux algorithmes, aux calculs. En 2021, Upturn a publiĂ© une Ă©tude (.pdf) sur 15 grands employeurs amĂ©ricains pour comprendre les technologies qu’ils utilisaient pour embaucher des candidats, concluant qu’il Ă©tait impossible de saisir les biais de leurs pratiques depuis l’extĂ©rieur. Et c’est encore plus difficile quand les algorithmes ou leurs rĂ©sultats sont puissamment intriquĂ©s entre eux : avoir un mauvais score de crĂ©dit a des rĂ©percussions bien au-delĂ  d’une demande de crĂ©dit (sur ses primes d’assurance ou la possibilitĂ© de candidater Ă  certains emplois par exemple
). Nous sommes cernĂ©s par des scores complexes, intriquĂ©s, qui ne nous sont pas expliquĂ©s et qui calculent trop souvent des objets d’une maniĂšre trompeuse, selon une prĂ©tention Ă  la connaissance mensongĂšre (Robinson parle de â€œprĂ©dictions zombies” qui m’évoquent les “technologies zombies” de JosĂ© Halloy), peu contrĂŽlĂ©s, pas mis Ă  jour
 sans qu’on puisse les contester, les rectifier ou mĂȘme ĂȘtre au courant de leur existence. Robinson donne de nombreux exemples d’algorithmes qui posent problĂšmes, dans le domaine de la justice, de la santĂ©, de l’aide sociale, de l’affectation dans l’enseignement supĂ©rieur
 

“Quand les enjeux sont Ă©levĂ©s, nous devrions construire des systĂšmes qui se trompent rarement et oĂč les erreurs sont faciles Ă  trouver et Ă  corriger”. Ce n’est pas le cas. Trop souvent, les systĂšmes mettent en Ɠuvre les logiques morales de ceux qui les conçoivent. Trop souvent, on laisse les experts techniques, cette Ă©lite du code (qui tient Ă©galement beaucoup d’une consultocratie, entre Gafams et grands acteurs du conseil) dĂ©cide d’enjeux moraux et politiques. Nous sommes confrontĂ©s Ă  une industrie logicielle qui encode les principes et visions du monde des puissants. Des technologies avec des objectifs, comme disait Kate Crawford. Un numĂ©rique industriel profondĂ©ment orientĂ© Ă  droite, comme je le rĂ©sume souvent et plus directement. Contrairement Ă  ce qu’on pourrait penser, dĂ©cider de qui doit prioritairement bĂ©nĂ©ficier d’un organe tient bien plus d’un choix moral que d’un choix mĂ©dical, notamment parce que les diffĂ©rences mĂ©dicales entre les patients qui relĂšvent d’une mĂȘme urgence sont faibles. Trop souvent, le choix moral qu’accomplissent les systĂšmes n’est pas explicite. â€œNous devons nous inquiĂ©ter de la relation entre le process et le rĂ©sultat”, explique Robinson. Le problĂšme, c’est que bien souvent la conception met en valeur l’un ou l’autre, prĂŽnant la vertu du processus ou la vertu du rĂ©sultat, quand ils devraient surtout se renforcer l’un l’autre plutĂŽt que de s’opposer. Or, souligne Robinson dans son livre, seule la dĂ©libĂ©ration et la participation partout tendent Ă  mener Ă  de meilleurs rĂ©sultats, permettent de faire se rejoindre le process et le rĂ©sultat. 

4 stratégies pour améliorer la gouvernance des systÚmes

Robinson dĂ©taille 4 stratĂ©gies de gouvernance pour les systĂšmes algorithmiques : 

  • Élargir la participation des parties prenantes
  • Renforcer la transparence
  • AmĂ©liorer la prĂ©vision d’impact des systĂšmes
  • Assurer l’audit en continu

La participation des parties prenantes repose sur les techniques dĂ©libĂ©ratives trĂšs documentĂ©es, comme on les trouve dĂ©veloppĂ©es dans les jury ou les confĂ©rences de citoyens : Ă  savoir dĂ©livrer une information Ă©quilibrĂ©e, consciente, substantielle, comprĂ©hensible. C’est ce qu’on appelle aussi, assez mal, les “comitĂ©s consultatifs” communautaires ou Ă©thiques (qu’on devrait plutĂŽt appeler il me semble ComitĂ©s de parties prenantes, parce qu’ils ne devraient pas ĂȘtre seulement consultatifs, mais bien impliquĂ©s dans les dĂ©cisions
 et parce que leurs fonctions consistent avant tout Ă  rassembler autour de la table tous ceux qui sont concernĂ©s, les usagers comme les experts). Ces comitĂ©s chargĂ©s d’inspecter, de contrĂŽler, d’équilibrer les dĂ©cisions techniques en faisant entendre d’autres voies dans les dĂ©cisions sont encore bien trop rares. Une coalition d’organisation de dĂ©fense des droits civils a proposĂ© ainsi que les algorithmes d’évaluation de risque de rĂ©cidive utilisĂ©s dans les cours de justice amĂ©ricaines mettent en place ce type de structure pour dĂ©terminer ce qui devrait ĂȘtre pris en compte et rejetĂ© par ces systĂšmes, et on pourrait les imaginer comme des structures obligatoires Ă  tout systĂšme Ă  fort impact social. C’est le “rien pour nous sans nous” de ceux qui rĂ©clament d’ĂȘtre Ă  la table et pas seulement au menu de ce que l’on conçoit pour eux. Le risque bien sĂ»r – et c’est d’ailleurs la rĂšgle plus que l’exception – c’est que ces comitĂ©s soient trop souvent des coquilles vides, un faux-semblant participatif, rassemblant des gens qu’on n’écoute pas. 

La transparence peut prendre bien des formes. La principale Ă  l’Ɠuvre dans les systĂšmes techniques consiste Ă  divulguer le code source des systĂšmes. Une solution intĂ©ressante, mais insuffisante, notamment parce qu’elle ferme la question Ă  l’élite du code, et surtout que sans donnĂ©es correspondantes, il est difficile d’en faire quelque chose (et c’est encore plus vrai avec les systĂšmes d’IA, dont la non-reproductabilitĂ© est le premier Ă©cueil). La transparence doit s’accompagner d’une documentation et de descriptions plus larges : des donnĂ©es utilisĂ©es comme des logiques de dĂ©cisions suivies, des critĂšres pris en compte et de leurs poids respectifs. Elle doit ĂȘtre â€œextensive”, plaide Robinson (pour ma part, j’ajouterai bien d’autres termes, notamment le terme “projective”, c’est-Ă -dire que cette transparence, cette explicabilitĂ©, doit permettre au gens de se projeter dans les explications). Dans le contexte de la transplantation, le systĂšme doit ĂȘtre dĂ©crit d’une maniĂšre comprĂ©hensible, les changements envisagĂ©s doivent ĂȘtre explicitĂ©s, doivent montrer ce qu’ils vont changer, et l’ensemble doit pouvoir ĂȘtre largement dĂ©battu, car le dĂ©bat fait Ă©galement partie de la transparence attendue. 

La prĂ©vision consiste Ă  produire des dĂ©clarations d’impacts qui dĂ©crivent les bĂ©nĂ©fices et risques des modifications envisagĂ©es, Ă©valuĂ©es et chiffrĂ©es. La prĂ©vision consiste Ă  montrer les effets concrets, les changements auxquels on souhaite procĂ©der en en montrant clairement leurs impacts, leurs effets. L’enjeu est bien de prĂ©voir les consĂ©quences afin de pouvoir dĂ©cider depuis les effets attendus. Dans le cas de la transplantation de rein, les Ă©tudes d’impact sur les modifications de l’algorithme d’allocation ont permis de voir, trĂšs concrĂštement, les changements attendus, de savoir qui allait ĂȘtre impactĂ©. Lors d’une de ses modifications par exemple, la prĂ©vision – produite par un organisme dĂ©diĂ© et indĂ©pendant, c’est important –  montrait que les patients ĂągĂ©s recevraient bien moins de transplantation
 ce qui a conduit Ă  rejeter la proposition. 

L’audit consiste Ă  surveiller le systĂšme en usage et Ă  produire une documentation solide sur son fonctionnement. Les audits permettent souvent de montrer les amĂ©liorations ou dĂ©tĂ©riorations des systĂšmes. Sous prĂ©textes de vie privĂ©e ou de propriĂ©tĂ©, l’audit est encore bien trop rarement pratiquĂ©. Bien souvent, pourtant, l’audit permet d’accomplir certaines mesures, comme par exemple de mesurer la performances des systĂšmes d’attribution de crĂ©dits sur diffĂ©rents groupes dĂ©mographiques. Dans le domaine de la transplantation rĂ©nale amĂ©ricaine, le Scientific Registry of Transplant Recipients (SRTR) – l’organisme indĂ©pendant qui publie un rapport annuel dĂ©taillĂ© pour mesurer la performance du systĂšme pour les patients selon des caractĂ©ristiques comme l’ñge, le genre ou la race – permet de voir les Ă©volutions dans le temps de ces caractĂ©ristiques, et de montrer si le systĂšme s’amĂ©liore ou se dĂ©grade.

Ces bonnes pratiques ne se suffisent pas, rappelle Robinson, en Ă©voquant l’exemple d’un outil de prĂ©diction du risque de maltraitance et d’agression d’enfants du comtĂ© d’Allegheny en Pennsylvanie sur lequel avait travaillĂ© Virginia Eubanks dans Automating inequality. La bonne question Ă  se poser parfois consiste aussi Ă  refuser la construction d’un systĂšme
 ou de poser la question des moyens. Trop souvent, les systĂšmes algorithmiques visent d’abord et avant tout Ă  gĂ©rer la pĂ©nurie quand l’enjeu devrait d’abord consister Ă  y remĂ©dier. Trop souvent, leurs dĂ©ploiements visent et produisent de la diminution de personnel et donc amoindrit l’interaction humaine. Le refus – que dĂ©fendent nombre d’activistes, comme ceux prĂ©sents Ă  la confĂ©rence sur le refus technique organisĂ©e Ă  Berkeley en 2020 ou les associations Ă  l’origine du Feminist Data Manifest-No (voir Ă©galement â€œPour un fĂ©minisme des donnĂ©es”) – tient bien souvent, pour certains, du seul levier pour s’opposer Ă  des projets par nature toxiques. Face Ă  des moyens de discussion et d’écoute rĂ©duits Ă  nĂ©ant, l’opposition et le refus deviennent souvent le seul levier pour faire entendre une voix divergente. Dans le champ du social notamment, les travaux d’Eubanks ont montrĂ© que la mise en place de systĂšmes numĂ©riques produisent toujours une diminution des droits Ă  l’encontre des plus dĂ©munis. Nombre de systĂšmes sociaux mis en place depuis (au Royaume-Uni, aux Pays-Bas, en Autriche, mais Ă©galement en France – ce qu’il se passe actuellement autour des systĂšmes mis en place dans les CAF suit les mĂȘmes logiques) sont en ce sens profondĂ©ment dysfonctionnels. Les biais, les logiques austĂ©ritaires et libĂ©rales qui prĂ©sident au dĂ©ploiement des systĂšmes ne produisent que la dĂ©gradation des systĂšmes sociaux et des services publics (« ce patrimoine de ceux qui n’en ont pas Â»), de la justice et de l’équitĂ© vers lesquels ils ne devraient jamais cesser de tendre. C’est bien l’inverse pourtant auquel on assiste. La numĂ©risation accĂ©lĂ©rĂ©e des services publics, sous prĂ©texte d’économie budgĂ©taire, devient un levier de leur dĂ©financement et de la minimisation des droits et empĂȘche les gens d’accĂ©der Ă  leurs droits et aux services. Depuis les travaux d’Eubanks, on constate finalement que partout, le dĂ©ploiement de systĂšmes de traitements de masse des bĂ©nĂ©ficiaires d’aides ou de services publics est problĂ©matique, et la cause est autant Ă  trouver dans les choix de dĂ©veloppement que dans les considĂ©rations idĂ©ologiques qui prĂ©sident Ă  ceux-ci. Partout, le but est de gĂ©rer la pĂ©nurie et de l’étendre, tout en diminuant les coĂ»ts. Le but n’est pas de faire des services publics qui rendent le service qu’on en attend, que de faire des services qui produisent des gains Ă©conomiques, de la rentabilitĂ©. Et de l’accĂ©lĂ©rer
 quoi qu’il en coĂ»te. 

Une histoire algorithmique exemplaire : affecter des reins Ă  ceux qui en ont besoin

D’une maniĂšre un peu dĂ©stabilisante, Robinson ne nous explique pas comment le systĂšme d’attribution d’un greffon rĂ©nal calcule (c’est tout de mĂȘme dommage de ne pas s’ĂȘtre essayĂ© Ă  l’exercice
 Ainsi par exemple, on finit par comprendre que c’est un systĂšme par points qui prĂ©side Ă  l’attribution oĂč le but du cĂŽtĂ© du greffon est d’en avoir le moins possible, quand du cĂŽtĂ© du greffĂ©, il est d’en avoir le plus possible).  Robinson raconte plutĂŽt la grande histoire de l’évolution de la transplantation rĂ©nale et l’évolution des dĂ©bats Ă©thiques qui l’ont accompagnĂ©. Il raconte l’histoire de la discussion d’un systĂšme technique avec la sociĂ©tĂ© et si cette histoire est exemplaire, ce n’est pas parce que le systĂšme d’attribution, l’algorithme d’appariement, serait plus vertueux que d’autres (Robinson termine son analyse en montrant que ce n’est pas le cas), mais parce qu’il dĂ©montre que ce qui est vertueux c’est la mise en discussion – ouverte, organisĂ©e, inclusive
 – continue entre technique et sociĂ©té  MĂȘme quand elle se referme (par exemple quand il Ă©voque la question de la prise en compte des problĂšmes liĂ©s Ă  la gĂ©ographie des dons), d’autres moyens permettent de l’ouvrir (en l’occurrence, le recours aux tribunaux). Ce qu’il montre, c’est que mĂȘme quand les discussions se referment, les questions de justice et d’équitĂ©, d’équilibres des droits, finissent toujours par revenir, comme nous le rappelle Alain Supiot

De l’introduction des questions Ă©thiques

Robinson retrace l’histoire de la transplantation rĂ©nale en montrant les consĂ©quences Ă©thiques de l’évolution des connaissances mĂ©dicales. Si la premiĂšre tentative de transplantation Ă  eu lieu au dĂ©but du XXe siĂšcle, longtemps, la question de l’immunologie, c’est-Ă -dire de l’acceptation d’un organe Ă©tranger dans le corps est restĂ©e obscure Ă  la science. La premiĂšre transplantation de rein rĂ©ussie date de 1954 seulement, et elle Ă©tait entre deux parfaits jumeaux, qui semblait la seule condition Ă  la rĂ©ussite de l’opĂ©ration. A dĂ©faut de transplantation, la mĂ©decine a progressĂ© sur un autre front, la dialyse, c’est-Ă -dire le fait de faire filtrer les toxines d’un patient non pas par un rein, mais par une machine, ce qu’on est parvenu Ă  faire pendant la seconde guerre mondiale. En 1960, le docteur Scribner met au point le cathĂ©ter qui va permettre de prolonger la durĂ©e d’un patient sous dialyse (qui n’était que de quelques semaines), transformant le dysfonctionnement du rein de maladie fatale en maladie chronique et amenant un problĂšme Ă©thique chronique : comment trier les patients, Ă  une Ă©poque oĂč les appareils de dialyse sont encore extrĂȘmement rares et coĂ»teux ? Face Ă  l’afflux des demandes, Scribner va avoir l’intuition de mettre en place un systĂšme de sĂ©lection qui ne soit pas uniquement mĂ©dical. Pour Ă©lire les patients Ă  la dialyse, il met en place un processus de sĂ©lection consistant en un avis mĂ©dical pour dĂ©terminer l’éligibilitĂ© Ă  la dialyse mais surtout il va mettre en place un comitĂ© de profanes chargĂ©s de trancher les dĂ©cisions non-mĂ©dicales d’attribution (comme de dĂ©terminer entre deux patients mĂ©dicalement Ă©ligibles, lequel doit ĂȘtre prioritaire). Les membres de ce comitĂ© recevront des informations sur le fonctionnement de la dialyse et de la transplantation
 mais devront dĂ©cider des rĂšgles non mĂ©dicales s’appliquant aux patients Ă©ligibles Ă  une transplantation ou une dialyse. TrĂšs tĂŽt donc, la rĂ©ponse des limites de l’allocation dans des cas oĂč les ressources sont rares a consistĂ© Ă  faire porter la problĂ©matique Ă©thique Ă   une communautĂ© plus large – et pas seulement aux experts techniques. Lors de ses 13 premiers mois de fonctionnement, le Centre du rein de Seattle du docteur Scribner a dĂ» considĂ©rer 30 candidats, 17 ayant Ă©tĂ© jugĂ© mĂ©dicalement aptes la dialyse, mais en Ă©cartant 7 du traitement. 

D’autres centres de dialyse vont pourtant faire des choix diffĂ©rents : certains vont opter pour une approche, “premier arrivĂ©, premier servi”. Les premiers critĂšres de choix n’étaient pas sans opacitĂ©s oĂč sans jugements moraux : les patients pauvres, vieux ou appartenant Ă  des minoritĂ©s ethniques, ceux dont les vies sont plus chaotiques, ont Ă©tĂ© plus facilement Ă©cartĂ©s que d’autres. MalgrĂ© ses dĂ©ficiences, ces interrogations ont permis de construire peu Ă  peu la rĂ©ponse Ă©thique. 

Ce qui va changer dans les annĂ©es 60, c’est la gĂ©nĂ©ralisation de la dialyse (d’abord accessible aux vĂ©tĂ©rans de l’armĂ©e), le dĂ©veloppement de la transplantation rĂ©nale en ayant recours Ă  des donneurs provenant de la famille proche, puis, en 1972, la dĂ©cision par le CongrĂšs de rembourser les soins de dialyse. Cette Ă©volution lĂ©gislative doit beaucoup aux tĂ©moignages de patients devant les reprĂ©sentants, expliquant la difficultĂ© Ă  accĂ©der Ă  ce type de soins. Le remboursement des soins va permettre d’élargir le public de la dialyse, de crĂ©er des centres dĂ©diĂ©s et de la rendre moins coĂ»teuse, non seulement pour les patients, mais aussi pour la mĂ©decine. Cette prise en charge de la dialyse n’est pas sans incidence d’ailleurs, souligne Robinson, notamment quand les soins liĂ©s Ă  une transplantation, couvrant la prise d’immunosuppresseurs, eux, ne courent que sur 3 ans, alors que les soins de dialyse, eux sont pris en charge Ă  vie. MĂȘme encore aujourd’hui (et plus encore aux Etats-Unis, ou la prise en charge des soins de santĂ© est difficile), cette logique subsiste et fait que certains patients ne peuvent se permettre de s’extraire de la dialyse au profit d’une transplantation. En moyenne, une dialyse, consiste en 3 traitements par semaine, 4 heures de traitement par session. CoĂ»teuse, elle reste surtout dangereuse, le taux de mortalitĂ© des patients sous dialyse est encore important Ă  cette Ă©poque. Sans compter que l’augmentation du nombre de patients sous dialyse va avoir un impact sur l’augmentation de la demande de transplantation
 

Dans les annĂ©es 60, la dĂ©couverte de mĂ©dications immunosuppressives va permettre de faire baisser considĂ©rablement le rejet des greffons et d’élargir le nombre de greffes : en quelques annĂ©es, on va passer d’une mortalitĂ© post transplantation de 30% Ă  un taux de survie de 80%. 

Un algorithme, mais sûr quels critÚres ?

En 1984, les spĂ©cialistes de la greffe de rein, Tom Starzl et Goran Klintmalm reçoivent une demande de greffe de toute urgence pour une petite fille de 4 ans. Ce drame public, trĂšs mĂ©diatisĂ©, va reposer la question de l’attribution. La loi nationale sur la transplantation d’organe votĂ©e en 1984 va organiser l’encadrement de l’attribution et dĂ©cider de la crĂ©ation d’un systĂšme national par ordinateur pour apparier les organes des donneurs aux patients, dont la rĂ©alisation est confiĂ©e au RĂ©seau d’approvisionnement en organe et de transplantation (OPTN, Organ procurement and transplantation network) et qui doit faire discuter, comme les premiers comitĂ©s de Scribner, des mĂ©decins et le public. A nouveau, deux Ă©coles s’affrontent. Celle qui propose le premier arrivĂ©, premier servi, et une autre qui propose une rationalisation mĂ©dicale de la priorisation. 

Cette priorisation va longtemps reposer sur l’appariement antigĂ©nique
 Ce typage des tissus, consiste a prĂ©dire biologiquement la meilleure relation entre les donnĂ©es biomĂ©dicales d’un donneur et celles d’un receveur. Cette prĂ©diction ne va cesser d’évoluer avec l’avancĂ©e des connaissances et l’évolution des standards de soin. Cet appariement permet de mĂ©dicaliser le choix, mais repose sur la croyance que cet appariement est important pour la plupart des cas. Pour Robinson, nous avons lĂ  un expĂ©dient moral car les caractĂ©ristiques biomĂ©dicales ne sont pas toujours un obstacle insurmontable pour la survie des greffons de reins. Le problĂšme, c’est que les antigĂšnes ne sont pas seulement un prĂ©dicteur de la compatibilitĂ© entre donneur et receveur, ils sont aussi statistiquement corrĂ©lĂ©s Ă  la race. Les afro-amĂ©ricains ont trois fois plus de risques d’avoir une maladie des reins en stade terminal que les blancs, alors que la majoritĂ© des donneurs ressemblent Ă  la population amĂ©ricaine et sont donc blancs. La prise en compte antigĂ©nique signifie proportionnellement moins d’appariements pour les noirs. 

Un autre problĂšme va donner lieu Ă  de longues discussions : Ă  partir de quand prendre en compte une demande de transplantation ? La rĂšgle a longtemps Ă©tĂ© Ă  l’inscription d’un patient sur la liste d’attente
 Or, cette inscription sur la liste d’attente n’est pas la mĂȘme pour tous les patients : le niveau social, la couleur de peau et l’accĂšs aux soins de santĂ© sont lĂ  encore producteurs d’inĂ©galitĂ©s. En fait, le souhait de ne vouloir prendre en compte que des critĂšres dits mĂ©dicaux pour l’attribution d’un greffon, fait l’impasse sur ce qui ne relĂšve pas du mĂ©dical dans le mĂ©dical et notamment ses pesanteurs sociales. Ce que montre trĂšs bien le livre de Robinson, c’est combien les discussions internes comme le dĂ©bat public ne cessent de se modifier dans le temps, Ă  mesure que la connaissance progresse. 

En 1987, l’UNOS (United network for Organ Sharing) qui opĂšre l’OPTN, dĂ©cide d’opter pour un algorithme d’allocation dĂ©jĂ  utilisĂ© localement Ă  Pittsburgh (lĂ  encore, soulignons le, on retrouve une constante dans le dĂ©ploiement de procĂ©dures techniques nationales : celle de s’appuyer sur des innovateurs locaux
 Le sociologue Vincent Dubois raconte la mĂȘme histoire quand il Ă©voque la gĂ©nĂ©ralisation du contrĂŽle automatisĂ© Ă  l’égard des bĂ©nĂ©ficiaires de l’aide sociale dans les CAF). Cet algorithme prend en compte de multiples facteurs : le temps d’attente d’un patient, la comptabilitĂ© antigĂ©nique et l’urgence mĂ©dicale
 avant d’opter deux ans plus tard pour renforcer dans les critĂšres la question de l’appariement antigĂ©nique, alors que de nombreux spĂ©cialistes s’y opposent prĂ©textant que la preuve de leur importance n’est pas acquise. La contestation gagne alors du terrain arguant que la question antigĂ©nique est insignifiante dans la plupart des cas de transplantation et qu’elle est surtout discriminatoire. En 1991, l’inspecteur gĂ©nĂ©ral de la SantĂ© amĂ©ricain souligne que les noirs attendent un rein deux Ă  trois fois plus longtemps que les blancs (jusqu’à 18 mois, contre 6 !). Sans compter que ceux en faveur de l’appariement antigĂ©nique sont Ă©galement ceux qui valorisent la distribution gĂ©ographique, qui elle aussi Ă  un impact discriminatoire.

Mais Ă  nouveau, comme aux premiers temps de la transplantation, pour Ă©quilibrer les dĂ©bats, une infrastructure de gouvernance ouverte et Ă©quilibrĂ©e s’est installĂ©e. Avec l’OPTN d’abord, qui s’est imposĂ© comme une organisation caractĂ©risĂ©e par la transparence, la consultation et la dĂ©cision (par le vote). L’OPTN est le modĂšle de nombreux comitĂ©s de parties prenantes qui prennent en compte la reprĂ©sentation des usagers et discutent des changements Ă  apporter Ă  des systĂšmes via d’innombrables confĂ©rences ouvertes au public qui vont se dĂ©placer Ă  travers le pays pour permettre la participation. Les efforts de cette structure ont Ă©tĂ© soutenus par une autre, qui lui est indĂ©pendante : le Scientific Registry of Transplant Recipents (SRTR), dont l’une des fonctions est de produire une comprĂ©hension des modĂšles et des impacts des changements envisagĂ©s par l’OPTN. Les visualisations et simulations que va produire le SRTR vont bien souvent jouer un rĂŽle vital dans les dĂ©bats. Simuler les consĂ©quences d’un changement de modĂšle d’affectation permet d’en saisir les orientations, permet de comprendre qui va en bĂ©nĂ©ficier et qui risque d’en pĂątir. Outre ces institutions phares, il faut ajouter les autoritĂ©s de santĂ©, les reprĂ©sentants politiques, la communautĂ© mĂ©dicale, les associations de patients, les dĂ©cisions de justice
 qui s’imbriquent et s’entremĂȘlent dans une grande discussion mĂ©dico-politique.  

Des critÚres qui évoluent avec la science et le débat public

Durant les annĂ©es 90, les progrĂšs de l’immunosuppression renforcent la critique des antigĂšnes, les rendant encore moins critiques dans le succĂšs de la transplantation. L’UNOS procĂ©de Ă  plusieurs changements Ă  son systĂšme d’affectation pour rĂ©duire le rĂŽle des antigĂšnes dans l’attribution des greffons (et attĂ©nuer le fossĂ© des discriminations), au profit du temps d’attente. Dans les annĂ©es 90, la barriĂšre des groupes sanguins est Ă©galement dĂ©passĂ©e. 

En 2003, un processus de discussion pour reconcevoir le systĂšme d’attribution des greffons qui semble en bout de course est Ă  nouveau lancĂ©. Pour beaucoup, â€œl’algorithme d’allocation des reins Ă©tait devenu un collage de prioritĂ©s”. A partir de 2003, le dĂ©bat s’enflamme sur la question des listes d’attentes : lĂ  encore, la discrimination est Ă  l’oeuvre, les afro-amĂ©ricains n’étant pas placĂ© sur les listes d’attentes aussi rapidement ou dans les mĂȘmes proportions que les blancs. Les patients noirs attendent plus longtemps avant d’ĂȘtre inscrits en liste d’attente, souvent aprĂšs plusieurs annĂ©es de dialyse, notamment parce que l’accĂšs aux soins aux Etats-unis reste fortement inĂ©galitaire. Pour corriger cette disparitĂ©, en 2002, on propose non plus de partir du moment oĂč un patient est ajoutĂ© Ă  une liste d’attente, mais de partir du moment oĂč un patient commence une dialyse. Pourtant, Ă  cette Ă©poque, la question ne fait pas suffisamment consensus pour ĂȘtre adoptĂ©e. 

Une autre critique au premier systĂšme de calcul est son manque d’efficacitĂ©. Certains proposent que les reins soient affectĂ©s prioritairement afin de maximiser la durĂ©e de vie des patients (au dĂ©triment des patients en attente les plus ĂągĂ©s). D’autres discussions ont lieu sur les patients sensibles, des patients qui ont dĂ©veloppĂ© des antigĂšnes spĂ©cifiques qui rendent leur transplantation plus Ă  risque, comme ceux qui ont dĂ©jĂ  eu une transplantation, des femmes qui ont eu plusieurs naissances ou des patients qui ont reçu beaucoup de transfusions par exemple. Ce degrĂ© de sensibilitĂ© est calculĂ© par un score : le CPRA, calculated panel reactive antibody score. L’un des enjeux est de savoir si on doit favoriser un patient qui a dĂ©jĂ  reçu une transplantation sur un autre qui n’en a pas encore eu : le fait d’avoir une double chance paraissant Ă  ceux qui n’en ont pas encore eu une, comme une injustice. L’introduction de ce nouveau calcul souligne combien les calculs dĂ©pendent d’autres calculs. L’intrication des mesures et la complexitĂ© que cela gĂ©nĂšre n’est pas un phĂ©nomĂšne nouveau. 

L’utilitĂ© contre l’équitĂ© : l’efficacitĂ© en question

La grande question qui agite les dĂ©bats qui vont durer plusieurs annĂ©es, explique Robinson, consiste Ă  balancer l’utilitĂ© (c’est-Ă -dire le nombre total d’annĂ©es de vie gagnĂ©es) et l’équitĂ© (le fait que chacun ait une chance Ă©gale). Des mĂ©decins proposent d’incorporer au systĂšme d’allocation une mesure du bĂ©nĂ©fice net (le LYFT : Life years from Transplant), visant Ă  classer les candidats selon le nombre d’annĂ©es de vie qu’ils devraient gagner s’ils reçoivent une greffe. Cette formule, prĂ©sentĂ©e en 2007, est compliquĂ©e : elle prend en compte une douzaine de facteurs (l’ñge, l’indice de masse corporelle, le temps passĂ© Ă  vivre avec un problĂšme rĂ©nal, la conformitĂ© antigĂ©nique
). En utilisant les donnĂ©es passĂ©es, le STR peut modĂ©liser le temps de survie des patients en liste d’attente, le temps de survie post-transplantation, pour chaque patient et chaque appariement. Les modĂ©lisations prĂ©sentĂ©es par le STR montrent que LYFT devrait avoir peu d’effet sur la distribution raciale et sanguine des receveurs, mais qu’il devrait Ă©loigner de la greffe les diabĂ©tiques, les candidats sensibles et ĂągĂ©s, au profit des plus jeunes. Le calcul du temps de vie cumulĂ© que le systĂšme devrait faire gagner peut paraĂźtre impressionnant, mais le recul de la chance pour les seniors est assez mal accueilli par les patients. L’efficacitĂ© semble mettre Ă  mal l’équitĂ©. Les discussions s’enlisent. Le comitĂ© demande au ministĂšre de la santĂ©, si l’usage de l’ñge dans les calculs est discriminatoire, sans recevoir de rĂ©ponse. Une version finale et modifiĂ©e de Lyft est proposĂ©e Ă  commentaire. Lyft montre une autre limite : les modĂšles de calculs de longĂ©vitĂ© sur lesquels il repose ne sont pas trĂšs comprĂ©hensibles au public. Ce qui permet de comprendre une autre rĂšgle des systĂšmes : quand l’explicabilitĂ© n’est pas forte, le systĂšme reste considĂ©rĂ© comme dĂ©faillant. Au final, aprĂšs plusieurs annĂ©es de dĂ©bats, Lyft est abandonnĂ©. 

En 2011, une nouvelle proposition de modification est faite qui propose de concilier les deux logiques : d’ñge et de bĂ©nĂ©fice net. Les greffons sont dĂ©sormais Ă©valuĂ©s sur un score de 100, oĂč plus le score est bas, meilleur est le greffon. Les patients, eux, sont affectĂ© par un Post-Transplant Survival score (EPTS), qui comme Lyft tente d’estimer la longĂ©vitĂ© depuis 4 facteurs seulement : l’ñge, le temps passĂ© en dialyse, le diabĂšte et si la personne a dĂ©jĂ  reçu une transplantation, mais sans Ă©valuer par exemple si les patients tolĂšrent la dialyse en cas de non transplantation
 Pour concilier les logiques, on propose que 20% des greffons soient proposĂ©s prioritairement Ă  ceux qui ont le meilleur score de longĂ©vitĂ©, le reste continuant Ă  ĂȘtre attribuĂ© plus largement par Ăąge (aux candidats qui ont entre 15 ans de plus ou de moins que l’ñge du donneur). LĂ  encore, pour faire accepter les modifications, le comitĂ© prĂ©sente des simulations. Plus Ă©quilibrĂ©, la rĂšgle des 20/80 semble plus comprĂ©hensible,  Mais lĂ  encore, il rĂ©duit les chances des patients de plus de 50 ans de 20%, privilĂ©giant Ă  nouveau l’utilitĂ© sur l’équitĂ©, sans rĂ©pondre Ă  d’autres problĂšmes qui semblent bien plus essentiels Ă  nombre de participants, notamment ceux liĂ©s aux disparitĂ©s gĂ©ographiques. Enfin, la question de l’ñge devient problĂ©matique : la loi amĂ©ricaine contre la discrimination par l’ñge a Ă©tĂ© votĂ©e en 2004, rappelant que personne ne peut ĂȘtre discriminĂ© sur la base de son Ăąge. Ici, se dĂ©fendent les promoteurs de la rĂ©forme, l’ñge est utilisĂ© comme un proxy pour calculer la longĂ©vitĂ©. Mais cela ne suffit pas. Enfin, les patients qui ont 16 ans de plus ou de moins que l’ñge du donneur n’ont pas moins de chance de survivre que ceux qui ont 14 ans de diffĂ©rence avec le donneur. Ce critĂšre aussi est problĂ©matique (comme bien souvent les effets de seuils des calculs, qui sont souvent strictes, alors qu’ils devraient ĂȘtre souples). 

La surveillance du nouveau systĂšme montre d’abord que les receveurs de plus de 65 ans sont dĂ©favorisĂ©s avant de s’amĂ©liorer Ă  nouveau (notamment parce que, entre-temps, la crise des opioĂŻdes et la surmortalitĂ© qu’elle a engendrĂ© a augmentĂ© le nombre de greffons disponibles). Le suivi longitudinal de l’accĂšs aux greffes montre qu’entre 2006 et 2017, l’équitĂ© raciale a nettement progressĂ©, notamment du fait de la prise en compte de la date de mise sous dialyse pour tous. Les diffĂ©rences entre les candidats Ă  la greffe, selon la race, se resserrent. 

En septembre 2012, une nouvelle proposition est donc faite qui conserve la rĂšgle des 20/80, mais surtout qui intĂšgre le calcul Ă  partir du dĂ©but de l’entrĂ©e en dialyse des patients, attĂ©nue l’allocation selon le groupe sanguin
 autant de mesures qui amĂ©liorent l’accĂšs aux minoritĂ©s. Cette proposition finale est Ă  nouveau discutĂ©e entre septembre et dĂ©cembre 2012, notamment sur le fait qu’elle rĂ©duit l’accĂšs aux patients les plus ĂągĂ©s et sur le compartimentage rĂ©gional qui perdure. En juin 2013, le conseil de l’OPTN approuve cependant cette version et le nouvel algorithme entre en fonction en dĂ©cembre 2014. Dix ans de discussion pour valider des modifications
 Le dĂ©bat public montre Ă  la fois sa force et ses limites. Sa force parce que nombre d’élĂ©ments ont Ă©tĂ© discutĂ©s, recomposĂ©s ou Ă©cartĂ©s. Ses limites du fait du temps passĂ© et que nombre de problĂšmes n’ont pas Ă©tĂ© vraiment tranchĂ©s. DĂ©cider prend du temps. Robinson souligne combien ces Ă©volutions, du fait des dĂ©bats, sont lentes. Il a fallu 10 ans de dĂ©bats pour que l’évolution de l’algorithme d’attribution soit actĂ©e. Le dĂ©bat entre utilitĂ© et Ă©quitĂ© n’a pu se rĂ©soudre qu’en proposant un mixte entre les deux approches, avec la rĂšgle du 20/80, tant ils restent irrĂ©conciliables. Mais si le processus a Ă©tĂ© long, le consensus obtenu semble plus solide. 

La lente déprise géographique

Le temps d’acheminement d’un greffon Ă  un donneur a longtemps Ă©tĂ© une donnĂ©e essentielle de la greffe, tout comme la distance d’un malade Ă  une unitĂ© de dialyse, ce qui explique, que dĂšs le dĂ©but de la greffe et de la dialyse, le critĂšre gĂ©ographique ait Ă©tĂ© essentiel. 

L’allocation de greffon est donc circonscrite Ă  des zonages arbitraires : 58 zones, chacune pilotĂ©es par un organisme de contrĂŽle des allocations, dĂ©coupent le territoire amĂ©ricain. Le systĂšme montre pourtant vite ses limites, notamment parce qu’il gĂ©nĂšre de fortes discriminations Ă  l’accĂšs, notamment lĂ  oĂč la population est la plus nombreuse et la demande de greffe plus forte. Les patients de New York ou Chicago attendent des annĂ©es, par rapport Ă  ceux de Floride. Plusieurs fois, il va ĂȘtre demandĂ© d’y mettre fin (hormis quand le transport d’organes menace leur intĂ©gritĂ©). Pourtant, les zones gĂ©ographiques vont s’éterniser. Il faut attendre 2017 pour que l’UNOS s’attaque Ă  la question en proposant un Score d’accĂšs Ă  la transplantation (ATS, Access to Transplant Score) pour mesurer l’équitĂ© de l’accĂšs Ă  la transplantation. L’outil dĂ©montre ce que tout le monde dĂ©nonçait depuis longtemps :  la gĂ©ographie est un facteur plus dĂ©terminant que l’ñge, le groupe sanguin, le genre, la race ou les facteurs sociaux : selon la zone dont dĂ©pend le receveur (parmi les 58), un mĂȘme candidat pourra attendre jusqu’à 22 fois plus longtemps qu’un autre ! Cette question va Ă©voluer trĂšs rapidement parce que la mĂȘme annĂ©e, l’avocat d’une patiente qui a besoin d’une greffe attaque en justice pour en obtenir une depuis une zone oĂč il y en a de disponibles. Fin 2017, l’UNOS met fin au zonage pour le remplacer par une distance concentrique par rapport Ă  l’hĂŽpital du donneur, qui attribue plus ou moins de points au receveur selon sa proximitĂ©. Le plus Ă©tonnant ici, c’est qu’un critĂšre primordial d’inĂ©galitĂ© ait mis tant d’annĂ©es Ă  ĂȘtre dĂ©montĂ©. 

Le scoring en ses limites

Les scientifiques des donnĂ©es de l’UNOS (qui ont mis en place l’ATS) travaillent dĂ©sormais Ă  amĂ©liorer le calcul de score des patients. Chaque patient se voit attribuer un score, dont la prĂ©cision va jusqu’à 16 chiffres aprĂšs la virgule (et le systĂšme peut encore aller plus loin pour dĂ©partager deux candidats). Mais se pose la question du compromis entre la prĂ©cision et la transparence. Plus il y a un chiffre prĂ©cis et moins il est comprĂ©hensible pour les gens. Mais surtout, pointe Robinson, la prĂ©cision ne reflĂšte pas vraiment une diffĂ©rence mĂ©dicale entre les patients. â€œLe calcul produit une fausse prĂ©cision”. Ajouter de la prĂ©cision ne signifie pas qu’un candidat a vraiment un meilleur rĂ©sultat attendu qu’un autre s’il est transplantĂ©. La prĂ©cision du calcul ne fait que fournir un prĂ©texte technique pour attribuer l’organe Ă  un candidat plutĂŽt qu’à un autre, une raison qui semble extĂ©rieurement neutre, alors que la prĂ©cision du nombre ne reflĂšte pas une diffĂ©rence clinique dĂ©cisive. Pour Robinson, ces calculs, poussĂ©s Ă  leur extrĂȘme, fonctionnent comme la question antigĂ©nique passĂ©e : ils visent Ă  couvrir d’une neutralitĂ© mĂ©dicale l’appariement. En fait, quand des candidats sont cliniquement Ă©quivalents, rien ne les dĂ©partage vraiment. La prĂ©cision du scoring est bien souvent une illusion. CrĂ©er une fausse prĂ©cision vise surtout Ă  masquer que ce choix pourrait ĂȘtre aussi juste s’il Ă©tait alĂ©atoire. Robinson souhaite voir dans cette question qu’adressent les data scientist de l’UNOS, le retour de l’interrogation sempiternelle de ne pas transformer une question technique en une question morale. Il paraĂźtra Ă  d’autres assez Ă©tonnant qu’on continue Ă  utiliser la prĂ©cision et la neutralitĂ© des chiffres pour faire croire Ă  leur objectivitĂ©. Pourtant, c’est lĂ  une pratique extrĂȘmement rĂ©pandue. On calcule des diffĂ©rences entre les gens via une prĂ©cision qui n’a rien de mĂ©dicale, puisqu’au final, elle peut considĂ©rer par exemple, que le fait d’habiter Ă  500 mĂštres d’un hĂŽpital fait la diffĂ©rence avec une personne qui habite Ă  600 mĂštres. En fait, l’essentiel des candidats est si semblable, que rien ne les distingue dans la masse, les uns des autres. Faire croire que la solution consiste Ă  calculer des diffĂ©rences qui n’ont plus rien de scientifiques est le grand mensonge de la gĂ©nĂ©ralisation du scoring. C’est trop souvent l’écueil moral des traitements de masse qui justifient le recours aux algorithmes. Mais le calcul ne le rĂ©sout pas. Il ne fait que masquer sous le chiffre des distinctions problĂ©matiques (et c’est un problĂšme que l’on retrouve aujourd’hui dans nombre de systĂšmes de scoring, Ă  l’image de Parcoursup). Le calcul d’attribution de greffes de rein n’est pas encore exemplaire. 

Faire mieux

Dans sa conclusion, Robinson tente de remettre cette histoire en perspective. Trop souvent, depuis Upturn, Robinson a vu des systĂšmes conçus sans grande attention, sans grands soins envers les personnes qu’ils calculaient. Trop de systĂšmes sont pauvrement conçus. â€œNous pouvons faire mieux.” 

Dans la question de l’attribution de greffes, la participation, la transparence, la prĂ©vision et l’audit ont tous jouĂ© un rĂŽle. Les gens ont Ă©levĂ© leurs voix et ont Ă©tĂ© entendus. Pourquoi n’en est-il pas de mĂȘme avec les autres algorithmes Ă  fort enjeu ? Robinson rĂ©pond rapidement en estimant que la question de la transplantation est unique notamment parce qu’elle est une ressource non marchande. Je ne partage pas cet avis. Si le systĂšme est l’un des rares Ăźlots de confiance, son livre nous montre que celle-ci n’est jamais acquise, qu’elle est bien construite, Ăąprement disputĂ©e
 Cette histoire nĂ©anmoins souligne combien nous avons besoin d’une confiance Ă©levĂ©e dans un systĂšme. â€œLa confiance est difficile Ă  acquĂ©rir, facile Ă  perdre et pourtant trĂšs utile.” L’exemple de la transplantation nous montre que dans les cas de rationnement la participation du public est un levier primordial pour assurer l’équitĂ© et la justice. Il montre enfin que les stratĂ©gies de gouvernance peuvent ĂȘtre construites et solides pour autant qu’elles soient ouvertes, transparentes et gĂ©rĂ©es en entendant tout le monde. 

GĂ©rer la pĂ©nurie pour l’accĂ©lĂ©rer
 et faire semblant d’arbitrer

Certes, construire un algorithme d’une maniĂšre collaborative et discutĂ©e prend du temps. Les progrĂšs sont lents et incrĂ©mentaux. Les questions et arbitrages s’y renouvellent sans cesse, Ă  mesure que le fonctionnement progresse et montre ses lacunes. Mais les systĂšmes sociotechniques, qui impliquent donc la technique et le social, doivent composer avec ces deux aspects. La progression lente mais nette de l’équitĂ© raciale dans l’algorithme d’affectation des reins, montre que les dĂ©fis d’équitĂ© que posent les systĂšmes peuvent ĂȘtre relevĂ©s. Reste que bien des points demeurent exclus de ce sur quoi l’algorithme concentre le regard, Ă  l’image de la question des remboursements de soins, limitĂ©s Ă  3 ans pour la prise en charge des mĂ©dicaments immunosuppresseurs des transplantĂ©s alors qu’ils sont perpĂ©tuels pour les dialysĂ©s. Cet enjeu pointe qu’il y a encore des progrĂšs Ă  faire sur certains aspects du systĂšme qui dĂ©passent le cadre de la conception de l’algorithme lui-mĂȘme. Les questions Ă©thiques et morales Ă©voluent sans cesse. Sur la transplantation, la prochaine concernera certainement la perspective de pouvoir avoir recours Ă  des reins de cochons pour la transplantation. Les xĂ©nogreffes devraient ĂȘtre prĂȘtes pour les essais mĂ©dicaux trĂšs prochainement, et risquent de bouleverser l’attribution. 

Robinson Ă©voque les algorithmes de sĂ©lection des Ă©coles de la ville de New York, oĂč chaque Ă©cole peut Ă©tablir ses propres critĂšres de sĂ©lection (un peu comme Parcoursup). Depuis peu, ces critĂšres sont publics, ce qui permet un meilleur contrĂŽle. Mais derriĂšre des critĂšres individuels, les questions de discrimination sociale demeurent majeures. Plusieurs collectifs critiques voudraient promouvoir un systĂšme oĂč les Ă©coles ne choisissent pas leurs Ă©lĂšves selon leurs mĂ©rites individuels ou leurs rĂ©sultats Ă  des tests standardisĂ©s, mais un systĂšme oĂč chaque Ă©cole doit accueillir des Ă©tudiants selon une distribution reprĂ©sentative des rĂ©sultats aux tests standardisĂ©s, afin que les meilleurs ne soient pas concentrĂ©s dans les meilleures Ă©coles, mais plus distribuĂ©s entre chaque Ă©cole. C’est le propos que porte par exemple le collectif Teens Take Change. De mĂȘme, plutĂŽt que d’évaluer le risque de rĂ©cidive, la question pourrait ĂȘtre posĂ©e bien autrement : plutĂŽt que de tenter de trouver quel suspect risque de rĂ©cidiver, la question pourrait ĂȘtre : quels services garantiront le mieux que cette personne se prĂ©sente au tribunal ou ne rĂ©cidive pas ? DĂ©placer la question permet de dĂ©placer la rĂ©ponse. En fait, explique trĂšs clairement Robinson, les orientations des dĂ©veloppements techniques ont fondamentalement des prĂ©supposĂ©s idĂ©ologiques. Les logiciels de calcul du risque de rĂ©cidive, comme Compass, reposent sur l’idĂ©e que le risque serait inhĂ©rent Ă  des individus, quand d’autres systĂšmes pourraient imaginer le risque comme une propriĂ©tĂ© des lieux ou des situations, et les prĂ©dire Ă  la place. (pour InternetActu.net, j’étais revenu sur les propos de Marianne Bellotti, qui militait pour des IA qui complexifient plutĂŽt qu’elles ne simplifient le monde, qui, sur la question du risque de rĂ©cidive, Ă©voquait le systĂšme ESAS, un logiciel qui donne accĂšs aux peines similaires prononcĂ©es dans des affaires antĂ©rieures selon des antĂ©cĂ©dents de condamnations proches, mais, lĂ  oĂč Compass charge l’individu, ESAS relativise et aide le juge Ă  relativiser la peine, en l’aidant Ă  comparer sa sentence Ă  celles que d’autres juges avant lui ont prononcĂ©). Les algorithmes qui rationnent le logement d’urgence, comme l’évoquait Eubanks dans son livre, visent d’abord Ă  organiser la pĂ©nurie, et finalement permettent de mieux Ă©carter le problĂšme principal, celui de crĂ©er plus de logements sociaux. Au contraire mĂȘme, en proposant un outil d’administration de la pĂ©nurie, bien souvent, celle-ci peut finalement ĂȘtre encore plus optimisĂ©e, c’est-Ă -dire plus rabotĂ©e encore. Les systĂšmes permettent de crĂ©er des â€œfictions confortables” : la science et le calcul tentent de neutraliser et dĂ©politiser des tensions sociales en nous faisant croire que ces systĂšmes seraient plus juste que le hasard, quand une â€œloterie alĂ©atoire reflĂ©terait bien mieux la structure Ă©thique de la situation”

Participer c’est transformer

La force de la participation n’est pas seulement dans l’apport d’une diversitĂ©, d’une pluralitĂ© de regards sur un problĂšme commun. La participation modifie les regards de tous les participants et permet de crĂ©er des convergences, des compromis qui modulent les systĂšmes, qui modifient leur idĂ©ologie. Au contact d’autres points de vues, dans une ambiance de construction d’un consensus, les gens changent d’avis et modĂšrent leurs positions, souligne trĂšs pertinemment Robinson. Certes, la participation est un dispositif complexe, long, lent, coĂ»teux. Mais ses apports sont transformateurs, car la dĂ©libĂ©ration commune et partagĂ©e est la seule Ă  mĂȘme Ă  pouvoir intĂ©grer de la justice et de l’équitĂ© au cƓur mĂȘme des systĂšmes, Ă  permettre de composer un monde commun. â€œUne comprĂ©hension partagĂ©e bĂ©nĂ©ficie d’une infrastructure partagĂ©e”. Pour produire une gouvernance partagĂ©e, il faut Ă  la fois partager la comprĂ©hension que l’on a d’un systĂšme et donc partager l’infrastructure de celui-ci. Les jurĂ©s sont briefĂ©s sur les enjeux dont ils doivent dĂ©battre. Les participants d’un budget citoyens Ă©galement. La participation nĂ©cessite la transparence, pas seulement des donnĂ©es et des modalitĂ©s de traitement, mais aussi des contextes qui les façonnent. Cela signifie qu’il est toujours nĂ©cessaire de dĂ©ployer une infrastructure pour soutenir le dĂ©bat : quand elle est absente, la conversation inclusive et informĂ©e tend Ă  ne pas ĂȘtre possible. Dans le cas de la transplantation, on l’a vu, les ressources sont innombrables. Les organismes pour les produire Ă©galement – et leur indĂ©pendance est essentielle. Les visualisations, les simulations se sont souvent rĂ©vĂ©lĂ©es essentielles, tout autant que les tĂ©moignages et leur pluralitĂ©. Pour Robinson, cette implication des publics, cette infrastructure pour crĂ©er une comprĂ©hension partagĂ©e, ces gouvernances ouvertes sont encore bien trop rares au-delĂ  du domaine de la santé  alors que cela devrait ĂȘtre le cas dans la plupart des systĂšmes Ă  haut enjeu. â€œLa comprĂ©hension partagĂ©e bĂ©nĂ©ficie d’une infrastructure partagĂ©e, c’est-Ă -dire d’investissements qui vont au-delĂ  de l’effort qu’implique la construction d’un algorithme en soi.”  Certes, concĂšde-t-il, la participation est trĂšs coĂ»teuse. Pour Robinson : â€œNous ne pouvons pas dĂ©libĂ©rer aussi lourdement sur tout”. Bien sĂ»r, mais il y a bien trop d’endroits oĂč nous ne dĂ©libĂ©rons pas. Faire se rejoindre l’utilitĂ© et l’équitĂ© prend du temps, mais elles ne sont irrĂ©conciliables que lĂ  oĂč aucune discussion ne s’engage. En fait, contrairement Ă  Robinson, je pense que nous ne pouvons pas vivre dans des systĂšmes oĂč la justice n’est pas prĂ©sente ou le dĂ©sĂ©quilibre entre les forces en prĂ©sence est trop fort. Les systĂšmes injustes et oppressifs n’ont qu’un temps. L’auto-gouvernement et la dĂ©mocratie ont toujours pris du temps, mais ils demeurent les moins pires des systĂšmes. L’efficacitĂ© seule ne fera jamais sociĂ©tĂ©. Cette logistique de la participation est certainement le coĂ»t qui devrait balancer les formidables Ă©conomies que gĂ©nĂšre la dĂ©matĂ©rialisation. Mais surtout, convient Robinson, la participation est certainement le meilleur levier que nous avons pour modifier les attitudes et les comportements. Plusieurs Ă©tudes ont montrĂ© que ces exercices de discussions permettent finalement d’entendre des voies diffĂ©rentes et permettent aux participants de corriger leurs idĂ©es prĂ©conçues. La participation est empathique. 

Le risque d’une anesthĂ©sie morale par les chiffres

Enfin, Robinson invite Ă  nous dĂ©fier de la quantification, qu’il qualifie â€œd’anesthĂ©siant moral“.  â€œLes algorithmes dirigent notre attention morale”, explique-t-il. Le philosophe Michael Sacasas parle, lui, de machines qui permettent â€œl’évasion de la responsabilitĂ©â€. Quand on regarde le monde comme un marchĂ©, un score â€œsemble toujours dĂ©passionnĂ©, impartial et objectif”disaient Marion Fourcade et Kieran Healy. Pourtant, la quantification n’est pas objective, parce qu’elle a des consĂ©quences normatives et surtout que le chiffre nous rend indiffĂ©rent Ă  la souffrance comme Ă  la justice (c’est ce que disait trĂšs bien le chercheur italien Stefano Diana, qui parlait de psychopathologisation par le nombre). C’est Ă©galement ce que disaient les juristes Guido Calabresi et Philip Bobbitt dans leur livre, Tragic Choices (1978) : â€œEn faisant en sorte que les rĂ©sultats semblent nĂ©cessaires, inĂ©vitables, plutĂŽt que discrĂ©tionnaires, l’algorithme tente de convertir ce qui est tragiquement choisi en ce qui n’est qu’un malheur fatal. Mais gĂ©nĂ©ralement, ce n’est qu’un subterfuge, car, bien que la raretĂ© soit un fait, une dĂ©cision particuliĂšre
 (par exemple, celle de savoir qui recevra un organe dont on a besoin de toute urgence) est rarement nĂ©cessaire au sens strict du terme.” C’est tout le problĂšme du scoring jusqu’à 16 dĂ©cimales, qui ne distingue plus de diffĂ©rences mĂ©dicales entre des patients, mais les discrĂ©tise pour les discrĂ©tiser. La fausse rationalitĂ© du calcul, permet â€œd’esquiver la rĂ©alitĂ© que de tels choix, sont, Ă  un certain niveau, arbitraires”. Ces subterfuges par le calcul se retrouvent partout. PoussĂ© Ă  son extrĂȘme, le score produit des diffĂ©rences inexistantes. Pour Robinson, â€œnous apprenons Ă  expliquer ces choix impossibles dans des termes quantitatifs neutres, plutĂŽt que de nous confronter Ă  leur arbitraire”. Pour ma part, je pense que nous n’apprenons pas. Nous mentons. Nous faisons passer la rationalitĂ© pour ce qu’elle n’est pas. Nous faisons entrer des critĂšres arbitraires et injustes dans le calcul pour le produire. Quand rien ne distingue deux patients pour leur attribuer un greffon, on va finir par prendre un critĂšre ridicule pour les distinguer, plutĂŽt que de reconnaĂźtre que nous devrions avoir recours Ă  l’alĂ©atoire quand trop de dossiers sont similaires. Et c’est bien le problĂšme que souligne Robinson Ă  la fin de son inspection du systĂšme de calcul de l’attribution de greffe de rein : la plupart des patients sont tellement similaires entre eux que le problĂšme est bien plus relatif Ă  la pĂ©nurie qu’autre chose. Le problĂšme est de faire penser que les critĂšres pour les distinguer entre eux sont encore mĂ©dicaux, logiques, rationnels. 

Pour Robinson, les algorithmes sont des productions de compromis, d’autant plus efficaces qu’ils peuvent ĂȘtre modifiĂ©s (et ne cessent de l’ĂȘtre) facilement. Leur adaptabilitĂ© mĂȘme nous invite Ă  tisser un lien, trop inexistant, entre la sociĂ©tĂ© et la technique. Puisque les modifier n’est pas un problĂšme, alors nous devrions pouvoir en discuter en permanence et avoir une voix pour les faire Ă©voluer. L’expertise technique n’est jamais et ne devrait jamais ĂȘtre prise comme une autoritĂ© morale. La participation ne devrait pas ĂȘtre vue comme quelque chose de lourd et de pesant, mais bien comme le seul levier pour amĂ©liorer la justice du monde. Robinson nous invite Ă  imaginer un monde oĂč les plus importants systĂšmes techniques reflĂ©teraient bien des voix, mĂȘme la nĂŽtre. Pour l’instant, ce que l’on constate partout, c’est que tout est fait pour ne pas les Ă©couter. 

Ce que nous dit le livre de Robinson, c’est combien la question de l’équitĂ© reste primordiale. Et qu’amĂ©liorer un systĂšme prend du temps. La justice n’est pas innĂ©e, elle se construit lentement, patiemment. Trop lentement bien souvent.  Mais le seul outil dont nous disposons pour amĂ©liorer la justice, c’est bien le dĂ©bat, la contradiction et la discussion. MalgrĂ© sa complexitĂ© et sa lenteur, la question du dĂ©bat public sur les systĂšmes est essentielle. Elle ne peut ni ne doit ĂȘtre un dĂ©bat d’experts entre eux. Plusieurs fois, dans ces dĂ©bats, Robinson montre l’importance des patients. C’est leurs interventions lors des sĂ©ances publiques qui modifient les termes du dĂ©bat. Construire des systĂšmes robustes, responsables, nĂ©cessite l’implication de tous. Mais ce qui est sĂ»r c’est qu’on ne construit aucun systĂšme responsable quand il n’écoute pas les voix de ceux pris dans ces filets. Nous devons exiger des comitĂ©s de parti de prenantes partout oĂč les systĂšmes ont un impact fort sur les gens. Nous devons nous assurer d’amĂ©liorations incrĂ©mentales, non pas imposĂ©es par le politique, mais bien discutĂ©es entre Ă©gaux, dans des comitĂ©s oĂč les experts ont autant la voix que les calculĂ©s. Aujourd’hui, c’est ce qui manque dans la plupart des systĂšmes. Y faire entrer les voix des gens. C’est la principale condition pour faire mieux, comme nous y invite David Robinson. 

Hubert Guillaud

A propos du livre de David G. Robinson, Voices in the code, a story about people, their values, and the algorithm they made, Russell Sage Foundation, 2022, 212 pages. Cet article a Ă©tĂ© publiĂ© originellement sur le blog de Hubert Guillaud, le 24 novembre 2022.

  • ✇Dans les algorithmes
  • De la montĂ©e de la dĂ©pendance de la science Ă  l’IA
    Alors que l’IA colonise tous les champs de recherche, Â« la crise de reproductibilitĂ© dans la science basĂ©e sur l’apprentissage automatique n’en est qu’à ses dĂ©buts Â», alertent les chercheurs Arvind Narayanan et Sayash Kapoor dans Nature. Â« Les outils de l’apprentissage automatique facilitent la construction de modĂšles, mais ne facilitent pas nĂ©cessairement l’extraction de connaissances sur le monde, et pourraient mĂȘme la rendre plus difficile. Par consĂ©quent, nous courons le risque de produire d
     

De la montĂ©e de la dĂ©pendance de la science Ă  l’IA

11 avril 2025 Ă  01:00

Alors que l’IA colonise tous les champs de recherche, Â« la crise de reproductibilitĂ© dans la science basĂ©e sur l’apprentissage automatique n’en est qu’à ses dĂ©buts Â», alertent les chercheurs Arvind Narayanan et Sayash Kapoor dans Nature. Â« Les outils de l’apprentissage automatique facilitent la construction de modĂšles, mais ne facilitent pas nĂ©cessairement l’extraction de connaissances sur le monde, et pourraient mĂȘme la rendre plus difficile. Par consĂ©quent, nous courons le risque de produire davantage, tout en comprenant moins Â», expliquent les deux chercheurs, qui rappellent que ce qui est bĂ©nĂ©fique Ă  l’ingĂ©nierie ne l’est pas forcĂ©ment pour la science.

L’internet des familles modestes : les usages sont-ils les mĂȘmes du haut au bas de l’échelle sociale  ?

10 avril 2025 Ă  01:00

Pour rendre hommage à la sociologue Dominique Pasquier, qui vient de nous quitter, nous avons voulu republier l’interview qu’elle nous accordait en 2018 pour InternetActu.net, à l’occasion de la parution de son livre, L’internet des familles modestes. Histoire de nous souvenir de son ton, de sa voix, de son approche. Merci Dominique.

Il semble toujours difficile de saisir une enquĂȘte sociologique, car, comme toute bonne enquĂȘte sociologique, celles-ci sont surtout qualitatives et se fondent sur des tĂ©moignages peu nombreux et variĂ©s
 dont il semble difficile de dĂ©gager des lignes directrices. C’est pourtant ce que rĂ©ussit Ă  faire la sociologue Dominique Pasquier dans son livre, L’internet des familles modestes en s’intĂ©ressant aux transformations des univers populaires par le prisme des usages et des pratiques d’internet.

Alors qu’il n’y a pas si longtemps, la fracture numĂ©rique semblait ne pouvoir se rĂ©sorber, les usagers les plus modestes semblent finalement avoir adoptĂ© les outils numĂ©riques trĂšs rapidement, Ă  l’image de l’introduction de la photographie au dĂ©but du XXe siĂšcle dans les sociĂ©tĂ©s rurales traditionnelles qu’évoquait Pierre Bourdieu dans Un art moyen. L’internet des classes dominantes et urbaines a colonisĂ© la sociĂ©tĂ©, rapporte Dominique Pasquier dans son Ă©tude oĂč elle s’est intĂ©ressĂ©e aux employĂ©es (majoritairement des femmes) travaillant principalement dans le secteur des services Ă  la personne et vivant dans des zones rurales. En matiĂšre de temps, d’utilisation des services en lignes, les usages d’internet des plus modestes ont rejoint les taux d’usages des classes supĂ©rieures. Reste Ă  savoir si les usages sont les mĂȘmes du haut au bas de l’échelle sociale. Interview.

Existe-t-il un usage populaire d’internet ? Quelles sont les caractĂ©ristiques d’un internet des familles modestes ?

Dominique Pasquier : Il n’a pas de caractĂ©ristique particuliĂšre. C’est un usage comme les autres en fait, avec quelques poches de spĂ©cificitĂ©s, et c’est finalement ce qui est le plus surprenant. Parmi ces spĂ©cificitĂ©s – qu’il faudrait valider en enquĂȘtant plus avant sur des familles plus pourvues en revenus et en capital culturel -, il y a le refus d’utiliser le mail ou l’obligation de transparence des pratiques entre les membres de la famille, mais qui existent peut-ĂȘtre sous une forme ou une autre dans d’autres milieux sociaux. Le plus Ă©tonnant finalement, c’est de constater que pour des gens qui se sont Ă©quipĂ©s sur le tard, combien ces usages sont devenus aisĂ©s et rituels. Je m’attendais Ă  trouver plus de difficultĂ©s, plus d’angoisses
 Mais cela n’a pas Ă©tĂ© le cas. Les familles modestes se sont emparĂ©es d’internet Ă  toute vitesse. Ils font certes des usages plutĂŽt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques crĂ©atives. Participent peu. Mais n’en ont pas particuliĂšrement besoin. L’outil s’est glissĂ© dans leurs pratiques quotidiennes, d’une maniĂšre trĂšs pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la maniĂšre dont ils le font.

Les tĂ©moignages que vous rapportez montrent une grande hĂ©tĂ©rogĂ©nĂ©itĂ© d’usage. Mais ce qui marque, c’est de voir que pour ces publics, internet semble avant tout un outil d’accomplissement personnel, une seconde Ă©cole. Il les aide Ă  mieux se repĂ©rer dans l’information, Ă  ĂȘtre plus ouverts, Ă  Ă©largir leur champ de compĂ©tences


Dominique Pasquier : Oui, internet est une seconde Ă©cole. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allĂ©es Ă  l’école ou qui n’ont pas le bac. Internet leur propose des maniĂšres d’apprendre qui leur correspondent mieux, sans hiĂ©rarchie ni sanction. On pourrait croire par exemple qu’en matiĂšre d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent Ă  comprendre les termes qu’emploient le professeur de leurs enfants ou le mĂ©decin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts Ă  la place des experts, mais de parvenir Ă  mieux argumenter ou Ă  poser des questions. D’ĂȘtre mieux armĂ©s. Le travail de la sociologue Annette Lareau qui a observĂ© des rĂ©unions parents professeurs et des consultations mĂ©dicales dans les milieux populaires, montrait que les parents des milieux populaires se trouvaient dans une position de dĂ©fĂ©rence, imposĂ©e par l’interaction elle-mĂȘme. Ils n’osent pas dire qu’ils ne comprennent pas. Or, cette dĂ©fĂ©rence subie implique nombre de malentendus sur les diagnostics scolaires ou mĂ©dicaux. Les gens que j’ai rencontrĂ©s se servent tout le temps de ces outils pour trouver le sens des mots ou pour apprendre. Les aides-soignantes travaillent souvent dans des structures trĂšs pesantes. Mais quand elles vont sur des sites de professionnels de la santĂ©, elles s’aperçoivent qu’il y a des Ă©changes horizontaux et hiĂ©rarchiques possibles. Internet permet d’ouvrir le bec – mĂȘme si cela ne veut pas dire que ces aides-soignantes ouvrent le bec en ligne facilement pour autant.

Image : Dominique Pasquier sur la scĂšne de la confĂ©rence NumĂ©rique en Communs, qui se tenait Ă  Nantes.


 plus ouverts, mais pas totalement. Internet n’est pas l’espace des idĂ©es nouvelles


Dominique Pasquier : Si internet permet de s’informer et de se former (via les tutoriels, trĂšs consommĂ©s pour progresser notamment dans ses passions), le public de mon enquĂȘte ne s’intĂ©resse pas du tout Ă  l’actualitĂ©. Il ne consulte pas la presse nationale. L’actualitĂ© demeure celle que propose la presse locale et la tĂ©lĂ©vision. Ce manque d’ouverture est certainement liĂ© aux territoires d’enquĂȘtes. Pour les ruraux, l’information nationale ou internationale semble trĂšs loin. Dans ce domaine, la possibilitĂ© qu’ouvre l’internet n’est pas saisie. La consommation tĂ©lĂ©visuelle reste trĂšs forte. L’ouverture passe par la tĂ©lĂ©vision, c’est de lĂ  qu’arrive la nouveautĂ©, via la tĂ©lĂ©-rĂ©alitĂ©, les Ă©missions de dĂ©coration et de cuisine. La « moyennisation Â» des styles de vie est concrĂšte : elle se voit dans les maisons. La tĂ©lĂ©vision a diffusĂ© un dĂ©pouillement du dĂ©cor mobilier par exemple comme on le voit dans les Ă©missions de dĂ©coration. Dans ses enquĂȘtes sur le monde ouvrier des annĂ©es 80, le sociologue Olivier Schwartz montrait que les familles de mineurs qui rĂ©ussissaient achetaient des salles Ă  manger en bois. Elles ont disparu !

L’internet n’est pas sans difficultĂ© pourtant pour les plus modestes. Vous Ă©voquez notamment la difficultĂ© Ă  utiliser certaines ressources dans le cadre professionnel ou dans la relation administrative. Quelles sont ces difficultĂ©s et pourquoi persistent-elles selon vous ?

Dominique Pasquier : Dans leurs services en ligne, les administrations de la RĂ©publique sont lamentables. On ne met pas assez d’argent dans l’ergonomie, dans les tests usagers
 pour des gens dont les budgets se jouent Ă  100 euros prĂšs et oĂč le moindre remboursement qui ne vient pas est un drame. La dĂ©matĂ©rialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative. Les gens ont l’impression d’ĂȘtre maltraitĂ©s par les administrations, Ă  l’image de cet homme que j’ai rencontrĂ©, noyĂ© dans ses dĂ©mĂȘlĂ©s avec PĂŽle emploi, en difficultĂ© dans toutes ses dĂ©marches.

Les usagers ne sont pas contre la dĂ©matĂ©rialisation pourtant. Le public que j’ai rencontrĂ© utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal Ă  gĂ©rer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particuliĂšrement difficiles.

Peut-ĂȘtre est-ce aussi liĂ© Ă  l’usage spĂ©cifique du mail qu’on rencontre dans ces familles. Vous soulignez, qu’une des rares spĂ©cificitĂ©s de l’internet des familles modestes, c’est que l’usage du mail n’est pas tant individuel que familial


Dominique Pasquier : Oui. Pour les familles modestes, le mail n’est pas un outil de conversation agrĂ©able. Il est asynchrone et Ă©crit. Envoyer et attendre une rĂ©ponse ne correspond pas aux valeurs du face Ă  face dans l’échange, qui reste trĂšs fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.

Les familles disposent bien souvent d’une seule adresse mail partagĂ©e. C’est un moyen de tenir un principe de transparence familial
 (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve Ă©galement dans les comptes Facebook, dans les SMS,
 La famille intervient sur les comptes de ses membres, on regarde les tĂ©lĂ©phones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison Ă  avoir des outils individuels. Sur Facebook, l’ouverture de comptes par les enfants est conditionnĂ©e au fait que les parents soient amis avec eux. Bien souvent, ces pratiques donnent une illusion de maĂźtrise aux parents, qui ne voient pas ce qui Ă©chappe Ă  leur vigilance. Ils observent les murs des enfants et les commentaires, mais ne voient pas les Ă©changes en messagerie instantanĂ©e incessants.

L’autre grande diffĂ©rence sociale que vous pointez c’est la participation : l’usage des plus modestes n’est pas trĂšs contributif. Pourquoi ?

Dominique Pasquier : Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandĂ© ainsi Ă  une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consultĂ© de forums pour se dĂ©cider Ă  franchir le pas de la famille recomposĂ©e
 si elle posait des questions sur ces forums. Elle m’a clairement rĂ©pondu non, comme si c’était impensable. Ce qui l’intĂ©ressait c’était la rĂ©ponse aux questions qu’elle aurait pu poser. Mais la difficultĂ© demeure d’oser, et ce mĂȘme pour intervenir sur un simple forum, entourĂ© de femmes dans la mĂȘme situation qu’elle, qui se confient sur des choses intimes
 On ne saute pas le pas. Une autre qui rĂ©alisait des tricots en puisant des idĂ©es sur des blogs contributifs n’y montrait pas non plus ses crĂ©ations
 Il y a une grande pudeur Ă  poser des questions, « Ă  ramener sa fraise Â»â€Š

Sur l’internet des familles modestes, il y a une grande distance avec la crĂ©ation. Ce qui circule sur Facebook, c’est essentiellement des citations morales, des images, des dessins
 des « panneaux Â» qui proviennent d’ailleurs. L’enjeu n’est pas tant de discuter du contenu de ces messages que de demander Ă  ses amis s’ils sont d’accord avec le fait que ce qui est mis en ligne me reflĂšte moi ! Le but est plus une recherche de consensus. On s’empare de ces messages pour dire qu’on s’y reconnaĂźt et on demande aux autres s’ils nous y reconnaissent. Ces partages se font avec des gens qu’on connaĂźt. On ne cherche pas Ă  Ă©tendre sa sociabilitĂ©.

À Brest, BĂ©nĂ©dicte Havard Duclos qui a travaillĂ© sur des assistantes maternelles, plus diplĂŽmĂ©es que les populations sur lesquelles j’ai travaillĂ©, Ă  montrĂ© qu’elles avaient un peu plus d’ouverture dans leurs Ă©changes en ligne : elles osaient Ă©changer avec des gens qu’elles ne connaissaient pas. Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matiĂšre de culture ni de sociabilitĂ©. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage
 Mais ce n’est pas une ouverture sur des nouveaux goĂ»ts culturels. Il n’y en a pas du tout dans mon public. Les liens partagĂ©s servent aussi beaucoup Ă  rappeler le passĂ©, Ă  le cĂ©lĂ©brer ensemble une nostalgie. Leur fonction consiste plus Ă  Ă©voquer une culture commune et Ă  renforcer le consensus qu’à une ouverture culturelle. Mais ces rĂ©sultats auraient certainement Ă©tĂ© trĂšs diffĂ©rents si j’avais regardĂ© les pratiques de leurs enfants.

Y’a-t-il un temps internet chez les plus modestes ou une connexion continue comme pour les catĂ©gories professionnelles supĂ©rieures ? La frontiĂšre entre le monde professionnel et le monde privĂ© est-elle moins Ă©tanche chez les plus modestes qu’ailleurs ?

Dominique Pasquier : Il y a une diffĂ©rence entre ces milieux et ceux des cadres et des professions intermĂ©diaires. Ici, quand on arrĂȘte de travailler, on arrĂȘte de travailler. S’il y a une forte permĂ©abilitĂ© du personnel au professionnel, la frontiĂšre est complĂštement hermĂ©tique dans l’autre sens : les collĂšgues n’ont pas le numĂ©ro de portable ! Beaucoup des femmes que j’ai rencontrĂ©es ont des conjoints artisans qui eux n’arrĂȘtent jamais de travailler
 mais le plus souvent, les milieux ouvriers ou d’employĂ©s subalternes, la frontiĂšre entre les deux mondes est forte.

Un long chapitre de votre livre s’intĂ©resse Ă  l’achat en ligne qui semble ĂȘtre devenu une pratique forte et complĂštement intĂ©grĂ©e des milieux modestes. Qu’est-ce qu’a changĂ© cet accĂšs Ă  la consommation ?

Dominique Pasquier : On pense souvent qu’internet permet d’acheter ce qu’on ne trouve pas localement. Pour les plus modestes, la motivation n’est pas du tout celle-ci. Internet sert Ă  acheter moins cher. Et ces femmes y passent du temps. Reste qu’elles se sentent coupables vis-Ă -vis du petit commerce local, car ce sont des gens qu’elles connaissent. Pour nombre d’achats, elles transigent donc.

Le Bon Coin et les plateformes d’achats entre particuliers sont considĂ©rĂ©es, elles, comme vertueuses. Ça rapporte un peu d’argent. Ça rend service. On a l’impression que ces Ă©changes sont moraux. « Sur le Bon Coin, chacun garde sa fiertĂ© Â». Y vendre ou y acheter des produits, mĂȘme trĂšs peu chers – et beaucoup des produits qu’on y Ă©change le sont pour quelques euros -, c’est un moyen de conserver sa fiertĂ©, d’affirmer qu’on n’est pas des assistĂ©s. Il faut entendre l’omniprĂ©sence de la peur du dĂ©classement dans ces populations, limites financiĂšrement. Recourir Ă  l’aide social et faire des dĂ©marches, c’est compliquĂ©. Dans cette frange de la population, on dĂ©teste tout autant ceux qui sont socialement au-dessus qu’au-dessous. On y entend un discours d’extrĂȘme droite qui peut-ĂȘtre maniĂ© par des gens qui n’y sont pas acquis, mais qui est caractĂ©risĂ© par la peur de basculer vers les assistĂ©s. Comme le disait Olivier Schwartz, il n’y a pas qu’eux contre nous, que le peuple face aux Ă©lites, il y a ceux du haut, ceux du bas et les fragiles.

Vous notez dans votre livre que les familles modestes ont un rapport trĂšs distant avec l’information (notamment nationale), mais pas avec les causes. « Ceux qui parlent frontalement de politique le font de façon sporadique Â». La politique n’est prĂ©sente que sous une forme polĂ©mique, trĂšs liĂ©e Ă  la crise du marchĂ© du travail. Pourquoi ?

Dominique Pasquier : Ce public ne s’informe pas. Beaucoup de rumeurs circulent et s’engouffrent sur des peurs. Les dĂ©penses somptuaires ne les Ă©tonnent pas. Les rumeurs sur les fraudeurs et paresseux non plus. J’ai enquĂȘtĂ© dans une rĂ©gion oĂč l’immigration est peu prĂ©sente, mais oĂč le fantasme de l’immigrĂ© assistĂ© est omniprĂ©sent. La hantise sociale est forte et est Ă  relier Ă  la crise du marchĂ© du travail, qui fait que ces familles semblent toujours sur le point de basculer dans la prĂ©caritĂ©. Ces femmes qui travaillent dans l’aide Ă  domicile connaissent les difficultĂ©s du marchĂ© du travail : elles ont plein de petits patrons, des horaires Ă  trous, des trajets difficiles et leurs situations sont prĂ©caires et instables
 Reste que dans ces milieux issus des milieux ouvriers, les valeurs du travail, de l’entrepreneuriat privĂ© et de la rĂ©ussite restent fortes.

D’une maniĂšre assez surprenante, vous consacrez tout un chapitre Ă  la question des relations hommes/femmes. Internet renforce-t-il la sĂ©paration des sphĂšres domestiques masculines et fĂ©minines ? Comment en questionne-t-il ou en redistribue-t-il les frontiĂšres normatives ?

Dominique Pasquier : Effectivement. Nombre de comptes Facebook exaltent l’amour conjugal et la famille. Ce n’est bien sĂ»r pas le cas des hommes cĂ©libataires que j’ai rencontrĂ©s, dans les comptes desquels dominent des blagues sur les femmes. Chez celles-ci, par contre, on trouve beaucoup de partage d’images et de maximes sur l’absence de partage des tĂąches domestiques. Chez ces femmes, l’idĂ©e qu’on se rĂ©alise en tenant son intĂ©rieur propre et son linge repassĂ© ne fonctionne plus. L’épanouissement domestique ne fait plus rĂȘver. Cela n’empĂȘche pas que ces femmes continuent Ă  tout faire et que leurs intĂ©rieurs soient nickels et parfaitement rangĂ©s. Elles aspirent Ă  ce que ce ne soit plus une image valorisante, mais en vrai, la rĂ©partition des tĂąches traditionnelles demeure.

On entend en tout cas une revendication, une contestation de la division trĂšs asymĂ©trique du travail domestique. Pourtant, pour ces aides-soignantes qui pratiquent les horaires dĂ©calĂ©s, bien souvent, les maris doivent faire le dĂźner pour les enfants. En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, Ă  savoir que les femmes trouvaient leur Ă©panouissement dans la tenue du foyer. Il faut dire que contrairement aux enquĂȘtes qu’il a rĂ©alisĂ©es dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marchĂ© du travail qui fait bouger les lignes Ă  la maison.

Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits oĂč on Ă©change des maximes cĂ©lĂ©brant le couple que le contraire. C’est moins vrai pour les hommes cĂ©libataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiĂ©es) ont du mal Ă  entrer en couples. D’oĂč l’expression d’un vif ressentiment.

À la lecture de votre livre, on a l’impression que la fracture numĂ©rique a Ă©tĂ© rĂ©sorbĂ©e. Et on peinerait mĂȘme Ă  trouver des traces d’une fracture sociale d’usages ?

Dominique Pasquier : Oui. On trouve encore quelques personnes en difficultĂ©s, notamment les seniors, mais le plus frappant est de constater qu’internet est entrĂ© dans la vie de tous les jours, mĂȘme chez les familles modestes.

La rĂ©gulation parentale y est par exemple aussi prĂ©sente qu’ailleurs. Mais dans les familles plus diplĂŽmĂ©es, on ne trouve pas la croyance que, parce qu’on sait se servir d’internet, on rĂ©ussira dans la vie. Il y a ici, une illusion de modernitĂ©. Dans les milieux plus cultivĂ©s, on retrouve les mĂȘmes difficultĂ©s Ă  surveiller les pratiques des enfants et Ă  rĂ©guler leurs pratiques, mais les parents offrent la complĂ©mentaritĂ© de l’écrit traditionnel valorisĂ© Ă  l’école. Ici, les mĂšres croient bien faire en encourageant les pratiques numĂ©riques, pensant que cela sera un dĂ©clencheur de rĂ©ussite. Mais c’est assez faux. MalgrĂ© la transparence qu’elles imposent, les familles modestes ne savent pas ce que font leurs enfants. En fait, il faut reconnaĂźtre que c’est plus difficile pour les parents qu’avant. Alors que la tĂ©lĂ© rĂ©unissait les familles, internet menace les dimensions collectives familiales, par ses pratiques addictives (comme le jeu vidĂ©o) et parce que les pratiques des plus jeunes sont impossibles Ă  rĂ©guler. Il transforme et menace profondĂ©ment les familles. Mon discours Ă  l’air trĂšs nĂ©gatif, je le reconnais. Pour les plus jeunes, internet offre de fortes possibilitĂ©s de divertissement. Mais comme il n’y a pas de limites et qu’on ne peut pas en mettre, tout repose sur la maniĂšre dont les enfants gĂšrent les sollicitations. Mes travaux sur la culture lycĂ©enne, soulignaient dĂ©jĂ  les limites de la transmission horizontale entre jeunes. Les mĂšres, qui se sont mises au jeu et qui ont compris qu’elles Ă©taient accros Ă  leur tour, ont une meilleure comprĂ©hension de ce qu’il se passe quand on ne peut pas s’arrĂȘter. Les disputes sur le temps d’écran sont moins prĂ©sentes. Reste qu’une grande partie de la vie des enfants Ă©chappe au pĂ©rimĂštre familial et c’est difficile Ă  vivre pour les parents. Ils ont l’impression parfois de contrĂŽler ce que font leurs enfants en ligne, mais ils se trompent.

Propos recueillis par Hubert Guillaud.

Cette interview a été originellement publiée sur InternetActu.net, le 21 septembre 2018.

  • ✇Dans les algorithmes
  • Pourquoi la technologie favorise-t-elle le surdiagnostic ?
    La neurologue irlandaise, Suzanne O’Sullivan, qui vient de publier The Age of Diagnosis: Sickness, Health and Why Medicine Has Gone Too Far (Penguin Random House, 2025) estime que nous sommes entrĂ©s dans l’ùre du diagnostique, c’est-Ă -dire que l’essor technologique nous permet dĂ©sormais d’amĂ©liorer les diagnostics. Mais, tempĂšre-t-elle, cet essor « ne semble pas s’ĂȘtre accompagnĂ© d’une amĂ©lioration de notre santĂ© Â». Si nous dĂ©tectons et traitons davantage de cancers Ă  des stades plus prĂ©coces, c
     

Pourquoi la technologie favorise-t-elle le surdiagnostic ?

10 avril 2025 Ă  01:00

La neurologue irlandaise, Suzanne O’Sullivan, qui vient de publier The Age of Diagnosis: Sickness, Health and Why Medicine Has Gone Too Far (Penguin Random House, 2025) estime que nous sommes entrĂ©s dans l’ùre du diagnostique, c’est-Ă -dire que l’essor technologique nous permet dĂ©sormais d’amĂ©liorer les diagnostics. Mais, tempĂšre-t-elle, cet essor « ne semble pas s’ĂȘtre accompagnĂ© d’une amĂ©lioration de notre santĂ© Â». Si nous dĂ©tectons et traitons davantage de cancers Ă  des stades plus prĂ©coces, ce qui sauve la vie de certaines personnes, en revanche, d’autres reçoivent des traitements inutiles, et il se pourrait que la proportion des personnes surtraitĂ©es soit plus forte que la rĂ©duction de la mortalitĂ©. En fait, des Ă©tudes Ă  grande Ă©chelle montrent que l’amĂ©lioration du dĂ©pistage ne conduit pas Ă  une amĂ©lioration des taux de survie, rappelle le Times. Pour la spĂ©cialiste qui dĂ©nonce cette dĂ©rive diagnostique, « nous sommes victimes d’une mĂ©decine excessive Â». Pour elle, l’augmentation des diagnostiques de neurodivergence notamment (Troubles de l’activitĂ© et autisme) a surtout tendance Ă  pathologiser inutilement certaines personnes. Nous ne devenons pas forcĂ©ment plus malades, nous attribuons davantage Ă  la maladie, regrette-t-elle. Â« Les explications mĂ©dicales sont devenues un pansement Â».

Le diagnostic apporte des rĂ©ponses tant aux patients qu’aux mĂ©decins, mais ne soigne pas toujours. Diagnostiquer des patients alors qu’il n’existe pas de traitements efficaces peut aggraver leurs symptĂŽmes, explique-t-elle dans une interview Ă  Wired. Entre 1998 et 2018, les diagnostics d’autisme ont augmentĂ© de 787 % rien qu’au Royaume-Uni ; le taux de surdiagnostic de la maladie de Lyme est estimĂ© Ă  85 %, y compris dans les pays oĂč il est impossible de contracter la maladie. Le diagnostic de l’autisme est passĂ© d’une personne sur 2 500 Ă  un enfant sur 36 au Royaume-Uni et un sur 20 en Irlande du Nord. Nous sommes passĂ©s d’un sous-diagnostic Ă  un sur-diagnostic, estime O’Sullivan. Or, ce sur-diagnostic n’amĂ©liore pas la santĂ© des patients. « L’échec de cette approche est dĂ» au fait que, lorsqu’on arrive aux stades les plus lĂ©gers des troubles du comportement ou de l’apprentissage, il faut trouver un Ă©quilibre entre les avantages du diagnostic et l’aide disponible, et les inconvĂ©nients du diagnostic, qui consistent Ă  annoncer Ă  l’enfant qu’il a un cerveau anormal. Quel est l’impact sur la confiance en soi de l’enfant ? Comment est-ce stigmatisĂ© ? Comment cela influence-t-il la construction de son identitĂ© ? Nous avons pensĂ© qu’il serait utile de le dire aux enfants, mais les statistiques et les rĂ©sultats suggĂšrent que ce n’est pas le cas. Â» De mĂȘme, nous sur-diagnostiquons dĂ©sormais diffĂ©rents types de cancer, tant et si bien que de plus en plus de personnes reçoivent des traitements alors qu’elles n’en ont pas besoin. Le problĂšme c’est que nous devons veiller Ă  ce que le surdiagnostic reste Ă  un niveau bas. Nous multiplions les tests plutĂŽt que de perfectionner ceux que nous avons.

Ce n’est pas tant qu’il ne faut pas dĂ©pister, estime la neurologue, mais que les dĂ©cisions doivent ĂȘtre prises parfois plus lentement qu’elles ne sont. Pour The Guardian, le surdiagnostic nous fait croire que notre sociĂ©tĂ© va mal ou que la vie moderne nous rend malade (ce qui n’est pas nĂ©cessairement faux). La rĂ©alitĂ© est que nos outils de diagnostics sont devenus plus prĂ©cis, mais les variations de santĂ© physique et mentale sont inutilement mĂ©dicalisĂ©es et pathologisĂ©es. Pour le dire autrement, nous n’avons pas beaucoup de mĂ©thodes pour limiter les faux positifs en mĂ©decine, comme ailleurs.

  • ✇Dans les algorithmes
  • Dans les dĂ©faillances des dĂ©cisions automatisĂ©es
    Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activitĂ©s humaines et notamment la distribution de services publics Ă  des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systĂšmes contrĂŽlent l’accĂšs Ă  nos droits et Ă  nos possibilitĂ©s d’action.  OpacitĂ© et dĂ©faillance gĂ©nĂ©ralisĂ©e En 2020 dĂ©jĂ , la grande associat
     

Dans les défaillances des décisions automatisées

9 avril 2025 Ă  01:00

Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activitĂ©s humaines et notamment la distribution de services publics Ă  des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systĂšmes contrĂŽlent l’accĂšs Ă  nos droits et Ă  nos possibilitĂ©s d’action. 

Opacité et défaillance généralisée

En 2020 dĂ©jĂ , la grande association europĂ©enne de dĂ©fense des droits numĂ©riques, Algorithm Watch, expliquait dans un rapport que ces systĂšmes se gĂ©nĂ©ralisaient dans la plus grande opacitĂ©. Alors que le calcul est partout, l’association soulignait que si ces dĂ©ploiements pouvaient ĂȘtre utiles, trĂšs peu de cas montraient de « maniĂšre convaincante un impact positif Â». La plupart des systĂšmes de dĂ©cision automatisĂ©s mettent les gens en danger plus qu’ils ne les protĂšgent, disait dĂ©jĂ  l’association.

Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, trĂšs concrĂštement, combien le dĂ©ploiement des systĂšmes de prise de dĂ©cision automatisĂ©e reste opaque, malgrĂ© les obligations de transparence qui incombent aux systĂšmes.

Avec son initiative France ContrĂŽle, la Quadrature du Net, accompagnĂ©e de collectifs de lutte contre la prĂ©caritĂ©, documente elle aussi le dĂ©ploiement des algorithmes de contrĂŽle social et leurs dĂ©faillances. DĂšs 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systĂšmes Ă©lectroniques mis en place pour calculer, distribuer et contrĂŽler l’aide sociale sont bien souvent particuliĂšrement dĂ©faillants, et notamment les systĂšmes automatisĂ©s censĂ©s lutter contre la fraude, devenus l’alpha et l’omĂ©ga des politiques publiques austĂ©ritaires.

MalgrĂ© la Loi pour une RĂ©publique numĂ©rique (2016), la transparence de ces calculs, seule Ă  mĂȘme de dĂ©voiler et corriger leurs dĂ©faillances, ne progresse pas. On peut donc se demander, assez lĂ©gitimement, ce qu’il y a cacher. 

A mesure que ces systĂšmes se dĂ©ploient, ce sont donc les enquĂȘtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les dĂ©faillances des dĂ©cisions automatisĂ©es dans tous les secteurs de la sociĂ©tĂ© oĂč elles sont prĂ©sentes.

Ces enquĂȘtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramĂštres des systĂšmes de dĂ©cision automatisĂ©e sans y accĂ©der. 

3 problÚmes récurrents

S’il est difficile de faire un constat global sur les dĂ©faillances spĂ©cifiques de tous les systĂšmes automatisĂ©s, qu’ils s’appliquent Ă  la santĂ©, l’éducation, le social ou l’économie, on peut nĂ©anmoins noter 3 problĂšmes rĂ©currents. 

Les erreurs ne sont pas un problĂšme pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systĂšmes de dĂ©cision automatisĂ©e produisent des faux positifs importants, c’est-Ă -dire catĂ©gorisent des personnes indĂ»ment. Dans les systĂšmes bancaires par exemple, comme l’a montrĂ© une belle enquĂȘte de l’AFP et d’Algorithm Watch, certaines activitĂ©s dĂ©clenchent des alertes et conduisent Ă  qualifier les profils des clients comme problĂ©matiques voire Ă  suspendre les possibilitĂ©s bancaires d’individus ou d’organisations, sans qu’elles n’aient Ă  rendre de compte sur ces suspensions.

Au contraire, parce qu’elles sont invitĂ©es Ă  la vigilance face aux activitĂ©s de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragĂ©es Ă  produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussĂ©s Ă  dĂ©tecter de la fraude pour atteindre leurs objectifs de contrĂŽle.

Selon les donnĂ©es de l’autoritĂ© qui contrĂŽle les banques et les marchĂ©s financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermĂ© en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont Ă©tĂ© condamnĂ©es pour ce dĂ©lit. 

Le problĂšme, c’est que les organismes de calculs n’ont pas d’intĂ©rĂȘt Ă  corriger ces faux positifs pour les attĂ©nuer. Alors que, si ces erreurs ne sont pas un problĂšme pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clĂŽturĂ©s, sans raison et avec peu de possibilitĂ©s de recours. Il est nĂ©cessaire pourtant que les taux de risques dĂ©tectĂ©s restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de rĂ©duction des risques ne soient pas portĂ©s par les individus.

Le mĂȘme phĂ©nomĂšne est Ă  l’Ɠuvre quand la CAF reconnaĂźt que son algorithme de contrĂŽle de fraude produit bien plus de contrĂŽle sur certaines catĂ©gories sociales de la population, comme le montrait l’enquĂȘte du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire


Pour les organismes publics le taux de dĂ©tection automatisĂ©e est un objectif Ă  atteindre explique le syndicat Solidaires Finances Publiques dans son enquĂȘte sur L’IA aux impĂŽts, qu’importe si cet objectif est dĂ©faillant pour les personnes ciblĂ©es. D’oĂč l’importance de mettre en place un ratio d’impact sur les diffĂ©rents groupes dĂ©mographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit ĂȘtre amĂ©liorĂ©e.

Pour cela, il est nĂ©cessaire de mieux contrĂŽler le taux de dĂ©tection des outils et de trouver les modalitĂ©s pour que ces taux ne soient pas disproportionnĂ©s. Sans cela, on le comprend, la maltraitance institutionnelle que dĂ©nonce ATD Quart Monde est en roue libre dans les systĂšmes, quels qu’ils soient.

Dans les difficultĂ©s, les recours sont rendus plus compliquĂ©s. Quand ces systĂšmes mĂ©-calculent les gens, quand ils signalent leurs profils comme problĂ©matiques ou quand les dossiers sont mis en traitement, les possibilitĂ©s de recours sont bien souvent automatiquement rĂ©duites. Le fait d’ĂȘtre soupçonnĂ© de problĂšme bancaire diminue vos possibilitĂ©s de recours plutĂŽt qu’elle ne les augmente.

A la CAF, quand l’accusation de fraude est dĂ©clenchĂ©e, la procĂ©dure de recours pour les bĂ©nĂ©ficiaires devient plus complexe. Dans la plateforme dĂ©matĂ©rialisĂ©e pour les demandes de titres de sĂ©jour dont le DĂ©fenseur des droits pointait les lacunes dans un rĂ©cent rapport, les usagers ne peuvent pas signaler un changement de lieu de rĂ©sidence quand une demande est en cours.

Or, c’est justement quand les usagers sont confrontĂ©s Ă  des difficultĂ©s, que la discussion devrait ĂȘtre rendue plus fluide, plus accessible. En rĂ©alitĂ©, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilitĂ©s de recours sont rĂ©duites quand elles devraient ĂȘtre augmentĂ©es. L’alerte rĂ©duit les droits alors qu’elle devrait plutĂŽt les ouvrir. 

Enfin, l’interconnexion des systĂšmes crĂ©e des boucles de dĂ©faillances dont les effets s’amplifient trĂšs rapidement. Les boucles d’empĂȘchements se multiplient sans issue. Les alertes et les faux positifs se rĂ©pandent. L’automatisation des droits conduit Ă  des Ă©victions en cascade dans des systĂšmes oĂč les organismes se renvoient les responsabilitĂ©s sans ĂȘtre toujours capables d’agir sur les systĂšmes de calcul. Ces difficultĂ©s nĂ©cessitent de mieux faire valoir les droits d’opposition des calculĂ©s. La prise en compte d’innombrables donnĂ©es pour produire des calculs toujours plus granulaires, pour attĂ©nuer les risques, produit surtout des faux positifs et une complexitĂ© de plus en plus problĂ©matique pour les usagers. 

Responsabiliser les calculs du social

Nous avons besoin de diminuer les donnĂ©es utilisĂ©es pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexitĂ©, au prĂ©texte de mieux calculer le social, bien souvent, n’amĂ©liore pas les calculs, mais renforce leur opacitĂ© et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de donnĂ©es, doivent rester comprĂ©hensibles, transparents, vĂ©rifiables et surtout opposables
 Collecter peu de donnĂ©es cause moins de problĂšmes de vie privĂ©e, moins de problĂšmes lĂ©gaux comme Ă©thiques
 et moins de discriminations. 

Renforcer le contrĂŽle des systĂšmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. AmĂ©liorer les droits de recours des usagers, notamment quand ces systĂšmes les ciblent et les dĂ©signent. Et surtout, amĂ©liorer la participation des publics aux calculs, comme nous y invitent le rĂ©cent rapport du DĂ©fenseur des droits sur la dĂ©matĂ©rialisation et les algorithmes publics. 

A mesure qu’ils se rĂ©pandent, Ă  mesure qu’ils accĂšdent Ă  de plus en plus de donnĂ©es, les risques de dĂ©faillances des calculs s’accumulent. DerriĂšre ces dĂ©faillances, c’est la question mĂȘme de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque annĂ©e des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnĂ©es.

On ne peut pas accepter que la CAF dĂ©termine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, trĂšs peu sont condamnĂ©s pour fraude. La justice nĂ©cessite que les calculs du social soient raccords avec la rĂ©alitĂ©. Nous n’y sommes pas. 

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© publiĂ© originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 Ă  l’occasion de la publication du livre, Les algorithmes contre la sociĂ©tĂ© aux Ă©ditions La Fabrique.

  • ✇Dans les algorithmes
  • L’IA est un outil de dĂ©moralisation des travailleurs
    « Le potentiel rĂ©volutionnaire de l’IA est d’aider les experts Ă  appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de dĂ©veloppement humain dĂ©sordonnĂ© et non linĂ©aire, qui rĂ©siste Ă  l’efficacitĂ©. L’IA ne peut donc pas le remplacer Â», explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des dĂ©cisions fondĂ©es sur leur expe
     

L’IA est un outil de dĂ©moralisation des travailleurs

8 avril 2025 Ă  01:00

« Le potentiel rĂ©volutionnaire de l’IA est d’aider les experts Ă  appliquer leur expertise plus efficacement et plus rapidement. Mais pour que cela fonctionne, il faut des experts. Or, l’apprentissage est un processus de dĂ©veloppement humain dĂ©sordonnĂ© et non linĂ©aire, qui rĂ©siste Ă  l’efficacitĂ©. L’IA ne peut donc pas le remplacer Â», explique la sociologue Tressie McMillan Cottom dans une tribune au New York Times. « L’IA recherche des travailleurs qui prennent des dĂ©cisions fondĂ©es sur leur expertise, sans institution qui crĂ©e et certifie cette expertise. Elle propose une expertise sans experts Â». Pas sĂ»r donc que cela fonctionne.

Mais, si ce fantasme – qui a traversĂ© toutes les technologies Ă©ducatives depuis longtemps – fascine, c’est parce qu’il promet de contrĂŽler l’apprentissage sans en payer le coĂ»t. Plus que de rĂ©duire les tĂąches fastidieuses, l’IA justifie les rĂ©ductions d’effectifs « en demandant Ă  ceux qui restent de faire plus avec moins Â». La meilleure efficacitĂ© de l’IA, c’est de dĂ©moraliser les travailleurs, conclut la sociologue.

❌
❌