❌

Vue lecture

Supreme Court Keeps Ruling in Trump’s Favor, but Doesn’t Say Why

In a series of terse, unsigned orders, the court has often been giving the green light to President Trump’s agenda without a murmur of explanation.

© Tierney L. Cross/The New York Times

The court has allowed the administration to fire tens of thousands of government workers, discharge transgender troops, end protections for hundreds of thousands of migrants from war-torn countries and fundamentally shift power from Congress to the president.
  •  

Trump’s Birthright Citizenship Ban Faces New Peril: Class Actions

In last month’s decision limiting one judicial tool, universal injunctions, the court seemed to invite lower courts to use class actions as an alternative.

© Charles Krupa/Associated Press

The federal courthouse in Concord, N.H. A federal judge in the state opened a new front in the battle to deny President Trump’s effort to redefine who can become a citizen.
  •  

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

  •  

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

  •  

Qui est l’utilisateur des LLM ?

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

  •  

Qui est l’utilisateur des LLM ?

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

  •  

Dans les défaillances des décisions automatisées

Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activitĂ©s humaines et notamment la distribution de services publics Ă  des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systĂšmes contrĂŽlent l’accĂšs Ă  nos droits et Ă  nos possibilitĂ©s d’action. 

Opacité et défaillance généralisée

En 2020 dĂ©jĂ , la grande association europĂ©enne de dĂ©fense des droits numĂ©riques, Algorithm Watch, expliquait dans un rapport que ces systĂšmes se gĂ©nĂ©ralisaient dans la plus grande opacitĂ©. Alors que le calcul est partout, l’association soulignait que si ces dĂ©ploiements pouvaient ĂȘtre utiles, trĂšs peu de cas montraient de « maniĂšre convaincante un impact positif Â». La plupart des systĂšmes de dĂ©cision automatisĂ©s mettent les gens en danger plus qu’ils ne les protĂšgent, disait dĂ©jĂ  l’association.

Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, trĂšs concrĂštement, combien le dĂ©ploiement des systĂšmes de prise de dĂ©cision automatisĂ©e reste opaque, malgrĂ© les obligations de transparence qui incombent aux systĂšmes.

Avec son initiative France ContrĂŽle, la Quadrature du Net, accompagnĂ©e de collectifs de lutte contre la prĂ©caritĂ©, documente elle aussi le dĂ©ploiement des algorithmes de contrĂŽle social et leurs dĂ©faillances. DĂšs 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systĂšmes Ă©lectroniques mis en place pour calculer, distribuer et contrĂŽler l’aide sociale sont bien souvent particuliĂšrement dĂ©faillants, et notamment les systĂšmes automatisĂ©s censĂ©s lutter contre la fraude, devenus l’alpha et l’omĂ©ga des politiques publiques austĂ©ritaires.

MalgrĂ© la Loi pour une RĂ©publique numĂ©rique (2016), la transparence de ces calculs, seule Ă  mĂȘme de dĂ©voiler et corriger leurs dĂ©faillances, ne progresse pas. On peut donc se demander, assez lĂ©gitimement, ce qu’il y a cacher. 

A mesure que ces systĂšmes se dĂ©ploient, ce sont donc les enquĂȘtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les dĂ©faillances des dĂ©cisions automatisĂ©es dans tous les secteurs de la sociĂ©tĂ© oĂč elles sont prĂ©sentes.

Ces enquĂȘtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramĂštres des systĂšmes de dĂ©cision automatisĂ©e sans y accĂ©der. 

3 problÚmes récurrents

S’il est difficile de faire un constat global sur les dĂ©faillances spĂ©cifiques de tous les systĂšmes automatisĂ©s, qu’ils s’appliquent Ă  la santĂ©, l’éducation, le social ou l’économie, on peut nĂ©anmoins noter 3 problĂšmes rĂ©currents. 

Les erreurs ne sont pas un problĂšme pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systĂšmes de dĂ©cision automatisĂ©e produisent des faux positifs importants, c’est-Ă -dire catĂ©gorisent des personnes indĂ»ment. Dans les systĂšmes bancaires par exemple, comme l’a montrĂ© une belle enquĂȘte de l’AFP et d’Algorithm Watch, certaines activitĂ©s dĂ©clenchent des alertes et conduisent Ă  qualifier les profils des clients comme problĂ©matiques voire Ă  suspendre les possibilitĂ©s bancaires d’individus ou d’organisations, sans qu’elles n’aient Ă  rendre de compte sur ces suspensions.

Au contraire, parce qu’elles sont invitĂ©es Ă  la vigilance face aux activitĂ©s de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragĂ©es Ă  produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussĂ©s Ă  dĂ©tecter de la fraude pour atteindre leurs objectifs de contrĂŽle.

Selon les donnĂ©es de l’autoritĂ© qui contrĂŽle les banques et les marchĂ©s financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermĂ© en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont Ă©tĂ© condamnĂ©es pour ce dĂ©lit. 

Le problĂšme, c’est que les organismes de calculs n’ont pas d’intĂ©rĂȘt Ă  corriger ces faux positifs pour les attĂ©nuer. Alors que, si ces erreurs ne sont pas un problĂšme pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clĂŽturĂ©s, sans raison et avec peu de possibilitĂ©s de recours. Il est nĂ©cessaire pourtant que les taux de risques dĂ©tectĂ©s restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de rĂ©duction des risques ne soient pas portĂ©s par les individus.

Le mĂȘme phĂ©nomĂšne est Ă  l’Ɠuvre quand la CAF reconnaĂźt que son algorithme de contrĂŽle de fraude produit bien plus de contrĂŽle sur certaines catĂ©gories sociales de la population, comme le montrait l’enquĂȘte du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire


Pour les organismes publics le taux de dĂ©tection automatisĂ©e est un objectif Ă  atteindre explique le syndicat Solidaires Finances Publiques dans son enquĂȘte sur L’IA aux impĂŽts, qu’importe si cet objectif est dĂ©faillant pour les personnes ciblĂ©es. D’oĂč l’importance de mettre en place un ratio d’impact sur les diffĂ©rents groupes dĂ©mographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit ĂȘtre amĂ©liorĂ©e.

Pour cela, il est nĂ©cessaire de mieux contrĂŽler le taux de dĂ©tection des outils et de trouver les modalitĂ©s pour que ces taux ne soient pas disproportionnĂ©s. Sans cela, on le comprend, la maltraitance institutionnelle que dĂ©nonce ATD Quart Monde est en roue libre dans les systĂšmes, quels qu’ils soient.

Dans les difficultĂ©s, les recours sont rendus plus compliquĂ©s. Quand ces systĂšmes mĂ©-calculent les gens, quand ils signalent leurs profils comme problĂ©matiques ou quand les dossiers sont mis en traitement, les possibilitĂ©s de recours sont bien souvent automatiquement rĂ©duites. Le fait d’ĂȘtre soupçonnĂ© de problĂšme bancaire diminue vos possibilitĂ©s de recours plutĂŽt qu’elle ne les augmente.

A la CAF, quand l’accusation de fraude est dĂ©clenchĂ©e, la procĂ©dure de recours pour les bĂ©nĂ©ficiaires devient plus complexe. Dans la plateforme dĂ©matĂ©rialisĂ©e pour les demandes de titres de sĂ©jour dont le DĂ©fenseur des droits pointait les lacunes dans un rĂ©cent rapport, les usagers ne peuvent pas signaler un changement de lieu de rĂ©sidence quand une demande est en cours.

Or, c’est justement quand les usagers sont confrontĂ©s Ă  des difficultĂ©s, que la discussion devrait ĂȘtre rendue plus fluide, plus accessible. En rĂ©alitĂ©, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilitĂ©s de recours sont rĂ©duites quand elles devraient ĂȘtre augmentĂ©es. L’alerte rĂ©duit les droits alors qu’elle devrait plutĂŽt les ouvrir. 

Enfin, l’interconnexion des systĂšmes crĂ©e des boucles de dĂ©faillances dont les effets s’amplifient trĂšs rapidement. Les boucles d’empĂȘchements se multiplient sans issue. Les alertes et les faux positifs se rĂ©pandent. L’automatisation des droits conduit Ă  des Ă©victions en cascade dans des systĂšmes oĂč les organismes se renvoient les responsabilitĂ©s sans ĂȘtre toujours capables d’agir sur les systĂšmes de calcul. Ces difficultĂ©s nĂ©cessitent de mieux faire valoir les droits d’opposition des calculĂ©s. La prise en compte d’innombrables donnĂ©es pour produire des calculs toujours plus granulaires, pour attĂ©nuer les risques, produit surtout des faux positifs et une complexitĂ© de plus en plus problĂ©matique pour les usagers. 

Responsabiliser les calculs du social

Nous avons besoin de diminuer les donnĂ©es utilisĂ©es pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexitĂ©, au prĂ©texte de mieux calculer le social, bien souvent, n’amĂ©liore pas les calculs, mais renforce leur opacitĂ© et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de donnĂ©es, doivent rester comprĂ©hensibles, transparents, vĂ©rifiables et surtout opposables
 Collecter peu de donnĂ©es cause moins de problĂšmes de vie privĂ©e, moins de problĂšmes lĂ©gaux comme Ă©thiques
 et moins de discriminations. 

Renforcer le contrĂŽle des systĂšmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. AmĂ©liorer les droits de recours des usagers, notamment quand ces systĂšmes les ciblent et les dĂ©signent. Et surtout, amĂ©liorer la participation des publics aux calculs, comme nous y invitent le rĂ©cent rapport du DĂ©fenseur des droits sur la dĂ©matĂ©rialisation et les algorithmes publics. 

A mesure qu’ils se rĂ©pandent, Ă  mesure qu’ils accĂšdent Ă  de plus en plus de donnĂ©es, les risques de dĂ©faillances des calculs s’accumulent. DerriĂšre ces dĂ©faillances, c’est la question mĂȘme de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque annĂ©e des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnĂ©es.

On ne peut pas accepter que la CAF dĂ©termine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, trĂšs peu sont condamnĂ©s pour fraude. La justice nĂ©cessite que les calculs du social soient raccords avec la rĂ©alitĂ©. Nous n’y sommes pas. 

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© publiĂ© originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 Ă  l’occasion de la publication du livre, Les algorithmes contre la sociĂ©tĂ© aux Ă©ditions La Fabrique.

  •  

Dans les défaillances des décisions automatisées

Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types d’activitĂ©s humaines et notamment la distribution de services publics Ă  des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou l’assurance. Partout, les systĂšmes contrĂŽlent l’accĂšs Ă  nos droits et Ă  nos possibilitĂ©s d’action. 

Opacité et défaillance généralisée

En 2020 dĂ©jĂ , la grande association europĂ©enne de dĂ©fense des droits numĂ©riques, Algorithm Watch, expliquait dans un rapport que ces systĂšmes se gĂ©nĂ©ralisaient dans la plus grande opacitĂ©. Alors que le calcul est partout, l’association soulignait que si ces dĂ©ploiements pouvaient ĂȘtre utiles, trĂšs peu de cas montraient de « maniĂšre convaincante un impact positif Â». La plupart des systĂšmes de dĂ©cision automatisĂ©s mettent les gens en danger plus qu’ils ne les protĂšgent, disait dĂ©jĂ  l’association.

Dans son inventaire des algorithmes publics, l’Observatoire des algorithmes publics montre, trĂšs concrĂštement, combien le dĂ©ploiement des systĂšmes de prise de dĂ©cision automatisĂ©e reste opaque, malgrĂ© les obligations de transparence qui incombent aux systĂšmes.

Avec son initiative France ContrĂŽle, la Quadrature du Net, accompagnĂ©e de collectifs de lutte contre la prĂ©caritĂ©, documente elle aussi le dĂ©ploiement des algorithmes de contrĂŽle social et leurs dĂ©faillances. DĂšs 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systĂšmes Ă©lectroniques mis en place pour calculer, distribuer et contrĂŽler l’aide sociale sont bien souvent particuliĂšrement dĂ©faillants, et notamment les systĂšmes automatisĂ©s censĂ©s lutter contre la fraude, devenus l’alpha et l’omĂ©ga des politiques publiques austĂ©ritaires.

MalgrĂ© la Loi pour une RĂ©publique numĂ©rique (2016), la transparence de ces calculs, seule Ă  mĂȘme de dĂ©voiler et corriger leurs dĂ©faillances, ne progresse pas. On peut donc se demander, assez lĂ©gitimement, ce qu’il y a cacher. 

A mesure que ces systĂšmes se dĂ©ploient, ce sont donc les enquĂȘtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les dĂ©faillances des dĂ©cisions automatisĂ©es dans tous les secteurs de la sociĂ©tĂ© oĂč elles sont prĂ©sentes.

Ces enquĂȘtes sont rendues partout difficiles, d’abord et avant tout parce qu’on ne peut saisir les paramĂštres des systĂšmes de dĂ©cision automatisĂ©e sans y accĂ©der. 

3 problÚmes récurrents

S’il est difficile de faire un constat global sur les dĂ©faillances spĂ©cifiques de tous les systĂšmes automatisĂ©s, qu’ils s’appliquent Ă  la santĂ©, l’éducation, le social ou l’économie, on peut nĂ©anmoins noter 3 problĂšmes rĂ©currents. 

Les erreurs ne sont pas un problĂšme pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systĂšmes de dĂ©cision automatisĂ©e produisent des faux positifs importants, c’est-Ă -dire catĂ©gorisent des personnes indĂ»ment. Dans les systĂšmes bancaires par exemple, comme l’a montrĂ© une belle enquĂȘte de l’AFP et d’Algorithm Watch, certaines activitĂ©s dĂ©clenchent des alertes et conduisent Ă  qualifier les profils des clients comme problĂ©matiques voire Ă  suspendre les possibilitĂ©s bancaires d’individus ou d’organisations, sans qu’elles n’aient Ă  rendre de compte sur ces suspensions.

Au contraire, parce qu’elles sont invitĂ©es Ă  la vigilance face aux activitĂ©s de fraude, de blanchiment d’argent ou le financement du terrorisme, elles sont encouragĂ©es Ă  produire des faux positifs pour montrer qu’elles agissent, tout comme les organismes sociaux sont poussĂ©s Ă  dĂ©tecter de la fraude pour atteindre leurs objectifs de contrĂŽle.

Selon les donnĂ©es de l’autoritĂ© qui contrĂŽle les banques et les marchĂ©s financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermĂ© en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont Ă©tĂ© condamnĂ©es pour ce dĂ©lit. 

Le problĂšme, c’est que les organismes de calculs n’ont pas d’intĂ©rĂȘt Ă  corriger ces faux positifs pour les attĂ©nuer. Alors que, si ces erreurs ne sont pas un problĂšme pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clĂŽturĂ©s, sans raison et avec peu de possibilitĂ©s de recours. Il est nĂ©cessaire pourtant que les taux de risques dĂ©tectĂ©s restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de rĂ©duction des risques ne soient pas portĂ©s par les individus.

Le mĂȘme phĂ©nomĂšne est Ă  l’Ɠuvre quand la CAF reconnaĂźt que son algorithme de contrĂŽle de fraude produit bien plus de contrĂŽle sur certaines catĂ©gories sociales de la population, comme le montrait l’enquĂȘte du Monde et de Lighthouse reports et les travaux de l’association Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, n’a pas d’incidence directe, au contraire


Pour les organismes publics le taux de dĂ©tection automatisĂ©e est un objectif Ă  atteindre explique le syndicat Solidaires Finances Publiques dans son enquĂȘte sur L’IA aux impĂŽts, qu’importe si cet objectif est dĂ©faillant pour les personnes ciblĂ©es. D’oĂč l’importance de mettre en place un ratio d’impact sur les diffĂ©rents groupes dĂ©mographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit ĂȘtre amĂ©liorĂ©e.

Pour cela, il est nĂ©cessaire de mieux contrĂŽler le taux de dĂ©tection des outils et de trouver les modalitĂ©s pour que ces taux ne soient pas disproportionnĂ©s. Sans cela, on le comprend, la maltraitance institutionnelle que dĂ©nonce ATD Quart Monde est en roue libre dans les systĂšmes, quels qu’ils soient.

Dans les difficultĂ©s, les recours sont rendus plus compliquĂ©s. Quand ces systĂšmes mĂ©-calculent les gens, quand ils signalent leurs profils comme problĂ©matiques ou quand les dossiers sont mis en traitement, les possibilitĂ©s de recours sont bien souvent automatiquement rĂ©duites. Le fait d’ĂȘtre soupçonnĂ© de problĂšme bancaire diminue vos possibilitĂ©s de recours plutĂŽt qu’elle ne les augmente.

A la CAF, quand l’accusation de fraude est dĂ©clenchĂ©e, la procĂ©dure de recours pour les bĂ©nĂ©ficiaires devient plus complexe. Dans la plateforme dĂ©matĂ©rialisĂ©e pour les demandes de titres de sĂ©jour dont le DĂ©fenseur des droits pointait les lacunes dans un rĂ©cent rapport, les usagers ne peuvent pas signaler un changement de lieu de rĂ©sidence quand une demande est en cours.

Or, c’est justement quand les usagers sont confrontĂ©s Ă  des difficultĂ©s, que la discussion devrait ĂȘtre rendue plus fluide, plus accessible. En rĂ©alitĂ©, c’est bien souvent l’inverse que l’on constate. Outre les explications lacunaires des services, les possibilitĂ©s de recours sont rĂ©duites quand elles devraient ĂȘtre augmentĂ©es. L’alerte rĂ©duit les droits alors qu’elle devrait plutĂŽt les ouvrir. 

Enfin, l’interconnexion des systĂšmes crĂ©e des boucles de dĂ©faillances dont les effets s’amplifient trĂšs rapidement. Les boucles d’empĂȘchements se multiplient sans issue. Les alertes et les faux positifs se rĂ©pandent. L’automatisation des droits conduit Ă  des Ă©victions en cascade dans des systĂšmes oĂč les organismes se renvoient les responsabilitĂ©s sans ĂȘtre toujours capables d’agir sur les systĂšmes de calcul. Ces difficultĂ©s nĂ©cessitent de mieux faire valoir les droits d’opposition des calculĂ©s. La prise en compte d’innombrables donnĂ©es pour produire des calculs toujours plus granulaires, pour attĂ©nuer les risques, produit surtout des faux positifs et une complexitĂ© de plus en plus problĂ©matique pour les usagers. 

Responsabiliser les calculs du social

Nous avons besoin de diminuer les donnĂ©es utilisĂ©es pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexitĂ©, au prĂ©texte de mieux calculer le social, bien souvent, n’amĂ©liore pas les calculs, mais renforce leur opacitĂ© et les rend moins contestables. Les calculs du social doivent n’utiliser que peu de donnĂ©es, doivent rester comprĂ©hensibles, transparents, vĂ©rifiables et surtout opposables
 Collecter peu de donnĂ©es cause moins de problĂšmes de vie privĂ©e, moins de problĂšmes lĂ©gaux comme Ă©thiques
 et moins de discriminations. 

Renforcer le contrĂŽle des systĂšmes, notamment mesurer leur ratio d’impact et les taux de faux positifs. AmĂ©liorer les droits de recours des usagers, notamment quand ces systĂšmes les ciblent et les dĂ©signent. Et surtout, amĂ©liorer la participation des publics aux calculs, comme nous y invitent le rĂ©cent rapport du DĂ©fenseur des droits sur la dĂ©matĂ©rialisation et les algorithmes publics. 

A mesure qu’ils se rĂ©pandent, Ă  mesure qu’ils accĂšdent Ă  de plus en plus de donnĂ©es, les risques de dĂ©faillances des calculs s’accumulent. DerriĂšre ces dĂ©faillances, c’est la question mĂȘme de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque annĂ©e des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnĂ©es.

On ne peut pas accepter que la CAF dĂ©termine qu’il y aurait des centaines de milliers de fraudeurs, quand dans les faits, trĂšs peu sont condamnĂ©s pour fraude. La justice nĂ©cessite que les calculs du social soient raccords avec la rĂ©alitĂ©. Nous n’y sommes pas. 

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© publiĂ© originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 Ă  l’occasion de la publication du livre, Les algorithmes contre la sociĂ©tĂ© aux Ă©ditions La Fabrique.

  •