Supreme Court Keeps Ruling in Trumpâs Favor, but Doesnât Say Why
© Tierney L. Cross/The New York Times
© Tierney L. Cross/The New York Times
© Charles Krupa/Associated Press
Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă intĂ©grer lâIA Ă leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et lâhistoire du web, telle quâon lâa connue, touche Ă sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă la volĂ©e, en sâappuyant sur lâensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir⊠avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©.
JusquâĂ prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de lâactivitĂ© Internet commence sur les moteurs de recherche et quâenviron 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs ».
Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. LâintĂ©gration de lâIA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă lâaffiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusquâĂ prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour lâinstant, Ă terme, il sera « lâavenir de la recherche Google ».
Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ beaucoup moins de trafic vers le reste dâinternet (de 30 % Ă 70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© quâenviron 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que lâutilisateur ne clique sur un seul lien â voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». LâIA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais lâentreprise nâa fourni aucune donnĂ©e pour Ă©tayer ces affirmations.
Google et ses dĂ©tracteurs sâaccordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. Câest le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©.
Lâarticle de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A lâĂ©poque, lâessor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela nâempĂȘche pas les experts dâĂȘtre soucieux face aux transformations qui sâannoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme lâIA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. Câest comme demander un livre Ă un bibliothĂ©caire et quâil vous en parle plutĂŽt que de vous le fournir, compare un expert.
La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise dâĂ©dition viable⊠et la faillite. Pour beaucoup dâĂ©diteurs, ce changement sera dramatique. Nombre dâentreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet dâanalyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de lâIA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique lâune des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « Câest mon infrastructure, et le web se trouve juste dedans ». »
Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de lâentreprise, a dĂ©clarĂ© quâil pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles dâIA avec leurs contenus, sans plus avoir Ă se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, câest que « les robots ne cliquent pas sur les publicitĂ©s ». « Si lâIA devient lâaudience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes dâIA pour quâelles sâentraĂźnent et exploitent leurs contenus, mais ces revenus lĂ ne compenseront pas la chute dâaudience Ă venir. Et ce modĂšle ne passera certainement pas lâĂ©chelle dâune rĂ©tribution gĂ©nĂ©ralisĂ©e.
Si gagner de lâargent sur le web devient plus difficile, il est probable que nombre dâacteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ aussi, les caprices algorithmiques et le dĂ©veloppement de lâIA gĂ©nĂ©rative risquent de ne pas suffire Ă compenser les pertes.
Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « Ă mesure que les utilisateurs utilisent AI Overviews, nous constatons quâils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que câest ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de lâIA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de lâargent grĂące Ă notre contenu et nous ne recevons rien en retour ». Le problĂšme, câest que Google nâa pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent lâune des premiĂšres utilisations de outils dâIA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres dâĂ©chos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google sâapprĂȘte Ă faire quelque chose qui va vraiment mettre les gens en colĂšre »⊠et appelle les acteurs Ă capitaliser sur cette colĂšre Ă venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium dâĂ©diteurs de toutes tailles bloquent collectivement les robots dâindexation IA, Ă moins que les entreprises technologiques ne paient pour le contenu. Il sâagit dâune tentative pour forcer la Silicon Valley Ă nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour lâobtenir ». Tim OâReilly avait proposĂ© lâannĂ©e derniĂšre quelque chose dâassez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă lâexploitation des contenus par lâIA devraient donner lieu Ă rĂ©tribution â mais Ă nouveau, une rĂ©tribution qui restera par nature insuffisante, comme lâexpliquait FrĂ©dĂ©ric Fillioux.
MĂȘme constat pour le Washington Post, qui sâinquiĂšte de lâeffondrement de lâaudience des sites dâactualitĂ© avec le dĂ©ploiement des outils dâIA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, lâaudience est en berne et les licenciements continuent.
Pour la Technology Review, câest la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans lâĂšre de la recherche conversationnelle » dont la fonction mĂȘme vise à « ignorer les liens », comme lâaffirme Perplexity dans sa FAQ. La TR rappelle lâhistoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et nâa cessĂ© de sâamĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui sâapprĂȘte Ă changer avec lâintĂ©gration de lâIA, câest que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă la volĂ©e, aucune nâĂ©tant identique Ă une autre.
LâintĂ©gration de lâIA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. LâIA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022⊠ce qui est bien sĂ»r totalement faux, mais quâen saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o nâexiste pas, mais lâinformation, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par lâIA pourrait thĂ©oriquement trouver cette information en ligne â dans un manuel dâutilisation cachĂ© sur le site web dâune entreprise, par exemple â et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me lâexpliquer avec des mots aujourdâhui » â voire trĂšs mal nous lâexpliquer. Lâexemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă la demande, quelque soit ses dĂ©faillances.
MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de lâIA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques nâont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de lâIA risque surtout dâamplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de lâexactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de lâinternet ». « La Silicon Valley mise lâavenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de sâeffondrer Ă la moindre tĂąche et dâĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de lâIA nâont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent lâIA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise lâIA pour tout », titrait le New York Times. « Câest lĂ que rĂ©side le problĂšme : lâIA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© dâĂ©vĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect quâil nâest aujourdâhui. « Les erreurs dâaujourdâhui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « lâĂąge de la paranoĂŻa », clame Wired.
Mais il nây a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. Câest ainsi quâil faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ des outils dâIA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et dây apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. Lâentreprise souhaite dĂ©sormais aider les marques Ă crĂ©er des concepts publicitaires de A Ă Z ». La publicitĂ© reprĂ©sente 97% du chiffre dâaffaires de Meta, rappelle le journal (qui sâĂ©lĂšve en 2024 Ă 164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ ce quâon attend dâeux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit quâelle souhaite promouvoir, accompagnĂ©e dâun objectif budgĂ©taire. LâIA crĂ©erait alors lâintĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait sâadapter en contexte, crĂ©ant lâimage dâune voiture circulant dans la neige ou sur une plage sâils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant quâelle est prĂȘte Ă payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de lâassemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de lâentreprise.
Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». Câest dâailleurs la mĂȘme idĂ©e que lâon retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition â qui leur est fondamentalement hostile, puisquâelle vient directement les concurrencer -, dâautres sây engouffrent dĂ©jĂ , Ă lâimage dâUnilever qui explique sur Adweek que lâIA divise par deux ses budgets publicitaires grĂące Ă son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusquâĂ 55 % dâĂ©conomies sur ses campagnes IA, dâavoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant lâattention des consommateurs trois fois plus longtemps ».
LâidĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de lâIA, câest bien dâannoncer le remplacement du web que lâon connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative quâil maĂźtriseraient, capable de produire un web Ă leur profit, quâils auraient avalĂ© et digĂ©rĂ©.
Nilay Patel Ă©tait lâannĂ©e derniĂšre lâinvitĂ© du podcast dâEzra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que lâIA se dĂ©veloppe dâabord lĂ oĂč les produits nâont pas besoin dâĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur lâinternet. Beaucoup des contenus dâinternet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », lâIA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA sâamĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus sâil y a quelquâun Ă lâautre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelquâun dâailleurs, oĂč nâaurons nous accĂšs plus quâĂ des contenus gĂ©nĂ©ratifs ?
Pour Patel, pour lâinstant, lâIA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă lâinfini lâoffre de contenu, le systĂšme sâapprĂȘte Ă sâeffondrer sur lui-mĂȘme : « Les algorithmes de recommandation sâeffondrent, notre capacitĂ© Ă distinguer le vrai du faux sâeffondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques dâInternet sâeffondrent complĂštement ». Les contenus nâarrivent plus Ă trouver leurs publics, et inversement. Lâexemple Ă©clairant pour illustrer cela, câest celui dâAmazon. Face Ă lâafflux de livres gĂ©nĂ©rĂ©s par lâIA, la seule rĂ©ponse dâAmazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă trois par jour. Câest une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. Câest Ă peine sâils savent restreindre le flot
Avec lâIA gĂ©nĂ©rative, lâoffre ne va pas cesser dâaugmenter. Elle dĂ©passe dĂ©jĂ ce que nous sommes capables dâabsorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien dâautre que de courtes vidĂ©os.
« Toutes les plateformes tendent vers le mĂȘme objectif, puisquâelles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes câest la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que lâIA promet dâoptimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par lâIA⊠Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun dâentre eux ne nous signale plus que les contenus quâils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement lâenquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.
Et Klein de suggĂ©rer que ces contenus vont certainement sâamĂ©liorer, comme la gĂ©nĂ©ration dâimage et de texte nâa cessĂ© de sâamĂ©liorer. Il est probable que lâarticle moyen dâici trois ans sera meilleur que le contenu moyen produit par un humain aujourdâhui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă la question : est-ce un meilleur ou un pire internet qui sâannonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? »
Il y en a certainement, rĂ©pond Patel. Il nây a certainement pas besoin dâaller sur une page web pour savoir combien de temps il faut pour cuire un Ćuf, lâIA de Google peut vous le dire⊠Mais, câest oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourdâhui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. Lâenjeu demain ne sera plus dâĂȘtre dans les 3 premiers rĂ©sultats dâune page de recherche, mais dâĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, câest lâIA ! », explique le journaliste Scott Mulligan pour la Technology Review. « Lâobjectif ultime nâest pas seulement de comprendre comment votre marque est perçue par lâIA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă faible revenu, il recommandera des marques plus cheap.
LâIA sâannonce comme un nouveau public des marques, Ă dompter. Et la perception dâune marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă vendre ! Les entreprises vont adorer !
Pour Klein, lâinternet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon nâont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă leur profit. LâIA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt quâaux utilisateurs. Pour Patel, il est possible quâun internet sans IA subsiste, pour autant quâil parvienne Ă se financer.
Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de lâIA semblent sâaligner pour transformer le web Ă leur seul profit, et câest assurĂ©ment la puissance (et surtout la puissance financiĂšre) quâils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », quâĂ©voquait Ben Tarnoff dans son livre, Internet for the People.
La promesse du web synthĂ©tique est lĂ pour rester. Et la perspective qui se dessine, câest que nous avons Ă nous y adapter, sans discussion. Ce nâest pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de lâIA conquiĂšrent le numĂ©rique, câest nos marges de manĆuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă rĂ©ouvrir, dĂšs Ă prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă la concurrence et Ă lâinteropĂ©rabilitĂ©, pour forcer les acteurs Ă proposer aux utilisateurs dâutiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils quâils utilisent, que ce soit leurs OS comme les services quâils utilisent. Bref, mobiliser le droit Ă la concurrence et Ă lâinteropĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne sâavĂšre pas plus difficile demain quâil nâĂ©tait aujourdâhui.
Hubert Guillaud
Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre dâinformation de CafĂ©IA le 27 juin 2025.
Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă intĂ©grer lâIA Ă leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et lâhistoire du web, telle quâon lâa connue, touche Ă sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă la volĂ©e, en sâappuyant sur lâensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir⊠avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©.
JusquâĂ prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de lâactivitĂ© Internet commence sur les moteurs de recherche et quâenviron 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs ».
Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. LâintĂ©gration de lâIA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă lâaffiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusquâĂ prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour lâinstant, Ă terme, il sera « lâavenir de la recherche Google ».
Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ beaucoup moins de trafic vers le reste dâinternet (de 30 % Ă 70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© quâenviron 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que lâutilisateur ne clique sur un seul lien â voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». LâIA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais lâentreprise nâa fourni aucune donnĂ©e pour Ă©tayer ces affirmations.
Google et ses dĂ©tracteurs sâaccordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. Câest le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©.
Lâarticle de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A lâĂ©poque, lâessor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela nâempĂȘche pas les experts dâĂȘtre soucieux face aux transformations qui sâannoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme lâIA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. Câest comme demander un livre Ă un bibliothĂ©caire et quâil vous en parle plutĂŽt que de vous le fournir, compare un expert.
La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise dâĂ©dition viable⊠et la faillite. Pour beaucoup dâĂ©diteurs, ce changement sera dramatique. Nombre dâentreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet dâanalyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de lâIA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique lâune des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « Câest mon infrastructure, et le web se trouve juste dedans ». »
Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de lâentreprise, a dĂ©clarĂ© quâil pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles dâIA avec leurs contenus, sans plus avoir Ă se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, câest que « les robots ne cliquent pas sur les publicitĂ©s ». « Si lâIA devient lâaudience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes dâIA pour quâelles sâentraĂźnent et exploitent leurs contenus, mais ces revenus lĂ ne compenseront pas la chute dâaudience Ă venir. Et ce modĂšle ne passera certainement pas lâĂ©chelle dâune rĂ©tribution gĂ©nĂ©ralisĂ©e.
Si gagner de lâargent sur le web devient plus difficile, il est probable que nombre dâacteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ aussi, les caprices algorithmiques et le dĂ©veloppement de lâIA gĂ©nĂ©rative risquent de ne pas suffire Ă compenser les pertes.
Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « Ă mesure que les utilisateurs utilisent AI Overviews, nous constatons quâils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que câest ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de lâIA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de lâargent grĂące Ă notre contenu et nous ne recevons rien en retour ». Le problĂšme, câest que Google nâa pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent lâune des premiĂšres utilisations de outils dâIA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres dâĂ©chos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google sâapprĂȘte Ă faire quelque chose qui va vraiment mettre les gens en colĂšre »⊠et appelle les acteurs Ă capitaliser sur cette colĂšre Ă venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium dâĂ©diteurs de toutes tailles bloquent collectivement les robots dâindexation IA, Ă moins que les entreprises technologiques ne paient pour le contenu. Il sâagit dâune tentative pour forcer la Silicon Valley Ă nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour lâobtenir ». Tim OâReilly avait proposĂ© lâannĂ©e derniĂšre quelque chose dâassez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă lâexploitation des contenus par lâIA devraient donner lieu Ă rĂ©tribution â mais Ă nouveau, une rĂ©tribution qui restera par nature insuffisante, comme lâexpliquait FrĂ©dĂ©ric Fillioux.
MĂȘme constat pour le Washington Post, qui sâinquiĂšte de lâeffondrement de lâaudience des sites dâactualitĂ© avec le dĂ©ploiement des outils dâIA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, lâaudience est en berne et les licenciements continuent.
Pour la Technology Review, câest la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans lâĂšre de la recherche conversationnelle » dont la fonction mĂȘme vise à « ignorer les liens », comme lâaffirme Perplexity dans sa FAQ. La TR rappelle lâhistoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et nâa cessĂ© de sâamĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui sâapprĂȘte Ă changer avec lâintĂ©gration de lâIA, câest que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă la volĂ©e, aucune nâĂ©tant identique Ă une autre.
LâintĂ©gration de lâIA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. LâIA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022⊠ce qui est bien sĂ»r totalement faux, mais quâen saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o nâexiste pas, mais lâinformation, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par lâIA pourrait thĂ©oriquement trouver cette information en ligne â dans un manuel dâutilisation cachĂ© sur le site web dâune entreprise, par exemple â et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me lâexpliquer avec des mots aujourdâhui » â voire trĂšs mal nous lâexpliquer. Lâexemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă la demande, quelque soit ses dĂ©faillances.
MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de lâIA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques nâont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de lâIA risque surtout dâamplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de lâexactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de lâinternet ». « La Silicon Valley mise lâavenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de sâeffondrer Ă la moindre tĂąche et dâĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de lâIA nâont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent lâIA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise lâIA pour tout », titrait le New York Times. « Câest lĂ que rĂ©side le problĂšme : lâIA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© dâĂ©vĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect quâil nâest aujourdâhui. « Les erreurs dâaujourdâhui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « lâĂąge de la paranoĂŻa », clame Wired.
Mais il nây a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. Câest ainsi quâil faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ des outils dâIA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et dây apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. Lâentreprise souhaite dĂ©sormais aider les marques Ă crĂ©er des concepts publicitaires de A Ă Z ». La publicitĂ© reprĂ©sente 97% du chiffre dâaffaires de Meta, rappelle le journal (qui sâĂ©lĂšve en 2024 Ă 164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ ce quâon attend dâeux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit quâelle souhaite promouvoir, accompagnĂ©e dâun objectif budgĂ©taire. LâIA crĂ©erait alors lâintĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait sâadapter en contexte, crĂ©ant lâimage dâune voiture circulant dans la neige ou sur une plage sâils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant quâelle est prĂȘte Ă payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de lâassemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de lâentreprise.
Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». Câest dâailleurs la mĂȘme idĂ©e que lâon retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition â qui leur est fondamentalement hostile, puisquâelle vient directement les concurrencer -, dâautres sây engouffrent dĂ©jĂ , Ă lâimage dâUnilever qui explique sur Adweek que lâIA divise par deux ses budgets publicitaires grĂące Ă son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusquâĂ 55 % dâĂ©conomies sur ses campagnes IA, dâavoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant lâattention des consommateurs trois fois plus longtemps ».
LâidĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de lâIA, câest bien dâannoncer le remplacement du web que lâon connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative quâil maĂźtriseraient, capable de produire un web Ă leur profit, quâils auraient avalĂ© et digĂ©rĂ©.
Nilay Patel Ă©tait lâannĂ©e derniĂšre lâinvitĂ© du podcast dâEzra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que lâIA se dĂ©veloppe dâabord lĂ oĂč les produits nâont pas besoin dâĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur lâinternet. Beaucoup des contenus dâinternet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », lâIA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA sâamĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus sâil y a quelquâun Ă lâautre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelquâun dâailleurs, oĂč nâaurons nous accĂšs plus quâĂ des contenus gĂ©nĂ©ratifs ?
Pour Patel, pour lâinstant, lâIA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă lâinfini lâoffre de contenu, le systĂšme sâapprĂȘte Ă sâeffondrer sur lui-mĂȘme : « Les algorithmes de recommandation sâeffondrent, notre capacitĂ© Ă distinguer le vrai du faux sâeffondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques dâInternet sâeffondrent complĂštement ». Les contenus nâarrivent plus Ă trouver leurs publics, et inversement. Lâexemple Ă©clairant pour illustrer cela, câest celui dâAmazon. Face Ă lâafflux de livres gĂ©nĂ©rĂ©s par lâIA, la seule rĂ©ponse dâAmazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă trois par jour. Câest une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. Câest Ă peine sâils savent restreindre le flot
Avec lâIA gĂ©nĂ©rative, lâoffre ne va pas cesser dâaugmenter. Elle dĂ©passe dĂ©jĂ ce que nous sommes capables dâabsorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien dâautre que de courtes vidĂ©os.
« Toutes les plateformes tendent vers le mĂȘme objectif, puisquâelles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes câest la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que lâIA promet dâoptimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par lâIA⊠Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun dâentre eux ne nous signale plus que les contenus quâils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement lâenquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.
Et Klein de suggĂ©rer que ces contenus vont certainement sâamĂ©liorer, comme la gĂ©nĂ©ration dâimage et de texte nâa cessĂ© de sâamĂ©liorer. Il est probable que lâarticle moyen dâici trois ans sera meilleur que le contenu moyen produit par un humain aujourdâhui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă la question : est-ce un meilleur ou un pire internet qui sâannonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? »
Il y en a certainement, rĂ©pond Patel. Il nây a certainement pas besoin dâaller sur une page web pour savoir combien de temps il faut pour cuire un Ćuf, lâIA de Google peut vous le dire⊠Mais, câest oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourdâhui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. Lâenjeu demain ne sera plus dâĂȘtre dans les 3 premiers rĂ©sultats dâune page de recherche, mais dâĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, câest lâIA ! », explique le journaliste Scott Mulligan pour la Technology Review. « Lâobjectif ultime nâest pas seulement de comprendre comment votre marque est perçue par lâIA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă faible revenu, il recommandera des marques plus cheap.
LâIA sâannonce comme un nouveau public des marques, Ă dompter. Et la perception dâune marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă vendre ! Les entreprises vont adorer !
Pour Klein, lâinternet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon nâont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă leur profit. LâIA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt quâaux utilisateurs. Pour Patel, il est possible quâun internet sans IA subsiste, pour autant quâil parvienne Ă se financer.
Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de lâIA semblent sâaligner pour transformer le web Ă leur seul profit, et câest assurĂ©ment la puissance (et surtout la puissance financiĂšre) quâils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », quâĂ©voquait Ben Tarnoff dans son livre, Internet for the People.
La promesse du web synthĂ©tique est lĂ pour rester. Et la perspective qui se dessine, câest que nous avons Ă nous y adapter, sans discussion. Ce nâest pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de lâIA conquiĂšrent le numĂ©rique, câest nos marges de manĆuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă rĂ©ouvrir, dĂšs Ă prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă la concurrence et Ă lâinteropĂ©rabilitĂ©, pour forcer les acteurs Ă proposer aux utilisateurs dâutiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils quâils utilisent, que ce soit leurs OS comme les services quâils utilisent. Bref, mobiliser le droit Ă la concurrence et Ă lâinteropĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne sâavĂšre pas plus difficile demain quâil nâĂ©tait aujourdâhui.
Hubert Guillaud
Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre dâinformation de CafĂ©IA le 27 juin 2025.
Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration dâun nouveau livre Ă paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă dâautres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme lâexpliquait le PDG dâAnthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de âpoids ouvertsâ permettant dâajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă but non lucratif axĂ© sur la comprĂ©hension des systĂšmes dâIA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă lâaide dâun outil dâobservabilitĂ© qui montre la nature du modĂšle et vise Ă produire une âinterprĂ©tabilitĂ© automatisĂ©eâ en produisant des descriptions lisibles par lâhomme des composants du modĂšle. LâidĂ©e vise Ă montrer comment les modĂšles « pensent » lorsquâils discutent avec un utilisateur, et Ă permettre dâajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement dâinformatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s sâactivent et se dĂ©sactivent au cours dâune conversation.
ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors dâune conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsquâelle a indiquĂ© quâelle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui sâilluminent lorsquâil utilise la forme fĂ©minine, contrairement Ă lorsquâil sâadresse Ă quelquâun. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă ce que lâon pourrait anthropomorphiser comme les âcroyances du modĂšle sur son interlocuteurâ. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose quâune personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, lâamenant Ă recommander des costumes pour certains et des robes pour dâautres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă ceux quâils croient ĂȘtre des hommes quâĂ ceux quâils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de lâutilisateur du modĂšle, mais aussi quâelles sâadaptaient aux infĂ©rences du modĂšle selon ce quâil pensait du statut socio-Ă©conomique, de son niveau dâĂ©ducation ou de lâĂąge de son interlocuteur. Le LLM cherche Ă sâadapter en permanence Ă qui il pense converser, dâoĂč lâimportance Ă saisir ce quâil infĂšre de son interlocuteur en continue.
Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă lâinterface de chat du LLM qui permet aux utilisateurs dâobserver lâĂ©volution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord nâest pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans lâUpper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour quâil corresponde Ă la classe supĂ©rieure et suggĂšre alors dâacheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.
Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de lâIA, permettant dâobserver son comportement en direct. Fernanda Viegas est professeur dâinformatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. LâĂ©quipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©.
Pour Viegas, « lâenjeu de la visualisation consiste Ă mesurer et exposer le fonctionnement interne des modĂšles dâIA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă comprendre les facteurs qui façonnent le contenu quâils reçoivent des rĂ©ponses des modĂšles dâIA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs dâune comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, sâinspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples dâoutils de visualisation interactifs qui permettent dâamĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer lâĂ©quitĂ© dâun modĂšle ou les biais ou lâoptimisation de la diversitĂ© â qui ne sont pas sans rappeler les travaux de Victor Bret et ses âexplications Ă explorerâ interactives.
Ce qui est fascinant ici, câest combien la rĂ©ponse nâest pas tant corrĂ©lĂ©e Ă tout ce que le modĂšle a avalĂ©, mais combien il tente de sâadapter en permanence Ă ce quâil croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses.
âLes grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les conceptsâ, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes quâils recomposent Ă la volĂ©e. On comprend quâun grand enjeu dĂ©sormais soit quâils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme lâa annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme nâest peut-ĂȘtre pas quâils nous identifient prĂ©cisĂ©ment, mais quâils puissent adapter leurs propositions, non pas Ă qui nous sommes, mais bien plus problĂ©matiquement, Ă qui ils pensent sâadresser, selon par exemple ce quâils Ă©valuent de notre capacitĂ© Ă payer. Un autre problĂšme consiste Ă savoir si cette âcomprĂ©hensionâ de lâinterlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme câest le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourdâhui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es quâils infĂšrent ?
Ce qui est fascinant, câest de constater que plus que dâhalluciner, lâIA nous fait halluciner (câest-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (câest-Ă -dire, nous hallucine nous-mĂȘmes).
Les chercheurs de Harvard ont cherchĂ© Ă identifier les Ă©volutions des suppositions des modĂšles selon lâorigine ethnique dans les modĂšles quâils ont Ă©tudiĂ©s, sans pour lâinstant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă commencer Ă traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. LâidĂ©e ici, serait dâorienter les rĂ©ponses dâun modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsquâil identifie quâil parle Ă un enfant. Pour Zittrain, lâenjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă lâĂ©gard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : âSi nous considĂ©rons quâil est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă protĂ©ger la confidentialitĂ© afin que chacun puisse sâexprimer sur des sujets sensibles et recevoir des informations et des conseils qui lâaident Ă mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles quâils sâengagent Ă ĂȘtre les amis inoffensifs, serviables et honnĂȘtes quâils sont si soigneusement conçus pour paraĂźtreâ.
Inoffensifs, serviables et honnĂȘtes, voilĂ qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire quâils nous reconnectent aux humains plutĂŽt quâils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et dâanticiper la dĂ©pendance potentielle des individus Ă leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă saisir Ă qui ils croient sâadresser plutĂŽt que de nous laisser seuls face Ă leur interface semble une piste riche en promesses.
Hubert Guillaud
Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration dâun nouveau livre Ă paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă dâautres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme lâexpliquait le PDG dâAnthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de âpoids ouvertsâ permettant dâajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă but non lucratif axĂ© sur la comprĂ©hension des systĂšmes dâIA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă lâaide dâun outil dâobservabilitĂ© qui montre la nature du modĂšle et vise Ă produire une âinterprĂ©tabilitĂ© automatisĂ©eâ en produisant des descriptions lisibles par lâhomme des composants du modĂšle. LâidĂ©e vise Ă montrer comment les modĂšles « pensent » lorsquâils discutent avec un utilisateur, et Ă permettre dâajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement dâinformatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s sâactivent et se dĂ©sactivent au cours dâune conversation.
ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors dâune conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsquâelle a indiquĂ© quâelle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui sâilluminent lorsquâil utilise la forme fĂ©minine, contrairement Ă lorsquâil sâadresse Ă quelquâun. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă ce que lâon pourrait anthropomorphiser comme les âcroyances du modĂšle sur son interlocuteurâ. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose quâune personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, lâamenant Ă recommander des costumes pour certains et des robes pour dâautres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă ceux quâils croient ĂȘtre des hommes quâĂ ceux quâils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de lâutilisateur du modĂšle, mais aussi quâelles sâadaptaient aux infĂ©rences du modĂšle selon ce quâil pensait du statut socio-Ă©conomique, de son niveau dâĂ©ducation ou de lâĂąge de son interlocuteur. Le LLM cherche Ă sâadapter en permanence Ă qui il pense converser, dâoĂč lâimportance Ă saisir ce quâil infĂšre de son interlocuteur en continue.
Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă lâinterface de chat du LLM qui permet aux utilisateurs dâobserver lâĂ©volution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord nâest pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans lâUpper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour quâil corresponde Ă la classe supĂ©rieure et suggĂšre alors dâacheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.
Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de lâIA, permettant dâobserver son comportement en direct. Fernanda Viegas est professeur dâinformatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. LâĂ©quipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©.
Pour Viegas, « lâenjeu de la visualisation consiste Ă mesurer et exposer le fonctionnement interne des modĂšles dâIA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă comprendre les facteurs qui façonnent le contenu quâils reçoivent des rĂ©ponses des modĂšles dâIA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs dâune comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, sâinspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples dâoutils de visualisation interactifs qui permettent dâamĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer lâĂ©quitĂ© dâun modĂšle ou les biais ou lâoptimisation de la diversitĂ© â qui ne sont pas sans rappeler les travaux de Victor Bret et ses âexplications Ă explorerâ interactives.
Ce qui est fascinant ici, câest combien la rĂ©ponse nâest pas tant corrĂ©lĂ©e Ă tout ce que le modĂšle a avalĂ©, mais combien il tente de sâadapter en permanence Ă ce quâil croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses.
âLes grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les conceptsâ, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes quâils recomposent Ă la volĂ©e. On comprend quâun grand enjeu dĂ©sormais soit quâils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme lâa annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme nâest peut-ĂȘtre pas quâils nous identifient prĂ©cisĂ©ment, mais quâils puissent adapter leurs propositions, non pas Ă qui nous sommes, mais bien plus problĂ©matiquement, Ă qui ils pensent sâadresser, selon par exemple ce quâils Ă©valuent de notre capacitĂ© Ă payer. Un autre problĂšme consiste Ă savoir si cette âcomprĂ©hensionâ de lâinterlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme câest le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourdâhui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es quâils infĂšrent ?
Ce qui est fascinant, câest de constater que plus que dâhalluciner, lâIA nous fait halluciner (câest-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (câest-Ă -dire, nous hallucine nous-mĂȘmes).
Les chercheurs de Harvard ont cherchĂ© Ă identifier les Ă©volutions des suppositions des modĂšles selon lâorigine ethnique dans les modĂšles quâils ont Ă©tudiĂ©s, sans pour lâinstant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă commencer Ă traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. LâidĂ©e ici, serait dâorienter les rĂ©ponses dâun modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsquâil identifie quâil parle Ă un enfant. Pour Zittrain, lâenjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă lâĂ©gard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : âSi nous considĂ©rons quâil est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă protĂ©ger la confidentialitĂ© afin que chacun puisse sâexprimer sur des sujets sensibles et recevoir des informations et des conseils qui lâaident Ă mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles quâils sâengagent Ă ĂȘtre les amis inoffensifs, serviables et honnĂȘtes quâils sont si soigneusement conçus pour paraĂźtreâ.
Inoffensifs, serviables et honnĂȘtes, voilĂ qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire quâils nous reconnectent aux humains plutĂŽt quâils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et dâanticiper la dĂ©pendance potentielle des individus Ă leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă saisir Ă qui ils croient sâadresser plutĂŽt que de nous laisser seuls face Ă leur interface semble une piste riche en promesses.
Hubert Guillaud
Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types dâactivitĂ©s humaines et notamment la distribution de services publics Ă des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou lâassurance. Partout, les systĂšmes contrĂŽlent lâaccĂšs Ă nos droits et Ă nos possibilitĂ©s dâaction.
En 2020 dĂ©jĂ , la grande association europĂ©enne de dĂ©fense des droits numĂ©riques, Algorithm Watch, expliquait dans un rapport que ces systĂšmes se gĂ©nĂ©ralisaient dans la plus grande opacitĂ©. Alors que le calcul est partout, lâassociation soulignait que si ces dĂ©ploiements pouvaient ĂȘtre utiles, trĂšs peu de cas montraient de « maniĂšre convaincante un impact positif ». La plupart des systĂšmes de dĂ©cision automatisĂ©s mettent les gens en danger plus quâils ne les protĂšgent, disait dĂ©jĂ lâassociation.
Dans son inventaire des algorithmes publics, lâObservatoire des algorithmes publics montre, trĂšs concrĂštement, combien le dĂ©ploiement des systĂšmes de prise de dĂ©cision automatisĂ©e reste opaque, malgrĂ© les obligations de transparence qui incombent aux systĂšmes.
Avec son initiative France ContrĂŽle, la Quadrature du Net, accompagnĂ©e de collectifs de lutte contre la prĂ©caritĂ©, documente elle aussi le dĂ©ploiement des algorithmes de contrĂŽle social et leurs dĂ©faillances. DĂšs 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systĂšmes Ă©lectroniques mis en place pour calculer, distribuer et contrĂŽler lâaide sociale sont bien souvent particuliĂšrement dĂ©faillants, et notamment les systĂšmes automatisĂ©s censĂ©s lutter contre la fraude, devenus lâalpha et lâomĂ©ga des politiques publiques austĂ©ritaires.
MalgrĂ© la Loi pour une RĂ©publique numĂ©rique (2016), la transparence de ces calculs, seule Ă mĂȘme de dĂ©voiler et corriger leurs dĂ©faillances, ne progresse pas. On peut donc se demander, assez lĂ©gitimement, ce quâil y a cacher.
A mesure que ces systĂšmes se dĂ©ploient, ce sont donc les enquĂȘtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les dĂ©faillances des dĂ©cisions automatisĂ©es dans tous les secteurs de la sociĂ©tĂ© oĂč elles sont prĂ©sentes.
Ces enquĂȘtes sont rendues partout difficiles, dâabord et avant tout parce quâon ne peut saisir les paramĂštres des systĂšmes de dĂ©cision automatisĂ©e sans y accĂ©der.
Sâil est difficile de faire un constat global sur les dĂ©faillances spĂ©cifiques de tous les systĂšmes automatisĂ©s, quâils sâappliquent Ă la santĂ©, lâĂ©ducation, le social ou lâĂ©conomie, on peut nĂ©anmoins noter 3 problĂšmes rĂ©currents.
Les erreurs ne sont pas un problĂšme pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systĂšmes de dĂ©cision automatisĂ©e produisent des faux positifs importants, câest-Ă -dire catĂ©gorisent des personnes indĂ»ment. Dans les systĂšmes bancaires par exemple, comme lâa montrĂ© une belle enquĂȘte de lâAFP et dâAlgorithm Watch, certaines activitĂ©s dĂ©clenchent des alertes et conduisent Ă qualifier les profils des clients comme problĂ©matiques voire Ă suspendre les possibilitĂ©s bancaires dâindividus ou dâorganisations, sans quâelles nâaient Ă rendre de compte sur ces suspensions.
Au contraire, parce quâelles sont invitĂ©es Ă la vigilance face aux activitĂ©s de fraude, de blanchiment dâargent ou le financement du terrorisme, elles sont encouragĂ©es Ă produire des faux positifs pour montrer quâelles agissent, tout comme les organismes sociaux sont poussĂ©s Ă dĂ©tecter de la fraude pour atteindre leurs objectifs de contrĂŽle.
Selon les donnĂ©es de lâautoritĂ© qui contrĂŽle les banques et les marchĂ©s financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermĂ© en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont Ă©tĂ© condamnĂ©es pour ce dĂ©lit.
Le problĂšme, câest que les organismes de calculs nâont pas dâintĂ©rĂȘt Ă corriger ces faux positifs pour les attĂ©nuer. Alors que, si ces erreurs ne sont pas un problĂšme pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clĂŽturĂ©s, sans raison et avec peu de possibilitĂ©s de recours. Il est nĂ©cessaire pourtant que les taux de risques dĂ©tectĂ©s restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de rĂ©duction des risques ne soient pas portĂ©s par les individus.
Le mĂȘme phĂ©nomĂšne est Ă lâĆuvre quand la CAF reconnaĂźt que son algorithme de contrĂŽle de fraude produit bien plus de contrĂŽle sur certaines catĂ©gories sociales de la population, comme le montrait lâenquĂȘte du Monde et de Lighthouse reports et les travaux de lâassociation Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, nâa pas dâincidence directe, au contraireâŠ
Pour les organismes publics le taux de dĂ©tection automatisĂ©e est un objectif Ă atteindre explique le syndicat Solidaires Finances Publiques dans son enquĂȘte sur LâIA aux impĂŽts, quâimporte si cet objectif est dĂ©faillant pour les personnes ciblĂ©es. DâoĂč lâimportance de mettre en place un ratio dâimpact sur les diffĂ©rents groupes dĂ©mographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit ĂȘtre amĂ©liorĂ©e.
Pour cela, il est nĂ©cessaire de mieux contrĂŽler le taux de dĂ©tection des outils et de trouver les modalitĂ©s pour que ces taux ne soient pas disproportionnĂ©s. Sans cela, on le comprend, la maltraitance institutionnelle que dĂ©nonce ATD Quart Monde est en roue libre dans les systĂšmes, quels quâils soient.
Dans les difficultĂ©s, les recours sont rendus plus compliquĂ©s. Quand ces systĂšmes mĂ©-calculent les gens, quand ils signalent leurs profils comme problĂ©matiques ou quand les dossiers sont mis en traitement, les possibilitĂ©s de recours sont bien souvent automatiquement rĂ©duites. Le fait dâĂȘtre soupçonnĂ© de problĂšme bancaire diminue vos possibilitĂ©s de recours plutĂŽt quâelle ne les augmente.
A la CAF, quand lâaccusation de fraude est dĂ©clenchĂ©e, la procĂ©dure de recours pour les bĂ©nĂ©ficiaires devient plus complexe. Dans la plateforme dĂ©matĂ©rialisĂ©e pour les demandes de titres de sĂ©jour dont le DĂ©fenseur des droits pointait les lacunes dans un rĂ©cent rapport, les usagers ne peuvent pas signaler un changement de lieu de rĂ©sidence quand une demande est en cours.
Or, câest justement quand les usagers sont confrontĂ©s Ă des difficultĂ©s, que la discussion devrait ĂȘtre rendue plus fluide, plus accessible. En rĂ©alitĂ©, câest bien souvent lâinverse que lâon constate. Outre les explications lacunaires des services, les possibilitĂ©s de recours sont rĂ©duites quand elles devraient ĂȘtre augmentĂ©es. Lâalerte rĂ©duit les droits alors quâelle devrait plutĂŽt les ouvrir.
Enfin, lâinterconnexion des systĂšmes crĂ©e des boucles de dĂ©faillances dont les effets sâamplifient trĂšs rapidement. Les boucles dâempĂȘchements se multiplient sans issue. Les alertes et les faux positifs se rĂ©pandent. Lâautomatisation des droits conduit Ă des Ă©victions en cascade dans des systĂšmes oĂč les organismes se renvoient les responsabilitĂ©s sans ĂȘtre toujours capables dâagir sur les systĂšmes de calcul. Ces difficultĂ©s nĂ©cessitent de mieux faire valoir les droits dâopposition des calculĂ©s. La prise en compte dâinnombrables donnĂ©es pour produire des calculs toujours plus granulaires, pour attĂ©nuer les risques, produit surtout des faux positifs et une complexitĂ© de plus en plus problĂ©matique pour les usagers.
Nous avons besoin de diminuer les donnĂ©es utilisĂ©es pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexitĂ©, au prĂ©texte de mieux calculer le social, bien souvent, nâamĂ©liore pas les calculs, mais renforce leur opacitĂ© et les rend moins contestables. Les calculs du social doivent nâutiliser que peu de donnĂ©es, doivent rester comprĂ©hensibles, transparents, vĂ©rifiables et surtout opposables⊠Collecter peu de donnĂ©es cause moins de problĂšmes de vie privĂ©e, moins de problĂšmes lĂ©gaux comme Ă©thiques⊠et moins de discriminations.
Renforcer le contrĂŽle des systĂšmes, notamment mesurer leur ratio dâimpact et les taux de faux positifs. AmĂ©liorer les droits de recours des usagers, notamment quand ces systĂšmes les ciblent et les dĂ©signent. Et surtout, amĂ©liorer la participation des publics aux calculs, comme nous y invitent le rĂ©cent rapport du DĂ©fenseur des droits sur la dĂ©matĂ©rialisation et les algorithmes publics.
A mesure quâils se rĂ©pandent, Ă mesure quâils accĂšdent Ă de plus en plus de donnĂ©es, les risques de dĂ©faillances des calculs sâaccumulent. DerriĂšre ces dĂ©faillances, câest la question mĂȘme de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque annĂ©e des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnĂ©es.
On ne peut pas accepter que la CAF dĂ©termine quâil y aurait des centaines de milliers de fraudeurs, quand dans les faits, trĂšs peu sont condamnĂ©s pour fraude. La justice nĂ©cessite que les calculs du social soient raccords avec la rĂ©alitĂ©. Nous nây sommes pas.
Hubert Guillaud
Cet Ă©dito a Ă©tĂ© publiĂ© originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 Ă lâoccasion de la publication du livre, Les algorithmes contre la sociĂ©tĂ© aux Ă©ditions La Fabrique.
Les systĂšmes de prise de dĂ©cision automatisĂ©e (ADM, pour automated decision-making) sont partout. Ils touchent tous les types dâactivitĂ©s humaines et notamment la distribution de services publics Ă des millions de citoyens europĂ©ens mais Ă©galement nombre de services privĂ©s essentiels, comme la banque, la fixation des prix ou lâassurance. Partout, les systĂšmes contrĂŽlent lâaccĂšs Ă nos droits et Ă nos possibilitĂ©s dâaction.
En 2020 dĂ©jĂ , la grande association europĂ©enne de dĂ©fense des droits numĂ©riques, Algorithm Watch, expliquait dans un rapport que ces systĂšmes se gĂ©nĂ©ralisaient dans la plus grande opacitĂ©. Alors que le calcul est partout, lâassociation soulignait que si ces dĂ©ploiements pouvaient ĂȘtre utiles, trĂšs peu de cas montraient de « maniĂšre convaincante un impact positif ». La plupart des systĂšmes de dĂ©cision automatisĂ©s mettent les gens en danger plus quâils ne les protĂšgent, disait dĂ©jĂ lâassociation.
Dans son inventaire des algorithmes publics, lâObservatoire des algorithmes publics montre, trĂšs concrĂštement, combien le dĂ©ploiement des systĂšmes de prise de dĂ©cision automatisĂ©e reste opaque, malgrĂ© les obligations de transparence qui incombent aux systĂšmes.
Avec son initiative France ContrĂŽle, la Quadrature du Net, accompagnĂ©e de collectifs de lutte contre la prĂ©caritĂ©, documente elle aussi le dĂ©ploiement des algorithmes de contrĂŽle social et leurs dĂ©faillances. DĂšs 2018, les travaux pionniers de la politiste Virginia Eubanks, nous ont appris que les systĂšmes Ă©lectroniques mis en place pour calculer, distribuer et contrĂŽler lâaide sociale sont bien souvent particuliĂšrement dĂ©faillants, et notamment les systĂšmes automatisĂ©s censĂ©s lutter contre la fraude, devenus lâalpha et lâomĂ©ga des politiques publiques austĂ©ritaires.
MalgrĂ© la Loi pour une RĂ©publique numĂ©rique (2016), la transparence de ces calculs, seule Ă mĂȘme de dĂ©voiler et corriger leurs dĂ©faillances, ne progresse pas. On peut donc se demander, assez lĂ©gitimement, ce quâil y a cacher.
A mesure que ces systĂšmes se dĂ©ploient, ce sont donc les enquĂȘtes des syndicats, des militants, des chercheurs, des journalistes qui documentent les dĂ©faillances des dĂ©cisions automatisĂ©es dans tous les secteurs de la sociĂ©tĂ© oĂč elles sont prĂ©sentes.
Ces enquĂȘtes sont rendues partout difficiles, dâabord et avant tout parce quâon ne peut saisir les paramĂštres des systĂšmes de dĂ©cision automatisĂ©e sans y accĂ©der.
Sâil est difficile de faire un constat global sur les dĂ©faillances spĂ©cifiques de tous les systĂšmes automatisĂ©s, quâils sâappliquent Ă la santĂ©, lâĂ©ducation, le social ou lâĂ©conomie, on peut nĂ©anmoins noter 3 problĂšmes rĂ©currents.
Les erreurs ne sont pas un problĂšme pour les structures qui calculent. Pour le dire techniquement, la plupart des acteurs qui produisent des systĂšmes de dĂ©cision automatisĂ©e produisent des faux positifs importants, câest-Ă -dire catĂ©gorisent des personnes indĂ»ment. Dans les systĂšmes bancaires par exemple, comme lâa montrĂ© une belle enquĂȘte de lâAFP et dâAlgorithm Watch, certaines activitĂ©s dĂ©clenchent des alertes et conduisent Ă qualifier les profils des clients comme problĂ©matiques voire Ă suspendre les possibilitĂ©s bancaires dâindividus ou dâorganisations, sans quâelles nâaient Ă rendre de compte sur ces suspensions.
Au contraire, parce quâelles sont invitĂ©es Ă la vigilance face aux activitĂ©s de fraude, de blanchiment dâargent ou le financement du terrorisme, elles sont encouragĂ©es Ă produire des faux positifs pour montrer quâelles agissent, tout comme les organismes sociaux sont poussĂ©s Ă dĂ©tecter de la fraude pour atteindre leurs objectifs de contrĂŽle.
Selon les donnĂ©es de lâautoritĂ© qui contrĂŽle les banques et les marchĂ©s financiers au Royaume-Uni, 170 000 personnes ont vu leur compte en banque fermĂ© en 2021-2022 en lien avec la lutte anti-blanchiment, alors que seulement 1083 personnes ont Ă©tĂ© condamnĂ©es pour ce dĂ©lit.
Le problĂšme, câest que les organismes de calculs nâont pas dâintĂ©rĂȘt Ă corriger ces faux positifs pour les attĂ©nuer. Alors que, si ces erreurs ne sont pas un problĂšme pour les structures qui les produisent, elles le sont pour les individus qui voient leurs comptes clĂŽturĂ©s, sans raison et avec peu de possibilitĂ©s de recours. Il est nĂ©cessaire pourtant que les taux de risques dĂ©tectĂ©s restent proportionnels aux taux effectifs de condamnation, afin que les niveaux de rĂ©duction des risques ne soient pas portĂ©s par les individus.
Le mĂȘme phĂ©nomĂšne est Ă lâĆuvre quand la CAF reconnaĂźt que son algorithme de contrĂŽle de fraude produit bien plus de contrĂŽle sur certaines catĂ©gories sociales de la population, comme le montrait lâenquĂȘte du Monde et de Lighthouse reports et les travaux de lâassociation Changer de Cap. Mais, pour les banques, comme pour la CAF, ce surciblage, ce surdiagnostic, nâa pas dâincidence directe, au contraireâŠ
Pour les organismes publics le taux de dĂ©tection automatisĂ©e est un objectif Ă atteindre explique le syndicat Solidaires Finances Publiques dans son enquĂȘte sur LâIA aux impĂŽts, quâimporte si cet objectif est dĂ©faillant pour les personnes ciblĂ©es. DâoĂč lâimportance de mettre en place un ratio dâimpact sur les diffĂ©rents groupes dĂ©mographiques et des taux de faux positifs pour limiter leur explosion. La justesse des calculs doit ĂȘtre amĂ©liorĂ©e.
Pour cela, il est nĂ©cessaire de mieux contrĂŽler le taux de dĂ©tection des outils et de trouver les modalitĂ©s pour que ces taux ne soient pas disproportionnĂ©s. Sans cela, on le comprend, la maltraitance institutionnelle que dĂ©nonce ATD Quart Monde est en roue libre dans les systĂšmes, quels quâils soient.
Dans les difficultĂ©s, les recours sont rendus plus compliquĂ©s. Quand ces systĂšmes mĂ©-calculent les gens, quand ils signalent leurs profils comme problĂ©matiques ou quand les dossiers sont mis en traitement, les possibilitĂ©s de recours sont bien souvent automatiquement rĂ©duites. Le fait dâĂȘtre soupçonnĂ© de problĂšme bancaire diminue vos possibilitĂ©s de recours plutĂŽt quâelle ne les augmente.
A la CAF, quand lâaccusation de fraude est dĂ©clenchĂ©e, la procĂ©dure de recours pour les bĂ©nĂ©ficiaires devient plus complexe. Dans la plateforme dĂ©matĂ©rialisĂ©e pour les demandes de titres de sĂ©jour dont le DĂ©fenseur des droits pointait les lacunes dans un rĂ©cent rapport, les usagers ne peuvent pas signaler un changement de lieu de rĂ©sidence quand une demande est en cours.
Or, câest justement quand les usagers sont confrontĂ©s Ă des difficultĂ©s, que la discussion devrait ĂȘtre rendue plus fluide, plus accessible. En rĂ©alitĂ©, câest bien souvent lâinverse que lâon constate. Outre les explications lacunaires des services, les possibilitĂ©s de recours sont rĂ©duites quand elles devraient ĂȘtre augmentĂ©es. Lâalerte rĂ©duit les droits alors quâelle devrait plutĂŽt les ouvrir.
Enfin, lâinterconnexion des systĂšmes crĂ©e des boucles de dĂ©faillances dont les effets sâamplifient trĂšs rapidement. Les boucles dâempĂȘchements se multiplient sans issue. Les alertes et les faux positifs se rĂ©pandent. Lâautomatisation des droits conduit Ă des Ă©victions en cascade dans des systĂšmes oĂč les organismes se renvoient les responsabilitĂ©s sans ĂȘtre toujours capables dâagir sur les systĂšmes de calcul. Ces difficultĂ©s nĂ©cessitent de mieux faire valoir les droits dâopposition des calculĂ©s. La prise en compte dâinnombrables donnĂ©es pour produire des calculs toujours plus granulaires, pour attĂ©nuer les risques, produit surtout des faux positifs et une complexitĂ© de plus en plus problĂ©matique pour les usagers.
Nous avons besoin de diminuer les donnĂ©es utilisĂ©es pour les calculs du social, explique le chercheur Arvind Narayanan, notamment parce que cette complexitĂ©, au prĂ©texte de mieux calculer le social, bien souvent, nâamĂ©liore pas les calculs, mais renforce leur opacitĂ© et les rend moins contestables. Les calculs du social doivent nâutiliser que peu de donnĂ©es, doivent rester comprĂ©hensibles, transparents, vĂ©rifiables et surtout opposables⊠Collecter peu de donnĂ©es cause moins de problĂšmes de vie privĂ©e, moins de problĂšmes lĂ©gaux comme Ă©thiques⊠et moins de discriminations.
Renforcer le contrĂŽle des systĂšmes, notamment mesurer leur ratio dâimpact et les taux de faux positifs. AmĂ©liorer les droits de recours des usagers, notamment quand ces systĂšmes les ciblent et les dĂ©signent. Et surtout, amĂ©liorer la participation des publics aux calculs, comme nous y invitent le rĂ©cent rapport du DĂ©fenseur des droits sur la dĂ©matĂ©rialisation et les algorithmes publics.
A mesure quâils se rĂ©pandent, Ă mesure quâils accĂšdent Ă de plus en plus de donnĂ©es, les risques de dĂ©faillances des calculs sâaccumulent. DerriĂšre ces dĂ©faillances, câest la question mĂȘme de la justice qui est en cause. On ne peut pas accepter que les banques ferment chaque annĂ©e des centaines de milliers de comptes bancaires, quand seulement un millier de personnes sont condamnĂ©es.
On ne peut pas accepter que la CAF dĂ©termine quâil y aurait des centaines de milliers de fraudeurs, quand dans les faits, trĂšs peu sont condamnĂ©s pour fraude. La justice nĂ©cessite que les calculs du social soient raccords avec la rĂ©alitĂ©. Nous nây sommes pas.
Hubert Guillaud
Cet Ă©dito a Ă©tĂ© publiĂ© originellement sous forme de tribune pour le Club de Mediapart, le 4 avril 2025 Ă lâoccasion de la publication du livre, Les algorithmes contre la sociĂ©tĂ© aux Ă©ditions La Fabrique.