❌

Vue lecture

Sludge : de la dégradation volontaire du service client

Dans The Atlantic, Chris Colin raconte le moment oĂč il a eu un problĂšme avec l’électronique de sa Ford. La direction se bloque, plus possible de ne rien faire. Son garagiste reboot le systĂšme sans chercher plus loin. Inquiet que le problĂšme puisse se reproduire, Colin fait plusieurs garagistes, contacte Ford. On promet de le rappeler. Rien. A force de volontĂ©, il finit par avoir un responsable qui lui explique qu’à moins que « le dysfonctionnement du vĂ©hicule puisse ĂȘtre reproduit et ainsi identifiĂ©, la garantie ne s’applique pas ». Colin multiplie les appels, au constructeur, Ă  son assureur
 Tout le monde lui dit de reprendre le volant. Lui persĂ©vĂšre. Mais ses appels et mails sont renvoyĂ©s jusqu’à ne jamais aboutir. Il n’est pas le seul Ă  qui ce genre de dĂ©mĂȘlĂ©s arrive. Une connaissance lui raconte le mĂȘme phĂ©nomĂšne avec une compagnie aĂ©rienne contre laquelle elle se dĂ©bat pour tenter de se faire rembourser un voyage annulĂ© lors du Covid. D’autres racontent des histoires kafkaĂŻennes avec Verizon, Sonos, Airbnb, le Fisc amĂ©ricain
 « Pris sĂ©parĂ©ment, ces tracas Ă©taient des anecdotes amusantes. Ensemble, elles suggĂšrent autre chose »

Quelque soit le service, partout, le service client semble ĂȘtre passĂ© aux abonnĂ©es absents. Le temps oĂč les services clients remboursaient ou Ă©changaient un produit sans demander le moindre justificatif semble lointain. En 2023, l’enquĂȘte nationale sur la colĂšre des consommateurs amĂ©ricains avait tous ses chiffres au rouge. 74% des clients interrogĂ©s dans ce sondage ont dĂ©clarĂ© avoir rencontrĂ© un problĂšme avec un produit ou un service au cours de l’annĂ©e Ă©coulĂ©e, soit plus du double par rapport Ă  1976. Face Ă  ces difficultĂ©s, les clients sont de plus en plus agressifs et en colĂšre. L’incivilitĂ© des clients est certainement la rĂ©ponse Ă  des services de rĂ©clamation en mode dĂ©gradĂ©s quand ils ne sont pas aux abonnĂ©s absents.  

Dégradation du service client : le numérique est-il responsable ?

Dans leur best-seller Nudge, paru en 2008, le juriste Cass Sunstein et l’économiste Richard Thaler ont mobilisĂ© des recherches en sciences du comportement pour montrer comment de petits ajustements pouvaient nous aider Ă  faire de meilleurs choix, dĂ©finissant de nouvelles formes d’intervention pour accompagner des politiques pro-sociales (voir l’article que nous consacrions au sujet, il y a 15 ans). Dans leur livre, ils Ă©voquaient Ă©galement l’envers du nudge, le sludge : des modalitĂ©s de conception qui empĂȘchent et entravent les actions et les dĂ©cisions. Le sludge englobe une gamme de frictions telles que des formulaires complexes, des frais cachĂ©s et des valeurs par dĂ©faut manipulatrices qui augmentent l’effort, le temps ou le coĂ»t requis pour faire un choix, profitant souvent au concepteur au dĂ©triment de l’intĂ©rĂȘt de l’utilisateur. Cass Sunstein a d’ailleurs fini par Ă©crire un livre sur le sujet en 2021 : Sludge. Il y Ă©voque des exigences administratives tortueuses, des temps d’attente interminables, des complications procĂ©durales excessives, voire des impossibilitĂ©s Ă  faire rĂ©clamation qui nous entravent, qui nous empĂȘchent
 Des modalitĂ©s qui ne sont pas sans faire Ă©cho Ă  l’emmerdification que le numĂ©rique produit, que dĂ©nonce Cory Doctorow. Ou encore Ă  l’ñge du cynisme qu’évoquaient Tim O’Reilly, Illan Strauss et Mariana Mazzucato en expliquant que les plateformes se focalisent dĂ©sormais sur le service aux annonceurs plus que sur la qualitĂ© de l’expĂ©rience utilisateur
 Cette boucle de prĂ©dation qu’est devenu le marketing numĂ©rique.  

La couverture de Sludge.

L’une des grandes questions que posent ces empĂȘchements consiste d’ailleurs Ă  savoir si le numĂ©rique les accĂ©lĂšre, les facilite, les renforce. 

Le sludge a suscitĂ© des travaux, rappelle Chris Colin. Certains ont montrĂ© qu’il conduit des gens Ă  renoncer Ă  des prestations essentielles. « Les gens finissent par payer ce contre quoi ils n’arrivent pas Ă  se battre, faute d’espace pour contester ou faire entendre leur problĂšme ». En l’absence de possibilitĂ© de discussion ou de contestation, vous n’avez pas d’autre choix que de vous conformer Ă  ce qui vous est demandĂ©. Dans l’application que vous utilisez pour rendre votre voiture de location par exemple, vous ne pouvez pas contester les frais que le scanneur d’inspection automatisĂ© du vĂ©hicule vous impute automatiquement. Vous n’avez pas d’autre choix que de payer. Dans d’innombrables autres, vous n’avez aucune modalitĂ© de contact. C’est le fameux no-reply, cette communication sans relation que dĂ©nonçait Thierry Libaert pour la fondation Jean JaurĂšs – qui n’est d’ailleurs pas propre aux services publics. En 2023, Propublica avait montrĂ© comment l’assureur amĂ©ricain Cigna avait Ă©conomisĂ© des millions de dollars en rejetant des demandes de remboursement sans mĂȘme les faire examiner par des mĂ©decins, en pariant sur le fait que peu de clients feraient appels. MĂȘme chose chez l’assureur santĂ© amĂ©ricain NaviHealth qui excluait les clients dont les soins coĂ»taient trop cher, en tablant sur le fait que beaucoup ne feraient pas appels de la dĂ©cision, intimidĂ©s par la demande – alors que l’entreprise savait que 90 % des refus de prise en charge sont annulĂ©s en appel. Les refus d’indemnisation, justifiĂ©s ou non, alimentent la colĂšre que provoquent dĂ©jĂ  les refus de communication. La branche financement de Toyota aux Etats-Unis a Ă©tĂ© condamnĂ©e pour avoir bloquĂ© des remboursements et mis en place, dĂ©libĂ©rĂ©ment, une ligne d’assistance tĂ©lĂ©phonique « sans issue » pour l’annulation de produits et services. Autant de pratiques difficiles Ă  prouver pour les usagers, qui se retrouvent souvent trĂšs isolĂ©s quand leurs rĂ©clamations n’aboutissent pas. Mais qui disent que la pratique du refus voire du silence est devenue est devenue une technique pour gĂ©nĂ©rer du profit. 

Réduire le coût des services clients

En fait, expliquaient dĂ©jĂ  en 2019 les chercheurs Anthony Dukes et Yi Zhu dans la Harvard Business Review : si les services clients sont si mauvais, c’est parce qu’en l’étant, ils sont profitables ! C’est notamment le cas quand les entreprises dĂ©tiennent une part de marchĂ© importante et que leurs clients n’ont pas de recours. Les entreprises les plus dĂ©testĂ©es sont souvent rentables (et, si l’on en croit un classement amĂ©ricain de 2023, beaucoup d’entre elles sont des entreprises du numĂ©rique, et plus seulement des cĂąblo-opĂ©rateurs, des opĂ©rateurs tĂ©lĂ©com, des banques ou des compagnies aĂ©riennes). Or, expliquent les chercheurs, « certaines entreprises trouvent rentable de crĂ©er des difficultĂ©s aux clients qui se plaignent ». En multipliant les obstacles, les entreprises peuvent ainsi limiter les plaintes et les indemnisations. Les deux chercheurs ont montrĂ© que cela est beaucoup liĂ© Ă  la maniĂšre dont sont organisĂ©s les centres d’appels que les clients doivent contacter, notamment le fait que les agents qui prennent les appels aient des possibilitĂ©s de rĂ©paration limitĂ©es (ils ne peuvent pas rembourser un produit par exemple). Les clients insistants sont renvoyĂ©s Ă  d’autres dĂ©marches, souvent complexes. Pour StĂ©phanie Thum, une autre mĂ©thode consiste Ă  dissimuler les possibilitĂ©s de recours ou les noyer sous des dĂ©marches complexes et un jargon juridique. Dukes et Zhu constatent pourtant que limiter les coĂ»ts de rĂ©clamation explique bien souvent le fait que les entreprises aient recours Ă  des centres d’appels externalisĂ©s. C’est la piste qu’explore d’ailleurs Chris Colin, qui rappelle que l’invention du distributeur automatique d’appels, au milieu du XXe siĂšcle a permis d’industrialiser le service client. Puis, ces coĂ»teux services ont Ă©tĂ© peu Ă  peu externalisĂ©s et dĂ©localisĂ©s pour en rĂ©duire les coĂ»ts. Or, le principe d’un centre d’appel n’est pas tant de servir les clients que de « les Ă©craser », afin que les conseillers au tĂ©lĂ©phone passent le moins de temps possible avec chacun d’eux pour rĂ©pondre au plus de clients possibles

C’est ce que raconte le livre auto-Ă©ditĂ© d’Amas Tenumah, Waiting for Service: An Insider’s Account of Why Customer Service Is Broken + Tips to Avoid Bad Service (En attente de service : tĂ©moignage d’un initiĂ© sur les raisons pour lesquelles le service client est dĂ©faillant + conseils pour Ă©viter un mauvais service, 2021). Amas Tenumah (blog, podcast), qui se prĂ©sente comme « Ă©vangĂ©liste du service client », explique qu’aucune entreprise ne dit qu’elle souhaite offrir un mauvais service client. Mais toutes ont des budgets dĂ©diĂ©s pour traiter les rĂ©clamations et ces budgets ont plus tendance Ă  se rĂ©duire qu’à augmenter, ce qui a des consĂ©quences directes sur les remboursements, les remises et les traitements des plaintes des clients. Ces objectifs de rĂ©ductions des remboursements sont directement transmis et traduits opĂ©rationnellement auprĂšs des agents des centres d’appels sous forme d’objectifs et de propositions commerciales. Les call centers sont d’abord perçus comme des centres de coĂ»ts pour ceux qui les opĂšrent, et c’est encore plus vrai quand ils sont externalisĂ©s. 

Le service client vise plus à nous apaiser qu’à nous satisfaire

Longtemps, la mesure de la satisfaction des clients Ă©tait une mesure sacrĂ©e, Ă  l’image du Net Promoter Score imaginĂ© au dĂ©but 2000 par un consultant amĂ©ricain qui va permettre de gĂ©nĂ©raliser les systĂšmes de mesure de satisfaction (qui, malgrĂ© son manque de scientificitĂ© et ses innombrables lacunes, est devenu un indicateur clĂ© de performance, totalement dĂ©vitalisĂ©). « Les PDG ont longtemps considĂ©rĂ© la fidĂ©litĂ© des clients comme essentielle Ă  la rĂ©ussite d’une entreprise », rappelle Colin. Mais, si tout le monde continue de valoriser le service client, la croissance du chiffre d’affaires a partout dĂ©trĂŽnĂ© la satisfaction. Les usagers eux-mĂȘmes ont lĂąchĂ© l’affaire. « Nous sommes devenus collectivement plus rĂ©ticents Ă  punir les entreprises avec lesquelles nous faisons affaire », dĂ©clare Amas Tenumah : les clients les plus insatisfaits reviennent Ă  peine moins souvent que les clients les plus satisfaits. Il suffit d’un coupon de rĂ©duction de 20% pour faire revenir les clients. Les clients sont devenus paresseux, Ă  moins qu’ils n’aient plus vraiment le choix face au dĂ©ploiement de monopoles effectifs. Les entreprises ont finalement compris qu’elles Ă©taient libres de nous traiter comme elles le souhaitent, conclut Colin. « Nous sommes entrĂ©s dans une relation abusive ». Dans son livre, Tenumah rappelle que les services clients visent bien plus « Ă  vous apaiser qu’à vous satisfaire »  puisqu’ils s’adressent aux clients qui ont dĂ©jĂ  payĂ© ! Il est souvent le premier dĂ©partement oĂč une entreprise va chercher Ă  rĂ©duire les coĂ»ts

Dans nombre de secteurs, la fidĂ©litĂ© est d’ailleurs assez mal rĂ©compensĂ©e : les opĂ©rateurs rĂ©servent leurs meilleurs prix et avantages aux nouveaux clients et ne proposent aux plus fidĂšles que de payer plus pour de nouvelles offres. Une opĂ©ratrice de centre d’appel, rappelle que les mots y sont importants, et que les opĂ©rateurs sont formĂ©s pour Ă©luder les rĂ©clamations, les minorer, proposer la remise la moins disante
 Une autre que le fait de tomber chaque fois sur une nouvelle opĂ©ratrice qui oblige Ă  tout rĂ©expliquer et un moyen pour pousser les gens Ă  l’abandon. 

La complexité administrative : un excellent outil pour invisibiliser des objectifs impopulaires

La couverture du livre Administrative Burden.

Dans son livre, Sunstein explique que le Sludge donne aux gens le sentiment qu’ils ne comptent pas, que leur vie ne compte pas. Pour la sociologue Pamela Herd et le politologue Donald Moynihan, coauteurs de Administrative Burden: Policymaking by Other Means (Russel Sage Foundation, 2019), le fardeau administratif comme la paperasserie complexe, les procĂ©dures confuses entravent activement l’accĂšs aux services gouvernementaux. PlutĂŽt que de simples inefficacitĂ©s, affirment les auteurs, nombre de ces obstacles sont des outils politiques dĂ©libĂ©rĂ©s qui dĂ©couragent la participation Ă  des programmes comme Medicaid, empĂȘchent les gens de voter et limitent l’accĂšs Ă  l’aide sociale. Et bien sĂ»r, cette dĂ©sorganisation volontaire touche de maniĂšre disproportionnĂ©e les gens les plus marginalisĂ©s. « L’un des effets les plus insidieux du sludge est qu’il Ă©rode une confiance toujours plus faible dans les institutions », explique la sociologue. « Une fois ce scepticisme installĂ©, il n’est pas difficile pour quelqu’un comme Elon Musk de sabrer le gouvernement sous couvert d’efficacitĂ© »  alors que les coupes drastiques vont surtout compliquer la vie de ceux qui ont besoin d’aide. Mais surtout, comme l’expliquaient les deux auteurs dans une rĂ©cente tribune pour le New York Times, les rĂ©formes d’accĂšs, dĂ©sormais, ne sont plus lisibles, volontairement. Les coupes que les RĂ©publicains envisagent pour l’attribution de Medicaid ne sont pas transparentes, elles ne portent plus sur des modifications d’éligibilitĂ© ou des rĂ©ductions claires, que les Ă©lecteurs comprennent facilement. Les coupes sont dĂ©sormais opaques et reposent sur une complexitĂ© administrative renouvelĂ©e. Alors que les DĂ©mocrates avaient ƓuvrĂ© contre les lourdeurs administratives, les RĂ©publicains estiment qu’elles constituent un excellent outil politique pour atteindre des objectifs politiques impopulaires. 

Augmenter le fardeau administratif devient une politique, comme de pousser les gens Ă  renouveler leur demande 2 fois par an plutĂŽt qu’une fois par an. L’enjeu consiste aussi Ă  dĂ©velopper des barriĂšres, comme des charges ou un ticket modĂ©rateur, mĂȘme modique, qui permet d’éloigner ceux qui ont le plus besoin de soins et ne peuvent les payer. Les RĂ©publicains du CongrĂšs souhaitent inciter les États Ă  alourdir encore davantage les formalitĂ©s administratives. Ils prĂ©voient d’alourdir ainsi les sanctions pour les États qui commettent des erreurs d’inscription, ce qui va les encourager Ă  exiger des justificatifs excessifs – alors que lĂ  bas aussi, l’essentiel de la fraude est le fait des assureurs privĂ©s et des prestataires de soins plutĂŽt que des personnes Ă©ligibles aux soins. Les RĂ©publicains affirment que ces contraintes servent des objectifs politiques vertueux, comme la rĂ©duction de la fraude et de la dĂ©pendance Ă  l’aide sociale. Mais en vĂ©ritĂ©, « la volontĂ© de rendre l’assurance maladie publique moins accessible n’est pas motivĂ©e par des prĂ©occupations concernant l’intĂ©rĂȘt gĂ©nĂ©ral. Au contraire, les plus vulnĂ©rables verront leur situation empirer, tout cela pour financer une baisse d’impĂŽts qui profite principalement aux riches ». 

Dans un article pour The Atlantic de 2021, Annie Lowrey Ă©voquait le concept de Kludgeocracrie du politologue Steven Teles, pour parler de la façon dont Ă©taient bricolĂ©s les programmes de prestations en faisant reposer sur les usagers les lourdeurs administratives. Le but, bien souvent, est que les prestations sociales ne soient pas faciles Ă  comprendre et Ă  recevoir. « Le gouvernement rationne les services publics par des frictions bureaucratiques dĂ©routantes et injustes. Et lorsque les gens ne reçoivent pas l’aide qui leur est destinĂ©e, eh bien, c’est leur faute ». « C’est un filtre rĂ©gressif qui sape toutes les politiques progressistes que nous avons ». Ces politiques produisent leurs propres Ă©conomies. Si elles alourdissent le travail des administrations chargĂ©es de contrĂŽler les prestations, elles diminuent mĂ©caniquement le volume des prestations fournies. 

Le mille-feuille de l’organisation des services publics n’explique pas Ă  lui seul la raison de ces complexitĂ©s. Dans un livre dĂ©diĂ© au sujet (The Submerged State: How Invisible Government Policies Undermine American Democracy, University of Chicago Press, 2011), la politologue Suzanne Mettler soulignait d’ailleurs, que les programmes destinĂ©s aux plus riches et aux entreprises sont gĂ©nĂ©ralement plus faciles Ă  obtenir, automatiques et garantis. « Il n’est pas nĂ©cessaire de se prosterner devant un conseiller social pour bĂ©nĂ©ficier des avantages d’un plan d’épargne-Ă©tudes. Il n’est pas nĂ©cessaire d’uriner dans un gobelet pour obtenir une dĂ©duction fiscale pour votre maison, votre bateau ou votre avion ». « Tant et si bien que de nombreuses personnes Ă  revenus Ă©levĂ©s, contrairement aux personnes pauvres, ne se rendent mĂȘme pas compte qu’elles bĂ©nĂ©ficient de programmes gouvernementaux ». Les 200 milliards d’aides publiques aux entreprises en France, distribuĂ©s sans grand contrĂŽle, contrastent d’une maniĂšre saisissante avec la chasse Ă  la fraude des plus pauvres, bardĂ©s de contrĂŽles. Selon que vous ĂȘtes riches ou pauvres, les lourdeurs administratives ne sont pas distribuĂ©es Ă©quitablement. Mais toutes visent d’abord Ă  rendre l’État dysfonctionnel. 

L’article d’Annie Lowrey continue en soulignant bien sĂ»r qu’une meilleure conception et que la simplification sont Ă  portĂ©e de main et que certaines agences amĂ©ricaines s’y sont attelĂ© et que cela a portĂ© ses fruits. Mais, le problĂšme n’est plus celui-lĂ  me semble-t-il. VoilĂ  longtemps que les effets de la simplification sont dĂ©montrĂ©s, cela n’empĂȘche pas, bien souvent, ni des reculs, ni une fausse simplification. Le contrĂŽle reste encore largement la norme, mĂȘme si partout on constate qu’il produit peu d’effets (comme le montraient les sociologues Claire VivĂšs, Luc Sigalo Santos, Jean-Marie Pillon, Vincent Dubois et Hadrien Clouet, dans leur livre sur le contrĂŽle du chĂŽmage, ChĂŽmeurs, vos papiers ! – voir notre recension). Il est toujours plus fort sur les plus dĂ©munis que sur les plus riches et la tendance ne s’inverse pas, malgrĂ© les dĂ©monstrations. 

Et le dĂ©ferlement de l’IA pour le marketing risque de continuer Ă  dĂ©grader les choses. Pour Tenumah, l’arrivĂ©e de services clients gĂ©rĂ©s par l’IA vont leur permettre peut-ĂȘtre de coĂ»ter moins cher aux entreprises, mais ils ne vont rĂ©pondre Ă  aucune attente

La rĂ©sistance au Sludge s’organise bien sĂ»r. Des rĂ©glementations, comme la rĂšgle « cliquez pour annuler Â» que promeut la FTC amĂ©ricaine, vise Ă  Ă©liminer les obstacles Ă  la rĂ©siliation des abonnements. L’OCDE a dĂ©veloppĂ©, elle, une internationale Sludge Academy pour dĂ©velopper des mĂ©thodes d’audits de ce type de problĂšme, Ă  l’image de la mĂ©thodologie dĂ©veloppĂ©e par l’unitĂ© comportemementale du gouvernement australien. Mais la rĂ©gulation des lacunes des services clients est encore difficile Ă  mettre en Ɠuvre. 

Le cabinet Gartner a prĂ©dit que d’ici 2028, l’Europe inscrira dans sa lĂ©gislation le droit Ă  parler Ă  un ĂȘtre humain. Les entreprises s’y prĂ©parent d’ailleurs, puisqu’elles estiment qu’avec l’IA, ses employĂ©s seront capables de rĂ©pondre Ă  toutes les demandes clients. Mais cela ne signifie pas qu’elles vont amĂ©liorer leur relation commerciale. On l’a vu, il suffit que les solutions ne soient pas accessibles aux opĂ©rateurs des centres d’appels, que les recours ne soient pas dans la liste de ceux qu’ils peuvent proposer, pour que les problĂšmes ne se rĂ©solvent pas. Faudra-t-il aller plus loin ? Demander que tous les services aient des services de mĂ©diation ? Que les budgets de services clients soient proportionnels au chiffre d’affaires ? 

Avec ses amis, Chris Colin organise dĂ©sormais des soirĂ©es administratives, oĂč les gens se rĂ©unissent pour faire leurs dĂ©marches ensemble afin de s’encourager Ă  les faire. L’idĂ©e est de socialiser ces moments peu intĂ©ressants pour s’entraider Ă  les accomplir et Ă  ne pas lĂącher l’affaire. 

AprĂšs plusieurs mois de discussions, Ford a fini par proposer Ă  Chris de racheter sa voiture pour une somme Ă©quitable. 

Dégradation du service client ? La standardisation en question

Pour autant, l’article de The Atlantic ne rĂ©pond pas pleinement Ă  la question de savoir si le numĂ©rique aggrave le Sludge. Les pratiques lĂ©ontines des entreprises ne sont pas nouvelles. Mais le numĂ©rique les attise-t-elle ? 

« AprĂšs avoir progressĂ© rĂ©guliĂšrement pendant deux dĂ©cennies, l’indice amĂ©ricain de satisfaction client (ACSI), baromĂštre du contentement, a commencĂ© Ă  dĂ©cliner en 2018. Bien qu’il ait lĂ©gĂšrement progressĂ© par rapport Ă  son point bas pendant la pandĂ©mie, il a perdu tous les gains rĂ©alisĂ©s depuis 2006 », rappelle The Economist. Si la concentration et le dĂ©veloppement de monopoles explique en partie la dĂ©gradation, l’autre raison tient au dĂ©veloppement de la technologie, notamment via le dĂ©veloppement de chatbots, ces derniĂšres annĂ©es. Mais l’article finit par reprendre le discours consensuel pour expliquer que l’IA pourrait amĂ©liorer la relation, alors qu’elle risque surtout d’augmenter les services clients automatisĂ©s, allez comprendre. MĂȘme constat pour Claer Barrett, responsable de la rubrique consommateur au Financial Times. L’envahissement des chatbots a profondĂ©ment dĂ©gradĂ© le service client en empĂȘchant les usagers d’accĂ©der Ă  ce qu’ils souhaitent : un humain capable de leur fournir les rĂ©ponses qu’ils attendent. L’Institute of Customer Service (ICS), un organisme professionnel indĂ©pendant qui milite pour une amĂ©lioration des normes de la satisfaction client, constate nĂ©anmoins que celle-ci est au plus bas depuis 9 ans dans tous les secteurs de l’économie britannique. En fait, les chatbots ne sont pas le seul problĂšme : mĂȘme joindre un opĂ©rateur humain vous enferme Ă©galement dans le mĂȘme type de scripts que ceux qui alimentent les chatbots, puisque les uns comme les autres ne peuvent proposer que les solutions validĂ©es par l’entreprise. Le problĂšme repose bien plus sur la normalisation et la standardisation de la relation qu’autre chose

« Les statistiques des plaintes des clients sont trĂšs faciles Ă  manipuler », explique Martyn James, expert en droits des consommateurs. Vous pourriez penser que vous ĂȘtes en train de vous plaindre au tĂ©lĂ©phone, dit-il, mais si vous n’indiquez pas clairement que vous souhaitez dĂ©poser une plainte officielle, celle-ci risque de ne pas ĂȘtre comptabilisĂ©e comme telle. Et les scripts que suivent les opĂ©rateurs et les chatbots ne proposent pas aux clients de dĂ©poser plainte
 Pourquoi ? LĂ©galement, les entreprises sont tenues de rĂ©pondre aux plaintes officielles dans un dĂ©lai dĂ©terminĂ©. Mais si votre plainte n’est pas officiellement enregistrĂ©e comme telle, elles peuvent traĂźner les pieds. Si votre plainte n’est pas officiellement enregistrĂ©e, elle n’est qu’une rĂ©clamation qui se perd dans l’historique client, rĂ©guliĂšrement vidĂ©. Les consommateurs lui confient que, trop souvent, les centres d’appels n’ont aucune trace de leur rĂ©clamation initiale

Quant Ă  trouver la page de contact ou du service client, il faut la plupart du temps cinq Ă  dix clics pour s’en approcher ! Et la plupart du temps, vous n’avez accĂšs qu’à un chat ou une ligne tĂ©lĂ©phonique automatisĂ©e. Pour Martyn James, tous les secteurs ont rĂ©duit leur capacitĂ© Ă  envoyer des mails autres que marketing et la plupart n’acceptent pas les rĂ©ponses. Et ce alors que ces derniĂšres annĂ©es, de nombreuses chaĂźnes de magasins se sont transformĂ©es en centres de traitement des commandes en ligne, sans investir dans un service client pour les clients distants. 

« Notre temps ne leur coûte rien »

« Notre temps ne leur coĂ»te rien », rappelle l’expert. Ce qui explique que nous soyons contraints d’épuiser le processus automatisĂ© et de nous battre obstinĂ©ment pour parler Ă  un opĂ©rateur humain qui fera son maximum pour ne pas enregistrer l’interaction comme une plainte du fait des objectifs qu’il doit atteindre. Une fois les recours Ă©puisĂ©s, reste la possibilitĂ© de saisir d’autres instances, mais cela demande de nouvelles dĂ©marches, de nouvelles compĂ©tences comme de savoir qu’un mĂ©diateur peut exister, voire porter plainte en justice
 Autant de dĂ©marches qui ne sont pas si accessibles. 

Les dĂ©fenseurs des consommateurs souhaitent que les rĂ©gulateurs puissent infliger des amendes beaucoup plus lourdes aux plus grands contrevenants des services clients dĂ©ficients. Mais depuis quels critĂšres ? 

Investir dans un meilleur service client a clairement un coĂ»t. Mais traiter les plaintes de maniĂšre aussi inefficace en a tout autant. Tous secteurs confondus, le coĂ»t mensuel pour les entreprises britanniques du temps consacrĂ© par leurs employĂ©s Ă  la gestion des problĂšmes clients s’élĂšve Ă  8 milliards d’euros, selon l’ICS. Si les entreprises commençaient Ă  mesurer cet impact de cette maniĂšre, cela renforcerait-il l’argument commercial en faveur d’un meilleur service ?, interroge Claer Barrett. 

Au Royaume-Uni, c’est le traitement des rĂ©clamations financiĂšres qui offre le meilleur service client, explique-t-elle, parce que la rĂ©glementation y est beaucoup plus stricte. A croire que c’est ce qui manque partout ailleurs. Pourtant, mĂȘme dans le secteur bancaire, le volume de plaintes reste Ă©levĂ©. Le Financial Ombudsman Service du Royaume-Uni prĂ©voit de recevoir plus de 181 000 plaintes de consommateurs au cours du prochain exercice, soit environ 10 % de plus qu’en 2022-2023. Les principales plaintes Ă  l’encontre des banques portent sur l’augmentation des taux d’intĂ©rĂȘts sur les cartes de crĂ©dits et la dĂ©bancarisation (voir notre article). Une autre part importante des plaintes concerne les dossiers de financement automobiles, et porte sur des litiges d’évaluation de dommages et des retards de paiements. 

Pourtant, selon l’ICS, le retour sur investissement d’un bon service client reste fort. « D’aprĂšs les donnĂ©es collectĂ©es entre 2017 et 2023, les entreprises dont le score de satisfaction client Ă©tait supĂ©rieur d’au moins un point Ă  la moyenne de leur secteur ont enregistrĂ© une croissance moyenne de leur chiffre d’affaires de 7,4 % ». Mais, celles dont le score de satisfaction est infĂ©rieur d’un point Ă  la moyenne, ont enregistrĂ© Ă©galement une croissance de celui-ci du niveau de la moyenne du secteur. La diffĂ©rence n’est peut-ĂȘtre pas suffisamment sensible pour faire la diffĂ©rence. Dans un monde en ligne, oĂč le client ne cesse de s’éloigner des personnels, la nĂ©cessitĂ© de crĂ©er des liens avec eux devrait ĂȘtre plus importante que jamais. Mais, l’inflation Ă©levĂ©e de ces derniĂšres annĂ©es porte toute l’attention sur le prix
 et ce mĂȘme si les clients ne cessent de dĂ©clarer qu’ils sont prĂȘts Ă  payer plus cher pour un meilleur service. 

La morositĂ© du service client est assurĂ©ment Ă  l’image de la morositĂ© Ă©conomique ambiante.

Hubert Guillaud 

  •  

Sludge : de la dégradation volontaire du service client

Dans The Atlantic, Chris Colin raconte le moment oĂč il a eu un problĂšme avec l’électronique de sa Ford. La direction se bloque, plus possible de ne rien faire. Son garagiste reboot le systĂšme sans chercher plus loin. Inquiet que le problĂšme puisse se reproduire, Colin fait plusieurs garagistes, contacte Ford. On promet de le rappeler. Rien. A force de volontĂ©, il finit par avoir un responsable qui lui explique qu’à moins que « le dysfonctionnement du vĂ©hicule puisse ĂȘtre reproduit et ainsi identifiĂ©, la garantie ne s’applique pas ». Colin multiplie les appels, au constructeur, Ă  son assureur
 Tout le monde lui dit de reprendre le volant. Lui persĂ©vĂšre. Mais ses appels et mails sont renvoyĂ©s jusqu’à ne jamais aboutir. Il n’est pas le seul Ă  qui ce genre de dĂ©mĂȘlĂ©s arrive. Une connaissance lui raconte le mĂȘme phĂ©nomĂšne avec une compagnie aĂ©rienne contre laquelle elle se dĂ©bat pour tenter de se faire rembourser un voyage annulĂ© lors du Covid. D’autres racontent des histoires kafkaĂŻennes avec Verizon, Sonos, Airbnb, le Fisc amĂ©ricain
 « Pris sĂ©parĂ©ment, ces tracas Ă©taient des anecdotes amusantes. Ensemble, elles suggĂšrent autre chose »

Quelque soit le service, partout, le service client semble ĂȘtre passĂ© aux abonnĂ©es absents. Le temps oĂč les services clients remboursaient ou Ă©changaient un produit sans demander le moindre justificatif semble lointain. En 2023, l’enquĂȘte nationale sur la colĂšre des consommateurs amĂ©ricains avait tous ses chiffres au rouge. 74% des clients interrogĂ©s dans ce sondage ont dĂ©clarĂ© avoir rencontrĂ© un problĂšme avec un produit ou un service au cours de l’annĂ©e Ă©coulĂ©e, soit plus du double par rapport Ă  1976. Face Ă  ces difficultĂ©s, les clients sont de plus en plus agressifs et en colĂšre. L’incivilitĂ© des clients est certainement la rĂ©ponse Ă  des services de rĂ©clamation en mode dĂ©gradĂ©s quand ils ne sont pas aux abonnĂ©s absents.  

Dégradation du service client : le numérique est-il responsable ?

Dans leur best-seller Nudge, paru en 2008, le juriste Cass Sunstein et l’économiste Richard Thaler ont mobilisĂ© des recherches en sciences du comportement pour montrer comment de petits ajustements pouvaient nous aider Ă  faire de meilleurs choix, dĂ©finissant de nouvelles formes d’intervention pour accompagner des politiques pro-sociales (voir l’article que nous consacrions au sujet, il y a 15 ans). Dans leur livre, ils Ă©voquaient Ă©galement l’envers du nudge, le sludge : des modalitĂ©s de conception qui empĂȘchent et entravent les actions et les dĂ©cisions. Le sludge englobe une gamme de frictions telles que des formulaires complexes, des frais cachĂ©s et des valeurs par dĂ©faut manipulatrices qui augmentent l’effort, le temps ou le coĂ»t requis pour faire un choix, profitant souvent au concepteur au dĂ©triment de l’intĂ©rĂȘt de l’utilisateur. Cass Sunstein a d’ailleurs fini par Ă©crire un livre sur le sujet en 2021 : Sludge. Il y Ă©voque des exigences administratives tortueuses, des temps d’attente interminables, des complications procĂ©durales excessives, voire des impossibilitĂ©s Ă  faire rĂ©clamation qui nous entravent, qui nous empĂȘchent
 Des modalitĂ©s qui ne sont pas sans faire Ă©cho Ă  l’emmerdification que le numĂ©rique produit, que dĂ©nonce Cory Doctorow. Ou encore Ă  l’ñge du cynisme qu’évoquaient Tim O’Reilly, Illan Strauss et Mariana Mazzucato en expliquant que les plateformes se focalisent dĂ©sormais sur le service aux annonceurs plus que sur la qualitĂ© de l’expĂ©rience utilisateur
 Cette boucle de prĂ©dation qu’est devenu le marketing numĂ©rique.  

La couverture de Sludge.

L’une des grandes questions que posent ces empĂȘchements consiste d’ailleurs Ă  savoir si le numĂ©rique les accĂ©lĂšre, les facilite, les renforce. 

Le sludge a suscitĂ© des travaux, rappelle Chris Colin. Certains ont montrĂ© qu’il conduit des gens Ă  renoncer Ă  des prestations essentielles. « Les gens finissent par payer ce contre quoi ils n’arrivent pas Ă  se battre, faute d’espace pour contester ou faire entendre leur problĂšme ». En l’absence de possibilitĂ© de discussion ou de contestation, vous n’avez pas d’autre choix que de vous conformer Ă  ce qui vous est demandĂ©. Dans l’application que vous utilisez pour rendre votre voiture de location par exemple, vous ne pouvez pas contester les frais que le scanneur d’inspection automatisĂ© du vĂ©hicule vous impute automatiquement. Vous n’avez pas d’autre choix que de payer. Dans d’innombrables autres, vous n’avez aucune modalitĂ© de contact. C’est le fameux no-reply, cette communication sans relation que dĂ©nonçait Thierry Libaert pour la fondation Jean JaurĂšs – qui n’est d’ailleurs pas propre aux services publics. En 2023, Propublica avait montrĂ© comment l’assureur amĂ©ricain Cigna avait Ă©conomisĂ© des millions de dollars en rejetant des demandes de remboursement sans mĂȘme les faire examiner par des mĂ©decins, en pariant sur le fait que peu de clients feraient appels. MĂȘme chose chez l’assureur santĂ© amĂ©ricain NaviHealth qui excluait les clients dont les soins coĂ»taient trop cher, en tablant sur le fait que beaucoup ne feraient pas appels de la dĂ©cision, intimidĂ©s par la demande – alors que l’entreprise savait que 90 % des refus de prise en charge sont annulĂ©s en appel. Les refus d’indemnisation, justifiĂ©s ou non, alimentent la colĂšre que provoquent dĂ©jĂ  les refus de communication. La branche financement de Toyota aux Etats-Unis a Ă©tĂ© condamnĂ©e pour avoir bloquĂ© des remboursements et mis en place, dĂ©libĂ©rĂ©ment, une ligne d’assistance tĂ©lĂ©phonique « sans issue » pour l’annulation de produits et services. Autant de pratiques difficiles Ă  prouver pour les usagers, qui se retrouvent souvent trĂšs isolĂ©s quand leurs rĂ©clamations n’aboutissent pas. Mais qui disent que la pratique du refus voire du silence est devenue est devenue une technique pour gĂ©nĂ©rer du profit. 

Réduire le coût des services clients

En fait, expliquaient dĂ©jĂ  en 2019 les chercheurs Anthony Dukes et Yi Zhu dans la Harvard Business Review : si les services clients sont si mauvais, c’est parce qu’en l’étant, ils sont profitables ! C’est notamment le cas quand les entreprises dĂ©tiennent une part de marchĂ© importante et que leurs clients n’ont pas de recours. Les entreprises les plus dĂ©testĂ©es sont souvent rentables (et, si l’on en croit un classement amĂ©ricain de 2023, beaucoup d’entre elles sont des entreprises du numĂ©rique, et plus seulement des cĂąblo-opĂ©rateurs, des opĂ©rateurs tĂ©lĂ©com, des banques ou des compagnies aĂ©riennes). Or, expliquent les chercheurs, « certaines entreprises trouvent rentable de crĂ©er des difficultĂ©s aux clients qui se plaignent ». En multipliant les obstacles, les entreprises peuvent ainsi limiter les plaintes et les indemnisations. Les deux chercheurs ont montrĂ© que cela est beaucoup liĂ© Ă  la maniĂšre dont sont organisĂ©s les centres d’appels que les clients doivent contacter, notamment le fait que les agents qui prennent les appels aient des possibilitĂ©s de rĂ©paration limitĂ©es (ils ne peuvent pas rembourser un produit par exemple). Les clients insistants sont renvoyĂ©s Ă  d’autres dĂ©marches, souvent complexes. Pour StĂ©phanie Thum, une autre mĂ©thode consiste Ă  dissimuler les possibilitĂ©s de recours ou les noyer sous des dĂ©marches complexes et un jargon juridique. Dukes et Zhu constatent pourtant que limiter les coĂ»ts de rĂ©clamation explique bien souvent le fait que les entreprises aient recours Ă  des centres d’appels externalisĂ©s. C’est la piste qu’explore d’ailleurs Chris Colin, qui rappelle que l’invention du distributeur automatique d’appels, au milieu du XXe siĂšcle a permis d’industrialiser le service client. Puis, ces coĂ»teux services ont Ă©tĂ© peu Ă  peu externalisĂ©s et dĂ©localisĂ©s pour en rĂ©duire les coĂ»ts. Or, le principe d’un centre d’appel n’est pas tant de servir les clients que de « les Ă©craser », afin que les conseillers au tĂ©lĂ©phone passent le moins de temps possible avec chacun d’eux pour rĂ©pondre au plus de clients possibles

C’est ce que raconte le livre auto-Ă©ditĂ© d’Amas Tenumah, Waiting for Service: An Insider’s Account of Why Customer Service Is Broken + Tips to Avoid Bad Service (En attente de service : tĂ©moignage d’un initiĂ© sur les raisons pour lesquelles le service client est dĂ©faillant + conseils pour Ă©viter un mauvais service, 2021). Amas Tenumah (blog, podcast), qui se prĂ©sente comme « Ă©vangĂ©liste du service client », explique qu’aucune entreprise ne dit qu’elle souhaite offrir un mauvais service client. Mais toutes ont des budgets dĂ©diĂ©s pour traiter les rĂ©clamations et ces budgets ont plus tendance Ă  se rĂ©duire qu’à augmenter, ce qui a des consĂ©quences directes sur les remboursements, les remises et les traitements des plaintes des clients. Ces objectifs de rĂ©ductions des remboursements sont directement transmis et traduits opĂ©rationnellement auprĂšs des agents des centres d’appels sous forme d’objectifs et de propositions commerciales. Les call centers sont d’abord perçus comme des centres de coĂ»ts pour ceux qui les opĂšrent, et c’est encore plus vrai quand ils sont externalisĂ©s. 

Le service client vise plus à nous apaiser qu’à nous satisfaire

Longtemps, la mesure de la satisfaction des clients Ă©tait une mesure sacrĂ©e, Ă  l’image du Net Promoter Score imaginĂ© au dĂ©but 2000 par un consultant amĂ©ricain qui va permettre de gĂ©nĂ©raliser les systĂšmes de mesure de satisfaction (qui, malgrĂ© son manque de scientificitĂ© et ses innombrables lacunes, est devenu un indicateur clĂ© de performance, totalement dĂ©vitalisĂ©). « Les PDG ont longtemps considĂ©rĂ© la fidĂ©litĂ© des clients comme essentielle Ă  la rĂ©ussite d’une entreprise », rappelle Colin. Mais, si tout le monde continue de valoriser le service client, la croissance du chiffre d’affaires a partout dĂ©trĂŽnĂ© la satisfaction. Les usagers eux-mĂȘmes ont lĂąchĂ© l’affaire. « Nous sommes devenus collectivement plus rĂ©ticents Ă  punir les entreprises avec lesquelles nous faisons affaire », dĂ©clare Amas Tenumah : les clients les plus insatisfaits reviennent Ă  peine moins souvent que les clients les plus satisfaits. Il suffit d’un coupon de rĂ©duction de 20% pour faire revenir les clients. Les clients sont devenus paresseux, Ă  moins qu’ils n’aient plus vraiment le choix face au dĂ©ploiement de monopoles effectifs. Les entreprises ont finalement compris qu’elles Ă©taient libres de nous traiter comme elles le souhaitent, conclut Colin. « Nous sommes entrĂ©s dans une relation abusive ». Dans son livre, Tenumah rappelle que les services clients visent bien plus « Ă  vous apaiser qu’à vous satisfaire »  puisqu’ils s’adressent aux clients qui ont dĂ©jĂ  payĂ© ! Il est souvent le premier dĂ©partement oĂč une entreprise va chercher Ă  rĂ©duire les coĂ»ts

Dans nombre de secteurs, la fidĂ©litĂ© est d’ailleurs assez mal rĂ©compensĂ©e : les opĂ©rateurs rĂ©servent leurs meilleurs prix et avantages aux nouveaux clients et ne proposent aux plus fidĂšles que de payer plus pour de nouvelles offres. Une opĂ©ratrice de centre d’appel, rappelle que les mots y sont importants, et que les opĂ©rateurs sont formĂ©s pour Ă©luder les rĂ©clamations, les minorer, proposer la remise la moins disante
 Une autre que le fait de tomber chaque fois sur une nouvelle opĂ©ratrice qui oblige Ă  tout rĂ©expliquer et un moyen pour pousser les gens Ă  l’abandon. 

La complexité administrative : un excellent outil pour invisibiliser des objectifs impopulaires

La couverture du livre Administrative Burden.

Dans son livre, Sunstein explique que le Sludge donne aux gens le sentiment qu’ils ne comptent pas, que leur vie ne compte pas. Pour la sociologue Pamela Herd et le politologue Donald Moynihan, coauteurs de Administrative Burden: Policymaking by Other Means (Russel Sage Foundation, 2019), le fardeau administratif comme la paperasserie complexe, les procĂ©dures confuses entravent activement l’accĂšs aux services gouvernementaux. PlutĂŽt que de simples inefficacitĂ©s, affirment les auteurs, nombre de ces obstacles sont des outils politiques dĂ©libĂ©rĂ©s qui dĂ©couragent la participation Ă  des programmes comme Medicaid, empĂȘchent les gens de voter et limitent l’accĂšs Ă  l’aide sociale. Et bien sĂ»r, cette dĂ©sorganisation volontaire touche de maniĂšre disproportionnĂ©e les gens les plus marginalisĂ©s. « L’un des effets les plus insidieux du sludge est qu’il Ă©rode une confiance toujours plus faible dans les institutions », explique la sociologue. « Une fois ce scepticisme installĂ©, il n’est pas difficile pour quelqu’un comme Elon Musk de sabrer le gouvernement sous couvert d’efficacitĂ© »  alors que les coupes drastiques vont surtout compliquer la vie de ceux qui ont besoin d’aide. Mais surtout, comme l’expliquaient les deux auteurs dans une rĂ©cente tribune pour le New York Times, les rĂ©formes d’accĂšs, dĂ©sormais, ne sont plus lisibles, volontairement. Les coupes que les RĂ©publicains envisagent pour l’attribution de Medicaid ne sont pas transparentes, elles ne portent plus sur des modifications d’éligibilitĂ© ou des rĂ©ductions claires, que les Ă©lecteurs comprennent facilement. Les coupes sont dĂ©sormais opaques et reposent sur une complexitĂ© administrative renouvelĂ©e. Alors que les DĂ©mocrates avaient ƓuvrĂ© contre les lourdeurs administratives, les RĂ©publicains estiment qu’elles constituent un excellent outil politique pour atteindre des objectifs politiques impopulaires. 

Augmenter le fardeau administratif devient une politique, comme de pousser les gens Ă  renouveler leur demande 2 fois par an plutĂŽt qu’une fois par an. L’enjeu consiste aussi Ă  dĂ©velopper des barriĂšres, comme des charges ou un ticket modĂ©rateur, mĂȘme modique, qui permet d’éloigner ceux qui ont le plus besoin de soins et ne peuvent les payer. Les RĂ©publicains du CongrĂšs souhaitent inciter les États Ă  alourdir encore davantage les formalitĂ©s administratives. Ils prĂ©voient d’alourdir ainsi les sanctions pour les États qui commettent des erreurs d’inscription, ce qui va les encourager Ă  exiger des justificatifs excessifs – alors que lĂ  bas aussi, l’essentiel de la fraude est le fait des assureurs privĂ©s et des prestataires de soins plutĂŽt que des personnes Ă©ligibles aux soins. Les RĂ©publicains affirment que ces contraintes servent des objectifs politiques vertueux, comme la rĂ©duction de la fraude et de la dĂ©pendance Ă  l’aide sociale. Mais en vĂ©ritĂ©, « la volontĂ© de rendre l’assurance maladie publique moins accessible n’est pas motivĂ©e par des prĂ©occupations concernant l’intĂ©rĂȘt gĂ©nĂ©ral. Au contraire, les plus vulnĂ©rables verront leur situation empirer, tout cela pour financer une baisse d’impĂŽts qui profite principalement aux riches ». 

Dans un article pour The Atlantic de 2021, Annie Lowrey Ă©voquait le concept de Kludgeocracrie du politologue Steven Teles, pour parler de la façon dont Ă©taient bricolĂ©s les programmes de prestations en faisant reposer sur les usagers les lourdeurs administratives. Le but, bien souvent, est que les prestations sociales ne soient pas faciles Ă  comprendre et Ă  recevoir. « Le gouvernement rationne les services publics par des frictions bureaucratiques dĂ©routantes et injustes. Et lorsque les gens ne reçoivent pas l’aide qui leur est destinĂ©e, eh bien, c’est leur faute ». « C’est un filtre rĂ©gressif qui sape toutes les politiques progressistes que nous avons ». Ces politiques produisent leurs propres Ă©conomies. Si elles alourdissent le travail des administrations chargĂ©es de contrĂŽler les prestations, elles diminuent mĂ©caniquement le volume des prestations fournies. 

Le mille-feuille de l’organisation des services publics n’explique pas Ă  lui seul la raison de ces complexitĂ©s. Dans un livre dĂ©diĂ© au sujet (The Submerged State: How Invisible Government Policies Undermine American Democracy, University of Chicago Press, 2011), la politologue Suzanne Mettler soulignait d’ailleurs, que les programmes destinĂ©s aux plus riches et aux entreprises sont gĂ©nĂ©ralement plus faciles Ă  obtenir, automatiques et garantis. « Il n’est pas nĂ©cessaire de se prosterner devant un conseiller social pour bĂ©nĂ©ficier des avantages d’un plan d’épargne-Ă©tudes. Il n’est pas nĂ©cessaire d’uriner dans un gobelet pour obtenir une dĂ©duction fiscale pour votre maison, votre bateau ou votre avion ». « Tant et si bien que de nombreuses personnes Ă  revenus Ă©levĂ©s, contrairement aux personnes pauvres, ne se rendent mĂȘme pas compte qu’elles bĂ©nĂ©ficient de programmes gouvernementaux ». Les 200 milliards d’aides publiques aux entreprises en France, distribuĂ©s sans grand contrĂŽle, contrastent d’une maniĂšre saisissante avec la chasse Ă  la fraude des plus pauvres, bardĂ©s de contrĂŽles. Selon que vous ĂȘtes riches ou pauvres, les lourdeurs administratives ne sont pas distribuĂ©es Ă©quitablement. Mais toutes visent d’abord Ă  rendre l’État dysfonctionnel. 

L’article d’Annie Lowrey continue en soulignant bien sĂ»r qu’une meilleure conception et que la simplification sont Ă  portĂ©e de main et que certaines agences amĂ©ricaines s’y sont attelĂ© et que cela a portĂ© ses fruits. Mais, le problĂšme n’est plus celui-lĂ  me semble-t-il. VoilĂ  longtemps que les effets de la simplification sont dĂ©montrĂ©s, cela n’empĂȘche pas, bien souvent, ni des reculs, ni une fausse simplification. Le contrĂŽle reste encore largement la norme, mĂȘme si partout on constate qu’il produit peu d’effets (comme le montraient les sociologues Claire VivĂšs, Luc Sigalo Santos, Jean-Marie Pillon, Vincent Dubois et Hadrien Clouet, dans leur livre sur le contrĂŽle du chĂŽmage, ChĂŽmeurs, vos papiers ! – voir notre recension). Il est toujours plus fort sur les plus dĂ©munis que sur les plus riches et la tendance ne s’inverse pas, malgrĂ© les dĂ©monstrations. 

Et le dĂ©ferlement de l’IA pour le marketing risque de continuer Ă  dĂ©grader les choses. Pour Tenumah, l’arrivĂ©e de services clients gĂ©rĂ©s par l’IA vont leur permettre peut-ĂȘtre de coĂ»ter moins cher aux entreprises, mais ils ne vont rĂ©pondre Ă  aucune attente

La rĂ©sistance au Sludge s’organise bien sĂ»r. Des rĂ©glementations, comme la rĂšgle « cliquez pour annuler Â» que promeut la FTC amĂ©ricaine, vise Ă  Ă©liminer les obstacles Ă  la rĂ©siliation des abonnements. L’OCDE a dĂ©veloppĂ©, elle, une internationale Sludge Academy pour dĂ©velopper des mĂ©thodes d’audits de ce type de problĂšme, Ă  l’image de la mĂ©thodologie dĂ©veloppĂ©e par l’unitĂ© comportemementale du gouvernement australien. Mais la rĂ©gulation des lacunes des services clients est encore difficile Ă  mettre en Ɠuvre. 

Le cabinet Gartner a prĂ©dit que d’ici 2028, l’Europe inscrira dans sa lĂ©gislation le droit Ă  parler Ă  un ĂȘtre humain. Les entreprises s’y prĂ©parent d’ailleurs, puisqu’elles estiment qu’avec l’IA, ses employĂ©s seront capables de rĂ©pondre Ă  toutes les demandes clients. Mais cela ne signifie pas qu’elles vont amĂ©liorer leur relation commerciale. On l’a vu, il suffit que les solutions ne soient pas accessibles aux opĂ©rateurs des centres d’appels, que les recours ne soient pas dans la liste de ceux qu’ils peuvent proposer, pour que les problĂšmes ne se rĂ©solvent pas. Faudra-t-il aller plus loin ? Demander que tous les services aient des services de mĂ©diation ? Que les budgets de services clients soient proportionnels au chiffre d’affaires ? 

Avec ses amis, Chris Colin organise dĂ©sormais des soirĂ©es administratives, oĂč les gens se rĂ©unissent pour faire leurs dĂ©marches ensemble afin de s’encourager Ă  les faire. L’idĂ©e est de socialiser ces moments peu intĂ©ressants pour s’entraider Ă  les accomplir et Ă  ne pas lĂącher l’affaire. 

AprĂšs plusieurs mois de discussions, Ford a fini par proposer Ă  Chris de racheter sa voiture pour une somme Ă©quitable. 

Dégradation du service client ? La standardisation en question

Pour autant, l’article de The Atlantic ne rĂ©pond pas pleinement Ă  la question de savoir si le numĂ©rique aggrave le Sludge. Les pratiques lĂ©ontines des entreprises ne sont pas nouvelles. Mais le numĂ©rique les attise-t-elle ? 

« AprĂšs avoir progressĂ© rĂ©guliĂšrement pendant deux dĂ©cennies, l’indice amĂ©ricain de satisfaction client (ACSI), baromĂštre du contentement, a commencĂ© Ă  dĂ©cliner en 2018. Bien qu’il ait lĂ©gĂšrement progressĂ© par rapport Ă  son point bas pendant la pandĂ©mie, il a perdu tous les gains rĂ©alisĂ©s depuis 2006 », rappelle The Economist. Si la concentration et le dĂ©veloppement de monopoles explique en partie la dĂ©gradation, l’autre raison tient au dĂ©veloppement de la technologie, notamment via le dĂ©veloppement de chatbots, ces derniĂšres annĂ©es. Mais l’article finit par reprendre le discours consensuel pour expliquer que l’IA pourrait amĂ©liorer la relation, alors qu’elle risque surtout d’augmenter les services clients automatisĂ©s, allez comprendre. MĂȘme constat pour Claer Barrett, responsable de la rubrique consommateur au Financial Times. L’envahissement des chatbots a profondĂ©ment dĂ©gradĂ© le service client en empĂȘchant les usagers d’accĂ©der Ă  ce qu’ils souhaitent : un humain capable de leur fournir les rĂ©ponses qu’ils attendent. L’Institute of Customer Service (ICS), un organisme professionnel indĂ©pendant qui milite pour une amĂ©lioration des normes de la satisfaction client, constate nĂ©anmoins que celle-ci est au plus bas depuis 9 ans dans tous les secteurs de l’économie britannique. En fait, les chatbots ne sont pas le seul problĂšme : mĂȘme joindre un opĂ©rateur humain vous enferme Ă©galement dans le mĂȘme type de scripts que ceux qui alimentent les chatbots, puisque les uns comme les autres ne peuvent proposer que les solutions validĂ©es par l’entreprise. Le problĂšme repose bien plus sur la normalisation et la standardisation de la relation qu’autre chose

« Les statistiques des plaintes des clients sont trĂšs faciles Ă  manipuler », explique Martyn James, expert en droits des consommateurs. Vous pourriez penser que vous ĂȘtes en train de vous plaindre au tĂ©lĂ©phone, dit-il, mais si vous n’indiquez pas clairement que vous souhaitez dĂ©poser une plainte officielle, celle-ci risque de ne pas ĂȘtre comptabilisĂ©e comme telle. Et les scripts que suivent les opĂ©rateurs et les chatbots ne proposent pas aux clients de dĂ©poser plainte
 Pourquoi ? LĂ©galement, les entreprises sont tenues de rĂ©pondre aux plaintes officielles dans un dĂ©lai dĂ©terminĂ©. Mais si votre plainte n’est pas officiellement enregistrĂ©e comme telle, elles peuvent traĂźner les pieds. Si votre plainte n’est pas officiellement enregistrĂ©e, elle n’est qu’une rĂ©clamation qui se perd dans l’historique client, rĂ©guliĂšrement vidĂ©. Les consommateurs lui confient que, trop souvent, les centres d’appels n’ont aucune trace de leur rĂ©clamation initiale

Quant Ă  trouver la page de contact ou du service client, il faut la plupart du temps cinq Ă  dix clics pour s’en approcher ! Et la plupart du temps, vous n’avez accĂšs qu’à un chat ou une ligne tĂ©lĂ©phonique automatisĂ©e. Pour Martyn James, tous les secteurs ont rĂ©duit leur capacitĂ© Ă  envoyer des mails autres que marketing et la plupart n’acceptent pas les rĂ©ponses. Et ce alors que ces derniĂšres annĂ©es, de nombreuses chaĂźnes de magasins se sont transformĂ©es en centres de traitement des commandes en ligne, sans investir dans un service client pour les clients distants. 

« Notre temps ne leur coûte rien »

« Notre temps ne leur coĂ»te rien », rappelle l’expert. Ce qui explique que nous soyons contraints d’épuiser le processus automatisĂ© et de nous battre obstinĂ©ment pour parler Ă  un opĂ©rateur humain qui fera son maximum pour ne pas enregistrer l’interaction comme une plainte du fait des objectifs qu’il doit atteindre. Une fois les recours Ă©puisĂ©s, reste la possibilitĂ© de saisir d’autres instances, mais cela demande de nouvelles dĂ©marches, de nouvelles compĂ©tences comme de savoir qu’un mĂ©diateur peut exister, voire porter plainte en justice
 Autant de dĂ©marches qui ne sont pas si accessibles. 

Les dĂ©fenseurs des consommateurs souhaitent que les rĂ©gulateurs puissent infliger des amendes beaucoup plus lourdes aux plus grands contrevenants des services clients dĂ©ficients. Mais depuis quels critĂšres ? 

Investir dans un meilleur service client a clairement un coĂ»t. Mais traiter les plaintes de maniĂšre aussi inefficace en a tout autant. Tous secteurs confondus, le coĂ»t mensuel pour les entreprises britanniques du temps consacrĂ© par leurs employĂ©s Ă  la gestion des problĂšmes clients s’élĂšve Ă  8 milliards d’euros, selon l’ICS. Si les entreprises commençaient Ă  mesurer cet impact de cette maniĂšre, cela renforcerait-il l’argument commercial en faveur d’un meilleur service ?, interroge Claer Barrett. 

Au Royaume-Uni, c’est le traitement des rĂ©clamations financiĂšres qui offre le meilleur service client, explique-t-elle, parce que la rĂ©glementation y est beaucoup plus stricte. A croire que c’est ce qui manque partout ailleurs. Pourtant, mĂȘme dans le secteur bancaire, le volume de plaintes reste Ă©levĂ©. Le Financial Ombudsman Service du Royaume-Uni prĂ©voit de recevoir plus de 181 000 plaintes de consommateurs au cours du prochain exercice, soit environ 10 % de plus qu’en 2022-2023. Les principales plaintes Ă  l’encontre des banques portent sur l’augmentation des taux d’intĂ©rĂȘts sur les cartes de crĂ©dits et la dĂ©bancarisation (voir notre article). Une autre part importante des plaintes concerne les dossiers de financement automobiles, et porte sur des litiges d’évaluation de dommages et des retards de paiements. 

Pourtant, selon l’ICS, le retour sur investissement d’un bon service client reste fort. « D’aprĂšs les donnĂ©es collectĂ©es entre 2017 et 2023, les entreprises dont le score de satisfaction client Ă©tait supĂ©rieur d’au moins un point Ă  la moyenne de leur secteur ont enregistrĂ© une croissance moyenne de leur chiffre d’affaires de 7,4 % ». Mais, celles dont le score de satisfaction est infĂ©rieur d’un point Ă  la moyenne, ont enregistrĂ© Ă©galement une croissance de celui-ci du niveau de la moyenne du secteur. La diffĂ©rence n’est peut-ĂȘtre pas suffisamment sensible pour faire la diffĂ©rence. Dans un monde en ligne, oĂč le client ne cesse de s’éloigner des personnels, la nĂ©cessitĂ© de crĂ©er des liens avec eux devrait ĂȘtre plus importante que jamais. Mais, l’inflation Ă©levĂ©e de ces derniĂšres annĂ©es porte toute l’attention sur le prix
 et ce mĂȘme si les clients ne cessent de dĂ©clarer qu’ils sont prĂȘts Ă  payer plus cher pour un meilleur service. 

La morositĂ© du service client est assurĂ©ment Ă  l’image de la morositĂ© Ă©conomique ambiante.

Hubert Guillaud 

  •  

La tech au bord du gouffre financier 

Thomas Gerbaud a eu la bonne idĂ©e de tenter de rĂ©sumer et synthĂ©tiser l’article fleuve d’Ed Zitron, AI is money trap, paru cet Ă©tĂ©. Cet article interroge la question de la rentabilitĂ© des entreprises et startups de l’IA et montre que leur consommation d’investissements est encore plus dĂ©lirante que leur consommation de ressources Ă©nergĂ©tiques. 

« Pour faire un lien avec la crise des subprimes de 2008, on peut dire que la Silicon Valley est en crise : au lieu de maisons trop chĂšres, les investisseurs ont mis de l’argent dans des startups non rentables avec des valorisations qu’ils ne pourront jamais vendre, et ils sont probablement dĂ©jĂ  en pertes sans s’en rendre compte.

Puisque personne ne les achĂšte, les startups d’IA gĂ©nĂ©rative doivent lever des fonds Ă  des valorisations toujours plus Ă©levĂ©es pour couvrir leurs coĂ»ts, rĂ©duisant ainsi leurs chances de survie. Contrairement Ă  la crise immobiliĂšre, oĂč la valeur des biens a fini par remonter grĂące Ă  la demande, le secteur du GenAI dĂ©pend d’un nombre limitĂ© d’investisseurs et de capital, et sa valeur ne tient qu’aux attentes et au sentiment autour du secteur.

Certaines sociĂ©tĂ©s peuvent justifier de brĂ»ler du capital (en millions ou milliards), comme Uber ou AWS. Mais elles avaient un lien avec le monde rĂ©el, physique. Facebook est une exception, mais elle n’a jamais Ă©tĂ© un gouffre Ă  cash comme le sont les acteurs du GenAI.

Ces startups sont les subprimes des investisseurs : valorisations gonflĂ©es, aucune sortie claire et aucun acheteur Ă©vident. Leur stratĂ©gie consiste Ă  se transformer en vitrines, et Ă  prĂ©senter leurs fondateurs comme des gĂ©nies mystĂ©rieux. Jusqu’ici, le seul mĂ©canisme de liquiditĂ© rĂ©el de la GenAI est de vendre des talents aux BigTechs et Ă  prix fort. »

Sous quelque angle qu’on l’a regarde, l’IA gĂ©nĂ©rative n’est pas rentable. « Cette industrie entiĂšre perd massivement de l’argent ». Leurs dĂ©penses d’investissements, notamment en data centers et en puces, sont colossales, « malgrĂ© les revenus limitĂ©s du secteur ». Le risque est que les investissements des Big Tech engloutissent l’économie. 

« L’IA gĂ©nĂ©rative est un fantasme créé par les BigTechs.

Cette bulle est destructrice. Elle privilĂ©gie le gaspillage de milliards et les mensonges, plutĂŽt que la crĂ©ation de valeur. Les mĂ©dias sont complices, car ils ne peuvent pas ĂȘtre aveugles Ă  ce point. Le capital-risque continue de surfinancer les startups en espĂ©rant les revendre ou les faire entrer en bourse, gonflant les valorisations au point que la plupart des entreprises du secteur ne peuvent espĂ©rer de sortie : leurs modĂšles d’affaires sont mauvais et elles n’ont quasiment aucune propriĂ©tĂ© intellectuelle propre. OpenAI et Anthropic concentrent toute la valeur. »

« L’industrie de la GenAI est artificielle : elle gĂ©nĂšre peu de revenus, ses coĂ»ts sont Ă©normes et son fonctionnement nĂ©cessite une infrastructure physique si massive que seules les BigTechs peuvent se l’offrir. La concurrence est limitĂ©e.

Les marchĂ©s sont aveuglĂ©s par la croissance Ă  tout prix. Ils confondent l’expansion des BigTechs avec une vraie croissance Ă©conomique. Cette croissance repose presque entiĂšrement sur les caprices de quatre entreprises, ce qui est vraiment inquiĂ©tant. »

Pour l’investisseur Paul Kedrosky citĂ© par le Wall Street Journal

« Nous vivons un moment historiquement exceptionnel. Peu importe ce que l’on pense des mĂ©rites de l’IA ou de l’expansion explosive des centres de donnĂ©es, l’ampleur et la rapiditĂ© du dĂ©ploiement de capitaux dans une technologie qui se dĂ©prĂ©cie rapidement sont remarquables. Ce ne sont pas des chemins de fer ; nous ne construisons pas des infrastructures pour un siĂšcle. Les data centers pour la GenAI sont des installations Ă  durĂ©e de vie courte et Ă  forte intensitĂ© d’actifs, reposant sur des technologies dont les coĂ»ts diminuent et nĂ©cessitant un remplacement frĂ©quent du matĂ©riel pour prĂ©server les marges. »

Pour Zitron, la rĂ©cession Ă©conomique se profile. « Il n’a aucune raison de cĂ©lĂ©brer une industrie sans plans de sortie et avec des dĂ©penses en capital qui, si elles restent inutiles, semblent ĂȘtre l’une des rares choses maintenant la croissance de l’économie amĂ©ricaine. »

  •  

La tech au bord du gouffre financier 

Thomas Gerbaud a eu la bonne idĂ©e de tenter de rĂ©sumer et synthĂ©tiser l’article fleuve d’Ed Zitron, AI is money trap, paru cet Ă©tĂ©. Cet article interroge la question de la rentabilitĂ© des entreprises et startups de l’IA et montre que leur consommation d’investissements est encore plus dĂ©lirante que leur consommation de ressources Ă©nergĂ©tiques. 

« Pour faire un lien avec la crise des subprimes de 2008, on peut dire que la Silicon Valley est en crise : au lieu de maisons trop chĂšres, les investisseurs ont mis de l’argent dans des startups non rentables avec des valorisations qu’ils ne pourront jamais vendre, et ils sont probablement dĂ©jĂ  en pertes sans s’en rendre compte.

Puisque personne ne les achĂšte, les startups d’IA gĂ©nĂ©rative doivent lever des fonds Ă  des valorisations toujours plus Ă©levĂ©es pour couvrir leurs coĂ»ts, rĂ©duisant ainsi leurs chances de survie. Contrairement Ă  la crise immobiliĂšre, oĂč la valeur des biens a fini par remonter grĂące Ă  la demande, le secteur du GenAI dĂ©pend d’un nombre limitĂ© d’investisseurs et de capital, et sa valeur ne tient qu’aux attentes et au sentiment autour du secteur.

Certaines sociĂ©tĂ©s peuvent justifier de brĂ»ler du capital (en millions ou milliards), comme Uber ou AWS. Mais elles avaient un lien avec le monde rĂ©el, physique. Facebook est une exception, mais elle n’a jamais Ă©tĂ© un gouffre Ă  cash comme le sont les acteurs du GenAI.

Ces startups sont les subprimes des investisseurs : valorisations gonflĂ©es, aucune sortie claire et aucun acheteur Ă©vident. Leur stratĂ©gie consiste Ă  se transformer en vitrines, et Ă  prĂ©senter leurs fondateurs comme des gĂ©nies mystĂ©rieux. Jusqu’ici, le seul mĂ©canisme de liquiditĂ© rĂ©el de la GenAI est de vendre des talents aux BigTechs et Ă  prix fort. »

Sous quelque angle qu’on l’a regarde, l’IA gĂ©nĂ©rative n’est pas rentable. « Cette industrie entiĂšre perd massivement de l’argent ». Leurs dĂ©penses d’investissements, notamment en data centers et en puces, sont colossales, « malgrĂ© les revenus limitĂ©s du secteur ». Le risque est que les investissements des Big Tech engloutissent l’économie. 

« L’IA gĂ©nĂ©rative est un fantasme créé par les BigTechs.

Cette bulle est destructrice. Elle privilĂ©gie le gaspillage de milliards et les mensonges, plutĂŽt que la crĂ©ation de valeur. Les mĂ©dias sont complices, car ils ne peuvent pas ĂȘtre aveugles Ă  ce point. Le capital-risque continue de surfinancer les startups en espĂ©rant les revendre ou les faire entrer en bourse, gonflant les valorisations au point que la plupart des entreprises du secteur ne peuvent espĂ©rer de sortie : leurs modĂšles d’affaires sont mauvais et elles n’ont quasiment aucune propriĂ©tĂ© intellectuelle propre. OpenAI et Anthropic concentrent toute la valeur. »

« L’industrie de la GenAI est artificielle : elle gĂ©nĂšre peu de revenus, ses coĂ»ts sont Ă©normes et son fonctionnement nĂ©cessite une infrastructure physique si massive que seules les BigTechs peuvent se l’offrir. La concurrence est limitĂ©e.

Les marchĂ©s sont aveuglĂ©s par la croissance Ă  tout prix. Ils confondent l’expansion des BigTechs avec une vraie croissance Ă©conomique. Cette croissance repose presque entiĂšrement sur les caprices de quatre entreprises, ce qui est vraiment inquiĂ©tant. »

Pour l’investisseur Paul Kedrosky citĂ© par le Wall Street Journal

« Nous vivons un moment historiquement exceptionnel. Peu importe ce que l’on pense des mĂ©rites de l’IA ou de l’expansion explosive des centres de donnĂ©es, l’ampleur et la rapiditĂ© du dĂ©ploiement de capitaux dans une technologie qui se dĂ©prĂ©cie rapidement sont remarquables. Ce ne sont pas des chemins de fer ; nous ne construisons pas des infrastructures pour un siĂšcle. Les data centers pour la GenAI sont des installations Ă  durĂ©e de vie courte et Ă  forte intensitĂ© d’actifs, reposant sur des technologies dont les coĂ»ts diminuent et nĂ©cessitant un remplacement frĂ©quent du matĂ©riel pour prĂ©server les marges. »

Pour Zitron, la rĂ©cession Ă©conomique se profile. « Il n’a aucune raison de cĂ©lĂ©brer une industrie sans plans de sortie et avec des dĂ©penses en capital qui, si elles restent inutiles, semblent ĂȘtre l’une des rares choses maintenant la croissance de l’économie amĂ©ricaine. »

  •  

Design vs IA, la grande rivalité

Le design a toujours Ă©tĂ© en concurrence avec l’IA, explique la designer Nolwenn Maudet dans un article pour l’Institut des cultures en rĂ©seau. « AprĂšs deux dĂ©cennies de riches dĂ©veloppements dans le design d’interaction, notamment portĂ©s par la conception des interactions tactiles nĂ©cessaires aux smartphones, la tendance s’est inversĂ©e. Le retour en grĂące de l’IA a coĂŻncidĂ©, au cours de la derniĂšre dĂ©cennie, avec la standardisation et l’appauvrissement progressifs du design d’interfaces, ce qui est, selon moi, loin d’ĂȘtre une coĂŻncidence. » Pour la designer, cette rivalitĂ© dĂ©coule de deux maniĂšres trĂšs diffĂ©rentes de penser la relation entre ordinateurs et humains. Du cĂŽtĂ© du design, l’enjeu est la capacitĂ© des humains Ă  prendre le contrĂŽle et Ă  piloter les ordinateurs, du cĂŽtĂ© des dĂ©veloppeurs d’IA, l’enjeu est plutĂŽt que les ordinateurs deviennent suffisamment intelligents pour ĂȘtre autonomes afin que les humains puissent leur confier des tĂąches. « Ainsi, mĂȘme si les promoteurs de l’IA ne le disent pas en ces termes, leur vision du futur, ce qu’ils visent, est la mort du design d’interaction, car vouloir tout anticiper revient finalement Ă  tout automatiser, Ă  Ă©liminer toute interaction ». Pour Maudet, reprenant les propos de Jonathan Grudin, on pourrait dire que l’Interaction homme-machine s’est dĂ©veloppĂ©e dans l’ombre de l’IA : « L’IHM a prospĂ©rĂ© pendant les hivers de l’IA et a progressĂ© plus lentement lorsque l’IA Ă©tait en faveur. »

Pourquoi l’IA est-elle si attractive ?

Pourquoi l’IA est-elle si attractive ? « Les causes sont complexes et tiennent largement Ă  des enjeux politiques et Ă©conomiques, car les techniques d’IA modernes reposent sur le modĂšle Ă©conomique lucratif de l’exploration et de la monĂ©tisation des donnĂ©es. Un autre problĂšme rĂ©side dans la distinction claire et l’absence de lien entre l’intelligence artificielle et les mĂ©tiers de l’interface au sein des entreprises. Enfin, le rĂŽle de l’imaginaire ne peut ĂȘtre nĂ©gligĂ©. En effet, il est difficile pour le design de faire rĂȘver comme l’IA le fait. CrĂ©er des entitĂ©s intelligentes et autonomes sur le terrain d’un cĂŽtĂ©, optimiser et faciliter l’utilisation d’un outil complexe de l’autre ». La concurrence est rude entre « la recherche sur les dĂ©fis perceptivo-moteurs et cognitifs des interfaces graphiques d’un cĂŽtĂ©, les machines exotiques et les promesses glamour de l’IA de l’autre. Les interfaces graphiques Ă©taient cool, mais l’IA a dominĂ© les financements et l’attention mĂ©diatique, et a prospĂ©rĂ© », explique encore Grudin. « Les interfaces ne sont jamais une fin en soi, mais simplement un moyen de permettre aux humains d’accomplir des tĂąches. En tant qu’outils, elles semblent inoffensives. D’autant plus que l’interface repose sur un paradoxe : elle passe inaperçue alors qu’elle est sous nos yeux. »

« Les actions et les volontĂ©s explicitĂ©es par nos interactions sont perçues comme subjectives, tandis que les donnĂ©es enregistrĂ©es par des capteurs et Ă  notre insu apparaissent plus objectives et donc vraies, un prĂ©supposĂ© largement erronĂ© qui persiste », explique Nolwenn Maudet en faisant rĂ©fĂ©rence au livre de Melanie Feinberg, Everyday Adventures with Unruly Data (MIT Press, 2022, non traduit) qui dĂ©fend une approche humaine des donnĂ©es d’abord et avant tout qu’elles restent ambiguĂ«s, complexes et incertaines. Pour Maudet, l’IA tend Ă  privilĂ©gier les interactions basĂ©es sur des signaux non explicites ou entiĂšrement volontaires de la part des utilisateurs : le regard plutĂŽt que la main, les expressions faciales plutĂŽt que les mots. Par exemple, les thermostats intelligents utilisent des capteurs pour dĂ©terminer les habitudes d’occupation et modifier la tempĂ©rature en fonction des comportements, ce qui traduit combien les ingĂ©nieurs de l’IA sont fondamentalement mĂ©fiants Ă  l’égard des actions humaines, quand les designers, eux, vont avoir tendance Ă  faciliter la configuration des paramĂštres par l’utilisateur

Le design reste pourtant la condition de succùs de l’IA

Pour la designer, l’engouement actuel pour l’IA ne devrait pourtant pas nous faire oublier que « l’IA a toujours besoin du design, des interfaces et des interactions, mĂȘme si elle feint de les ignorer ». Le design des interfaces reste la condition de succĂšs des systĂšmes prĂ©dictifs et des systĂšmes de recommandation. L’un des grands succĂšs de TikTok, repose bien plus sur l’effet hypnotique du dĂ©filement pour proposer un zapping perpĂ©tuel que sur la qualitĂ© de ses recommandations. L’IA ne pourrait exister ni fonctionner sans interfaces, mĂȘme si elle feint gĂ©nĂ©ralement de les ignorer. L’IA utilise souvent des proxys pour dĂ©terminer des comportements, comme d’arrĂȘter de vous recommander une sĂ©rie parce que vous avez interrompu l’épisode, qu’importe si c’était parce que vous aviez quelque chose de plus intĂ©ressant Ă  faire. Face Ă  des interprĂ©tations algorithmiques qu’ils ne maĂźtrisent pas, les utilisateurs sont alors contraints de trouver des parades souvent inefficaces pour tenter de dialoguer via une interface qui n’est pas conçue pour cela, comme quand ils likent toutes les publications d’un profil pour tenter de faire comprendre Ă  l’algorithme qu’il doit continuer Ă  vous les montrer. Ces tentatives de contournements montrent pourtant qu’on devrait permettre aux utilisateurs de « communiquer directement avec l’algorithme », c’est-Ă -dire de pouvoir plus facilement rĂ©gler leurs prĂ©fĂ©rences. Nous sommes confrontĂ©s Ă  une « dissociation stĂ©rile entre interface et algorithme », « rĂ©sultat de l’angle mort qui fait que toute interaction explicite avec l’IA est un Ă©chec de prĂ©diction ». « Le fait que la logique de l’interface soit gĂ©nĂ©ralement dĂ©connectĂ©e de celle de l’algorithme ne contribue pas Ă  sa lisibilitĂ© »

Maudet prend l’exemple des algorithmes de reconnaissance faciale qui produisent des classements depuis un score de confiance rarement communiquĂ© – voir notre Ă©dito sur ces enjeux. Or, publier ce score permettrait de suggĂ©rer de l’incertitude auprĂšs de ceux qui y sont confrontĂ©s. AmĂ©liorer les IA et amĂ©liorer les interfaces nĂ©cessite une bien meilleure collaboration entre les concepteurs d’IA et les concepteurs d’interfaces, suggĂšre pertinemment la designer, qui invite Ă  interroger par exemple l’interface textuelle dialogique de l’IA gĂ©nĂ©rative, qui a tendance Ă  anthropomorphiser le modĂšle, lui donnant l’apparence d’un locuteur humain sensible. Pour la designer Amelia Wattenberg, la pauvretĂ© de ces interfaces de chat devient problĂ©matique. « La tĂąche d’apprendre ce qui fonctionne incombe toujours Ă  l’utilisateur ». Les possibilitĂ©s offertes Ă  l’utilisateur de gĂ©nĂ©rer une image en Ă©tirant certaines de ses parties, nous montrent pourtant que d’autres interfaces que le seul prompt sont possibles. Mais cela invite les ingĂ©nieurs de l’IA Ă  assumer l’importance des interfaces. 

Complexifier l’algorithme plutît que proposer de meilleures interfaces

Les critiques de l’IA qui pointent ses limites ont souvent comme rĂ©ponse de corriger et d’amĂ©liorer le modĂšle et de mieux corriger les donnĂ©es pour tenter d’éliminer ses biais
 « sans remettre en question les interfaces par lesquelles l’IA existe et agit ». « L’amĂ©lioration consiste donc gĂ©nĂ©ralement Ă  complexifier l’algorithme, afin qu’il prenne en compte et intĂšgre des Ă©lĂ©ments jusque-lĂ  ignorĂ©s ou laissĂ©s de cĂŽtĂ©, ce qui se traduit presque inĂ©vitablement par de nouvelles donnĂ©es Ă  collecter et Ă  interprĂ©ter. On multiplie ainsi les entrĂ©es et les infĂ©rences, dans ce qui ressemble Ă  une vĂ©ritable fuite en avant. Et forcĂ©ment sans fin, puisqu’il ne sera jamais possible de produire des anticipations parfaites ».

« Reprenons le cas des algorithmes de recommandation, fortement critiquĂ©s pour leur tendance Ă  enfermer les individus dans ce qu’ils connaissent et consomment dĂ©jĂ . La rĂ©ponse proposĂ©e est de chercher le bon dosage, par exemple 60 % de contenu dĂ©jĂ  connu et 40 % de nouvelles dĂ©couvertes. Ce mĂ©lange est nĂ©cessairement arbitraire et laissĂ© Ă  la seule discrĂ©tion des concepteurs d’IA, mettant l’utilisateur de cĂŽtĂ©. Mais si l’on cherchait Ă  rĂ©soudre ce problĂšme par le design, une rĂ©ponse simpliste serait une interface offrant les deux options. Cela rendrait toutes les configurations possibles, nous forçant Ă  nous poser la question : est-ce que je veux plus de ce que j’ai dĂ©jĂ  Ă©coutĂ©, ou est-ce que je veux m’ouvrir ? Le design d’interaction encourage alors la rĂ©flexivitĂ©, mais exige attention et choix, ce que l’IA cherche prĂ©cisĂ©ment Ă  Ă©viter, et auquel nous sommes souvent trop heureux d’échapper ». 

Et Maudet d’inviter le design Ă  s’extraire de la logique Ă©thique de l’IA qui cherche « Ă  Ă©viter toute action ou rĂ©flexion de la part de l’utilisateur » en corrigeant par l’automatisation ses erreurs et ses biais.

« Le dĂ©veloppement des algorithmes s’est accompagnĂ© de la standardisation et de l’appauvrissement progressif des interactions et des interfaces qui les supportent ». Le design ne peut pas Ɠuvrer Ă  limiter la capacitĂ© d’action des utilisateurs, comme le lui commande dĂ©sormais les dĂ©veloppeurs d’IA. S’il Ɠuvre Ă  limiter la capacitĂ© d’action, alors il produit une conception impersonnelle et paralysante, comme l’a expliquĂ© le designer Silvio Lorusso dans son article sur la condition de l’utilisateur

Mais Maudet tape plus fort encore : « il existe un paradoxe Ă©vident et peu questionnĂ© entre la personnalisation ultime promise par l’intelligence artificielle et l’homogĂ©nĂ©isation universelle des interfaces imposĂ©e ces derniĂšres annĂ©es. Chaque flux est unique car un algorithme dĂ©termine son contenu. Et pourtant, le milliard d’utilisateurs d’Instagram ou de TikTok, oĂč qu’ils soient et quelle que soit la raison pour laquelle ils utilisent l’application, ont tous la mĂȘme interface sous les yeux et utilisent exactement les mĂȘmes interactions pour la faire fonctionner. Il est ironique de constater que lĂ  oĂč ces entreprises prĂ©tendent offrir une expĂ©rience personnalisĂ©e, jamais auparavant nous n’avons vu une telle homogĂ©nĂ©itĂ© dans les interfaces : le monde entier dĂ©file sans fin derriĂšre de simples fils de contenu. Le design, ralliĂ© Ă  la lutte pour la moindre interaction, accentue cette logique, effaçant ou relĂ©guant progressivement au second plan les paramĂštres qui permettaient souvent d’adapter le logiciel aux besoins individuels. Ce que nous avons perdu en termes d’adaptation explicite de nos interfaces a Ă©tĂ© remplacĂ© par une adaptation automatisĂ©e, les algorithmes Ă©tant dĂ©sormais chargĂ©s de compenser cette standardisation et de concrĂ©tiser le rĂȘve d’une expĂ©rience sur mesure et personnalisĂ©e. Puisque toutes les interfaces et interactions se ressemblent, la diffĂ©renciation incombe dĂ©sormais Ă©galement Ă  l’algorithme, privant le design de la possibilitĂ© d’ĂȘtre un vecteur d’expĂ©rimentation et un crĂ©ateur de valeur, y compris Ă©conomique ».

DĂ©sormais, la solution aux problĂšmes d’utilisation consiste bien souvent Ă  ajouter de l’IA, comme d’intĂ©grer un chatbot « dans l’espoir qu’il oriente les visiteurs vers l’information recherchĂ©e, plutĂŽt que de repenser la hiĂ©rarchie de l’information, l’arborescence du site et sa navigation ». 

Le risque est bien de mettre le design au service de l’IA plutĂŽt que l’inverse. Pas Ă©tonnant alors que la rĂ©ponse alternative et radicale, qui consiste Ă  penser la personnalisation des interfaces sans algorithmes, gagne de l’audience, comme c’est le cas sur le Fediverse, de Peertube Ă  Mastodon qui optent pour un retour Ă  l’éditorialisation humaine. La gĂ©nĂ©ralisation de l’utilisation de modĂšle d’IA sur Ă©tagĂšre et de bibliothĂšques de composants standardisĂ©s, rĂ©duisent les possibilitĂ©s de personnalisation par le design d’interaction. Nous sommes en train de revenir Ă  une informatique mainframe, dĂ©nonce Maudet, « ces ordinateurs puissants mais contrĂŽlĂ©s, une architecture qui limite par essence le pouvoir d’action de ses utilisateurs ». Les designers doivent rĂ©affirmer l’objectif de l’IHM : « mettre la puissance de l’ordinateur entre les mains des utilisateurs et d’accroĂźtre le potentiel humain plutĂŽt que celui de la machine »

Hubert Guillaud

MAJ du 9/09/2025 : Nolwenn Maudet vient de mettre une version en français de son article (.pdf) sur son site.

MAJ du 10/09/2025 : L’anthropologue Sally Applin dresse le mĂȘme constat dans un article pour Fast Company. Toutes les interfaces sont appelĂ©es Ă  ĂȘtre remplacĂ©es par des chatbots, explique Applin. Nos logiciels sont remplacĂ©s par une fenĂȘtre unique. Les chatbots sont prĂ©sentĂ©s comme un guichet unique pour tout, la zone de texte est en train d’engloutir toutes les applications. Nos interfaces rĂ©trĂ©cissent. Ce changement est une rupture radicale avec la conception d’interfaces telle qu’on l’a connaissait. Nous sommes passĂ©s de la conception d’outils facilitant la rĂ©alisation de tĂąches Ă  l’extraction de modĂšles servant les objectifs de l’entreprise qui dĂ©ploient les chatbots. “Nous avons cessĂ© d’ĂȘtre perçus comme des personnes ayant des besoins, pour devenir la matiĂšre premiĂšre d’indicateurs, de modĂšles et de domination du marchĂ©â€. Qu’importe si les chatbots produisent des rĂ©ponses incohĂ©rentes, c’est Ă  nous de constamment affiner les requĂȘtes pour obtenir quelque chose d’utile. “LĂ  oĂč nous utilisions autrefois des outils pour accomplir notre travail, nous le formons dĂ©sormais Ă  effectuer ce travail afin que nous puissions, Ă  notre tour, terminer le nĂŽtre”. “La ​​trajectoire actuelle du design vise Ă  effacer complĂštement l’interface, la remplaçant par une conversation sous surveillance – une Ă©coute mĂ©canisĂ©e dĂ©guisĂ©e en dialogue”. “Il est injuste de dire que le design centrĂ© sur l’utilisateur a disparu – pour l’instant. Le secteur est toujours lĂ , mais les utilisateurs cibles ont changĂ©. Auparavant, les entreprises se concentraient sur les utilisateurs ; aujourd’hui, ce sont les LLM qui sont au cƓur de leurs prĂ©occupations”. DĂ©sormais, les chatbots sont devenus l’utilisateur.

  •  

Design vs IA, la grande rivalité

Le design a toujours Ă©tĂ© en concurrence avec l’IA, explique la designer Nolwenn Maudet dans un article pour l’Institut des cultures en rĂ©seau. « AprĂšs deux dĂ©cennies de riches dĂ©veloppements dans le design d’interaction, notamment portĂ©s par la conception des interactions tactiles nĂ©cessaires aux smartphones, la tendance s’est inversĂ©e. Le retour en grĂące de l’IA a coĂŻncidĂ©, au cours de la derniĂšre dĂ©cennie, avec la standardisation et l’appauvrissement progressifs du design d’interfaces, ce qui est, selon moi, loin d’ĂȘtre une coĂŻncidence. » Pour la designer, cette rivalitĂ© dĂ©coule de deux maniĂšres trĂšs diffĂ©rentes de penser la relation entre ordinateurs et humains. Du cĂŽtĂ© du design, l’enjeu est la capacitĂ© des humains Ă  prendre le contrĂŽle et Ă  piloter les ordinateurs, du cĂŽtĂ© des dĂ©veloppeurs d’IA, l’enjeu est plutĂŽt que les ordinateurs deviennent suffisamment intelligents pour ĂȘtre autonomes afin que les humains puissent leur confier des tĂąches. « Ainsi, mĂȘme si les promoteurs de l’IA ne le disent pas en ces termes, leur vision du futur, ce qu’ils visent, est la mort du design d’interaction, car vouloir tout anticiper revient finalement Ă  tout automatiser, Ă  Ă©liminer toute interaction ». Pour Maudet, reprenant les propos de Jonathan Grudin, on pourrait dire que l’Interaction homme-machine s’est dĂ©veloppĂ©e dans l’ombre de l’IA : « L’IHM a prospĂ©rĂ© pendant les hivers de l’IA et a progressĂ© plus lentement lorsque l’IA Ă©tait en faveur. »

Pourquoi l’IA est-elle si attractive ?

Pourquoi l’IA est-elle si attractive ? « Les causes sont complexes et tiennent largement Ă  des enjeux politiques et Ă©conomiques, car les techniques d’IA modernes reposent sur le modĂšle Ă©conomique lucratif de l’exploration et de la monĂ©tisation des donnĂ©es. Un autre problĂšme rĂ©side dans la distinction claire et l’absence de lien entre l’intelligence artificielle et les mĂ©tiers de l’interface au sein des entreprises. Enfin, le rĂŽle de l’imaginaire ne peut ĂȘtre nĂ©gligĂ©. En effet, il est difficile pour le design de faire rĂȘver comme l’IA le fait. CrĂ©er des entitĂ©s intelligentes et autonomes sur le terrain d’un cĂŽtĂ©, optimiser et faciliter l’utilisation d’un outil complexe de l’autre ». La concurrence est rude entre « la recherche sur les dĂ©fis perceptivo-moteurs et cognitifs des interfaces graphiques d’un cĂŽtĂ©, les machines exotiques et les promesses glamour de l’IA de l’autre. Les interfaces graphiques Ă©taient cool, mais l’IA a dominĂ© les financements et l’attention mĂ©diatique, et a prospĂ©rĂ© », explique encore Grudin. « Les interfaces ne sont jamais une fin en soi, mais simplement un moyen de permettre aux humains d’accomplir des tĂąches. En tant qu’outils, elles semblent inoffensives. D’autant plus que l’interface repose sur un paradoxe : elle passe inaperçue alors qu’elle est sous nos yeux. »

« Les actions et les volontĂ©s explicitĂ©es par nos interactions sont perçues comme subjectives, tandis que les donnĂ©es enregistrĂ©es par des capteurs et Ă  notre insu apparaissent plus objectives et donc vraies, un prĂ©supposĂ© largement erronĂ© qui persiste », explique Nolwenn Maudet en faisant rĂ©fĂ©rence au livre de Melanie Feinberg, Everyday Adventures with Unruly Data (MIT Press, 2022, non traduit) qui dĂ©fend une approche humaine des donnĂ©es d’abord et avant tout qu’elles restent ambiguĂ«s, complexes et incertaines. Pour Maudet, l’IA tend Ă  privilĂ©gier les interactions basĂ©es sur des signaux non explicites ou entiĂšrement volontaires de la part des utilisateurs : le regard plutĂŽt que la main, les expressions faciales plutĂŽt que les mots. Par exemple, les thermostats intelligents utilisent des capteurs pour dĂ©terminer les habitudes d’occupation et modifier la tempĂ©rature en fonction des comportements, ce qui traduit combien les ingĂ©nieurs de l’IA sont fondamentalement mĂ©fiants Ă  l’égard des actions humaines, quand les designers, eux, vont avoir tendance Ă  faciliter la configuration des paramĂštres par l’utilisateur

Le design reste pourtant la condition de succùs de l’IA

Pour la designer, l’engouement actuel pour l’IA ne devrait pourtant pas nous faire oublier que « l’IA a toujours besoin du design, des interfaces et des interactions, mĂȘme si elle feint de les ignorer ». Le design des interfaces reste la condition de succĂšs des systĂšmes prĂ©dictifs et des systĂšmes de recommandation. L’un des grands succĂšs de TikTok, repose bien plus sur l’effet hypnotique du dĂ©filement pour proposer un zapping perpĂ©tuel que sur la qualitĂ© de ses recommandations. L’IA ne pourrait exister ni fonctionner sans interfaces, mĂȘme si elle feint gĂ©nĂ©ralement de les ignorer. L’IA utilise souvent des proxys pour dĂ©terminer des comportements, comme d’arrĂȘter de vous recommander une sĂ©rie parce que vous avez interrompu l’épisode, qu’importe si c’était parce que vous aviez quelque chose de plus intĂ©ressant Ă  faire. Face Ă  des interprĂ©tations algorithmiques qu’ils ne maĂźtrisent pas, les utilisateurs sont alors contraints de trouver des parades souvent inefficaces pour tenter de dialoguer via une interface qui n’est pas conçue pour cela, comme quand ils likent toutes les publications d’un profil pour tenter de faire comprendre Ă  l’algorithme qu’il doit continuer Ă  vous les montrer. Ces tentatives de contournements montrent pourtant qu’on devrait permettre aux utilisateurs de « communiquer directement avec l’algorithme », c’est-Ă -dire de pouvoir plus facilement rĂ©gler leurs prĂ©fĂ©rences. Nous sommes confrontĂ©s Ă  une « dissociation stĂ©rile entre interface et algorithme », « rĂ©sultat de l’angle mort qui fait que toute interaction explicite avec l’IA est un Ă©chec de prĂ©diction ». « Le fait que la logique de l’interface soit gĂ©nĂ©ralement dĂ©connectĂ©e de celle de l’algorithme ne contribue pas Ă  sa lisibilitĂ© »

Maudet prend l’exemple des algorithmes de reconnaissance faciale qui produisent des classements depuis un score de confiance rarement communiquĂ© – voir notre Ă©dito sur ces enjeux. Or, publier ce score permettrait de suggĂ©rer de l’incertitude auprĂšs de ceux qui y sont confrontĂ©s. AmĂ©liorer les IA et amĂ©liorer les interfaces nĂ©cessite une bien meilleure collaboration entre les concepteurs d’IA et les concepteurs d’interfaces, suggĂšre pertinemment la designer, qui invite Ă  interroger par exemple l’interface textuelle dialogique de l’IA gĂ©nĂ©rative, qui a tendance Ă  anthropomorphiser le modĂšle, lui donnant l’apparence d’un locuteur humain sensible. Pour la designer Amelia Wattenberg, la pauvretĂ© de ces interfaces de chat devient problĂ©matique. « La tĂąche d’apprendre ce qui fonctionne incombe toujours Ă  l’utilisateur ». Les possibilitĂ©s offertes Ă  l’utilisateur de gĂ©nĂ©rer une image en Ă©tirant certaines de ses parties, nous montrent pourtant que d’autres interfaces que le seul prompt sont possibles. Mais cela invite les ingĂ©nieurs de l’IA Ă  assumer l’importance des interfaces. 

Complexifier l’algorithme plutît que proposer de meilleures interfaces

Les critiques de l’IA qui pointent ses limites ont souvent comme rĂ©ponse de corriger et d’amĂ©liorer le modĂšle et de mieux corriger les donnĂ©es pour tenter d’éliminer ses biais
 « sans remettre en question les interfaces par lesquelles l’IA existe et agit ». « L’amĂ©lioration consiste donc gĂ©nĂ©ralement Ă  complexifier l’algorithme, afin qu’il prenne en compte et intĂšgre des Ă©lĂ©ments jusque-lĂ  ignorĂ©s ou laissĂ©s de cĂŽtĂ©, ce qui se traduit presque inĂ©vitablement par de nouvelles donnĂ©es Ă  collecter et Ă  interprĂ©ter. On multiplie ainsi les entrĂ©es et les infĂ©rences, dans ce qui ressemble Ă  une vĂ©ritable fuite en avant. Et forcĂ©ment sans fin, puisqu’il ne sera jamais possible de produire des anticipations parfaites ».

« Reprenons le cas des algorithmes de recommandation, fortement critiquĂ©s pour leur tendance Ă  enfermer les individus dans ce qu’ils connaissent et consomment dĂ©jĂ . La rĂ©ponse proposĂ©e est de chercher le bon dosage, par exemple 60 % de contenu dĂ©jĂ  connu et 40 % de nouvelles dĂ©couvertes. Ce mĂ©lange est nĂ©cessairement arbitraire et laissĂ© Ă  la seule discrĂ©tion des concepteurs d’IA, mettant l’utilisateur de cĂŽtĂ©. Mais si l’on cherchait Ă  rĂ©soudre ce problĂšme par le design, une rĂ©ponse simpliste serait une interface offrant les deux options. Cela rendrait toutes les configurations possibles, nous forçant Ă  nous poser la question : est-ce que je veux plus de ce que j’ai dĂ©jĂ  Ă©coutĂ©, ou est-ce que je veux m’ouvrir ? Le design d’interaction encourage alors la rĂ©flexivitĂ©, mais exige attention et choix, ce que l’IA cherche prĂ©cisĂ©ment Ă  Ă©viter, et auquel nous sommes souvent trop heureux d’échapper ». 

Et Maudet d’inviter le design Ă  s’extraire de la logique Ă©thique de l’IA qui cherche « Ă  Ă©viter toute action ou rĂ©flexion de la part de l’utilisateur » en corrigeant par l’automatisation ses erreurs et ses biais.

« Le dĂ©veloppement des algorithmes s’est accompagnĂ© de la standardisation et de l’appauvrissement progressif des interactions et des interfaces qui les supportent ». Le design ne peut pas Ɠuvrer Ă  limiter la capacitĂ© d’action des utilisateurs, comme le lui commande dĂ©sormais les dĂ©veloppeurs d’IA. S’il Ɠuvre Ă  limiter la capacitĂ© d’action, alors il produit une conception impersonnelle et paralysante, comme l’a expliquĂ© le designer Silvio Lorusso dans son article sur la condition de l’utilisateur

Mais Maudet tape plus fort encore : « il existe un paradoxe Ă©vident et peu questionnĂ© entre la personnalisation ultime promise par l’intelligence artificielle et l’homogĂ©nĂ©isation universelle des interfaces imposĂ©e ces derniĂšres annĂ©es. Chaque flux est unique car un algorithme dĂ©termine son contenu. Et pourtant, le milliard d’utilisateurs d’Instagram ou de TikTok, oĂč qu’ils soient et quelle que soit la raison pour laquelle ils utilisent l’application, ont tous la mĂȘme interface sous les yeux et utilisent exactement les mĂȘmes interactions pour la faire fonctionner. Il est ironique de constater que lĂ  oĂč ces entreprises prĂ©tendent offrir une expĂ©rience personnalisĂ©e, jamais auparavant nous n’avons vu une telle homogĂ©nĂ©itĂ© dans les interfaces : le monde entier dĂ©file sans fin derriĂšre de simples fils de contenu. Le design, ralliĂ© Ă  la lutte pour la moindre interaction, accentue cette logique, effaçant ou relĂ©guant progressivement au second plan les paramĂštres qui permettaient souvent d’adapter le logiciel aux besoins individuels. Ce que nous avons perdu en termes d’adaptation explicite de nos interfaces a Ă©tĂ© remplacĂ© par une adaptation automatisĂ©e, les algorithmes Ă©tant dĂ©sormais chargĂ©s de compenser cette standardisation et de concrĂ©tiser le rĂȘve d’une expĂ©rience sur mesure et personnalisĂ©e. Puisque toutes les interfaces et interactions se ressemblent, la diffĂ©renciation incombe dĂ©sormais Ă©galement Ă  l’algorithme, privant le design de la possibilitĂ© d’ĂȘtre un vecteur d’expĂ©rimentation et un crĂ©ateur de valeur, y compris Ă©conomique ».

DĂ©sormais, la solution aux problĂšmes d’utilisation consiste bien souvent Ă  ajouter de l’IA, comme d’intĂ©grer un chatbot « dans l’espoir qu’il oriente les visiteurs vers l’information recherchĂ©e, plutĂŽt que de repenser la hiĂ©rarchie de l’information, l’arborescence du site et sa navigation ». 

Le risque est bien de mettre le design au service de l’IA plutĂŽt que l’inverse. Pas Ă©tonnant alors que la rĂ©ponse alternative et radicale, qui consiste Ă  penser la personnalisation des interfaces sans algorithmes, gagne de l’audience, comme c’est le cas sur le Fediverse, de Peertube Ă  Mastodon qui optent pour un retour Ă  l’éditorialisation humaine. La gĂ©nĂ©ralisation de l’utilisation de modĂšle d’IA sur Ă©tagĂšre et de bibliothĂšques de composants standardisĂ©s, rĂ©duisent les possibilitĂ©s de personnalisation par le design d’interaction. Nous sommes en train de revenir Ă  une informatique mainframe, dĂ©nonce Maudet, « ces ordinateurs puissants mais contrĂŽlĂ©s, une architecture qui limite par essence le pouvoir d’action de ses utilisateurs ». Les designers doivent rĂ©affirmer l’objectif de l’IHM : « mettre la puissance de l’ordinateur entre les mains des utilisateurs et d’accroĂźtre le potentiel humain plutĂŽt que celui de la machine »

Hubert Guillaud

MAJ du 9/09/2025 : Nolwenn Maudet vient de mettre une version en français de son article (.pdf) sur son site.

MAJ du 10/09/2025 : L’anthropologue Sally Applin dresse le mĂȘme constat dans un article pour Fast Company. Toutes les interfaces sont appelĂ©es Ă  ĂȘtre remplacĂ©es par des chatbots, explique Applin. Nos logiciels sont remplacĂ©s par une fenĂȘtre unique. Les chatbots sont prĂ©sentĂ©s comme un guichet unique pour tout, la zone de texte est en train d’engloutir toutes les applications. Nos interfaces rĂ©trĂ©cissent. Ce changement est une rupture radicale avec la conception d’interfaces telle qu’on l’a connaissait. Nous sommes passĂ©s de la conception d’outils facilitant la rĂ©alisation de tĂąches Ă  l’extraction de modĂšles servant les objectifs de l’entreprise qui dĂ©ploient les chatbots. “Nous avons cessĂ© d’ĂȘtre perçus comme des personnes ayant des besoins, pour devenir la matiĂšre premiĂšre d’indicateurs, de modĂšles et de domination du marchĂ©â€. Qu’importe si les chatbots produisent des rĂ©ponses incohĂ©rentes, c’est Ă  nous de constamment affiner les requĂȘtes pour obtenir quelque chose d’utile. “LĂ  oĂč nous utilisions autrefois des outils pour accomplir notre travail, nous le formons dĂ©sormais Ă  effectuer ce travail afin que nous puissions, Ă  notre tour, terminer le nĂŽtre”. “La ​​trajectoire actuelle du design vise Ă  effacer complĂštement l’interface, la remplaçant par une conversation sous surveillance – une Ă©coute mĂ©canisĂ©e dĂ©guisĂ©e en dialogue”. “Il est injuste de dire que le design centrĂ© sur l’utilisateur a disparu – pour l’instant. Le secteur est toujours lĂ , mais les utilisateurs cibles ont changĂ©. Auparavant, les entreprises se concentraient sur les utilisateurs ; aujourd’hui, ce sont les LLM qui sont au cƓur de leurs prĂ©occupations”. DĂ©sormais, les chatbots sont devenus l’utilisateur.

  •  

S’attaquer à la hype

On l’a vu, dans leur livre, The AI con, Emily Bender et Alex Hanna proposaient de lutter contre le battage mĂ©diatique de l’IA qui dĂ©forme notre comprĂ©hension de la rĂ©alitĂ©. Dans une tribune pour Tech Policy Press, le sociologue catalan Andreu Belsunces Gonçalves et le politiste Jascha Bareis proposent de combattre la hype en l’étudiant pour ce qu’elle est : un phĂ©nomĂšne politique. 

Pour eux, elle n’est pas une phase neutre des cycles d’adoption des technologies. La hype n’est pas non plus un phĂ©nomĂšne Ă©conomique. Elle est un projet dĂ©libĂ©rĂ© qui oriente l’imaginaire collectif au profit de certains. Le battage mĂ©diatique autour de la technologie et de l’informatique a permis d’affoler les marchĂ©s et les investissements. Les deux scientifiques en ont fait un projet de recherche transdisciplinaire pour comprendre les moteurs et les ressorts d’un phĂ©nomĂšne puissant et omniprĂ©sent qui influence l’économie, la finance, les agendas politiques, les rĂ©cits mĂ©diatiques et les dĂ©veloppements technologiques. ConcrĂštement, la hype se caractĂ©rise par une fascination pour les technologies d’avenir permettant de produire des promesses exagĂ©rĂ©es et irrĂ©alistes, un optimisme exacerbĂ© qui capte l’attention de tous et amplifie les phĂ©nomĂšnes spĂ©culatifs, jusqu’à parfois les rendre rĂ©els. 

Souvent considĂ©rĂ© comme naturel, le battage mĂ©diatique n’est pourtant jamais accidentel. Il est souvent conçu et entretenu stratĂ©giquement “pour surestimer les implications positives de la technologie tout en minimisant les implications nĂ©gatives”. Il joue sur le registre Ă©motionnel plutĂŽt que sur le registre rationnel pour crĂ©er une dynamique, pour concentrer l’attention et les investissements. Il a pour but de crĂ©er “l’illusion d’une fenĂȘtre d’opportunitĂ©â€... et sa potentialitĂ©. Il promet une rĂ©vĂ©lation Ă  ceux qui y plongent, promet de participer Ă  un moment dĂ©cisif comme Ă  une communion ouverte Ă  ceux qui souhaitent y contribuer. Il anime un sentiment d’urgence, une frĂ©nĂ©sie Ă©motionnelle qui permet Ă  ceux qui y participent de croire qu’ils appartiennent Ă  un petit groupe de happy few

Le battage mĂ©diatique est stratĂ©gique. Il sert Ă  dynamiser la croissance. Les incubateurs et accĂ©lĂ©rateurs encourageant les entrepreneurs Ă  surĂ©valuer leurs technologies, Ă  exagĂ©rer la taille du marchĂ©, Ă  renchĂ©rir sur la maturitĂ© du marchĂ©, sur l’attrait du produit
 comme le rappellent les mantra “fake it until you make it” ou “think big”. Ce narratif est une stratĂ©gie de survie pour passer les levĂ©es de fonds extrĂȘmement compĂ©titives. L’enjeu n’est pas tant de mentir que d’ĂȘtre indiffĂ©rent Ă  la vĂ©ritĂ©. De buzzer et briller avant tout. Le buzz technologique est devenu un Ă©lĂ©ment structurel des processus de changement sociotechnique contemporain. Le fictif y devient plausible. 

“Comme l’a montrĂ© la bulle autour de la « nouvelle Ă©conomie », le battage mĂ©diatique technologique est le fruit d’une double spĂ©culation : financiĂšre, visant Ă  multiplier les retours sur investissement dans des entreprises risquĂ©es ; et sociale, oĂč les entreprises attirent l’attention en promettant des avancĂ©es technologiques disruptives qui crĂ©eront des opportunitĂ©s technologiques, Ă©conomiques, politiques et sociales sans prĂ©cĂ©dent”. Dans le battage mĂ©diatique, tout le monde veut sa part du gĂąteau : des boursicoteurs en quĂȘte de plus-value aux journalistes en quĂȘte de clickbait aux politiciens en quĂȘte de croissance industrielle. Qu’importe si la hype fait basculer des promesses exagĂ©rĂ©es aux mensonges voire Ă  la fraude. 

“Dans une sociĂ©tĂ© de plus en plus financiarisĂ©e, le battage mĂ©diatique technologique devient une force dangereuse au moins Ă  deux Ă©gards. PremiĂšrement, les personnes les moins informĂ©es et les moins instruites sur les technologies et les marchĂ©s Ă©mergents sont plus vulnĂ©rables aux promesses sĂ©duisantes de revenus faciles. Comme le montrent les systĂšmes pyramidaux de cryptomonnaies – oĂč les premiers investisseurs vendent lorsque la valeur chute, laissant les nouveaux venus assumer les pertes –, le battage mĂ©diatique est une promesse de richesse”. Mais Ă  la haute rĂ©compense rĂ©pond la hauteur du risque, “oĂč les plus privilĂ©giĂ©s extraient les ressources des plus vulnĂ©rables”.

DeuxiĂšmement, le battage mĂ©diatique hĂ©gĂ©monique autour des technologies est souvent alimentĂ© par des promesses utopiques de salut qui se conjuguent aux chants des sirĂšnes de l’inĂ©luctabilitĂ©, tout en favorisant une transition vers un avenir cyberlibertaire. “Le battage mĂ©diatique autour des technologies n’est pas seulement une opportunitĂ© pour la spĂ©culation financiĂšre, mais aussi un catalyseur pour les idĂ©ologies qui appliquent le mĂ©canisme social-darwinien de survie Ă©conomique Ă  la sphĂšre sociale. Comme l’écrit le capital-risqueur Marc Andreessen dans son Manifeste techno-optimiste : « Les sociĂ©tĂ©s, comme les requins, croissent ou meurent.» La sĂ©lection naturelle ne laisse pas de place Ă  tous dans le futur.” Le cocktail d’acteurs fortunĂ©s, adoptant Ă  la fois des visions irrĂ©alistes et des positions politiques extrĂȘmes, fait du battage mĂ©diatique une stratĂ©gie pour concrĂ©tiser l’imagination nĂ©o-rĂ©actionnaire – et donc se doit de devenir un sujet urgent d’attention politique.

Les geeks sont devenus Rockefellers. Le battage mĂ©diatique les a rendu riches et leur a donnĂ© les rĂȘnes de la machine Ă  battage mĂ©diatique. Ils maĂźtrisent les algorithmes de la hype des mĂ©dias sociaux et de l’IA, maĂźtrisent la machine, les discours et dĂ©sormais, mĂȘme, la machine qui produit les discours. Quant aux gouvernements, ils ne tempĂšrent plus la hype, mais y participent pleinement. 

“Comprendre et dĂ©manteler la montĂ©e actuelle du techno-autoritarisme nĂ©cessite de dĂ©velopper une comprĂ©hension du fonctionnement du battage mĂ©diatique comme instrument politique”. Nous devons devenir collectivement moins vulnĂ©rables au battage mĂ©diatique et moins adhĂ©rent aux idĂ©ologies qu’il porte, estiment les deux chercheurs. VoilĂ  qui annonce un programme de travail chargĂ© !

Profitons-en pour signaler que la hype est Ă©galement l’un des angles que le sociologue Juan Sebastian Carbonell utilise pour Ă©voquer l’IA dans son lumineux nouveau livre, Un taylorisme augmentĂ© : critique de l’intelligence artificielle (Ă©ditions Amsterdam, 2025). Pour lui, les attentes technologiques « sont performatives Â». Elles guident Ă  la fois les recherches et les investissements. La promotion de l’IA passe en grande partie « par la mise en scĂšne de rĂ©volutions technologiques Â», via les mĂ©dias et via les shows technologiques et les lancements. Ces dĂ©monstrations servent la promotion des technologies pour qu’elles puissent constituer des marchĂ©s, tout en masquant leurs limites. L’une des hypes la plus rĂ©ussie a Ă©tĂ© bien sĂ»r la mise Ă  disposition de ChatGPT le 30 novembre 2022. La rĂ©vĂ©lation a permis Ă  l’entreprise d’attirer trĂšs rapidement utilisateurs et dĂ©veloppeurs pour amĂ©liorer son outil et lui a assurĂ© une position dominante, forçant les concurrents Ă  s’adapter au business model que l’entreprise a proposĂ©.

Les hypes sont des stratĂ©gies, rappelle Carbonell. Elles sont renforcĂ©es par le traitement mĂ©diatique qui permet de promouvoir la vision du changement technologique dĂ©fendue par les entreprises de l’IA, et qui permet d’entretenir les promesses technologiques. Le battage mĂ©diatique est trĂšs orientĂ© par les entreprises et permet de minimiser et occulter les usages controversĂ©s et problĂ©matiques. La hype est toujours partiale, rappelle le sociologue. Pour Carbonell, les hypes sont Ă©galement toujours cycliques, inflationnaires et dĂ©flationnaires. Et c’est justement Ă  les faire reculer que nous devrions Ɠuvrer. 

PS : Du 10 au 12 septembre, à Barcelone, Andreu Belsunces Gonçalves et Jascha Bareis organisent trois jours de colloque sur la hype

  •  

S’attaquer à la hype

On l’a vu, dans leur livre, The AI con, Emily Bender et Alex Hanna proposaient de lutter contre le battage mĂ©diatique de l’IA qui dĂ©forme notre comprĂ©hension de la rĂ©alitĂ©. Dans une tribune pour Tech Policy Press, le sociologue catalan Andreu Belsunces Gonçalves et le politiste Jascha Bareis proposent de combattre la hype en l’étudiant pour ce qu’elle est : un phĂ©nomĂšne politique. 

Pour eux, elle n’est pas une phase neutre des cycles d’adoption des technologies. La hype n’est pas non plus un phĂ©nomĂšne Ă©conomique. Elle est un projet dĂ©libĂ©rĂ© qui oriente l’imaginaire collectif au profit de certains. Le battage mĂ©diatique autour de la technologie et de l’informatique a permis d’affoler les marchĂ©s et les investissements. Les deux scientifiques en ont fait un projet de recherche transdisciplinaire pour comprendre les moteurs et les ressorts d’un phĂ©nomĂšne puissant et omniprĂ©sent qui influence l’économie, la finance, les agendas politiques, les rĂ©cits mĂ©diatiques et les dĂ©veloppements technologiques. ConcrĂštement, la hype se caractĂ©rise par une fascination pour les technologies d’avenir permettant de produire des promesses exagĂ©rĂ©es et irrĂ©alistes, un optimisme exacerbĂ© qui capte l’attention de tous et amplifie les phĂ©nomĂšnes spĂ©culatifs, jusqu’à parfois les rendre rĂ©els. 

Souvent considĂ©rĂ© comme naturel, le battage mĂ©diatique n’est pourtant jamais accidentel. Il est souvent conçu et entretenu stratĂ©giquement “pour surestimer les implications positives de la technologie tout en minimisant les implications nĂ©gatives”. Il joue sur le registre Ă©motionnel plutĂŽt que sur le registre rationnel pour crĂ©er une dynamique, pour concentrer l’attention et les investissements. Il a pour but de crĂ©er “l’illusion d’une fenĂȘtre d’opportunitĂ©â€... et sa potentialitĂ©. Il promet une rĂ©vĂ©lation Ă  ceux qui y plongent, promet de participer Ă  un moment dĂ©cisif comme Ă  une communion ouverte Ă  ceux qui souhaitent y contribuer. Il anime un sentiment d’urgence, une frĂ©nĂ©sie Ă©motionnelle qui permet Ă  ceux qui y participent de croire qu’ils appartiennent Ă  un petit groupe de happy few

Le battage mĂ©diatique est stratĂ©gique. Il sert Ă  dynamiser la croissance. Les incubateurs et accĂ©lĂ©rateurs encourageant les entrepreneurs Ă  surĂ©valuer leurs technologies, Ă  exagĂ©rer la taille du marchĂ©, Ă  renchĂ©rir sur la maturitĂ© du marchĂ©, sur l’attrait du produit
 comme le rappellent les mantra “fake it until you make it” ou “think big”. Ce narratif est une stratĂ©gie de survie pour passer les levĂ©es de fonds extrĂȘmement compĂ©titives. L’enjeu n’est pas tant de mentir que d’ĂȘtre indiffĂ©rent Ă  la vĂ©ritĂ©. De buzzer et briller avant tout. Le buzz technologique est devenu un Ă©lĂ©ment structurel des processus de changement sociotechnique contemporain. Le fictif y devient plausible. 

“Comme l’a montrĂ© la bulle autour de la « nouvelle Ă©conomie », le battage mĂ©diatique technologique est le fruit d’une double spĂ©culation : financiĂšre, visant Ă  multiplier les retours sur investissement dans des entreprises risquĂ©es ; et sociale, oĂč les entreprises attirent l’attention en promettant des avancĂ©es technologiques disruptives qui crĂ©eront des opportunitĂ©s technologiques, Ă©conomiques, politiques et sociales sans prĂ©cĂ©dent”. Dans le battage mĂ©diatique, tout le monde veut sa part du gĂąteau : des boursicoteurs en quĂȘte de plus-value aux journalistes en quĂȘte de clickbait aux politiciens en quĂȘte de croissance industrielle. Qu’importe si la hype fait basculer des promesses exagĂ©rĂ©es aux mensonges voire Ă  la fraude. 

“Dans une sociĂ©tĂ© de plus en plus financiarisĂ©e, le battage mĂ©diatique technologique devient une force dangereuse au moins Ă  deux Ă©gards. PremiĂšrement, les personnes les moins informĂ©es et les moins instruites sur les technologies et les marchĂ©s Ă©mergents sont plus vulnĂ©rables aux promesses sĂ©duisantes de revenus faciles. Comme le montrent les systĂšmes pyramidaux de cryptomonnaies – oĂč les premiers investisseurs vendent lorsque la valeur chute, laissant les nouveaux venus assumer les pertes –, le battage mĂ©diatique est une promesse de richesse”. Mais Ă  la haute rĂ©compense rĂ©pond la hauteur du risque, “oĂč les plus privilĂ©giĂ©s extraient les ressources des plus vulnĂ©rables”.

DeuxiĂšmement, le battage mĂ©diatique hĂ©gĂ©monique autour des technologies est souvent alimentĂ© par des promesses utopiques de salut qui se conjuguent aux chants des sirĂšnes de l’inĂ©luctabilitĂ©, tout en favorisant une transition vers un avenir cyberlibertaire. “Le battage mĂ©diatique autour des technologies n’est pas seulement une opportunitĂ© pour la spĂ©culation financiĂšre, mais aussi un catalyseur pour les idĂ©ologies qui appliquent le mĂ©canisme social-darwinien de survie Ă©conomique Ă  la sphĂšre sociale. Comme l’écrit le capital-risqueur Marc Andreessen dans son Manifeste techno-optimiste : « Les sociĂ©tĂ©s, comme les requins, croissent ou meurent.» La sĂ©lection naturelle ne laisse pas de place Ă  tous dans le futur.” Le cocktail d’acteurs fortunĂ©s, adoptant Ă  la fois des visions irrĂ©alistes et des positions politiques extrĂȘmes, fait du battage mĂ©diatique une stratĂ©gie pour concrĂ©tiser l’imagination nĂ©o-rĂ©actionnaire – et donc se doit de devenir un sujet urgent d’attention politique.

Les geeks sont devenus Rockefellers. Le battage mĂ©diatique les a rendu riches et leur a donnĂ© les rĂȘnes de la machine Ă  battage mĂ©diatique. Ils maĂźtrisent les algorithmes de la hype des mĂ©dias sociaux et de l’IA, maĂźtrisent la machine, les discours et dĂ©sormais, mĂȘme, la machine qui produit les discours. Quant aux gouvernements, ils ne tempĂšrent plus la hype, mais y participent pleinement. 

“Comprendre et dĂ©manteler la montĂ©e actuelle du techno-autoritarisme nĂ©cessite de dĂ©velopper une comprĂ©hension du fonctionnement du battage mĂ©diatique comme instrument politique”. Nous devons devenir collectivement moins vulnĂ©rables au battage mĂ©diatique et moins adhĂ©rent aux idĂ©ologies qu’il porte, estiment les deux chercheurs. VoilĂ  qui annonce un programme de travail chargĂ© !

Profitons-en pour signaler que la hype est Ă©galement l’un des angles que le sociologue Juan Sebastian Carbonell utilise pour Ă©voquer l’IA dans son lumineux nouveau livre, Un taylorisme augmentĂ© : critique de l’intelligence artificielle (Ă©ditions Amsterdam, 2025). Pour lui, les attentes technologiques « sont performatives Â». Elles guident Ă  la fois les recherches et les investissements. La promotion de l’IA passe en grande partie « par la mise en scĂšne de rĂ©volutions technologiques Â», via les mĂ©dias et via les shows technologiques et les lancements. Ces dĂ©monstrations servent la promotion des technologies pour qu’elles puissent constituer des marchĂ©s, tout en masquant leurs limites. L’une des hypes la plus rĂ©ussie a Ă©tĂ© bien sĂ»r la mise Ă  disposition de ChatGPT le 30 novembre 2022. La rĂ©vĂ©lation a permis Ă  l’entreprise d’attirer trĂšs rapidement utilisateurs et dĂ©veloppeurs pour amĂ©liorer son outil et lui a assurĂ© une position dominante, forçant les concurrents Ă  s’adapter au business model que l’entreprise a proposĂ©.

Les hypes sont des stratĂ©gies, rappelle Carbonell. Elles sont renforcĂ©es par le traitement mĂ©diatique qui permet de promouvoir la vision du changement technologique dĂ©fendue par les entreprises de l’IA, et qui permet d’entretenir les promesses technologiques. Le battage mĂ©diatique est trĂšs orientĂ© par les entreprises et permet de minimiser et occulter les usages controversĂ©s et problĂ©matiques. La hype est toujours partiale, rappelle le sociologue. Pour Carbonell, les hypes sont Ă©galement toujours cycliques, inflationnaires et dĂ©flationnaires. Et c’est justement Ă  les faire reculer que nous devrions Ɠuvrer. 

PS : Du 10 au 12 septembre, à Barcelone, Andreu Belsunces Gonçalves et Jascha Bareis organisent trois jours de colloque sur la hype

  •  

L’IA ne nous simplifie toujours pas la vie

Comme Ă  son habitude Ian Bogost tape juste. Les vendeurs nous promettent que nos machines vont nous simplifier la vie, pourtant, elles n’y arrivent toujours pas, constate-t-il en voyant que Siri ne veut toujours pas lui donner la direction pour le magasin de bricolage Lowe le plus proche, mais lui propose plutĂŽt de l’amener Ă  1300 km de chez lui, chez un contact qui a ce terme dans son adresse. Quand on demande Ă  Siri de trouver des fichiers sur son ordinateur, il nous montre comment ouvrir le gestionnaire de fichier pour nous laisser faire. Quand on lui demande des photos du barbecue, il va les chercher sur le net plutĂŽt que de regarder dans nos bibliothĂšques d’images. 

Avec l’IA, pourtant, tout le monde nous dit que nos ordinateurs vont devenir plus intelligents, raille Bogost. « Pendant des annĂ©es, on nous a dit que les interactions fluides avec nos appareils finiraient par se gĂ©nĂ©raliser. Aujourd’hui, nous constatons le peu de progrĂšs accomplis vers cet objectif Â»
« L’intelligence artificielle d’Apple – en rĂ©alitĂ©, l’IA gĂ©nĂ©rative dans son ensemble – met en lumiĂšre une triste rĂ©alitĂ©. L’histoire des interfaces d’ordinateurs personnels est elle aussi une histoire de dĂ©ceptions Â». On est passĂ© des commandes Ă©sotĂ©riques pour retrouver des fichiers Ă  l’arborescence des rĂ©pertoires. Mais ce progrĂšs nous a surtout conduit Ă  crouler sous les donnĂ©es. Certes, on trouve bien mieux ce qu’on cherche en ligne que dans nos propres donnĂ©es. Mais ChatGPT est toujours incapable de vous aider Ă  dĂ©crypter notre boĂźte de rĂ©ception ou nos fichiers. Apple Intelligence ou Google continuent de s’y essayer. Mais l’un comme l’autre sont plus obsĂ©dĂ©s par ce qui se trouve en ligne que par ce que l’utilisateur met de cĂŽtĂ© sur sa machine. « Utiliser un ordinateur pour naviguer entre mon travail et ma vie personnelle reste Ă©trangement difficile. Les calendriers ne se synchronisent pas correctement. La recherche d’e-mails ne fonctionne toujours pas correctement, pour une raison inconnue. Les fichiers sont dispersĂ©s partout, dans diverses applications et services, et qui sait oĂč ? Si les informaticiens ne parviennent mĂȘme pas Ă  faire fonctionner efficacement des machines informatiques par l’IA, personne ne croira jamais qu’ils peuvent le faire pour quoi que ce soit, et encore moins pour tout le reste Â».

  •  

L’IA ne nous simplifie toujours pas la vie

Comme Ă  son habitude Ian Bogost tape juste. Les vendeurs nous promettent que nos machines vont nous simplifier la vie, pourtant, elles n’y arrivent toujours pas, constate-t-il en voyant que Siri ne veut toujours pas lui donner la direction pour le magasin de bricolage Lowe le plus proche, mais lui propose plutĂŽt de l’amener Ă  1300 km de chez lui, chez un contact qui a ce terme dans son adresse. Quand on demande Ă  Siri de trouver des fichiers sur son ordinateur, il nous montre comment ouvrir le gestionnaire de fichier pour nous laisser faire. Quand on lui demande des photos du barbecue, il va les chercher sur le net plutĂŽt que de regarder dans nos bibliothĂšques d’images. 

Avec l’IA, pourtant, tout le monde nous dit que nos ordinateurs vont devenir plus intelligents, raille Bogost. « Pendant des annĂ©es, on nous a dit que les interactions fluides avec nos appareils finiraient par se gĂ©nĂ©raliser. Aujourd’hui, nous constatons le peu de progrĂšs accomplis vers cet objectif Â»
« L’intelligence artificielle d’Apple – en rĂ©alitĂ©, l’IA gĂ©nĂ©rative dans son ensemble – met en lumiĂšre une triste rĂ©alitĂ©. L’histoire des interfaces d’ordinateurs personnels est elle aussi une histoire de dĂ©ceptions Â». On est passĂ© des commandes Ă©sotĂ©riques pour retrouver des fichiers Ă  l’arborescence des rĂ©pertoires. Mais ce progrĂšs nous a surtout conduit Ă  crouler sous les donnĂ©es. Certes, on trouve bien mieux ce qu’on cherche en ligne que dans nos propres donnĂ©es. Mais ChatGPT est toujours incapable de vous aider Ă  dĂ©crypter notre boĂźte de rĂ©ception ou nos fichiers. Apple Intelligence ou Google continuent de s’y essayer. Mais l’un comme l’autre sont plus obsĂ©dĂ©s par ce qui se trouve en ligne que par ce que l’utilisateur met de cĂŽtĂ© sur sa machine. « Utiliser un ordinateur pour naviguer entre mon travail et ma vie personnelle reste Ă©trangement difficile. Les calendriers ne se synchronisent pas correctement. La recherche d’e-mails ne fonctionne toujours pas correctement, pour une raison inconnue. Les fichiers sont dispersĂ©s partout, dans diverses applications et services, et qui sait oĂč ? Si les informaticiens ne parviennent mĂȘme pas Ă  faire fonctionner efficacement des machines informatiques par l’IA, personne ne croira jamais qu’ils peuvent le faire pour quoi que ce soit, et encore moins pour tout le reste Â».

  •  

Nicolas n’existe pas

« La France ne vit pas grĂące Ă  une classe de travailleurs hĂ©roĂŻques opposĂ©e Ă  une masse de profiteurs paresseux. Elle repose sur une multitude de contributions : celles des ouvriers, des soignants, des enseignants, des agriculteurs, des caissiĂšres, des aides-soignantes, des fonctionnaires, des livreurs
 et mĂȘme des retraitĂ©s et des chĂŽmeurs, qui ont cotisĂ© ou qui cherchent Ă  rebondir. Ce sont ces millions de vies concrĂštes qui tiennent debout notre pays. Â» Gaspard Gantzer

  •  

« Aux machines, citoyens ! Â»

“L’enjeu de la dĂ©mocratie des techniques est d’organiser l’articulation de la citoyennetĂ© aux enjeux techniques, parce que de leur rĂ©ponse dĂ©pend l’autonomie et la capacitĂ© de chacun et du collectif Ă  participer Ă  la dĂ©finition des conditions d’une vie bonne, de la justice et de l’histoire d’une sociĂ©tĂ©â€. Adeline Barbin, La dĂ©mocratie des techniques (Hermann, 2024), via La vie des IdĂ©es. :  

  •  

Nicolas n’existe pas

« La France ne vit pas grĂące Ă  une classe de travailleurs hĂ©roĂŻques opposĂ©e Ă  une masse de profiteurs paresseux. Elle repose sur une multitude de contributions : celles des ouvriers, des soignants, des enseignants, des agriculteurs, des caissiĂšres, des aides-soignantes, des fonctionnaires, des livreurs
 et mĂȘme des retraitĂ©s et des chĂŽmeurs, qui ont cotisĂ© ou qui cherchent Ă  rebondir. Ce sont ces millions de vies concrĂštes qui tiennent debout notre pays. Â» Gaspard Gantzer

  •  

« Aux machines, citoyens ! Â»

“L’enjeu de la dĂ©mocratie des techniques est d’organiser l’articulation de la citoyennetĂ© aux enjeux techniques, parce que de leur rĂ©ponse dĂ©pend l’autonomie et la capacitĂ© de chacun et du collectif Ă  participer Ă  la dĂ©finition des conditions d’une vie bonne, de la justice et de l’histoire d’une sociĂ©tĂ©â€. Adeline Barbin, La dĂ©mocratie des techniques (Hermann, 2024), via La vie des IdĂ©es. :  

  •  

ChatGPT5, la déception

« Le peu de progrĂšs dĂ©montrĂ© par ChatGPT version 5 confirme les craintes de nombreux experts sur l’impasse du modĂšle de dĂ©veloppement des programmes d’IA gĂ©nĂ©rative. La course au gigantisme (des modĂšles toujours plus complexes utilisant toujours plus de paramĂštres et de donnĂ©es, donc nĂ©cessitant toujours plus de data centers) sur lequel il repose ne produit plus les sauts qualitatifs escomptĂ©s. Â» Christophe Le Boucher sur FakeTech.

  •  

ChatGPT5, la déception

« Le peu de progrĂšs dĂ©montrĂ© par ChatGPT version 5 confirme les craintes de nombreux experts sur l’impasse du modĂšle de dĂ©veloppement des programmes d’IA gĂ©nĂ©rative. La course au gigantisme (des modĂšles toujours plus complexes utilisant toujours plus de paramĂštres et de donnĂ©es, donc nĂ©cessitant toujours plus de data centers) sur lequel il repose ne produit plus les sauts qualitatifs escomptĂ©s. Â» Christophe Le Boucher sur FakeTech.

  •  

IA, la grande escroquerie

La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique Ă  l’universitĂ© de Washington. Elle fait partie des 100 personnalitĂ©s de l’IA distinguĂ©es par le Time en 2023. Elle est surtout connue pour ĂȘtre l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du dĂ©veloppement des grands modĂšles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient Ă©galement une newsletter commune et un podcast Ă©ponyme, « Mystery AI Hype Theater 3000 Â», oĂč elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraĂźtre comme un brĂ»lot technocritique, mais il est plutĂŽt une synthĂšse trĂšs documentĂ©e de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvĂ© “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placĂ©s se sont positionnĂ©s pour accumuler des richesses importantes en extrayant de la valeur du travail crĂ©atif, des donnĂ©es personnelles ou du travail d’autres personnes et en remplaçant des services de qualitĂ© par des fac-similĂ©s Â». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage mĂ©diatique, la hype qu’ils entretiennent, les propos qu’ils dissĂ©minent pour entretenir la frĂ©nĂ©sie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carriĂšres stables et les remplacer par du travail Ă  la tĂąche, rĂ©duire le personnel, dĂ©prĂ©cier les services sociaux et dĂ©grader la crĂ©ativitĂ© humaine Â».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing Â». L’IA ne se rĂ©fĂšre pas Ă  un ensemble cohĂ©rent de technologies. « L’IA permet de faire croire Ă  ceux Ă  qui on la vend que la technologie que l’on vend est similaire Ă  l’humain, qu’elle serait capable de faire ce qui en fait, nĂ©cessite intrinsĂšquement le jugement, la perception ou la crĂ©ativitĂ© humaine Â». Les calculatrices sont bien meilleures que les humains pour l’arithmĂ©tique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert Ă  automatiser les dĂ©cisions, Ă  classifier, Ă  recommander, Ă  traduire et transcrire et Ă  gĂ©nĂ©rer des textes ou des images. Toutes ces diffĂ©rentes fonctions assemblĂ©es sous le terme d’IA crĂ©ent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses consĂ©quences, par exemple dans le domaine de l’aide sociale. Le battage mĂ©diatique, la hype, est Ă©galement un Ă©lĂ©ment important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de mĂ©thodes statistiques appelĂ© Ă  changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits Â». Altman et ses confrĂšres ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile oĂč les machines prendront notre place, feront le travail difficile et rĂ©pĂ©titif Ă  notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de mĂ©thodes pour crĂ©er des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernĂ©tique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour dĂ©signer des outils pour le guidage de systĂšmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. DĂšs le dĂ©but, la « discipline Â» repose donc sur de grandes prĂ©tentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. DĂšs le dĂ©but, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent Ă©galer les capacitĂ©s humaines, notamment en estimant que les capacitĂ©s humaines ne sont pas si complexes. 

Des outils de manipulation
 sans entraves

L’une des premiĂšres grande rĂ©alisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommĂ©e ainsi en rĂ©fĂ©rence Ă  Eliza Doolittle, l’hĂ©roĂŻne de Pygmalion, la piĂšce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolĂ©taire qui apprend Ă  imiter le discours de la classe supĂ©rieure. DerriĂšre ce nom trĂšs symbolique, le chatbot est conçu comme un psychothĂ©rapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum Ă©tait convaincu qu’en montrant le fonctionnement trĂšs basique et trĂšs trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir Ă  ses rĂ©ponses. C’est l’inverse qui se produisit pourtant. Tout mĂ©canique qu’était Eliza, Weizenbaum a Ă©tĂ© surpris de l’empathie gĂ©nĂ©rĂ©e par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrĂ©e dans l’ñge de l’IA. Son crĂ©ateur, lui, passera le reste de sa vie Ă  ĂȘtre trĂšs critique de l’IA, d’abord en s’inquiĂ©tant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se rĂ©vĂ©lait particuliĂšrement dĂ©lĂ©tĂšre, notamment en trompant Ă©motionnellement ses interlocuteurs, ceux-ci interprĂ©tant les rĂ©ponses comme s’ils Ă©taient Ă©coutĂ©s par cette machine. DĂšs l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnĂ©e aux investissements publics et Ă  la spĂ©culation privĂ©e. 

Bien sĂ»r, il y a des applications de l’IA bien testĂ©es et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systĂšmes d’aide Ă  la dĂ©tection d’anomalies d’images mĂ©dicales. Mais, en quelques annĂ©es, l’IA est devenue la solution Ă  toutes les activitĂ©s humaines. Pourtant, toutes, mĂȘmes les plus accomplies, comme les correcteurs orthographiques ou les systĂšmes d’images mĂ©dicales ont des dĂ©faillances. Et leurs dĂ©faillances sont encore plus vives quand les outils sont imbriquĂ©s Ă  d’autres et quand leurs applications vont au-delĂ  des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de dĂ©faillances, comme celles que nous Ă©voquons en continue ici, Dans les algorithmes

Ces dĂ©faillances dont la presse et la recherche se font souvent les Ă©chos ont des points communs. Toutes reposent sur des gens qui nous survendent les systĂšmes d’automatisation comme les trĂšs versatiles « machines Ă  extruder du texte Â» – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement Ă  des imprimantes 3D censĂ©es imprimer, plus ou moins fidĂšlement, du texte depuis tous les textes, censĂ©es extruder du sens ou plutĂŽt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens lĂ  oĂč il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs Ă  produire des parĂ©idolies, des apophĂ©nies, c’est-Ă -dire du sens, des causalitĂ©s, lĂ  oĂč il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les mĂ©decins IA ne soigneront aucun de vos maux Â». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. MalgrĂ© ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de rĂ©duire la qualitĂ© des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux dĂ©cideurs et aux entrepreneurs de continuer Ă  se remplir les poches Â».   

DĂ©construire l’emballement

Dans leur livre, Bender et Hanna dĂ©construisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le rĂ©sultat d’un traitement statistique Ă  trĂšs grande Ă©chelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dĂšs les annĂ©es 50, Minsky promettait dĂ©jĂ  la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose Ă  vendre. Cette fiction de la conscience ne sert qu’à dĂ©valuer la nĂŽtre. Les « rĂ©seaux neuronaux Â» sont un terme fallacieux, qui vient du fait que ces premiĂšres machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les annĂ©es 40. Or, ces systĂšmes ne font que prĂ©dire statistiquement le mot suivant dans leurs donnĂ©es de rĂ©fĂ©rences. ChatGPT n’est rien d’autre qu’une « saisie automatique amĂ©liorĂ©e Â». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontĂ©s Ă  du texte ou Ă  des signes, nous l’interprĂ©tons automatiquement. Les bĂ©bĂ©s n’apprennent pas le langage par une exposition passive et isolĂ©e, rappelle la linguiste. Nous apprenons le langage par l’attention partagĂ©e avec autrui, par l’intersubjectivitĂ©. C’est seulement aprĂšs avoir appris un langage en face Ă  face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la mĂȘme technique de comprĂ©hension : « nous imaginons l’esprit derriĂšre le texte Â». Les LLM n’ont ni subjectivitĂ© ni intersubjectivitĂ©. Le fait qu’ils soient modĂ©lisĂ©s pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accĂšs au sens ou Ă  une quelconque intention. Ils ne produisent que du texte synthĂ©tique plausible. ChatGPT n’est qu’une machine Ă  extruder du texte, « comme un processus industriel extrude du plastique Â». Leur fonction est une fonction de production
 voire de surproduction. 

Les promoteurs de l’IA ne cessent de rĂ©pĂ©ter que leurs machines approchent de la conscience ou que les ĂȘtre humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions Ă©changer avec elles comme si elles Ă©taient des compagnons ou des amis. Dans cet argumentaire, les humains sont rĂ©duits Ă  des machines. Weizenbaum estimait pourtant que les machines resserrent plutĂŽt qu’élargissent notre humanitĂ© en nous conduisant Ă  croire que nous serions comme elles. « En confiant tant de dĂ©cisions aux ordinateurs, pensait-il, nous avions créé un monde plus inĂ©gal et moins rationnel, dans lequel la richesse de la raison humaine avait Ă©tĂ© rĂ©duite Ă  des routines insensĂ©es de code Â», rappelle Tarnoff. L’informatique rĂ©duit les gens et leur expĂ©rience Ă  des donnĂ©es. Les promoteurs de l’IA passent leur temps Ă  dĂ©valuer ce que signifie ĂȘtre humain, comme l’ont montrĂ© les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considĂ©rĂ©es comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette maniĂšre de dĂ©valuer l’humain par la machine, d’évaluer la machine selon sa capacitĂ© Ă  rĂ©soudre les problĂšmes n’est pas sans rappeler les dĂ©rives de la mesure de l’intelligence et ses dĂ©lires racistes. La mesure de l’intelligence a toujours Ă©tĂ© utilisĂ©e pour justifier les inĂ©galitĂ©s de classe, de genre, de race. Et le dĂ©lire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumentĂ© par des millionnaires tous problĂ©matiques, de Musk Ă  Thiel en passant par Altman ou Andreessen
 tous promoteurs de l’eugĂ©nisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna Ă©grĂšnent Ă  leur tour nombre d’exemples des propos problĂ©matiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique portĂ© par des gens qui n’ont rien Ă  faire de la dĂ©mocratie parce qu’elle dessert leurs intĂ©rĂȘts et qui tentent de nous convaincre que la rationalitĂ© qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondĂ©ment orientĂ©e par leurs intĂ©rĂȘts – je vous renvoie au livre de Thibault PrĂ©vost, Les prophĂštes de l’IA, qui dit de maniĂšre plus politique encore que Bender et Hanna, les dĂ©rives idĂ©ologiques des grands acteurs de la tech.  

De l’automatisation Ă  l’IA : dĂ©valuer le travail

L’IA se dĂ©ploie partout avec la mĂȘme promesse, celle qu’elle va amĂ©liorer la productivitĂ©, quand elle propose d’abord « de remplacer le travail par la technologie Â». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique Â», expliquent les chercheuses. « L’IA est dĂ©ployĂ©e pour dĂ©valuer le travail en menaçant les travailleurs par la technologie qui est supposĂ©e faire leur travail Ă  une fraction de son coĂ»t Â»

En vĂ©ritĂ©, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payĂ©e Ă  l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carriĂšres que nous pouvons bĂątir, par du travail Ă  la tĂąche. L’IA ne propose que de remplacer les travailleurs de la crĂ©ation par des « babysitters de machines synthĂ©tiques Â»

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivitĂ©. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratĂ©gie plus vaste visant Ă  transfĂ©rer les coĂ»ts sur les travailleurs et Ă  accumuler des richesses pour ceux qui contrĂŽlent les machines. Â» 

Ceux qui s’opposent Ă  l’automatisation ne sont pas de simples Luddites qui refuseraient le progrĂšs (ceux-ci d’ailleurs n’étaient pas opposĂ©s Ă  la technologie et Ă  l’innovation, comme on les prĂ©sente trop souvent, mais bien plus opposĂ©s Ă  la façon dont les propriĂ©taires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misĂšres, pour produire des produits de moins bonnes qualitĂ©s et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au dĂ©but du XIXe siĂšcle au Royaume-Uni a rĂ©duit le besoin de travailleurs de 75%. Ceux qui sont entrĂ©s dans l’industrie ont Ă©tĂ© confrontĂ©s Ă  des conditions de travail Ă©pouvantables oĂč les blessures Ă©taient monnaie courantes. Les Luddites Ă©taient bien plus opposĂ©s aux conditions de travail de contrĂŽle et de coercition qui se mettaient en place qu’opposĂ©s au dĂ©ploiement des machines), mais d’abord des gens concernĂ©s par la dĂ©gradation de leur santĂ©, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siĂšcle, notamment dans l’industrie automobile. Chez Ford, elle devient trĂšs tĂŽt une stratĂ©gie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rĂ©munĂ©ration Ă  ses employĂ©s (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail Ă©taient tout autant Ă©pouvantables et punitives que dans les usines de la confection du dĂ©but du XIXe siĂšcle. L’automatisation a toujours Ă©tĂ© associĂ©e Ă  la fois au chĂŽmage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dĂšs les annĂ©es 50 dans les mines, permettaient d’employer 3 fois moins de personnes et Ă©taient particuliĂšrement meurtriĂšres. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepĂŽts vise Ă  contrĂŽler la vitesse d’exĂ©cution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie Ă  chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dĂ©grader les conditions de travail au nom de la productivitĂ©

D’ailleurs, rappellent les chercheuses, quatre mois aprĂšs la sortie de ChatGPT, les chercheurs d’OpenAI ont publiĂ© un rapport assez peu fiable sur l’impact du chatbot sur le marchĂ© du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu trĂšs tĂŽt son intĂ©rĂȘt Ă  promouvoir l’automatisation comme un job killer. C’est le cas Ă©galement des cabinets de conseils qui vendent aux entreprises des modalitĂ©s pour rĂ©aliser des Ă©conomies et amĂ©liorer les profits, et qui ont Ă©galement produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’ĂȘtre rĂ©el pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dĂ©grader nos conditions de travail. Les scĂ©naristes sont payĂ©s moins chers pour réécrire un script que pour en Ă©crire un, tout comme les traducteurs sont payĂ©s moins chers pour traduire ce qui a Ă©tĂ© prĂ©mĂąchĂ© par l’IA. Pas Ă©tonnant alors que de nombreux collectifs s’opposent Ă  leurs dĂ©ploiements, Ă  l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (rĂ©currentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent Ă  nous alors qu’ils ne fonctionnent pas Â». Les exemples sont nombreux, Ă  l’image des travailleurs de l’association amĂ©ricaine de lutte contre les dĂ©sordres alimentaires qui ont Ă©tĂ© remplacĂ©s, un temps, par un chatbot, deux semaines aprĂšs s’ĂȘtre syndiquĂ©s. Un chatbot qui a dĂ» ĂȘtre rapidement retirĂ©, puisqu’il conseillait n’importe quoi Ă  ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systĂšmes d’IA ne consiste pas Ă  faire plus avec moins, mais juste moins pour plus de prĂ©judices Â» – et plus de bĂ©nĂ©fices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de crĂ©er un semblant de diversitĂ©, alors qu’en rĂ©alitĂ©, ils rĂ©duisent les opportunitĂ©s des mannequins issus de la diversitĂ©. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus Ă  corriger leurs erreurs, Ă  nettoyer, Ă  ĂȘtre les babysitters de l’IA. Des babysitters de plus en plus invisibilisĂ©s. Les robotaxis autonomes de Cruise sont monitorĂ©s et contrĂŽlĂ©s Ă  distance. Tous les outils d’IA ont recours Ă  un travail cachĂ©, invisible, externalisĂ©. Et ce dĂšs l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait Ă  labelliser des images pour servir Ă  l’entraĂźnement des machines n’aurait pas Ă©tĂ© possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont Ă©tĂ© mobilisĂ©s pour crĂ©er le dataset qui a permis Ă  l’IA de dĂ©coller. « Le modĂšle d’ImageNet consistant Ă  exploiter des travailleurs Ă  la tĂąche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas Ă©tonnant donc que les travailleurs tentent de rĂ©pondre et de s’organiser, Ă  l’image des scĂ©naristes et des acteurs d’Hollywood et de leur 148 jours de grĂšve. Mais toutes les professions ne sont pas aussi bien organisĂ©es. D’autres tentent d’autres mĂ©thodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protĂ©ger leurs crĂ©ations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisĂ©es, c’est bien plus pour se dĂ©charger de leurs responsabilitĂ©s que pour amĂ©liorer leurs rĂ©ponses”

L’escroquerie de l’IA se dĂ©veloppe Ă©galement dans les services sociaux. Sous prĂ©texte d’austĂ©ritĂ©, les solutions automatisĂ©es sont partout envisagĂ©es comme « la seule voie Ă  suivre pour les services gouvernementaux Ă  court d’argent Â». L’accĂšs aux services sociaux est remplacĂ© par des « contrefaçons bon marchĂ©s Â» pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inĂ©galitĂ©s au dĂ©triment de ceux qui sont dĂ©jĂ  marginalisĂ©s. Bien sĂ»r, les auteurs font rĂ©fĂ©rence ici Ă  des sources que nous avons dĂ©jĂ  mobilisĂ©s, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacitĂ© ne rend les autoritĂ©s efficaces que pour nuire aux plus dĂ©munis« . C’est par exemple le cas de la dĂ©tention prĂ©ventive. En 2024, 500 000 amĂ©ricains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remĂ©dier Ă  cela, plusieurs Etats ont recours Ă  des solutions algorithmiques pour Ă©valuer le risque de rĂ©cidive sans rĂ©soudre le problĂšme, au contraire, puisque ces calculs ont surtout servi Ă  accabler les plus dĂ©munis. A nouveau, « l’automatisation partout vise bien plus Ă  abdiquer la gouvernance qu’à l’amĂ©liorer Â»

“De partout, quand les services publics se tournent vers des solutions automatisĂ©es, c’est bien plus pour se dĂ©charger de leurs responsabilitĂ©s que pour amĂ©liorer leurs rĂ©ponses”, constatent, dĂ©sabusĂ©es, Bender et Hanna. Et ce n’est pas qu’une caractĂ©ristique des autoritĂ©s rĂ©publicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur dĂ©mocrate de la Californie dĂ©multiplie les projets d’IA gĂ©nĂ©rative, par exemple pour adresser le problĂšme des populations sans domiciles afin de mieux identifier la disponibilitĂ© des refuges
 « Les machines Ă  extruder du texte pourtant, ne savent que faire cela, pas extruder des abris Â». De partout d’ailleurs, toutes les autoritĂ©s publiques ont des projets de dĂ©veloppement de chatbots et des projets de systĂšmes d’IA pour rĂ©soudre les problĂšmes de sociĂ©tĂ©. Les autoritĂ©s oublient que ce qui affecte la santĂ©, la vie et la libertĂ© des gens nĂ©cessite des rĂ©ponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils dĂ©faillants
 dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualitĂ© de leur Ă©valuation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-mĂȘme est restĂ©e dĂ©ficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisĂ©s par les donnĂ©es d’entraĂźnements qui sont rarement reprĂ©sentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronĂ©s, mais comptent tout mots comme Ă©tant Ă©quivalent, alors que certains peuvent ĂȘtre bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnĂ©e trĂšs importante quand on appelle un service d’urgence, or, c’est lĂ  que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilĂ© de l’Etat providence Â»

Depuis l’arrivĂ©e de l’IA gĂ©nĂ©rative, l’évaluation semble mĂȘme avoir dĂ©raillĂ© (voir notre article « De la difficultĂ© Ă  Ă©valuer l’IA Â»). DĂ©sormais, ils deviennent des concours (par exemple en tentant de les classer selon leur rĂ©ponses Ă  des tests de QI) et des outils de classements pour eux-mĂȘmes, comme s’en inquiĂ©taient dĂ©jĂ  les chercheuses dans un article de recherche. La capacitĂ© des modĂšles d’IA gĂ©nĂ©rative Ă  performer aux Ă©valuations tient d’un effet Hans le malin, du nom du cheval qui avait appris Ă  dĂ©coder les signes de son maĂźtre pour faire croire qu’il Ă©tait capable de compter. On fait passer des tests qu’on propose aux professionnels pour Ă©valuer ces systĂšmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delĂ  des tests pour ces professions, comme la crĂ©ativitĂ©, le soin aux autres. MalgrĂ© les innombrables dĂ©faillances d’outils dans le domaine de la santĂ© (on se souvient des algorithmes dĂ©faillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus Ă©levĂ©s que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dĂ©noncĂ©s par l’association nationale des infirmiĂšres
), cela n’empĂȘche pas les outils de prolifĂ©rer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lĂšve des centaines de millions de dollars pour produire d’épouvantables chatbots spĂ©cialisĂ©s. Et ne parlons pas des chatbots utilisĂ©s comme psy et coach personnels, aussi inappropriĂ©s que l’était Eliza il y a 55 ans
 Le fait de pousser l’IA dans la santĂ© n’a pas d’autres buts que de dĂ©grader les conditions de travail des professionnels et d’élargir le fossĂ© entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissĂ©s aux « contrefaçons Ă©lectroniques bon marchĂ©s Â». Les chercheuses font le mĂȘme constat dans le dĂ©veloppement de l’IA dans le domaine scolaire, oĂč, pour contrer la gĂ©nĂ©ralisation de l’usage des outils par les Ă©lĂšves, les institutions investissent dans des outils de dĂ©tection dĂ©faillants qui visent Ă  surveiller et punir les Ă©lĂšves plutĂŽt que les aider, et qui punissent plus fortement les Ă©tudiants en difficultĂ©s. D’un cĂŽtĂ©, les outils promettent aux Ă©lĂšves d’étendre leur crĂ©ativitĂ©, de l’autre, ils sont surtout utilisĂ©s pour renforcer la surveillance. « Les Ă©tudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs Ă©quipements et de plus d’équipes supports Â». ConfrontĂ©s Ă  l’IA gĂ©nĂ©rative, le secteur a du mal Ă  s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre rĂ©cent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de rĂ©duire les coĂ»ts. C’est oublier que l’école est lĂ  pour accompagner les Ă©lĂšves, pour apprendre Ă  travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptĂŽme des problĂšmes de l’école qu’une solution. Elle n’aidera pas Ă  mieux payer les enseignants ou Ă  convaincre les Ă©lĂšves de travailler
 

Dans le social, la santĂ© ou l’éducation, le dĂ©veloppement de l’IA est obnubilĂ© par l’efficacitĂ© organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marchĂ©. « L’IA n’est qu’un pauvre facsimilĂ© de l’Etat providence Â». « Elle propose Ă  tous ce que les techs barons ne voudraient pas pour eux-mĂȘmes Â». « Les machines qui produisent du texte synthĂ©tique ne combleront pas les lacunes de la fabrique du social Â»

On pourrait gĂ©nĂ©raliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idĂ©ologique qui vise Ă  crĂ©er des outils pour contourner et rĂ©duire l’État providence, modifier les modĂšles Ă©conomiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un Ă©cosystĂšme d’information qui consiste Ă  Ă©tablir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthĂ©tiques se dĂ©versent dans cet Ă©cosystĂšme, c’est une forme de pollution qui endommage les relations comme la confiance Â». Or l’IA promet de faire de l’art bon marchĂ©. Ce sont des outils de dĂ©mocratisation de la crĂ©ativitĂ©, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vĂ©ritĂ© n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillĂ© pour Marvel ou Industrial Light and Magic, expliquait qu’elle a trĂšs tĂŽt perdu des revenus du fait de la concurrence initiĂ©e par l’IA. LĂ  encore, les systĂšmes de gĂ©nĂ©ration d’image sont dĂ©ployĂ©s pour perturber le modĂšle Ă©conomique existant permettant Ă  des gens de faire carriĂšre de leur art. Tous les domaines de la crĂ©ation sont en train d’ĂȘtre dĂ©stabilisĂ©s. Les “livres extrudĂ©s” se dĂ©multiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les gĂ©nĂ©rateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activitĂ© sociale, forte de ses pratiques Ă©thiques comme la citation scientifique. La gĂ©nĂ©ration d’images, elle, est surtout une gĂ©nĂ©ration de travail dĂ©rivĂ© qui copie et plagie l’existant. L’argument gĂ©nĂ©ratif semble surtout sonner creux, tant les productions sont souvent identiques aux donnĂ©es depuis lesquelles les textes et images sont formĂ©s, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-mĂȘme, qui promettait de synthĂ©tiser la littĂ©rature scientifique et d’en produire, a rapidement Ă©tĂ© dĂ©publiĂ©. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaĂźt” (c’est-Ă -dire, le fait que si les donnĂ©es d’entrĂ©es sont mauvaises, les rĂ©sultats de sortie le seront aussi). Les LLM produisent du « papier-mĂąchĂ© des donnĂ©es d’entraĂźnement, les Ă©crasant et remixant dans de nouvelles formes qui ne savent pas prĂ©server l’intention des donnĂ©es originelles”. Les promesses de l’IA pour la science rĂ©pĂštent qu’elle va pouvoir accĂ©lĂ©rer la science. C’était l’objectif du grand dĂ©fi, lancĂ© en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un systĂšme d’IA pour faire des dĂ©couvertes majeures dans les sciences biomĂ©dicales (le grand challenge a Ă©tĂ© renommĂ©, en 2021, le Nobel Turing Challenge). LĂ  encore, le dĂ©fi a fait long feu. « Nous ne pouvons dĂ©lĂ©guer la science, car la science n’est pas seulement une collection de rĂ©ponses. C’est d’abord un ensemble de processus et de savoirs Â». Or, pour les thurifĂ©raires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient dĂ©couverts uniquement via des procĂ©dĂ©s techniques Ă  raffiner. Cette fausse comprĂ©hension de la science ne la voit jamais comme l’activitĂ© humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idĂ©es, jamais comme une communautĂ© de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour rĂ©soudre les problĂšmes sociaux et politiques, dominĂ©e par la science informatique, en passe de devenir l’autoritĂ© scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnĂ©rable aux erreurs, estiment les chercheuses. « La prolifĂ©ration des outils d’IA en science risque d’introduire une phase de recherche scientifique oĂč nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compĂ©tences diminuer, comme le soulignait une rĂ©cente Ă©tude sur la difficultĂ© des spĂ©cialistes de l’imagerie mĂ©dicale Ă  dĂ©tecter des problĂšmes sans assistance). L’IA propose surtout un point de vue non situĂ©, une vue depuis nulle part, comme le dĂ©nonçait Donna Haraway : elle repose sur l’idĂ©e qu’il y aurait une connaissance objective indĂ©pendante de l’expĂ©rience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards Ă  ce qui est Ă©clairĂ© par la lumiĂšre des centres de donnĂ©es Â». Or, ce qui explique le dĂ©veloppement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sĂ»r, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage gĂ©nĂ©ralisĂ© de l’IA risque d’amener plus de risques que de bienfaits.  

MĂȘmes constats dans le monde de la presse, oĂč les chercheuses dĂ©noncent la prolifĂ©ration de « moulins Ă  contenus”, oĂč l’automatisation fait des ravages dans un secteur dĂ©jĂ  en grande difficultĂ© Ă©conomique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une mĂȘme cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la crĂ©ativitĂ© de ces machines. Sans la crĂ©ativitĂ© des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthĂ©tiques sont tous basĂ©s sur le vol de donnĂ©es et l’exploitation du travail d’autrui. Et l’utilisation de l’IA gĂ©nĂ©rative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos Ă  dos ceux qui pensent que le dĂ©veloppement de l’IA est dangereux et les accĂ©lĂ©rationnistes qui pensent que le dĂ©veloppement de l’IA permettra de sauver l’humanitĂ©. Pour les uns comme pour les autres, les machines sont la prochaine Ă©tape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dĂ©diĂ©, appelĂ© l’AI Safety. Mais, contrairement Ă  ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingĂ©nierie de la sĂ©curitĂ© et ne s’intĂ©resse pas vraiment aux dommages que l’IA engendre depuis ses biais et dĂ©faillances. C’est un domaine de recherche centrĂ© sur les risques existentiels de l’IA qui dispose dĂ©jĂ  d’innombrables centres de recherches dĂ©diĂ©s. 

Pour Ă©viter que l’IA ne devienne immaĂźtrisable, beaucoup estiment qu’elle devrait ĂȘtre alignĂ©e avec les normes et valeurs humaines. Cette question de l’alignement est considĂ©rĂ©e comme le Graal de la sĂ©curitĂ© pour ceux qui oeuvrent au dĂ©veloppement d’une IA superintelligente (OpenAI avait annoncĂ© travailler en 2023 Ă  une superintelligence avec une Ă©quipe dĂ©diĂ© au « super-alignement Â», mais l’entreprise Ă  dissous son Ă©quipe moins d’un an aprĂšs son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancĂ© depuis Safe Superintelligence Inc). DerriĂšre l’idĂ©e de l’alignement, repose d’abord l’idĂ©e que le dĂ©veloppement de l’IA serait inĂ©vitable. Rien n’est moins sĂ»r, rappellent les chercheuses. La plupart des gens sur la planĂšte n’ont pas besoin d’IA. Et le dĂ©veloppement d’outils d’automatisation de masse n’est pas socialement dĂ©sirable. « Ces technologies servent d’abord Ă  centraliser le pouvoir, Ă  amasser des donnĂ©es, Ă  gĂ©nĂ©rer du profit, plutĂŽt qu’à fournir des technologies qui soient socialement bĂ©nĂ©fiques Ă  tous Â». L’autre problĂšme, c’est que l’alignement de l’IA sur les « valeurs humaines Â» peine Ă  les dĂ©finir. Les droits et libertĂ©s ne sont des concepts qui ne sont ni universels ni homogĂšnes dans le temps et l’espace. La dĂ©claration des droits de l’homme elle-mĂȘme s’est longtemps accomodĂ© de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisĂ©s pour armer des robots tueurs, pour la militarisation des frontiĂšres ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prĂ©munir sont avant tout ceux qui menacent la prospĂ©ritĂ© des riches occidentaux qui dĂ©ploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent Ă  pointer les risques rĂ©els et actuels de l’IA et ceux qui Ɠuvrent Ă  prĂ©venir les risques existentiels ne travaillent pas Ă  la mĂȘme chose. Les premiers sont entiĂšrement concernĂ©s par les enjeux sociaux, raciaux, dĂ©noncent les violences et les inĂ©galitĂ©s, quand les seconds ne dĂ©noncent que des risques hypothĂ©tiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

DerriĂšre la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la sociĂ©tĂ©. Les uns comme les autres voient l’IA comme inĂ©vitable et dĂ©sirable parce qu’elle leur promet des marchĂ©s sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien prĂ©sent, est celui d’une spĂ©culation financiĂšre sans limite, d’une dĂ©gradation de la confiance dans les mĂ©dias Ă  laquelle l’IA participe activement, la normalisation du vol de donnĂ©es et de leur exploitation et le renforcement de systĂšmes imaginĂ©s pour punir les plus dĂ©munis. Doomers et boosters devraient surtout ĂȘtre ignorĂ©s, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels dĂ©tournent les autoritĂ©s des rĂ©gulations qu’elles devraient produire.

Pour rĂ©pondre aux dĂ©fis de la modernitĂ©, nous n’avons pas besoin de gĂ©nĂ©rateur de textes, mais de gens, de volontĂ© politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bĂ©nĂ©ficie Ă  tous plutĂŽt qu’elle n’enrichisse certains. Pour rĂ©sister Ă  la hype de l’IA, nous devons poser de meilleures questions sur les systĂšmes qui se dĂ©ploient. D’oĂč viennent les donnĂ©es ? Qu’est-ce qui est vraiment automatisĂ© ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmiĂšre ou de prof IA. Nous devrions exiger de bien meilleures Ă©valuations des systĂšmes. ShotSpotter, le systĂšme vendu aux municipalitĂ©s amĂ©ricaines pour dĂ©tecter automatiquement le son des coups de feux, Ă©tait annoncĂ© avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En rĂ©alitĂ©, les audits rĂ©alisĂ©s Ă  Chicago et New York ont montrĂ© que 87 Ă  91% des alertes du systĂšmes Ă©taient de fausses alertes ! Nous devons savoir qui bĂ©nĂ©ficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y rĂ©pondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la rĂ©sistance Ă  l’IA passe d’abord et avant tout par luttes collectives. C’est Ă  chacun et Ă  tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est Ă  nous de rendre l’usage des mĂ©dias synthĂ©tiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la rĂ©sistance Ă  ces dĂ©ploiements est essentielle, tant les gĂ©ants de l’IA sont en train de l’imposer, par exemple dans notre rapport Ă  l’information, mais Ă©galement dans tous leurs outils. C’est Ă  nous de refuser « l’apparente commoditĂ© des rĂ©ponses des chatbots Â». C’est Ă  nous d’oeuvrer pour renforcer la rĂ©gulation de l’IA, comme les lois qui protĂšgent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zĂ©ro Ă  l’encontre de ceux qui dĂ©ploient des outils d’IA. Ces principes Ă©tablis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, Ă©tablir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la rĂ©gulation n’est hĂ©las pas Ă  l’ordre du jour. Les thurifĂ©raires de l’IA dĂ©fendent une innovation sans plus aucune entrave afin que rien n’empĂȘche leur capacitĂ© Ă  accumuler puissance et fortune. Pour amĂ©liorer la rĂ©gulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilitĂ© sans elle, soulignent les chercheuses. Nous devons avoir Ă©galement une transparence sur l’automatisation Ă  l’Ɠuvre, c’est-Ă -dire que nous devons savoir quand nous interagissons avec un systĂšme, quand un texte a Ă©tĂ© traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux rĂ©sultats de l’automatisation. Enfin, nous devons dĂ©placer la responsabilitĂ© sur les systĂšmes eux-mĂȘmes et tout le long de la chaĂźne de production de l’IA. Les entreprises de l’IA doivent ĂȘtre responsables des donnĂ©es, du travail qu’elles rĂ©alisent sur celles-ci, des modĂšles qu’elles dĂ©veloppent et des Ă©valuations. Enfin, il faut amĂ©liorer les recours, le droit des donnĂ©es et la minimisation. En entraĂźnant leurs modĂšles sur toutes les donnĂ©es disponibles, les entreprises de l’IA ont renforcĂ© la nĂ©cessitĂ© d’augmenter les droits des gens sur leurs donnĂ©es. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrĂŽle aux travailleurs sur les outils qui sont dĂ©ployĂ©s et renforcer le droit syndical. Nous devons Ɠuvrer Ă  des « technologies socialement situĂ©es Â», des outils spĂ©cifiques plutĂŽt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs donnĂ©es. Nous devrions enfin dĂ©fendre un droit Ă  ne pas ĂȘtre Ă©valuĂ© par les machines. Comme le dit Ruha Benjamin, en dĂ©fendant la Justice virale (Princeton University Press, 2022), nous devrions Ɠuvrer Ă  “un monde oĂč la justice est irrĂ©sistible”, oĂč rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et Ă©motionnelle, car, comme le dit Sarah Hamid du rĂ©seau de rĂ©sistance aux technologies carcĂ©rales, au-delĂ  des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent Ă  activement rĂ©sister Ă  la hype. A rĂ©affirmer notre valeur, nos compĂ©tences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos rĂ©volutionnaire pourtant. Elles ne livrent qu’une synthĂšse, riche, informĂ©e. Elles ne nous invitent qu’à activer la rĂ©sistance que nous devrions naturellement activer, mais qui semble ĂȘtre devenue Ă©trangement radicale ou audacieuse face aux dĂ©ploiements omnipotents de l’IA.  

Hubert Guillaud

  •  

IA, la grande escroquerie

La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique Ă  l’universitĂ© de Washington. Elle fait partie des 100 personnalitĂ©s de l’IA distinguĂ©es par le Time en 2023. Elle est surtout connue pour ĂȘtre l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du dĂ©veloppement des grands modĂšles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient Ă©galement une newsletter commune et un podcast Ă©ponyme, « Mystery AI Hype Theater 3000 Â», oĂč elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraĂźtre comme un brĂ»lot technocritique, mais il est plutĂŽt une synthĂšse trĂšs documentĂ©e de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvĂ© “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placĂ©s se sont positionnĂ©s pour accumuler des richesses importantes en extrayant de la valeur du travail crĂ©atif, des donnĂ©es personnelles ou du travail d’autres personnes et en remplaçant des services de qualitĂ© par des fac-similĂ©s Â». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage mĂ©diatique, la hype qu’ils entretiennent, les propos qu’ils dissĂ©minent pour entretenir la frĂ©nĂ©sie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carriĂšres stables et les remplacer par du travail Ă  la tĂąche, rĂ©duire le personnel, dĂ©prĂ©cier les services sociaux et dĂ©grader la crĂ©ativitĂ© humaine Â».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing Â». L’IA ne se rĂ©fĂšre pas Ă  un ensemble cohĂ©rent de technologies. « L’IA permet de faire croire Ă  ceux Ă  qui on la vend que la technologie que l’on vend est similaire Ă  l’humain, qu’elle serait capable de faire ce qui en fait, nĂ©cessite intrinsĂšquement le jugement, la perception ou la crĂ©ativitĂ© humaine Â». Les calculatrices sont bien meilleures que les humains pour l’arithmĂ©tique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert Ă  automatiser les dĂ©cisions, Ă  classifier, Ă  recommander, Ă  traduire et transcrire et Ă  gĂ©nĂ©rer des textes ou des images. Toutes ces diffĂ©rentes fonctions assemblĂ©es sous le terme d’IA crĂ©ent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses consĂ©quences, par exemple dans le domaine de l’aide sociale. Le battage mĂ©diatique, la hype, est Ă©galement un Ă©lĂ©ment important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de mĂ©thodes statistiques appelĂ© Ă  changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits Â». Altman et ses confrĂšres ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile oĂč les machines prendront notre place, feront le travail difficile et rĂ©pĂ©titif Ă  notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de mĂ©thodes pour crĂ©er des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernĂ©tique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour dĂ©signer des outils pour le guidage de systĂšmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. DĂšs le dĂ©but, la « discipline Â» repose donc sur de grandes prĂ©tentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. DĂšs le dĂ©but, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent Ă©galer les capacitĂ©s humaines, notamment en estimant que les capacitĂ©s humaines ne sont pas si complexes. 

Des outils de manipulation
 sans entraves

L’une des premiĂšres grande rĂ©alisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommĂ©e ainsi en rĂ©fĂ©rence Ă  Eliza Doolittle, l’hĂ©roĂŻne de Pygmalion, la piĂšce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolĂ©taire qui apprend Ă  imiter le discours de la classe supĂ©rieure. DerriĂšre ce nom trĂšs symbolique, le chatbot est conçu comme un psychothĂ©rapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum Ă©tait convaincu qu’en montrant le fonctionnement trĂšs basique et trĂšs trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir Ă  ses rĂ©ponses. C’est l’inverse qui se produisit pourtant. Tout mĂ©canique qu’était Eliza, Weizenbaum a Ă©tĂ© surpris de l’empathie gĂ©nĂ©rĂ©e par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrĂ©e dans l’ñge de l’IA. Son crĂ©ateur, lui, passera le reste de sa vie Ă  ĂȘtre trĂšs critique de l’IA, d’abord en s’inquiĂ©tant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se rĂ©vĂ©lait particuliĂšrement dĂ©lĂ©tĂšre, notamment en trompant Ă©motionnellement ses interlocuteurs, ceux-ci interprĂ©tant les rĂ©ponses comme s’ils Ă©taient Ă©coutĂ©s par cette machine. DĂšs l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnĂ©e aux investissements publics et Ă  la spĂ©culation privĂ©e. 

Bien sĂ»r, il y a des applications de l’IA bien testĂ©es et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systĂšmes d’aide Ă  la dĂ©tection d’anomalies d’images mĂ©dicales. Mais, en quelques annĂ©es, l’IA est devenue la solution Ă  toutes les activitĂ©s humaines. Pourtant, toutes, mĂȘmes les plus accomplies, comme les correcteurs orthographiques ou les systĂšmes d’images mĂ©dicales ont des dĂ©faillances. Et leurs dĂ©faillances sont encore plus vives quand les outils sont imbriquĂ©s Ă  d’autres et quand leurs applications vont au-delĂ  des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de dĂ©faillances, comme celles que nous Ă©voquons en continue ici, Dans les algorithmes

Ces dĂ©faillances dont la presse et la recherche se font souvent les Ă©chos ont des points communs. Toutes reposent sur des gens qui nous survendent les systĂšmes d’automatisation comme les trĂšs versatiles « machines Ă  extruder du texte Â» – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement Ă  des imprimantes 3D censĂ©es imprimer, plus ou moins fidĂšlement, du texte depuis tous les textes, censĂ©es extruder du sens ou plutĂŽt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens lĂ  oĂč il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs Ă  produire des parĂ©idolies, des apophĂ©nies, c’est-Ă -dire du sens, des causalitĂ©s, lĂ  oĂč il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les mĂ©decins IA ne soigneront aucun de vos maux Â». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. MalgrĂ© ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de rĂ©duire la qualitĂ© des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux dĂ©cideurs et aux entrepreneurs de continuer Ă  se remplir les poches Â».   

DĂ©construire l’emballement

Dans leur livre, Bender et Hanna dĂ©construisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le rĂ©sultat d’un traitement statistique Ă  trĂšs grande Ă©chelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dĂšs les annĂ©es 50, Minsky promettait dĂ©jĂ  la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose Ă  vendre. Cette fiction de la conscience ne sert qu’à dĂ©valuer la nĂŽtre. Les « rĂ©seaux neuronaux Â» sont un terme fallacieux, qui vient du fait que ces premiĂšres machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les annĂ©es 40. Or, ces systĂšmes ne font que prĂ©dire statistiquement le mot suivant dans leurs donnĂ©es de rĂ©fĂ©rences. ChatGPT n’est rien d’autre qu’une « saisie automatique amĂ©liorĂ©e Â». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontĂ©s Ă  du texte ou Ă  des signes, nous l’interprĂ©tons automatiquement. Les bĂ©bĂ©s n’apprennent pas le langage par une exposition passive et isolĂ©e, rappelle la linguiste. Nous apprenons le langage par l’attention partagĂ©e avec autrui, par l’intersubjectivitĂ©. C’est seulement aprĂšs avoir appris un langage en face Ă  face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la mĂȘme technique de comprĂ©hension : « nous imaginons l’esprit derriĂšre le texte Â». Les LLM n’ont ni subjectivitĂ© ni intersubjectivitĂ©. Le fait qu’ils soient modĂ©lisĂ©s pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accĂšs au sens ou Ă  une quelconque intention. Ils ne produisent que du texte synthĂ©tique plausible. ChatGPT n’est qu’une machine Ă  extruder du texte, « comme un processus industriel extrude du plastique Â». Leur fonction est une fonction de production
 voire de surproduction. 

Les promoteurs de l’IA ne cessent de rĂ©pĂ©ter que leurs machines approchent de la conscience ou que les ĂȘtre humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions Ă©changer avec elles comme si elles Ă©taient des compagnons ou des amis. Dans cet argumentaire, les humains sont rĂ©duits Ă  des machines. Weizenbaum estimait pourtant que les machines resserrent plutĂŽt qu’élargissent notre humanitĂ© en nous conduisant Ă  croire que nous serions comme elles. « En confiant tant de dĂ©cisions aux ordinateurs, pensait-il, nous avions créé un monde plus inĂ©gal et moins rationnel, dans lequel la richesse de la raison humaine avait Ă©tĂ© rĂ©duite Ă  des routines insensĂ©es de code Â», rappelle Tarnoff. L’informatique rĂ©duit les gens et leur expĂ©rience Ă  des donnĂ©es. Les promoteurs de l’IA passent leur temps Ă  dĂ©valuer ce que signifie ĂȘtre humain, comme l’ont montrĂ© les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considĂ©rĂ©es comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette maniĂšre de dĂ©valuer l’humain par la machine, d’évaluer la machine selon sa capacitĂ© Ă  rĂ©soudre les problĂšmes n’est pas sans rappeler les dĂ©rives de la mesure de l’intelligence et ses dĂ©lires racistes. La mesure de l’intelligence a toujours Ă©tĂ© utilisĂ©e pour justifier les inĂ©galitĂ©s de classe, de genre, de race. Et le dĂ©lire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumentĂ© par des millionnaires tous problĂ©matiques, de Musk Ă  Thiel en passant par Altman ou Andreessen
 tous promoteurs de l’eugĂ©nisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna Ă©grĂšnent Ă  leur tour nombre d’exemples des propos problĂ©matiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique portĂ© par des gens qui n’ont rien Ă  faire de la dĂ©mocratie parce qu’elle dessert leurs intĂ©rĂȘts et qui tentent de nous convaincre que la rationalitĂ© qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondĂ©ment orientĂ©e par leurs intĂ©rĂȘts – je vous renvoie au livre de Thibault PrĂ©vost, Les prophĂštes de l’IA, qui dit de maniĂšre plus politique encore que Bender et Hanna, les dĂ©rives idĂ©ologiques des grands acteurs de la tech.  

De l’automatisation Ă  l’IA : dĂ©valuer le travail

L’IA se dĂ©ploie partout avec la mĂȘme promesse, celle qu’elle va amĂ©liorer la productivitĂ©, quand elle propose d’abord « de remplacer le travail par la technologie Â». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique Â», expliquent les chercheuses. « L’IA est dĂ©ployĂ©e pour dĂ©valuer le travail en menaçant les travailleurs par la technologie qui est supposĂ©e faire leur travail Ă  une fraction de son coĂ»t Â»

En vĂ©ritĂ©, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payĂ©e Ă  l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carriĂšres que nous pouvons bĂątir, par du travail Ă  la tĂąche. L’IA ne propose que de remplacer les travailleurs de la crĂ©ation par des « babysitters de machines synthĂ©tiques Â»

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivitĂ©. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratĂ©gie plus vaste visant Ă  transfĂ©rer les coĂ»ts sur les travailleurs et Ă  accumuler des richesses pour ceux qui contrĂŽlent les machines. Â» 

Ceux qui s’opposent Ă  l’automatisation ne sont pas de simples Luddites qui refuseraient le progrĂšs (ceux-ci d’ailleurs n’étaient pas opposĂ©s Ă  la technologie et Ă  l’innovation, comme on les prĂ©sente trop souvent, mais bien plus opposĂ©s Ă  la façon dont les propriĂ©taires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misĂšres, pour produire des produits de moins bonnes qualitĂ©s et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au dĂ©but du XIXe siĂšcle au Royaume-Uni a rĂ©duit le besoin de travailleurs de 75%. Ceux qui sont entrĂ©s dans l’industrie ont Ă©tĂ© confrontĂ©s Ă  des conditions de travail Ă©pouvantables oĂč les blessures Ă©taient monnaie courantes. Les Luddites Ă©taient bien plus opposĂ©s aux conditions de travail de contrĂŽle et de coercition qui se mettaient en place qu’opposĂ©s au dĂ©ploiement des machines), mais d’abord des gens concernĂ©s par la dĂ©gradation de leur santĂ©, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siĂšcle, notamment dans l’industrie automobile. Chez Ford, elle devient trĂšs tĂŽt une stratĂ©gie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rĂ©munĂ©ration Ă  ses employĂ©s (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail Ă©taient tout autant Ă©pouvantables et punitives que dans les usines de la confection du dĂ©but du XIXe siĂšcle. L’automatisation a toujours Ă©tĂ© associĂ©e Ă  la fois au chĂŽmage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dĂšs les annĂ©es 50 dans les mines, permettaient d’employer 3 fois moins de personnes et Ă©taient particuliĂšrement meurtriĂšres. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepĂŽts vise Ă  contrĂŽler la vitesse d’exĂ©cution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie Ă  chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dĂ©grader les conditions de travail au nom de la productivitĂ©

D’ailleurs, rappellent les chercheuses, quatre mois aprĂšs la sortie de ChatGPT, les chercheurs d’OpenAI ont publiĂ© un rapport assez peu fiable sur l’impact du chatbot sur le marchĂ© du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu trĂšs tĂŽt son intĂ©rĂȘt Ă  promouvoir l’automatisation comme un job killer. C’est le cas Ă©galement des cabinets de conseils qui vendent aux entreprises des modalitĂ©s pour rĂ©aliser des Ă©conomies et amĂ©liorer les profits, et qui ont Ă©galement produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’ĂȘtre rĂ©el pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dĂ©grader nos conditions de travail. Les scĂ©naristes sont payĂ©s moins chers pour réécrire un script que pour en Ă©crire un, tout comme les traducteurs sont payĂ©s moins chers pour traduire ce qui a Ă©tĂ© prĂ©mĂąchĂ© par l’IA. Pas Ă©tonnant alors que de nombreux collectifs s’opposent Ă  leurs dĂ©ploiements, Ă  l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (rĂ©currentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent Ă  nous alors qu’ils ne fonctionnent pas Â». Les exemples sont nombreux, Ă  l’image des travailleurs de l’association amĂ©ricaine de lutte contre les dĂ©sordres alimentaires qui ont Ă©tĂ© remplacĂ©s, un temps, par un chatbot, deux semaines aprĂšs s’ĂȘtre syndiquĂ©s. Un chatbot qui a dĂ» ĂȘtre rapidement retirĂ©, puisqu’il conseillait n’importe quoi Ă  ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systĂšmes d’IA ne consiste pas Ă  faire plus avec moins, mais juste moins pour plus de prĂ©judices Â» – et plus de bĂ©nĂ©fices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de crĂ©er un semblant de diversitĂ©, alors qu’en rĂ©alitĂ©, ils rĂ©duisent les opportunitĂ©s des mannequins issus de la diversitĂ©. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus Ă  corriger leurs erreurs, Ă  nettoyer, Ă  ĂȘtre les babysitters de l’IA. Des babysitters de plus en plus invisibilisĂ©s. Les robotaxis autonomes de Cruise sont monitorĂ©s et contrĂŽlĂ©s Ă  distance. Tous les outils d’IA ont recours Ă  un travail cachĂ©, invisible, externalisĂ©. Et ce dĂšs l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait Ă  labelliser des images pour servir Ă  l’entraĂźnement des machines n’aurait pas Ă©tĂ© possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont Ă©tĂ© mobilisĂ©s pour crĂ©er le dataset qui a permis Ă  l’IA de dĂ©coller. « Le modĂšle d’ImageNet consistant Ă  exploiter des travailleurs Ă  la tĂąche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas Ă©tonnant donc que les travailleurs tentent de rĂ©pondre et de s’organiser, Ă  l’image des scĂ©naristes et des acteurs d’Hollywood et de leur 148 jours de grĂšve. Mais toutes les professions ne sont pas aussi bien organisĂ©es. D’autres tentent d’autres mĂ©thodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protĂ©ger leurs crĂ©ations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisĂ©es, c’est bien plus pour se dĂ©charger de leurs responsabilitĂ©s que pour amĂ©liorer leurs rĂ©ponses”

L’escroquerie de l’IA se dĂ©veloppe Ă©galement dans les services sociaux. Sous prĂ©texte d’austĂ©ritĂ©, les solutions automatisĂ©es sont partout envisagĂ©es comme « la seule voie Ă  suivre pour les services gouvernementaux Ă  court d’argent Â». L’accĂšs aux services sociaux est remplacĂ© par des « contrefaçons bon marchĂ©s Â» pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inĂ©galitĂ©s au dĂ©triment de ceux qui sont dĂ©jĂ  marginalisĂ©s. Bien sĂ»r, les auteurs font rĂ©fĂ©rence ici Ă  des sources que nous avons dĂ©jĂ  mobilisĂ©s, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacitĂ© ne rend les autoritĂ©s efficaces que pour nuire aux plus dĂ©munis« . C’est par exemple le cas de la dĂ©tention prĂ©ventive. En 2024, 500 000 amĂ©ricains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remĂ©dier Ă  cela, plusieurs Etats ont recours Ă  des solutions algorithmiques pour Ă©valuer le risque de rĂ©cidive sans rĂ©soudre le problĂšme, au contraire, puisque ces calculs ont surtout servi Ă  accabler les plus dĂ©munis. A nouveau, « l’automatisation partout vise bien plus Ă  abdiquer la gouvernance qu’à l’amĂ©liorer Â»

“De partout, quand les services publics se tournent vers des solutions automatisĂ©es, c’est bien plus pour se dĂ©charger de leurs responsabilitĂ©s que pour amĂ©liorer leurs rĂ©ponses”, constatent, dĂ©sabusĂ©es, Bender et Hanna. Et ce n’est pas qu’une caractĂ©ristique des autoritĂ©s rĂ©publicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur dĂ©mocrate de la Californie dĂ©multiplie les projets d’IA gĂ©nĂ©rative, par exemple pour adresser le problĂšme des populations sans domiciles afin de mieux identifier la disponibilitĂ© des refuges
 « Les machines Ă  extruder du texte pourtant, ne savent que faire cela, pas extruder des abris Â». De partout d’ailleurs, toutes les autoritĂ©s publiques ont des projets de dĂ©veloppement de chatbots et des projets de systĂšmes d’IA pour rĂ©soudre les problĂšmes de sociĂ©tĂ©. Les autoritĂ©s oublient que ce qui affecte la santĂ©, la vie et la libertĂ© des gens nĂ©cessite des rĂ©ponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils dĂ©faillants
 dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualitĂ© de leur Ă©valuation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-mĂȘme est restĂ©e dĂ©ficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisĂ©s par les donnĂ©es d’entraĂźnements qui sont rarement reprĂ©sentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronĂ©s, mais comptent tout mots comme Ă©tant Ă©quivalent, alors que certains peuvent ĂȘtre bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnĂ©e trĂšs importante quand on appelle un service d’urgence, or, c’est lĂ  que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilĂ© de l’Etat providence Â»

Depuis l’arrivĂ©e de l’IA gĂ©nĂ©rative, l’évaluation semble mĂȘme avoir dĂ©raillĂ© (voir notre article « De la difficultĂ© Ă  Ă©valuer l’IA Â»). DĂ©sormais, ils deviennent des concours (par exemple en tentant de les classer selon leur rĂ©ponses Ă  des tests de QI) et des outils de classements pour eux-mĂȘmes, comme s’en inquiĂ©taient dĂ©jĂ  les chercheuses dans un article de recherche. La capacitĂ© des modĂšles d’IA gĂ©nĂ©rative Ă  performer aux Ă©valuations tient d’un effet Hans le malin, du nom du cheval qui avait appris Ă  dĂ©coder les signes de son maĂźtre pour faire croire qu’il Ă©tait capable de compter. On fait passer des tests qu’on propose aux professionnels pour Ă©valuer ces systĂšmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delĂ  des tests pour ces professions, comme la crĂ©ativitĂ©, le soin aux autres. MalgrĂ© les innombrables dĂ©faillances d’outils dans le domaine de la santĂ© (on se souvient des algorithmes dĂ©faillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus Ă©levĂ©s que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dĂ©noncĂ©s par l’association nationale des infirmiĂšres
), cela n’empĂȘche pas les outils de prolifĂ©rer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lĂšve des centaines de millions de dollars pour produire d’épouvantables chatbots spĂ©cialisĂ©s. Et ne parlons pas des chatbots utilisĂ©s comme psy et coach personnels, aussi inappropriĂ©s que l’était Eliza il y a 55 ans
 Le fait de pousser l’IA dans la santĂ© n’a pas d’autres buts que de dĂ©grader les conditions de travail des professionnels et d’élargir le fossĂ© entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissĂ©s aux « contrefaçons Ă©lectroniques bon marchĂ©s Â». Les chercheuses font le mĂȘme constat dans le dĂ©veloppement de l’IA dans le domaine scolaire, oĂč, pour contrer la gĂ©nĂ©ralisation de l’usage des outils par les Ă©lĂšves, les institutions investissent dans des outils de dĂ©tection dĂ©faillants qui visent Ă  surveiller et punir les Ă©lĂšves plutĂŽt que les aider, et qui punissent plus fortement les Ă©tudiants en difficultĂ©s. D’un cĂŽtĂ©, les outils promettent aux Ă©lĂšves d’étendre leur crĂ©ativitĂ©, de l’autre, ils sont surtout utilisĂ©s pour renforcer la surveillance. « Les Ă©tudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs Ă©quipements et de plus d’équipes supports Â». ConfrontĂ©s Ă  l’IA gĂ©nĂ©rative, le secteur a du mal Ă  s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre rĂ©cent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de rĂ©duire les coĂ»ts. C’est oublier que l’école est lĂ  pour accompagner les Ă©lĂšves, pour apprendre Ă  travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptĂŽme des problĂšmes de l’école qu’une solution. Elle n’aidera pas Ă  mieux payer les enseignants ou Ă  convaincre les Ă©lĂšves de travailler
 

Dans le social, la santĂ© ou l’éducation, le dĂ©veloppement de l’IA est obnubilĂ© par l’efficacitĂ© organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marchĂ©. « L’IA n’est qu’un pauvre facsimilĂ© de l’Etat providence Â». « Elle propose Ă  tous ce que les techs barons ne voudraient pas pour eux-mĂȘmes Â». « Les machines qui produisent du texte synthĂ©tique ne combleront pas les lacunes de la fabrique du social Â»

On pourrait gĂ©nĂ©raliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idĂ©ologique qui vise Ă  crĂ©er des outils pour contourner et rĂ©duire l’État providence, modifier les modĂšles Ă©conomiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un Ă©cosystĂšme d’information qui consiste Ă  Ă©tablir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthĂ©tiques se dĂ©versent dans cet Ă©cosystĂšme, c’est une forme de pollution qui endommage les relations comme la confiance Â». Or l’IA promet de faire de l’art bon marchĂ©. Ce sont des outils de dĂ©mocratisation de la crĂ©ativitĂ©, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vĂ©ritĂ© n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillĂ© pour Marvel ou Industrial Light and Magic, expliquait qu’elle a trĂšs tĂŽt perdu des revenus du fait de la concurrence initiĂ©e par l’IA. LĂ  encore, les systĂšmes de gĂ©nĂ©ration d’image sont dĂ©ployĂ©s pour perturber le modĂšle Ă©conomique existant permettant Ă  des gens de faire carriĂšre de leur art. Tous les domaines de la crĂ©ation sont en train d’ĂȘtre dĂ©stabilisĂ©s. Les “livres extrudĂ©s” se dĂ©multiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les gĂ©nĂ©rateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activitĂ© sociale, forte de ses pratiques Ă©thiques comme la citation scientifique. La gĂ©nĂ©ration d’images, elle, est surtout une gĂ©nĂ©ration de travail dĂ©rivĂ© qui copie et plagie l’existant. L’argument gĂ©nĂ©ratif semble surtout sonner creux, tant les productions sont souvent identiques aux donnĂ©es depuis lesquelles les textes et images sont formĂ©s, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-mĂȘme, qui promettait de synthĂ©tiser la littĂ©rature scientifique et d’en produire, a rapidement Ă©tĂ© dĂ©publiĂ©. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaĂźt” (c’est-Ă -dire, le fait que si les donnĂ©es d’entrĂ©es sont mauvaises, les rĂ©sultats de sortie le seront aussi). Les LLM produisent du « papier-mĂąchĂ© des donnĂ©es d’entraĂźnement, les Ă©crasant et remixant dans de nouvelles formes qui ne savent pas prĂ©server l’intention des donnĂ©es originelles”. Les promesses de l’IA pour la science rĂ©pĂštent qu’elle va pouvoir accĂ©lĂ©rer la science. C’était l’objectif du grand dĂ©fi, lancĂ© en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un systĂšme d’IA pour faire des dĂ©couvertes majeures dans les sciences biomĂ©dicales (le grand challenge a Ă©tĂ© renommĂ©, en 2021, le Nobel Turing Challenge). LĂ  encore, le dĂ©fi a fait long feu. « Nous ne pouvons dĂ©lĂ©guer la science, car la science n’est pas seulement une collection de rĂ©ponses. C’est d’abord un ensemble de processus et de savoirs Â». Or, pour les thurifĂ©raires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient dĂ©couverts uniquement via des procĂ©dĂ©s techniques Ă  raffiner. Cette fausse comprĂ©hension de la science ne la voit jamais comme l’activitĂ© humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idĂ©es, jamais comme une communautĂ© de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour rĂ©soudre les problĂšmes sociaux et politiques, dominĂ©e par la science informatique, en passe de devenir l’autoritĂ© scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnĂ©rable aux erreurs, estiment les chercheuses. « La prolifĂ©ration des outils d’IA en science risque d’introduire une phase de recherche scientifique oĂč nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compĂ©tences diminuer, comme le soulignait une rĂ©cente Ă©tude sur la difficultĂ© des spĂ©cialistes de l’imagerie mĂ©dicale Ă  dĂ©tecter des problĂšmes sans assistance). L’IA propose surtout un point de vue non situĂ©, une vue depuis nulle part, comme le dĂ©nonçait Donna Haraway : elle repose sur l’idĂ©e qu’il y aurait une connaissance objective indĂ©pendante de l’expĂ©rience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards Ă  ce qui est Ă©clairĂ© par la lumiĂšre des centres de donnĂ©es Â». Or, ce qui explique le dĂ©veloppement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sĂ»r, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage gĂ©nĂ©ralisĂ© de l’IA risque d’amener plus de risques que de bienfaits.  

MĂȘmes constats dans le monde de la presse, oĂč les chercheuses dĂ©noncent la prolifĂ©ration de « moulins Ă  contenus”, oĂč l’automatisation fait des ravages dans un secteur dĂ©jĂ  en grande difficultĂ© Ă©conomique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une mĂȘme cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la crĂ©ativitĂ© de ces machines. Sans la crĂ©ativitĂ© des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthĂ©tiques sont tous basĂ©s sur le vol de donnĂ©es et l’exploitation du travail d’autrui. Et l’utilisation de l’IA gĂ©nĂ©rative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos Ă  dos ceux qui pensent que le dĂ©veloppement de l’IA est dangereux et les accĂ©lĂ©rationnistes qui pensent que le dĂ©veloppement de l’IA permettra de sauver l’humanitĂ©. Pour les uns comme pour les autres, les machines sont la prochaine Ă©tape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dĂ©diĂ©, appelĂ© l’AI Safety. Mais, contrairement Ă  ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingĂ©nierie de la sĂ©curitĂ© et ne s’intĂ©resse pas vraiment aux dommages que l’IA engendre depuis ses biais et dĂ©faillances. C’est un domaine de recherche centrĂ© sur les risques existentiels de l’IA qui dispose dĂ©jĂ  d’innombrables centres de recherches dĂ©diĂ©s. 

Pour Ă©viter que l’IA ne devienne immaĂźtrisable, beaucoup estiment qu’elle devrait ĂȘtre alignĂ©e avec les normes et valeurs humaines. Cette question de l’alignement est considĂ©rĂ©e comme le Graal de la sĂ©curitĂ© pour ceux qui oeuvrent au dĂ©veloppement d’une IA superintelligente (OpenAI avait annoncĂ© travailler en 2023 Ă  une superintelligence avec une Ă©quipe dĂ©diĂ© au « super-alignement Â», mais l’entreprise Ă  dissous son Ă©quipe moins d’un an aprĂšs son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancĂ© depuis Safe Superintelligence Inc). DerriĂšre l’idĂ©e de l’alignement, repose d’abord l’idĂ©e que le dĂ©veloppement de l’IA serait inĂ©vitable. Rien n’est moins sĂ»r, rappellent les chercheuses. La plupart des gens sur la planĂšte n’ont pas besoin d’IA. Et le dĂ©veloppement d’outils d’automatisation de masse n’est pas socialement dĂ©sirable. « Ces technologies servent d’abord Ă  centraliser le pouvoir, Ă  amasser des donnĂ©es, Ă  gĂ©nĂ©rer du profit, plutĂŽt qu’à fournir des technologies qui soient socialement bĂ©nĂ©fiques Ă  tous Â». L’autre problĂšme, c’est que l’alignement de l’IA sur les « valeurs humaines Â» peine Ă  les dĂ©finir. Les droits et libertĂ©s ne sont des concepts qui ne sont ni universels ni homogĂšnes dans le temps et l’espace. La dĂ©claration des droits de l’homme elle-mĂȘme s’est longtemps accomodĂ© de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisĂ©s pour armer des robots tueurs, pour la militarisation des frontiĂšres ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prĂ©munir sont avant tout ceux qui menacent la prospĂ©ritĂ© des riches occidentaux qui dĂ©ploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent Ă  pointer les risques rĂ©els et actuels de l’IA et ceux qui Ɠuvrent Ă  prĂ©venir les risques existentiels ne travaillent pas Ă  la mĂȘme chose. Les premiers sont entiĂšrement concernĂ©s par les enjeux sociaux, raciaux, dĂ©noncent les violences et les inĂ©galitĂ©s, quand les seconds ne dĂ©noncent que des risques hypothĂ©tiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

DerriĂšre la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la sociĂ©tĂ©. Les uns comme les autres voient l’IA comme inĂ©vitable et dĂ©sirable parce qu’elle leur promet des marchĂ©s sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien prĂ©sent, est celui d’une spĂ©culation financiĂšre sans limite, d’une dĂ©gradation de la confiance dans les mĂ©dias Ă  laquelle l’IA participe activement, la normalisation du vol de donnĂ©es et de leur exploitation et le renforcement de systĂšmes imaginĂ©s pour punir les plus dĂ©munis. Doomers et boosters devraient surtout ĂȘtre ignorĂ©s, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels dĂ©tournent les autoritĂ©s des rĂ©gulations qu’elles devraient produire.

Pour rĂ©pondre aux dĂ©fis de la modernitĂ©, nous n’avons pas besoin de gĂ©nĂ©rateur de textes, mais de gens, de volontĂ© politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bĂ©nĂ©ficie Ă  tous plutĂŽt qu’elle n’enrichisse certains. Pour rĂ©sister Ă  la hype de l’IA, nous devons poser de meilleures questions sur les systĂšmes qui se dĂ©ploient. D’oĂč viennent les donnĂ©es ? Qu’est-ce qui est vraiment automatisĂ© ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmiĂšre ou de prof IA. Nous devrions exiger de bien meilleures Ă©valuations des systĂšmes. ShotSpotter, le systĂšme vendu aux municipalitĂ©s amĂ©ricaines pour dĂ©tecter automatiquement le son des coups de feux, Ă©tait annoncĂ© avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En rĂ©alitĂ©, les audits rĂ©alisĂ©s Ă  Chicago et New York ont montrĂ© que 87 Ă  91% des alertes du systĂšmes Ă©taient de fausses alertes ! Nous devons savoir qui bĂ©nĂ©ficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y rĂ©pondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la rĂ©sistance Ă  l’IA passe d’abord et avant tout par luttes collectives. C’est Ă  chacun et Ă  tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est Ă  nous de rendre l’usage des mĂ©dias synthĂ©tiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la rĂ©sistance Ă  ces dĂ©ploiements est essentielle, tant les gĂ©ants de l’IA sont en train de l’imposer, par exemple dans notre rapport Ă  l’information, mais Ă©galement dans tous leurs outils. C’est Ă  nous de refuser « l’apparente commoditĂ© des rĂ©ponses des chatbots Â». C’est Ă  nous d’oeuvrer pour renforcer la rĂ©gulation de l’IA, comme les lois qui protĂšgent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zĂ©ro Ă  l’encontre de ceux qui dĂ©ploient des outils d’IA. Ces principes Ă©tablis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, Ă©tablir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la rĂ©gulation n’est hĂ©las pas Ă  l’ordre du jour. Les thurifĂ©raires de l’IA dĂ©fendent une innovation sans plus aucune entrave afin que rien n’empĂȘche leur capacitĂ© Ă  accumuler puissance et fortune. Pour amĂ©liorer la rĂ©gulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilitĂ© sans elle, soulignent les chercheuses. Nous devons avoir Ă©galement une transparence sur l’automatisation Ă  l’Ɠuvre, c’est-Ă -dire que nous devons savoir quand nous interagissons avec un systĂšme, quand un texte a Ă©tĂ© traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux rĂ©sultats de l’automatisation. Enfin, nous devons dĂ©placer la responsabilitĂ© sur les systĂšmes eux-mĂȘmes et tout le long de la chaĂźne de production de l’IA. Les entreprises de l’IA doivent ĂȘtre responsables des donnĂ©es, du travail qu’elles rĂ©alisent sur celles-ci, des modĂšles qu’elles dĂ©veloppent et des Ă©valuations. Enfin, il faut amĂ©liorer les recours, le droit des donnĂ©es et la minimisation. En entraĂźnant leurs modĂšles sur toutes les donnĂ©es disponibles, les entreprises de l’IA ont renforcĂ© la nĂ©cessitĂ© d’augmenter les droits des gens sur leurs donnĂ©es. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrĂŽle aux travailleurs sur les outils qui sont dĂ©ployĂ©s et renforcer le droit syndical. Nous devons Ɠuvrer Ă  des « technologies socialement situĂ©es Â», des outils spĂ©cifiques plutĂŽt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs donnĂ©es. Nous devrions enfin dĂ©fendre un droit Ă  ne pas ĂȘtre Ă©valuĂ© par les machines. Comme le dit Ruha Benjamin, en dĂ©fendant la Justice virale (Princeton University Press, 2022), nous devrions Ɠuvrer Ă  “un monde oĂč la justice est irrĂ©sistible”, oĂč rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et Ă©motionnelle, car, comme le dit Sarah Hamid du rĂ©seau de rĂ©sistance aux technologies carcĂ©rales, au-delĂ  des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent Ă  activement rĂ©sister Ă  la hype. A rĂ©affirmer notre valeur, nos compĂ©tences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos rĂ©volutionnaire pourtant. Elles ne livrent qu’une synthĂšse, riche, informĂ©e. Elles ne nous invitent qu’à activer la rĂ©sistance que nous devrions naturellement activer, mais qui semble ĂȘtre devenue Ă©trangement radicale ou audacieuse face aux dĂ©ploiements omnipotents de l’IA.  

Hubert Guillaud

  •  

Entretiens d’embauche chatbotisĂ©s

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

  •  

ScannĂ©s par l’IA

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

MAJ du 02/09/2025 : Dans un article pour le New York Times, on apprend que Hertz Ă  mis en place ses scanneurs pour l’instant dans ses agences de 5 aĂ©roports amĂ©ricains. Que moins de 3 % des vĂ©hicules scannĂ©s par le systĂšme d’IA prĂ©sentent des dommages facturables. Qu’une meilleure dĂ©tection des dommages est l’argument de vente de Uveye, qui annonce sur son site web que sa technologie peut « dĂ©tecter 5 fois plus de dommages que les contrĂŽles manuels » et gĂ©nĂ©rer « une valeur totale des dommages dĂ©tectĂ©s 6 fois supĂ©rieure ». Dans Le Monde, RafaĂ«le Rivais rappelle que sur les forums de consommateurs, « l’arnaque Ă  la rayure de la voiture de location » occupe une place de choix : les clients qui ont louĂ© un vĂ©hicule protestent contre les grosses sommes d’argent que leur ont ensuite prĂ©levĂ©es les loueurs, au titre de dĂ©gradations qu’ils nient avoir commises.

  •  

Entretiens d’embauche chatbotisĂ©s

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

  •  

ScannĂ©s par l’IA

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

MAJ du 02/09/2025 : Dans un article pour le New York Times, on apprend que Hertz Ă  mis en place ses scanneurs pour l’instant dans ses agences de 5 aĂ©roports amĂ©ricains. Que moins de 3 % des vĂ©hicules scannĂ©s par le systĂšme d’IA prĂ©sentent des dommages facturables. Qu’une meilleure dĂ©tection des dommages est l’argument de vente de Uveye, qui annonce sur son site web que sa technologie peut « dĂ©tecter 5 fois plus de dommages que les contrĂŽles manuels » et gĂ©nĂ©rer « une valeur totale des dommages dĂ©tectĂ©s 6 fois supĂ©rieure ». Dans Le Monde, RafaĂ«le Rivais rappelle que sur les forums de consommateurs, « l’arnaque Ă  la rayure de la voiture de location » occupe une place de choix : les clients qui ont louĂ© un vĂ©hicule protestent contre les grosses sommes d’argent que leur ont ensuite prĂ©levĂ©es les loueurs, au titre de dĂ©gradations qu’ils nient avoir commises.

  •  

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

  •  

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

  •  

Renverser le pouvoir artificiel

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

  •  

Renverser le pouvoir artificiel

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

  •  

Pour lutter contre la désinformation, il faut reconstruire du social

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

  •  

Pour lutter contre la désinformation, il faut reconstruire du social

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

  •  

La santé au prisme de son abandon

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

  •  

La santé au prisme de son abandon

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

  •  

IA et éducation (2/2) : du dilemme moral au malaise social

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser a Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

MAJ du 02/09/2025 : Le rapport de François Taddei sur l’IA dans l’enseignement supĂ©rieur a Ă©tĂ© publiĂ©. Et, contrairement Ă  ce qu’on aurait pu en attendre, il ne rĂ©pond pas Ă  la question des limites de l’usage de l’IA dans l’enseignement supĂ©rieur. 

Le rapport est pourtant disert. Il recommande de mutualiser les capacitĂ©s de calculs, les contenus et les bonnes pratiques, notamment via une plateforme de mutualisation. Il recommande de dĂ©velopper la formation des Ă©tudiants comme des personnels et bien sĂ»r de repenser les modalitĂ©s d’évaluation, mais sans proposer de pistes concrĂštes. « L’IA doit notamment contribuer Ă  rendre les Ă©tablissements plus inclusifs, renforcer la dĂ©mocratie universitaire, et dĂ©velopper un nouveau modĂšle d’enseignement qui redĂ©finisse le rĂŽle de l’enseignant et des Ă©tudiants Â», rappelle l’auteur de Apprendre au XXIe siĂšcle (Calmann-Levy, 2018) qui militait dĂ©jĂ  pour transformer l’institution. Il recommande enfin de dĂ©velopper des data centers dĂ©diĂ©s, orientĂ©s enseignement et des solutions techniques souveraines et invite le ministĂšre de l’enseignement supĂ©rieur Ă  se doter d’une politique nationale d’adoption de l’IA autour d’un Institut national IA, Ă©ducation et sociĂ©tĂ©.

Le rapport embarque une enquĂȘte quantitative sur l’usage de l’IA par les Ă©tudiants, les professeurs et les personnels administratifs. Si le rapport estime que l’usage de l’IA doit ĂȘtre encouragĂ©, il souligne nĂ©anmoins que son dĂ©veloppement « doit ĂȘtre accompagnĂ© de rĂ©flexions collectives sur les usages et ses effets sur l’organisation du travail, les processus et l’évolution des compĂ©tences Â», mais sans vraiment faire de propositions spĂ©cifiques autres que citer certaines dĂ©jĂ  mises en place nombre de professeurs. Ainsi, sur l’évolution des pratiques, le rapport recense les Ă©volutions, notamment le dĂ©veloppement d’examens oraux, mais en pointe les limites en termes de coĂ»ts et d’organisation, sans compter, bien sĂ»r, qu’ils ne permettent pas d’évaluer les capacitĂ©s d’écriture des Ă©lĂšves. « La mission considĂšre que l’IA pourrait donner l’opportunitĂ© de redĂ©finir les modĂšles d’enseignement, en rĂ©interrogeant le rĂŽle de chacun. Plusieurs pistes sont possibles : associer les Ă©tudiants Ă  la dĂ©finition des objectifs des enseignements, responsabiliser les Ă©tudiants sur les apprentissages, mettre en situation professionnelle, dĂ©velopper davantage les modes projet, dĂ©velopper la rĂ©solution de problĂšmes complexes, associer les Ă©tudiants Ă  l’organisation d’évĂ©nements ou de travaux de recherche, etc. Le principal avantage de cette Ă©volution est qu’elle peut permettre de renforcer l’engagement des Ă©tudiants dans les apprentissages car ils sont plus impliquĂ©s quand ils peuvent contribuer aux choix des sujets abordĂ©s. Ils prendront aussi conscience des enjeux pour leur vie professionnelle des matiĂšres enseignĂ©es. Une telle Ă©volution pourrait renforcer de ce fait la qualitĂ© des apprentissages. Elle permettrait aussi de proposer davantage d’horizontalitĂ© dans les Ă©changes, ce qui est attendu par les Ă©tudiants et qui reflĂšte aussi davantage le fonctionnement par projet, mode d’organisation auquel ils seront frĂ©quemment confrontĂ©s Â». Pour rĂ©pondre au dĂ©fi de l’IA, la mission TaddeĂŻ propose donc de « sortir d’une transmission descendante Â» au profit d’un apprentissage plus collaboratif, comme François TaddĂ©i l’a toujours proposĂ©, mais sans proposer de norme pour structurer les rapports Ă  l’IA. 

Le rapport recommande d’ailleurs de favoriser l’usage de l’IA dans l’administration scolaire et d’utiliser le « broad listening« , l’écoute et la consultation des jeunes pour amĂ©liorer la dĂ©mocratie universitaire
 Une proposition qui pourrait ĂȘtre stimulante si nous n’étions pas plutĂŽt confronter Ă  son exact inverse : le broad listening semble plutĂŽt mobilisĂ© pour rĂ©primer les propos Ă©tudiants que le contraire
 Enfin, le rapport insiste particuliĂšrement sur l’usage de l’IA pour personnaliser l’orientation et ĂȘtre un tuteur d’études. La derniĂšre partie du rapport constate les besoins de formation et les besoins d’outils mutualisĂ©s, libres et ouverts : deux aspects qui nĂ©cessiteront des financements et projets adaptĂ©s. 

Ce rapport trĂšs pro-IA ne rĂ©pond pas vraiment Ă  la difficultĂ© de l’évaluation et de l’enseignement Ă  l’heure oĂč les Ă©lĂšves peuvent utiliser l’IA pour leurs Ă©crits. 

Signalons qu’un autre rapport a Ă©tĂ© publiĂ© concomitamment, celui de l’Inspection gĂ©nĂ©rale de l’éducation, du sport et de la recherche (IGERS) qui insiste Ă©galement sur le besoin de coordination et de mutualisation. 

Pour l’instant, l’une des propositions la plus pratico-pratique que l’on a vu passer sont assurĂ©ment  les rĂ©sultats de la convention « citoyenne Â» de Sciences-Po Aix sur l’usage de l’IA gĂ©nĂ©rative, formulant 7 propositions. La convention recommande que les Ă©tudiants dĂ©clarent l’usage de l’IA, pour prĂ©ciser le niveau d’intervention qui a Ă©tĂ© fait, le modĂšle utilisĂ© et les instructions donnĂ©es, sur le modĂšle de celles utilisĂ©es par l’universitĂ© de Sherbrooke. L’avis recommande aussi la coordination des Ă©quipes pĂ©dagogiques afin d’harmoniser les pratiques, pour donner un cadre cohĂ©rent aux Ă©tudiants et bĂątir une rĂ©flexion collective. La 3e proposition consiste Ă  amĂ©liorer l’enquĂȘte sur les pratiques via des formulaires rĂ©guliers pour mieux saisir les niveaux d’usages des Ă©lĂšves. La 4e proposition propose de ne pas autoriser l’IA gĂ©nĂ©rative pour les Ă©tudiants en premiĂšre et seconde annĂ©e, afin de leur permettre d’acquĂ©rir un socle de connaissances. La 5e proposition propose que les enseignants indiquent clairement si l’usage est autorisĂ© ou non et selon quelles modalitĂ©s, sur le modĂšle que propose, lĂ  encore, l’universitĂ© de Sherbrooke. La 6e proposition propose d’amĂ©liorer la formation aux outils d’IA. La 7e propose d’organiser des ateliers de sensibilisation aux dimensions environnementales et sociales des IA gĂ©nĂ©ratives, intĂ©grĂ©s Ă  la formation. Comme le montrent nombre de chartes de l’IA dans l’éducation, celle-ci propose surtout un plus fort cadrage des usages que le contraire. 

En tout cas, le sujet agite la rĂ©flexion. Dans une tribune pour le Monde, le sociologue Manuel Cervera-Marzal estime que plutĂŽt que d’ériger des interdits inapplicables en matiĂšre d’intelligence artificielle, les enseignants doivent rĂ©inventer les maniĂšres d’enseigner et d’évaluer, explique-t-il en explicitant ses propres pratiques. MĂȘme constat dans une autre tribune pour le professeur et Ă©crivain Maxime Abolgassemi. 

Dans une tribune pour le Club de Mediapart, CĂ©line Cael et Laurent Reynaud, auteurs de Et si on imaginait l’école de demain ? (Retz, 2025) reviennent sur les annonces toutes rĂ©centes de la ministre de l’éducation, Elisabeth Borne, de mettre en place une IA pour les professeurs “pour les accompagner dans leurs mĂ©tiers et les aider Ă  prĂ©parer leurs cours” (un appel d’offres a d’ailleurs Ă©tĂ© publiĂ© en janvier 2025 pour sĂ©lectionner un candidat). Des modules de formation seront proposĂ©s aux Ă©lĂšves du secondaire et un chatbot sera mis en place pour rĂ©pondre aux questions administratives et rĂ©glementaires des personnels de l’Éducation nationale, a-t-elle Ă©galement annoncĂ©. Pour les deux enseignants, “l’introduction massive du numĂ©rique, et de l’IA par extension, dans le quotidien du mĂ©tier d’enseignant semble bien plus souvent conduire Ă  un appauvrissement du mĂ©tier d’enseignant plutĂŽt qu’à son optimisation”. “L’IA ne saurait ĂȘtre la solution miracle Ă  tous les dĂ©fis de l’éducation”, rappellent-ils. Les urgences ne sont pas lĂ .  

Selon le bulletin officiel de l’éducation nationale qui a publiĂ© en juillet un cadre pour un usage raisonnĂ© du numĂ©rique Ă  l’école, la question de l’IA « doit ĂȘtre conduite au sein des instances de dĂ©mocratie scolaire Â», afin de nourrir le projet d’établissement. Bref, la question du cadrage des pratiques est pour l’instant renvoyĂ©e Ă  un nĂ©cessaire dĂ©bat de sociĂ©tĂ© Ă  mener.

  •  

IA et éducation (2/2) : du dilemme moral au malaise social

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser a Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

MAJ du 02/09/2025 : Le rapport de François Taddei sur l’IA dans l’enseignement supĂ©rieur a Ă©tĂ© publiĂ©. Et, contrairement Ă  ce qu’on aurait pu en attendre, il ne rĂ©pond pas Ă  la question des limites de l’usage de l’IA dans l’enseignement supĂ©rieur. 

Le rapport est pourtant disert. Il recommande de mutualiser les capacitĂ©s de calculs, les contenus et les bonnes pratiques, notamment via une plateforme de mutualisation. Il recommande de dĂ©velopper la formation des Ă©tudiants comme des personnels et bien sĂ»r de repenser les modalitĂ©s d’évaluation, mais sans proposer de pistes concrĂštes. « L’IA doit notamment contribuer Ă  rendre les Ă©tablissements plus inclusifs, renforcer la dĂ©mocratie universitaire, et dĂ©velopper un nouveau modĂšle d’enseignement qui redĂ©finisse le rĂŽle de l’enseignant et des Ă©tudiants Â», rappelle l’auteur de Apprendre au XXIe siĂšcle (Calmann-Levy, 2018) qui militait dĂ©jĂ  pour transformer l’institution. Il recommande enfin de dĂ©velopper des data centers dĂ©diĂ©s, orientĂ©s enseignement et des solutions techniques souveraines et invite le ministĂšre de l’enseignement supĂ©rieur Ă  se doter d’une politique nationale d’adoption de l’IA autour d’un Institut national IA, Ă©ducation et sociĂ©tĂ©.

Le rapport embarque une enquĂȘte quantitative sur l’usage de l’IA par les Ă©tudiants, les professeurs et les personnels administratifs. Si le rapport estime que l’usage de l’IA doit ĂȘtre encouragĂ©, il souligne nĂ©anmoins que son dĂ©veloppement « doit ĂȘtre accompagnĂ© de rĂ©flexions collectives sur les usages et ses effets sur l’organisation du travail, les processus et l’évolution des compĂ©tences Â», mais sans vraiment faire de propositions spĂ©cifiques autres que citer certaines dĂ©jĂ  mises en place nombre de professeurs. Ainsi, sur l’évolution des pratiques, le rapport recense les Ă©volutions, notamment le dĂ©veloppement d’examens oraux, mais en pointe les limites en termes de coĂ»ts et d’organisation, sans compter, bien sĂ»r, qu’ils ne permettent pas d’évaluer les capacitĂ©s d’écriture des Ă©lĂšves. « La mission considĂšre que l’IA pourrait donner l’opportunitĂ© de redĂ©finir les modĂšles d’enseignement, en rĂ©interrogeant le rĂŽle de chacun. Plusieurs pistes sont possibles : associer les Ă©tudiants Ă  la dĂ©finition des objectifs des enseignements, responsabiliser les Ă©tudiants sur les apprentissages, mettre en situation professionnelle, dĂ©velopper davantage les modes projet, dĂ©velopper la rĂ©solution de problĂšmes complexes, associer les Ă©tudiants Ă  l’organisation d’évĂ©nements ou de travaux de recherche, etc. Le principal avantage de cette Ă©volution est qu’elle peut permettre de renforcer l’engagement des Ă©tudiants dans les apprentissages car ils sont plus impliquĂ©s quand ils peuvent contribuer aux choix des sujets abordĂ©s. Ils prendront aussi conscience des enjeux pour leur vie professionnelle des matiĂšres enseignĂ©es. Une telle Ă©volution pourrait renforcer de ce fait la qualitĂ© des apprentissages. Elle permettrait aussi de proposer davantage d’horizontalitĂ© dans les Ă©changes, ce qui est attendu par les Ă©tudiants et qui reflĂšte aussi davantage le fonctionnement par projet, mode d’organisation auquel ils seront frĂ©quemment confrontĂ©s Â». Pour rĂ©pondre au dĂ©fi de l’IA, la mission TaddeĂŻ propose donc de « sortir d’une transmission descendante Â» au profit d’un apprentissage plus collaboratif, comme François TaddĂ©i l’a toujours proposĂ©, mais sans proposer de norme pour structurer les rapports Ă  l’IA. 

Le rapport recommande d’ailleurs de favoriser l’usage de l’IA dans l’administration scolaire et d’utiliser le « broad listening« , l’écoute et la consultation des jeunes pour amĂ©liorer la dĂ©mocratie universitaire
 Une proposition qui pourrait ĂȘtre stimulante si nous n’étions pas plutĂŽt confronter Ă  son exact inverse : le broad listening semble plutĂŽt mobilisĂ© pour rĂ©primer les propos Ă©tudiants que le contraire
 Enfin, le rapport insiste particuliĂšrement sur l’usage de l’IA pour personnaliser l’orientation et ĂȘtre un tuteur d’études. La derniĂšre partie du rapport constate les besoins de formation et les besoins d’outils mutualisĂ©s, libres et ouverts : deux aspects qui nĂ©cessiteront des financements et projets adaptĂ©s. 

Ce rapport trĂšs pro-IA ne rĂ©pond pas vraiment Ă  la difficultĂ© de l’évaluation et de l’enseignement Ă  l’heure oĂč les Ă©lĂšves peuvent utiliser l’IA pour leurs Ă©crits. 

Signalons qu’un autre rapport a Ă©tĂ© publiĂ© concomitamment, celui de l’Inspection gĂ©nĂ©rale de l’éducation, du sport et de la recherche (IGERS) qui insiste Ă©galement sur le besoin de coordination et de mutualisation. 

Pour l’instant, l’une des propositions la plus pratico-pratique que l’on a vu passer sont assurĂ©ment  les rĂ©sultats de la convention « citoyenne Â» de Sciences-Po Aix sur l’usage de l’IA gĂ©nĂ©rative, formulant 7 propositions. La convention recommande que les Ă©tudiants dĂ©clarent l’usage de l’IA, pour prĂ©ciser le niveau d’intervention qui a Ă©tĂ© fait, le modĂšle utilisĂ© et les instructions donnĂ©es, sur le modĂšle de celles utilisĂ©es par l’universitĂ© de Sherbrooke. L’avis recommande aussi la coordination des Ă©quipes pĂ©dagogiques afin d’harmoniser les pratiques, pour donner un cadre cohĂ©rent aux Ă©tudiants et bĂątir une rĂ©flexion collective. La 3e proposition consiste Ă  amĂ©liorer l’enquĂȘte sur les pratiques via des formulaires rĂ©guliers pour mieux saisir les niveaux d’usages des Ă©lĂšves. La 4e proposition propose de ne pas autoriser l’IA gĂ©nĂ©rative pour les Ă©tudiants en premiĂšre et seconde annĂ©e, afin de leur permettre d’acquĂ©rir un socle de connaissances. La 5e proposition propose que les enseignants indiquent clairement si l’usage est autorisĂ© ou non et selon quelles modalitĂ©s, sur le modĂšle que propose, lĂ  encore, l’universitĂ© de Sherbrooke. La 6e proposition propose d’amĂ©liorer la formation aux outils d’IA. La 7e propose d’organiser des ateliers de sensibilisation aux dimensions environnementales et sociales des IA gĂ©nĂ©ratives, intĂ©grĂ©s Ă  la formation. Comme le montrent nombre de chartes de l’IA dans l’éducation, celle-ci propose surtout un plus fort cadrage des usages que le contraire. 

En tout cas, le sujet agite la rĂ©flexion. Dans une tribune pour le Monde, le sociologue Manuel Cervera-Marzal estime que plutĂŽt que d’ériger des interdits inapplicables en matiĂšre d’intelligence artificielle, les enseignants doivent rĂ©inventer les maniĂšres d’enseigner et d’évaluer, explique-t-il en explicitant ses propres pratiques. MĂȘme constat dans une autre tribune pour le professeur et Ă©crivain Maxime Abolgassemi. 

Dans une tribune pour le Club de Mediapart, CĂ©line Cael et Laurent Reynaud, auteurs de Et si on imaginait l’école de demain ? (Retz, 2025) reviennent sur les annonces toutes rĂ©centes de la ministre de l’éducation, Elisabeth Borne, de mettre en place une IA pour les professeurs “pour les accompagner dans leurs mĂ©tiers et les aider Ă  prĂ©parer leurs cours” (un appel d’offres a d’ailleurs Ă©tĂ© publiĂ© en janvier 2025 pour sĂ©lectionner un candidat). Des modules de formation seront proposĂ©s aux Ă©lĂšves du secondaire et un chatbot sera mis en place pour rĂ©pondre aux questions administratives et rĂ©glementaires des personnels de l’Éducation nationale, a-t-elle Ă©galement annoncĂ©. Pour les deux enseignants, “l’introduction massive du numĂ©rique, et de l’IA par extension, dans le quotidien du mĂ©tier d’enseignant semble bien plus souvent conduire Ă  un appauvrissement du mĂ©tier d’enseignant plutĂŽt qu’à son optimisation”. “L’IA ne saurait ĂȘtre la solution miracle Ă  tous les dĂ©fis de l’éducation”, rappellent-ils. Les urgences ne sont pas lĂ .  

Selon le bulletin officiel de l’éducation nationale qui a publiĂ© en juillet un cadre pour un usage raisonnĂ© du numĂ©rique Ă  l’école, la question de l’IA « doit ĂȘtre conduite au sein des instances de dĂ©mocratie scolaire Â», afin de nourrir le projet d’établissement. Bref, la question du cadrage des pratiques est pour l’instant renvoyĂ©e Ă  un nĂ©cessaire dĂ©bat de sociĂ©tĂ© Ă  mener.

  •  

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

  •  

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

  •  

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

  •  

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

  •  

25 juin : DLA en fĂȘte !

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

  •  

25 juin : DLA en fĂȘte !

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

  •  

Ecrire le code du numérique

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.
  •  

Ecrire le code du numérique

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.
  •  

Chatbots, une adoption sans impact ?

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

  •  

Chatbots, une adoption sans impact ?

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

  •  

Pour une science de la subjectivité

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

  •  

Pour une science de la subjectivité

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

  •  

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

  •  

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

  •