LâAI Now Institute vient de publier son rapport 2025. Et autant dire, quâil frappe fort. âLa trajectoire actuelle de lâIA ouvre la voie Ă un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux quâils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives dâinnovationâ.
La bonne nouvelle, câest que la voie offerte par lâindustrie technologique nâest pas la seule qui sâoffre Ă nous. âCe rapport explique pourquoi la lutte contre la vision de lâIA dĂ©fendue par lâindustrie est un combat qui en vaut la peineâ. Comme le rappelait leur rapport 2023, lâIA est dâabord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. âLa question que nous devrions nous poser nâest pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi dâOpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de lâĂ©conomie technologique, est bĂ©nĂ©fique Ă la sociĂ©tĂ©â.
âLâavĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans lâhistoire de lâIA, mais plutĂŽt le renforcement dâun paradigme du « plus câest grand, mieux câest », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux dâintĂ©rĂȘt de la Silicon Valleyâ. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă lâIA, Ă la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de lâinformation et de la dĂ©mocratie⊠lâavĂšnement de lâIA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de lâIA. LâIA remet au goĂ»t du jour des stratĂ©gies anciennes dâextraction dâexpertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires.
Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de lâAI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce quâil est plus fragile quâil nây paraĂźt. âLes entreprises dâIA perdent de lâargent pour chaque utilisateur quâelles gagnentâ et le coĂ»t de lâIA Ă grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque quâune bulle dâinvestissement ne finisse par Ă©clater. Lâaffirmation de la rĂ©volution de lâIA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s quâelle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production dâagents IA, en passant par lâaugmentation des prix du Cloud par lâintĂ©gration automatique de fonctionnalitĂ©s IA⊠tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes dâIA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de lâIA relĂšvent souvent dâillusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances quâautre chose, comme lâexpliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas dâutilisation, âlâIA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui nâen ont pasâ sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas dâerreur.
LâIA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie
Pour lâAI Now Institute, les avantages de lâIA sont Ă la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de lâIA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă lâoeuvre et servant de canal pour le dĂ©ploiement de mesures dâaustĂ©ritĂ© sous prĂ©texte dâefficacitĂ©, Ă lâimage du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars dâargent public ont Ă©tĂ© investis dans des solutions dâIA dĂ©faillantes. âLe mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de lâIA profitent aux entreprises, et non aux travailleurs ou au grand public. Et LâIA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant lâautonomie au lieu de lâaccroĂźtreâ.
âLâutilisation de lâIA est souvent coercitiveâ, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă lâimage de lâessor dĂ©bridĂ© de lâutilisation de lâIA dans le contrĂŽle de lâimmigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur lâIA gĂ©nĂ©rative, nouvelle couche dâexploitation du travail). Le rapport consacre dâailleurs tout un chapitre aux dĂ©faillances de lâIA. Pour les thurifĂ©raires de lâIA, celle-ci est appelĂ©e Ă guĂ©rir tous nos maux, permettant Ă la fois de transformer la science, la logistique, lâĂ©ducation⊠Mais, si les gĂ©ants de la tech veulent que lâIA soit accessible Ă tous, alors lâIA devrait pouvoir bĂ©nĂ©ficier Ă tous. Câest loin dâĂȘtre le cas.
Le rapport prend lâexemple de la promesse que lâIA pourrait parvenir, Ă terme, Ă guĂ©rir les cancers. Si lâIA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin dâĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales quâon le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de lâAI Now Institute, câest lâhypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de lâIA. Or, câest prĂ©cisĂ©ment le lien que ces dirigeants dâentreprise tentent dâĂ©tablir. « Le prĂ©texte que lâIA pourrait rĂ©volutionner la santĂ© sert Ă promouvoir la dĂ©rĂ©glementation de lâIA pour dynamiser son dĂ©veloppement ». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă discuter des enjeux de lâIA et des transformations quâelle produit sur la sociĂ©tĂ© toute entiĂšre.
Or, dans le rĂ©gime des dĂ©faillances de lâIA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur sâappuient sur un rĂ©gime de âvĂ©ritudeâ comme sâen moque lâhumoriste Stephen Colbert, câest-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă lâimage des robots infirmiers quâa pu promouvoir Nvidia en affirmant quâils surpasseraient les infirmiĂšres elles-mĂȘmes⊠Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons dâune science de lâĂ©valuation de lâIA gĂ©nĂ©rative. En lâabsence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles dâIA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă Ă©valuer la prĂ©cision des modĂšles dâIA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple.
Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans lâĂ©ducation, les Moocs ont promis la dĂ©mocratisation de lâaccĂšs aux cours. Il nâen a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par lâIA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu dâOpenAI, au risque de compromettre la finalitĂ© mĂȘme de lâĂ©ducation. En fait, rappellent les auteurs du rapport, dans lâĂ©ducation comme ailleurs, lâIA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A lâuniversitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main dâĆuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper lâIA, alors que le problĂšme nâest pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. LâIA sert souvent de vecteur pour le dĂ©ploiement de mesures dâaustĂ©ritĂ© sous un autre nom. Les systĂšmes dâIA appliquĂ©s aux personnes Ă faibles revenus nâamĂ©liorent presque jamais lâaccĂšs aux prestations sociales ou Ă dâautres opportunitĂ©s, disait le rapport de Techtonic Justice. âLâIA nâest pas un ensemble cohĂ©rent de technologies capables dâatteindre des objectifs sociaux complexesâ. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela nâempĂȘche pourtant pas le solutionnisme de prospĂ©rer. Lâobjectif du chatbot newyorkais par exemple, ânâest peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt dâencourager et de centraliser lâaccĂšs aux donnĂ©es des citoyens ; de privatiser et dâexternaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifsâ, comme lâexplique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.
Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs dâIA, nous fait oublier que les bĂ©nĂ©fices de lâIA vont bien plus leur profiter Ă eux quâau public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă lâIA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. LâIA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de lâIA pour justifier la fragmentation, lâautomatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque lâautomatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce nâĂ©tait pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme lâexpliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). Lâessor de lâautomatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes dâemplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© lâautomatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de lâĂšre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques dâacquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. Lâindustrie de lâIA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă la baisse. Dâinnombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui sây lancent deviennent plus processuelles et bureaucratiques pour leur permettre dâopĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies dâIA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă lâembauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.
Le risque de lâIA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, lâintĂ©gration de lâIA dans les agences chargĂ©es de lâimmigration, malgrĂ© lâĂ©diction de principes dâutilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et dâimmigration des Ătats-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes dâasile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s dâerreurs de classification lorsquâils sont utilisĂ©s sur des personnes dont lâanglais nâest pas la langue maternelle. Les consĂ©quences dâune identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner lâexpulsion, lâinterdiction Ă vie du territoire amĂ©ricain et une peine dâemprisonnement pouvant aller jusquâĂ dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsquâils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que lâefficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e ».
MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, lâintĂ©gration de lâIA dans les contrĂŽles dâimmigration ne semble vouĂ©e quâĂ sâintensifier. Lâutilisation de ces outils offre un vernis dâobjectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences dâimmigration pour restreindre lâasile. « LâIA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles dâimmigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles dâĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans lâinventaire dâIA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu dâinformations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă faire valoir leurs droits Ă une procĂ©dure rĂ©guliĂšre. Ces outils sâappuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă lâutilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et dâautres techniques de surveillance, Ă lâachat massif dâinformations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă la fois confrontĂ©s Ă des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce quâelles donnent du pouvoir aux forces de lâordre, leur permettant dâatteindre leurs objectifs dâexpulsion et dâarrestation. Avec lâIA, le pouvoir devient lâobjectif.
Les leviers pour renverser lâempire de lâIA et faire converger les luttes contre son monde
La derniĂšre partie du rapport de lâAI Now Institute tente de dĂ©ployer une autre vision de lâIA par des propositions, en dessinant une feuille de route pour lâaction. âLâIA est une lutte de pouvoir et non un levier de progrĂšsâ, expliquent les auteurs qui invitent Ă âreprendre le contrĂŽle de la trajectoire de lâIAâ, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur lâIA.
DĂ©montrer que lâIA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©
Le premier objectif, pour reprendre la main, consiste Ă mieux dĂ©montrer que lâindustrie de lâIA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour lâAI Now Institute, ânous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec lâIAâ, montrer les systĂšmes dâIA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis dâouvrir un front de rĂ©sistance. La rĂ©sistance et lâindignation face aux coupes budgĂ©taires et Ă lâaccaparement des donnĂ©es a permis de montrer quâamĂ©liorer lâefficacitĂ© des services nâĂ©tait pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă exploiter.
La construction des data centers pour lâIA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă lâimage de celles que tentent de faire entendre la Citizen Action Coalition de lâIndiana ou la Memphis Community Against Pollution dans le Tennessee.
La question de lâaugmentation des prix et de lâinflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de lâAI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă lâinterdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires.
Faire progresser lâorganisation des travailleurs
Le second levier consiste Ă faire progresser lâorganisation des travailleurs. Lorsque les travailleurs et leurs syndicats sâintĂ©ressent sĂ©rieusement Ă la maniĂšre dont lâIA transforme la nature du travail et sâengagent rĂ©solument par le biais de nĂ©gociations collectives, de lâapplication des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă contester lâutilisation de lâIA gĂ©nĂ©rative Ă Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă lâimpact de lâIA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter lâaugmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis dâĂ©tablir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes⊠Pour cela, il faut Ă la fois que les organisations puissent analyser lâimpact de lâIA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă lâimage de ce quâĂ accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de lâIA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă garantir une application juste et sĂ»re de lâIA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement dâEPIC Acuity, un systĂšme qui sous-estimait lâĂ©tat de santĂ© des patients et le nombre dâinfirmiĂšres nĂ©cessaires, et ont contraint lâentreprise qui dĂ©ployait le systĂšme Ă crĂ©er un comitĂ© de surveillance pour sa mise en Ćuvre.
Une autre tactique consiste Ă contester le dĂ©ploiement dâIA austĂ©ritaires dans le secteur public Ă lâimage du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre lâimpact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions dâIA gĂ©nĂ©ratives dans les services publics.
Une autre tactique consiste Ă mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement dâAmazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que lâimpact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs.
Bref, lâenjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă celles Ćuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de lâĂ©tendre Ă lâensemble de la chaĂźne de valeur et dâapprovisionnement de lâIA, au-delĂ des questions amĂ©ricaines, mĂȘme si pour lâinstant âaucune tentative sĂ©rieuse dâorganisation du secteur impactĂ© par le dĂ©ploiement de lâIA Ă grande Ă©chelle nâa Ă©tĂ© menĂ©eâ. Des initiatives existent pourtant comme lâAmazon Employees for Climate Justice, lâAfrican Content Moderators Union ou lâAfrican Tech Workers Rising, le Data Workerâs Inquiry Project, le Tech Equity Collaborative ou lâAlphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels).
Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes dâIA â et qui, par consĂ©quent, les connaissent intimement â ââont une opportunitĂ© particuliĂšre dâutiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. âSâorganiser et mener des actions collectives depuis ces postes aura un impact profond sur lâĂ©volution de lâIAâ.
âĂ lâinstar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier dâaujourdâhui peut se battre pour un nouveau pacte social qui place lâIA et les technologies numĂ©riques au service de lâintĂ©rĂȘt public et oblige le pouvoir irresponsable dâaujourdâhui Ă rendre des comptes.â
Confiance zĂ©ro envers les entreprises de lâIA !
Le troisiĂšme levier que dĂ©fend lâAI Now Institute est plus radical encore puisquâil propose dâadopter un programme politique âconfiance zĂ©roâ envers lâIA. En 2023, LâAI Now, lâElectronic Privacy Information Center et dâAccountable Tech affirmaient dĂ©jĂ âquâune confiance aveugle dans la bienveillance des entreprises technologiques nâĂ©tait pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă activer.
Tout dâabord, le rapport plaide pour âdes rĂšgles audacieuses et claires qui restreignent les applications dâIA nuisiblesâ. Câest au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes dâIA seront utilisĂ©s. âComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits dâIA ou les rĂ©gimes dâĂ©valuation des risques) qui, dans la pratique, ont souvent eu tendance Ă renforcer les pouvoirs des leaders du secteur et Ă sâappuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent lâavantage dâĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garantiesâ. Pour lâAI Now Institute, lâIA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes dâindemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă des fournisseurs tiers. Lâenjeu premier est dâaugmenter le spectre des interdictions.
Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de lâIA. LâIA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait lâAda Lovelace Institute. Le rapport rappelle que si la transparence est au fondement dâune rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es dâentraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et lâexplication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont lâobjet. Notamment, le rapport insiste sur le besoin que âles dĂ©veloppeurs documentent et rendent publiques leurs techniques dâattĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© quâils ne sont pas en mesure dâattĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne dâapprovisionnementâ. Le rapport recommande Ă©galement dâinscrire un « droit de dĂ©rogation » aux dĂ©cisions et lâobligation dâintĂ©grer des conseils dâusagers pour quâils aient leur mot Ă dire sur les dĂ©veloppements et lâutilisation des systĂšmes.
Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce nâest pas Ă lâindustrie dâĂ©valuer ce quâelle fait. Le âred teamingâ et les âmodels cardsâ ignorent les conflits dâintĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, sâattaquer aux racines du pouvoir de ces entreprises et par exemple quâelles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent dâeffacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups dâIA et le rachat dâentreprise pour limiter la constitution de monopoles.
Le rapport propose Ă©galement de construire une boĂźte Ă outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă assurer le respect du droit Ă la concurrence, mais les poursuites peinent Ă sâappliquer et peinent Ă construire des changements lĂ©gislatifs pour renforcer le droit Ă la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre lâinnovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de lâIA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils dâadministration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud dâexploiter les donnĂ©es quâils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents.
Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de lâexploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de lâĂ©lectricitĂ©âŠ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter lâaugmentation des tarifs sur les usagers.
Décloisonner !
Le cloisonnement des enjeux de lâIA est un autre problĂšme quâil faut lever. Câest le cas notamment de lâobsession Ă la sĂ©curitĂ© nationale qui justifient Ă la fois des mesures de rĂ©gulation et des programmes dâaccĂ©lĂ©ration et dâexpansion du secteur et des infrastructures de lâIA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă lâĆuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer lâautomatisation âplace les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cĆur de la mise en place de conditions Ă©conomiques plus justesâ. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, lâexploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cĆur du programme de justice Ă©conomique pour limiter sa capture par lâIA. Les points de collecte, les points de surveillance, doivent ĂȘtre âla cible appropriĂ©e de la rĂ©sistanceâ, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et lâutilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais.
âNous devons nous rĂ©approprier lâagenda positif de lâinnovation centrĂ©e sur le public, et lâIA ne devrait pas en ĂȘtre le centreâ, concluent les auteurs. La trajectoire actuelle de lâIA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que lâespace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme dâune IA Ă grande Ă©chelle qui ne profitera quâaux plus puissants.
LâIA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour lâIA, structurellement plus alignĂ©es sur lâintĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă des objectifs dâintĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que lâIA publique ne limite pas sa politique Ă lâachat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s dâIA, rĂ©investisse sa capacitĂ© dâexpertise pour ne pas cĂ©der au solutionnisme de lâIA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de lâinnovation dâintĂ©rĂȘt gĂ©nĂ©ral qui façonnera lâĂ©mergence dâun espace alternatif par exemple en exigeant des mĂ©thodes dâimplication des publics et aussi en Ă©largissant lâintĂ©rĂȘt de lâEtat Ă celui de lâintĂ©rĂȘt collectif et pas seulement Ă ses intĂ©rĂȘts propres (par exemple en conditionnant Ă la promotion des objectifs climatiques, au soutien syndical et citoyenâŠ), ainsi quâĂ redĂ©finir les conditions concrĂštes du financement public de lâIA, en veillant Ă ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt quâaux intĂ©rĂȘts des entreprises.
Changer lâagenda : pour une IA publique !
Enfin, le rapport conclut en affirmant que lâinnovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que lâIA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de lâIA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă la crĂ©ation dâun Ă©cosystĂšme dâinnovation extĂ©rieur Ă lâindustrie, comme lâont rĂ©clamĂ© Public AI Network dans un rapport, lâAda Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania⊠qui parlent dâIA publique plus que dâIA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale.
Ces discours confirment que la trajectoire de lâIA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de lâIA Ă grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries dâinformation et de pouvoir inhĂ©rentes Ă lâIA. Câest la partie cachĂ©e quâil faut exprimer haut et fort. Câest la rĂ©alitĂ© Ă laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment ». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, dâune commission indĂ©pendante prĂ©sidĂ©e par lâancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de lâIA menace la compĂ©titivitĂ© technologique des Ătats-Unis. » Et la commission proposait de crĂ©er des ressources publiques pour lâIA.
« LâIA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour lâIA, structurellement plus alignĂ©es sur lâintĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă des objectifs dâintĂ©rĂȘt gĂ©nĂ©ral ». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de lâUniversitĂ© de Californie, appelĂ© CalCompute. LâĂtat de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă construire une infrastructure de cloud public dans sept institutions de recherche de lâĂtat, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă enrichir davantage les ressources des gĂ©ants de la technologie.
Et le rapport de se conclure en appelant Ă dĂ©fendre lâIA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures dâIA publique et en veillant que les groupes dĂ©favorisĂ©s disposent dâune autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de lâinnovation dâintĂ©rĂȘt gĂ©nĂ©ral.
***
Le rapport de lâAI Now Institute a la grande force de nous rappeler que les luttes contre lâIA existent et quâelles ne sont pas que des luttes de collectifs technocritiques, mais quâelles sâincarnent dĂ©jĂ dans des projets politiques, qui peinent Ă sâinterelier et Ă se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de lâIA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă nulle autre pareille.
« LâIA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent », conclut le rapport LâIA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. âLier notre avenir commun Ă lâIA rend cet avenir plus difficile Ă rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă construire un avenir diffĂ©rentâ. LâIA comme seule perspective dâavenir ânous Ă©loigne encore davantage dâune vie digne, oĂč nous aurions lâautonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miquesâ. LâIA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. âElle naturalise lâinĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, âtout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de lâIAâ.
Pourtant, une autre IA est possible, estiment les chercheurs.ses de lâAI Now Institute. Nous ne pouvons pas lutter contre lâoligarchie technologique sans rejeter la trajectoire actuelle de lâindustrie autour de lâIA Ă grande Ă©chelle. Nous ne devons pas oublier que lâopinion publique sâoppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de lâAI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme dâadopter un programme politique de « confiance zĂ©ro » pour lâIA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de lâIA, encadrent son cycle de vie de bout en bout et garantissent que lâindustrie qui crĂ©e et exploite actuellement lâIA ne soit pas laissĂ©e Ă elle-mĂȘme pour sâautorĂ©guler et sâautoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre lâautomatisation et la lutte contre le pouvoir de marchĂ©.
Revendiquer un programme positif dâinnovation centrĂ©e sur le public, sans IA au centre.
« La trajectoire actuelle de lâIA place le public sous la coupe dâoligarques technologiques irresponsables. Mais leur succĂšs nâest pas inĂ©luctable. En nous libĂ©rant de lâidĂ©e que lâIA Ă grande Ă©chelle est inĂ©vitable, nous pouvons retrouver lâespace nĂ©cessaire Ă une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective ».
La trajectoire actuelle de lâIA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie nâest pourtant pas encore lĂ . âAvec lâadoption de la vision actuelle de lâIA, nous perdons un avenir oĂč lâIA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč lâIA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč lâIA garantirait aux travailleurs le contrĂŽle de lâimpact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes â y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale â au lieu de promoteurs de lâIA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă lâautomatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă long terme des employĂ©s, au lieu que lâIA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă tout va ; oĂč lâIA contribue Ă protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă leurs responsabilitĂ©s ; et oĂč lâIA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et dâaliĂ©nation.â
Pour lâAI Now Institute, lâenjeu est dâaller vers une prospĂ©ritĂ© partagĂ©e, et ce nâest pas la direction que prennent les empires de lâIA. La prolifĂ©ration de toute nouvelle technologie a le potentiel dâaccroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de lâIA, qui vise Ă maximiser le profit des actionnaires. âLe mythe insidieux selon lequel lâIA mĂšnera Ă la « productivitĂ© » pour tous, alors quâil sâagit en rĂ©alitĂ© de la productivitĂ© dâun nombre restreint dâentreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de lâIA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă revitaliser lâindustrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat dâactions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă la crĂ©ation dâemplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de lâIA sous lâadministration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.â
âCela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage dâentreprises puissent prospĂ©rer, dâinvestir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et dâaccroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes â et donc dâidĂ©es â au sein de la main-dâĆuvre technologique.â
âNous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.â Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre lâoligarchie. Cela nĂ©cessitera de sâattaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser sâaccaparer lâavenir.
Sur ce point, comme sur les autres, nous sommes dâaccord.
Hubert Guillaud