Vue normale

Reçu hier — 18 septembre 2025
  • ✇Dans les algorithmes
  • Pourquoi la Tech se fascise-t-elle ?
    La couverture d’Apocalypse nerds. Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir (Divergences, 2025) que publient les journalistes Nastasia Hadjadji et Olivier Tesquet n’est pas sans rappeler le livre du journaliste Thibault Prévost, Les prophètes de l’IA : Pourquoi la Silicon Valley nous vend l’apocalypse (Lux, 2024), paru l’année dernière (voire notre critique). L’un comme l’autre s’interrogent sur la dérive à l’œuvre dans le monde de la tech et sur la recomposition du p
     

Pourquoi la Tech se fascise-t-elle ?

18 septembre 2025 à 01:00
La couverture d’Apocalypse nerds.

Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir (Divergences, 2025) que publient les journalistes Nastasia Hadjadji et Olivier Tesquet n’est pas sans rappeler le livre du journaliste Thibault Prévost, Les prophètes de l’IA : Pourquoi la Silicon Valley nous vend l’apocalypse (Lux, 2024), paru l’année dernière (voire notre critique). L’un comme l’autre s’interrogent sur la dérive à l’œuvre dans le monde de la tech et sur la recomposition du pouvoir par la technique. L’un comme l’autre interrogent la contre-révolution antidémocratique et ultralibérale qui a cours désormais sous nos yeux. C’est la même histoire qui sature la scène médiatique, celle des Ingénieurs du Chaos qu’explorait avant eux Giuliano da Empoli dans son livre éponyme (JC Lattès, 2019). Tout le monde souhaite comprendre les motivations profondes de l’élite technologique en ramassant les propos confus et contradictoires qu’elle distille. Tout le monde souhaite comprendre la fascination qu’ils exercent et la fascisation qu’ils produisent. Est-ce que la tech conduit au fascisme ? Et si c’est le cas, pourquoi ? 

En allant creuser dans les discours souvent alambiqués, fondus ou contradictoires des entrepreneurs et des idéologues de la Tech, ce que montrent surtout Hadjadji et Tesquet c’est que les gens qui ont le pouvoir et la fortune veulent les garder. Leur pseudo rationalisme n’est construit que pour protéger leurs intérêts. Ils ne cherchent qu’à étendre leur pouvoir en démantelant tant l’Etat de droit que l’Etat Providence, celui que nous avons construit collectivement. Ces gens, depuis leurs outils, tentent de mettre le pouvoir à leur service, parce qu’ils se sont rendus compte que leurs outils leur ont donné un incroyable pouvoir et une incroyable richesse. Leur projet séparatiste, à la fois anti-science et anti-démocratique, prône le plus simple populisme : celui d’un retour au chef, à un César auquel nous devrions obéissance, à un capitaine semblable aux capitaines d’industries qu’ils sont, et qui seraient seuls capables de nous guider… Comment expliquer la persistance du mythe du chef, quand on constate combien il s’amenuise partout ? Comment est-on passé d’un « libertarianisme gentiment hostile à l’Etat » à des saluts fascistes ? Comment l’autorité distribuée par les infrastructures techniques des technologies numériques a-t-elle inspiré un tel fantasme de force où l’autorité réelle « modulaire, distribuée, post-idéologique » pourrait à son tour s’auto-administrer ? 

Dans le technofascisme, le fantasme ségrégationniste des totalitarismes du XXe siècle reste entier. Les nouveaux nazis n’ont plus d’uniformes militaires et de mitraillettes à leurs ceintures. Ils portent des costumes d’hommes d’affaires, mais leur vision politique est la même : elle consiste d’abord et avant tout à déshumaniser certaines populations. Toujours les mêmes : les étrangers, les pauvres, ceux qui n’ont pas la bonne couleur de peau, les femmes, ceux qui ne pensent pas comme il faut… « En quoi la technologie recompose-t-elle le fascisme ? », interrogent très pertinemment Hadjadji et Tesquet. Certainement en l’habillant d’une allure acceptable, celle d’un fascisme Cool… qui n’en serait pas vraiment un, puisqu’il ne serait que le fascisme de votre patron.  

La Tech a toujours été à droite

Derrière le rêve d’une Silicon Valley hippie, démocrate, ouverte, horizontale… que nous avait chanté Fred Turner dans Aux sources de l’utopie numérique (C&F éditions, 2012), la réalité, c’est que ses entreprises ont toujours été des « machines ordonnées à la rigueur quasi-militaire ». Dans la tech, le management a toujours été autoritaire, conservateur. Même en Californie, les syndicats ont toujours été refoulés, la politique d’épuisement des salariés la norme. La hiérarchie et le contrôle sont pour ces gens là le moteur de l’efficacité, quand ils ne sont que la marque de l’autorité de leur pouvoir. 

Est-ce ce modèle qui a fini par imposer l’idée que la démocratie est un frein à l’innovation ? Peut-être. Encore faut-il rappeler que le modèle hiérarchique de l’entreprise n’est pas propre à la Silicon Valley, mais s’inscrit dans une tradition bien plus longue liée à l’industrialisation et au pouvoir politique. Dans Temporaire, comment Manpower et McKinsey ont inventé le travail précaire (les arènes, 2021), l’historien du capitalisme, Louis Hyman, rappelle que le modèle d’organisation hiérarchique est né avec l’industrialisation et s’est accompli à mesure que celle-ci s’est diffusée, par exemple chez Ford ou General Motors. Cette organisation de l’industrie n’est pas que le résultat des travaux de Taylor sur l’optimisation de la chaîne de production, mais également ceux d’autres ingénieurs, comme Alfred Sloan qui impose les pratiques comptables, la division en entités et le contrôle des finances, et ce dès les années 20, pour imposer la rentabilité et la segmentation du marché et pas seulement la baisse des coûts de production. C’est aussi l’époque où James McKinsey impose l’analyse des comptes, et où Marvin Bower, qui lui succédera, invente le conseil pour ne pas simplement couper les dépenses, mais trouver les segments de marchés pour faire croître les entreprises. Quant à la redistribution en salaires plutôt généreux, Hyman explique qu’elle est d’abord un levier pour apaiser les revendications syndicales des ouvriers spécialisés et notamment contenir le radicalisme ouvrier : leur faire renoncer à leur demande de contrôle des lieux de travail au profit d’avantages sociaux. Les bons salaires de la tech permettent toujours d’acheter l’obéissance. Et les startups sont plus à considérer comme des véhicules financiers que comme des formes d’entreprises différentes des modèles inventés au XXe siècle. Dans les entreprises, de la Valley comme ailleurs, la démocratie est toujours restée limitée, non pas parce qu’elle serait un frein à l’innovation, mais bien parce qu’elle est toujours considérée comme le frein à l’enrichissement du capital sur le travail. 

La Couverture de la la Contre-révolution californienne.

C’est le même constat que dresse d’ailleurs l’historienne Sylvie Laurent dans le lumineux petit libelle, La Contre-révolution californienne (Seuil, 2025), qui remet en perspective l’histoire techno-réactionnaire de la Californie. Pour elle, la fascisation de Musk, les projets antidémocratiques de Thiel, la masculinisation de Zuckerberg ou les compromissions de Bezos, nous ont fait croire à un virage à droite de quelques milliardaires excentriques, mais a invisibilisé les véritables orientations politiques de la Tech. Laurent rappelle que l’industrie californienne a toujours été bien plus Républicaine et conservatrice que progressiste. Mieux, elle montre que la révolution numérique a bien plus épousé la révolution néolibérale reaganienne et le réenchantement de la société de marché que le contraire. Elle pointe « la dimension éminemment raciale » de la défense absolue de la propriété et de la haine des régulations et interventions fédérales. Bref, que le « futurisme réactionnaire » des années 80 va s’appuyer sur le prophétisme technologique et sa promesse de renouveau de la croissance économique. C’est dès cette époque que les industries de hautes technologies sont gratifiées d’exemptions fiscales pour faciliter leur déploiement, de contrats fusionnels avec l’armée et l’Etat pour promouvoir une rationalisation des choix publics. « Parce qu’elle contient le mot de liberté, l’idéologie libertarienne semble indépendante de toute tradition politique, voire paraît émancipatrice. Mais ses affinités électives avec l’extrême droite depuis un demi-siècle doivent se comprendre à la lumière du soleil californien : la haine libertarienne de l’Etat, c’est la haine de l’égalité ». Pour ces grands patrons, la liberté ne désigne que le capitalisme et son principe d’accumulation. La glorification du plus éminent symbole de son succès, la figure de l’entrepreneur, finit par nous faire croire que l’autoritarisme oligarchique est le remède dont la société aurait besoin. « L’instance honnie n’est pas l’Etat comme abstraction, mais l’Etat libéral et démocratique qui prétend défaire les hiérarchies naturelles ». Pour Sylvie Laurent, la Silicon Valley ouvre un espace de transformation sociale de croissance économique par la dérégularisation. La Tech sera très tôt bien plus l’artisan d’une sous-traitance zélée à surveiller et à réprimer qu’à libérer les individus, via une collusion grandissante avec l’Etat. Pour Sylvie Laurent, la Californie n’est pas le lupanar des hippies, mais celui des réacs qui y ont construit leurs outils de réaction

Pas étonnant donc que pour des gens comme Thiel, la liberté de marché et la démocratie soient incompatibles. La technologie s’impose alors comme une alternative à la politique, à l’image de Paypal, imaginé comme un moyen technique pour renverser le système monétaire mondial. Thiel a toujours vu ses investissements comme un moyen pour promouvoir ses idées, contourner les régulations, imposer ses valeurs. Avec Palantir ou Clearview, il finance des outils qui visent ouvertement à déstabiliser l’Etat de droit et imposer leur seule domination.

Le rapport de force comme méthode, le culte du chef comme idéal

Hadjadji et Tesquet rappellent très pertinemment, que si les idéaux de la Valley semblent se concaténer autour d’un petit groupe d’idées rances, l’idéologie, autre que le libéralisme débridé, semble peu présente. Le trumpisme ne repose sur aucun manifeste. Il n’est qu’un « répertoire d’actions », dont le pouvoir se résume à la pratique du deal (The art of deal était d’ailleurs le titre de l’autobiographie de Trump, où il égraine ses conseils pour faire du business et prône non pas tant la négociation, que le rapport de force permanent). Les deux journalistes rappellent, à la suite du philosophe allemand Franz Neumann, que le nazisme n’était également rien d’autre qu’un champ de bataille entre factions concurrentes. La désorganisation tient bien d’une polycratie où s’affronte différents courants au gré des loyautés personnelles. Il n’y a pas de programme unifié, seulement un langage politique commun qui puise dans un syncrétisme instable et complexe, qu’Emile Torres et Timnit Gebru on désigné sous le nom de Tescreal. Sous couvert d’innombrables courants idéologiques confus, racistes, eugéniques, libertariens, transhumains… se rassemblent des gens qui pensent que la démocratie ne fonctionne plus et que la technologie est plus fiable que les institutions humaines, que le rationalisme permet de soumettre la morale à la logique, enfin surtout à la leur. Au-delà de leurs divergences, ces gens pensent que la fin justifie les moyens et que la hiérarchie permet d’organiser le monde et leur autorité. 

Couverture du livre Libres d’obéir.

Pour ces gens, le chef d’entreprise reste celui qui prend les décisions en dernier recours, notamment en temps de crise. Le mythe de l’entrepreneur est venu se confondre avec le mythe du chef providentiel. D’abord parce que l’un comme l’autre permettent d’affirmer un pouvoir sans démocratie. Le mythe du capitaine d’industrie est né avec l’industrialisation, pour pallier à l’érosion de l’Etat absolutiste et pour lutter contre les théories démocratiques et socialistes. Il a notamment été théorisé par les premières organisations patronales, comme le Comité des forges. Dans l’entre deux guerres, les mêmes vont mobiliser les premières théories managériales pour promouvoir la hiérarchie, non sans lien avec la montée de l’extrême droite, comme le montre l’historien Johann Chapoutot dans ses livres Libres d’obéir : Le Management, du nazisme à aujourd’hui (Gallimard, 2020) et Les Irresponsables : Qui a porté Hitler au pouvoir ? (Gallimard, 2025). Comme l’explique l’historien Yves Cohen, notamment dans son livre, Le siècle des chefs (Amsterdam, 2013), la formation d’un discours qui étaye de nouvelles pratiques de commandement se construit entre 1880 et 1940 dans des domaines aussi variés que la politique, l’armée, l’éducation ou l’entreprise. La figure du chef est une réponse « à l’irruption de phénomènes de masse inconnus jusqu’alors » et qui se propose de remplacer l’aristocratie dévalorisée par l’histoire, par ceux qui dominent l’économie. Elle cherche à mêler la force des systèmes industriels qui se construisent, la force des structures capitalistes, à leur incarnation, en personnalisant la rationalité des structures d’hommes providentiels. Le culte du chef est profondément lié au développement du capitalisme. 

Ce culte du chef et de la décision comme rapport de force est également au cœur de la technologie numérique, rappellent les journalistes. C’est le principe notamment des interfaces de programmation (API), « un protocole qui permet à une fonction d’être réutilisée ailleurs, sans que le programmeur ait besoin d’en comprendre tout le fonctionnement interne ». Il suffit d’appliquer la recette. L’API rend les idées portables, interopérables, mais plus encore fonctionnelles partout où l’on peut les utiliser. Dans le numérique, les décisions se répercutent en cascades obéissantes. Les possibilités sont des fonctions circonscrites. Les décisions s’imposent partout et se déploient via les protocoles dans tous les systèmes interconnectés. Les logiques de classement, de tris, d’ordres se distribuent partout, d’un clic, sans discussion. Le rapport de force est tout entier dans la main de celui qui contrôle le système. 

Pour Musk et ses sbires, tous de jeunes informaticiens, prendre le contrôle de l’État, c’est d’abord prendre le contrôle informatique de l’État. Alors qu’internet était censé nous libérer des autorités, la sacralisation des règles, des scripts, des modes d’organisation toujours plus strictes car organisés par la technologie numérique, nous a conduit à sacraliser l’autorité, expliquions-nous il y a longtemps. Le contrôle, la séparation des tâches, les règles, les processus ont envahi les organisations et semblent être devenus les nouvelles formes d’autorités. L’autorité permet de simplifier la complexité, disions-nous, c’est en cela qu’elle l’emporte. Avec elle, une forme de management antisocial se répand. Le numérique a fait la démonstration de son pouvoir. Il a montré que le logiciel était là où le rapport de force s’exerçait, s’appliquait. La technologie recompose le pouvoir à son avantage et le distribue en le rendant fonctionnel partout. 

Le pouvoir est un script

« Au putsch et à son imagerie militaire, les technofascistes préfèrent le coup d’Etat graduel, une sorte d’administration du basculement, sans recours à la force ». C’est le soft coup qui vise moins à infiltrer le pouvoir qu’à paralyser les institutions démocratiques pour les décrédibiliser. Le but premier, c’est l’épuration, la chasse aux sorcières, pour mettre en place une organisation discrétionnaire. C’est l’épuration des progressistes et de leurs idées. Le dégagisme. C’est le programme qu’applique le Doge : virer les fonctionnaires, rationaliser les dépenses – enfin, uniquement celles liées aux idées progressistes. Le but, produire un État minimal où le marché (et la police) régira les interactions. Ultralibéralisme et autoritarisme s’encouragent et finissent par se confondre. 

Pour les deux journalistes, « on assiste à l’émergence d’un pouvoir césariste, plébiscité non pour sa légalité mais pour sa capacité à se montrer brutal ». Le CEO vient prendre possession d’un système, pour le subvertir sans le renverser. Pourtant, « le pouvoir ne se situe plus tant dans l’autorité d’un individu, que dans l’activation d’un système ». La souveraineté tient désormais d’une API, elle est un service qui se distribue via des plateformes privées. Le pouvoir est un script, une séquence d’instructions, qui se déploie instantanément, qui s’instancie, comme un programme informatique. Le monde n’a plus besoin d’être gouverné politiquement, il est seulement organisé, configuré par les outils technoscientifiques qui ordonnent la société. Pour cela, il suffit de réduire la réalité à des algorithmes, à des variables qu’il suffira d’ajuster, comme les programmes des cabinets de conseils comme McKinsey, Accenture, Cap Gemini, PWC… qui déploient leurs logiciels sur les systèmes sociaux, d’un pays l’autre. Dans le technofascisme, « le pouvoir devient une simple interface de gestion de l’ordre ». « C’est un système sans procédure de recours, qui proclame son affranchissement du droit ». Ce modèle n’est pas une idéologie, mais une méthode, un template, disent très justement les deux journalistes. « L’Europe réactionnaire ne s’unifie pas par le haut » (c’est-à-dire par les idées), « mais s’agrège par le bas, par mimétisme fonctionnel. Ce ne sont pas des idées qui circulent, mais des scripts. Une grammaire d’action ». La politique est désormais une question d’ingénierie, mais seulement parce qu’elle ne promeut qu’une grammaire : une grammaire ultralibérale et ultra-autoritaire dont la seule langue est de produire de l’argent. 

Pour beaucoup qui vénèrent l’efficacité des méthodes de la Tech, qui croient en l’incarnation de son pouvoir dans ces grands hommes providentiels, le technofascisme n’est pas un fascisme. Il ne serait qu’un capitalisme sans plus aucune contrainte dont les effets de bords ne seraient que des dommages collatéraux à l’égard de ceux qui ne sont rien.

L’illusion de la sécession, le rêve de l’impunité…

Couverture du livre Le capitalisme de l’apocalypse.

Le modèle qu’ils proposent, c’est celui de la zone économique spéciale, que décrit l’historien du néolibéralisme Quinn Slobodian dans Le capitalisme de l’apocalypse (Seuil, 2025). Celles des enclaves autoritaires de Dubaï, Singapour ou Hong-Kong. Celles des paradis fiscaux et des zones d’accélération technologiques, comme Shenzhen. Celles de territoires qui ne sont pas des nations car sans démocratie. Derrière le rêve de sécession, le modèle est celui de l’accaparement, disent Naomi Klein et Astra Taylor. Mais cet imaginaire sécessionnistes prend l’eau, rappellent les journalistes en racontant les échecs des projets de micro Etats bunkers, comme Praxis (un délire dans lequel les mêmes ont encore investis), XLII d’Ocean Builders (des structures flottantes qui se veulent des villes libres et qui tournèrent au fiasco, ses promoteurs regagnant bien vite la protection de leur pays d’origine pour éviter la prison : la citoyenneté occidentale a encore bien des atouts !) ou encore Prospera au Honduras (l’enclave libertarienne a fini par être déclarée anticonstitutionnelle). Ces tentatives de néoconquistadors se sont surtout soldées par des échecs. Elles montrent surtout que ces gens n’ont pas dépassé le stade du colonialisme. Ils rêvent de bunkers, de  communautés fermées. Derrière Starbase, la ville dont le maire est un PDG, se profile le vieux rêve de Sun City, la ville censitaire pour riches vieillards. Au mieux, ces citoyennetés se terminent en hôtels de luxe pour digital nomads. La sécession est bien loin. La citoyenneté ne nécessite plus d’impôts, seulement un abonnement. A se demander ce que cela change ?! Hormis mieux exclure ceux qui ne peuvent se le payer. Nastasia Hadjadji et Olivier Tesquet ont bien raison de pointer que cette pensée magique et facile est « saturée d’angles morts ». Que signifie le monde censitaire qu’ils dessinent, hormis une puissance et des droits selon le niveau de fortune ? Ce que les gens doivent comprendre, c’est que dans un tel monde, les droits des milliardaires seraient sans commune mesure par rapport aux droits des millionnaires… Même la police, censée encore assurer l’ordre (bien qu’on pourrait la remplacer par des robots) serait ici une sous-classe sans droits. Le monde qu’ils proposent n’est pas fonctionnel.  

La grande tâche des libertariens n’est pourtant pas tant d’échapper à la politique que d’imposer la leur par la force. D’imposer une impunité à leur profit que leur seule richesse ne leur accorde pas. Leur seule volonté est de précipiter la chute du système démocratique. Ceux qui détestent la démocratie ne cessent de continuer à trouver tous les moyens pour nous en convaincre, dans le seul but qu’on leur rende le pouvoir, nous disait déjà le philosophe Jacques Rancière.

Ce à quoi le livre ne répond pas c’est pourquoi les gens sont si séduits par ces discours. La simplicité, certes. Le fait de trouver des boucs-émissaires certes. Quelque chose d’autre fascine me semble-t-il. Le désir d’autorité d’abord, quand bien même chacun est capable de se rendre compte que s’il désire la restauration de la sienne à l’égard des autres, nul ne supporte celle des autres – et surtout pas ceux qui n’ont que ce mot là à la bouche.  

Couverture du livre, Le monde confisqué.

La croyance que chacun peut devenir l’un de ceux-ci, ensuite. Oubliant qu’en fait, c’est absolument impossible… L’essor des technologies numériques a fait croire que chacun pouvait devenir milliardaire depuis son garage. Cela a peut-être été le cas de quelques-uns. Mais c’est devenu une illusion de le croire encore à l’heure où les investissements dans la tech sont devenus faramineux. La Tech a été le dernier bastion du rêve d’enrichissement “généralisé et illimité”, explique l’économiste Arnaud Orain, qui publie Le Monde confisqué. Essai sur le capitalisme de la finitude (XVIe-XXIe siècle) (Flammarion, 2025). A l’heure du capitalisme de la finitude, le rêve de puissance et de richesse reste entier pour beaucoup, oubliant que l’abondance est derrière nous, et que la solidarité et la justice nous proposent des vies bien plus fécondes que le seul argent. 

Hubert Guillaud

  • ✇Dans les algorithmes
  • Pourquoi la Tech se fascise-t-elle ?
    La couverture d’Apocalypse nerds. Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir (Divergences, 2025) que publient les journalistes Nastasia Hadjadji et Olivier Tesquet n’est pas sans rappeler le livre du journaliste Thibault Prévost, Les prophètes de l’IA : Pourquoi la Silicon Valley nous vend l’apocalypse (Lux, 2024), paru l’année dernière (voire notre critique). L’un comme l’autre s’interrogent sur la dérive à l’œuvre dans le monde de la tech et sur la recomposition du p
     

Pourquoi la Tech se fascise-t-elle ?

18 septembre 2025 à 01:00
La couverture d’Apocalypse nerds.

Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir (Divergences, 2025) que publient les journalistes Nastasia Hadjadji et Olivier Tesquet n’est pas sans rappeler le livre du journaliste Thibault Prévost, Les prophètes de l’IA : Pourquoi la Silicon Valley nous vend l’apocalypse (Lux, 2024), paru l’année dernière (voire notre critique). L’un comme l’autre s’interrogent sur la dérive à l’œuvre dans le monde de la tech et sur la recomposition du pouvoir par la technique. L’un comme l’autre interrogent la contre-révolution antidémocratique et ultralibérale qui a cours désormais sous nos yeux. C’est la même histoire qui sature la scène médiatique, celle des Ingénieurs du Chaos qu’explorait avant eux Giuliano da Empoli dans son livre éponyme (JC Lattès, 2019). Tout le monde souhaite comprendre les motivations profondes de l’élite technologique en ramassant les propos confus et contradictoires qu’elle distille. Tout le monde souhaite comprendre la fascination qu’ils exercent et la fascisation qu’ils produisent. Est-ce que la tech conduit au fascisme ? Et si c’est le cas, pourquoi ? 

En allant creuser dans les discours souvent alambiqués, fondus ou contradictoires des entrepreneurs et des idéologues de la Tech, ce que montrent surtout Hadjadji et Tesquet c’est que les gens qui ont le pouvoir et la fortune veulent les garder. Leur pseudo rationalisme n’est construit que pour protéger leurs intérêts. Ils ne cherchent qu’à étendre leur pouvoir en démantelant tant l’Etat de droit que l’Etat Providence, celui que nous avons construit collectivement. Ces gens, depuis leurs outils, tentent de mettre le pouvoir à leur service, parce qu’ils se sont rendus compte que leurs outils leur ont donné un incroyable pouvoir et une incroyable richesse. Leur projet séparatiste, à la fois anti-science et anti-démocratique, prône le plus simple populisme : celui d’un retour au chef, à un César auquel nous devrions obéissance, à un capitaine semblable aux capitaines d’industries qu’ils sont, et qui seraient seuls capables de nous guider… Comment expliquer la persistance du mythe du chef, quand on constate combien il s’amenuise partout ? Comment est-on passé d’un « libertarianisme gentiment hostile à l’Etat » à des saluts fascistes ? Comment l’autorité distribuée par les infrastructures techniques des technologies numériques a-t-elle inspiré un tel fantasme de force où l’autorité réelle « modulaire, distribuée, post-idéologique » pourrait à son tour s’auto-administrer ? 

Dans le technofascisme, le fantasme ségrégationniste des totalitarismes du XXe siècle reste entier. Les nouveaux nazis n’ont plus d’uniformes militaires et de mitraillettes à leurs ceintures. Ils portent des costumes d’hommes d’affaires, mais leur vision politique est la même : elle consiste d’abord et avant tout à déshumaniser certaines populations. Toujours les mêmes : les étrangers, les pauvres, ceux qui n’ont pas la bonne couleur de peau, les femmes, ceux qui ne pensent pas comme il faut… « En quoi la technologie recompose-t-elle le fascisme ? », interrogent très pertinemment Hadjadji et Tesquet. Certainement en l’habillant d’une allure acceptable, celle d’un fascisme Cool… qui n’en serait pas vraiment un, puisqu’il ne serait que le fascisme de votre patron.  

La Tech a toujours été à droite

Derrière le rêve d’une Silicon Valley hippie, démocrate, ouverte, horizontale… que nous avait chanté Fred Turner dans Aux sources de l’utopie numérique (C&F éditions, 2012), la réalité, c’est que ses entreprises ont toujours été des « machines ordonnées à la rigueur quasi-militaire ». Dans la tech, le management a toujours été autoritaire, conservateur. Même en Californie, les syndicats ont toujours été refoulés, la politique d’épuisement des salariés la norme. La hiérarchie et le contrôle sont pour ces gens là le moteur de l’efficacité, quand ils ne sont que la marque de l’autorité de leur pouvoir. 

Est-ce ce modèle qui a fini par imposer l’idée que la démocratie est un frein à l’innovation ? Peut-être. Encore faut-il rappeler que le modèle hiérarchique de l’entreprise n’est pas propre à la Silicon Valley, mais s’inscrit dans une tradition bien plus longue liée à l’industrialisation et au pouvoir politique. Dans Temporaire, comment Manpower et McKinsey ont inventé le travail précaire (les arènes, 2021), l’historien du capitalisme, Louis Hyman, rappelle que le modèle d’organisation hiérarchique est né avec l’industrialisation et s’est accompli à mesure que celle-ci s’est diffusée, par exemple chez Ford ou General Motors. Cette organisation de l’industrie n’est pas que le résultat des travaux de Taylor sur l’optimisation de la chaîne de production, mais également ceux d’autres ingénieurs, comme Alfred Sloan qui impose les pratiques comptables, la division en entités et le contrôle des finances, et ce dès les années 20, pour imposer la rentabilité et la segmentation du marché et pas seulement la baisse des coûts de production. C’est aussi l’époque où James McKinsey impose l’analyse des comptes, et où Marvin Bower, qui lui succédera, invente le conseil pour ne pas simplement couper les dépenses, mais trouver les segments de marchés pour faire croître les entreprises. Quant à la redistribution en salaires plutôt généreux, Hyman explique qu’elle est d’abord un levier pour apaiser les revendications syndicales des ouvriers spécialisés et notamment contenir le radicalisme ouvrier : leur faire renoncer à leur demande de contrôle des lieux de travail au profit d’avantages sociaux. Les bons salaires de la tech permettent toujours d’acheter l’obéissance. Et les startups sont plus à considérer comme des véhicules financiers que comme des formes d’entreprises différentes des modèles inventés au XXe siècle. Dans les entreprises, de la Valley comme ailleurs, la démocratie est toujours restée limitée, non pas parce qu’elle serait un frein à l’innovation, mais bien parce qu’elle est toujours considérée comme le frein à l’enrichissement du capital sur le travail. 

La Couverture de la la Contre-révolution californienne.

C’est le même constat que dresse d’ailleurs l’historienne Sylvie Laurent dans le lumineux petit libelle, La Contre-révolution californienne (Seuil, 2025), qui remet en perspective l’histoire techno-réactionnaire de la Californie. Pour elle, la fascisation de Musk, les projets antidémocratiques de Thiel, la masculinisation de Zuckerberg ou les compromissions de Bezos, nous ont fait croire à un virage à droite de quelques milliardaires excentriques, mais a invisibilisé les véritables orientations politiques de la Tech. Laurent rappelle que l’industrie californienne a toujours été bien plus Républicaine et conservatrice que progressiste. Mieux, elle montre que la révolution numérique a bien plus épousé la révolution néolibérale reaganienne et le réenchantement de la société de marché que le contraire. Elle pointe « la dimension éminemment raciale » de la défense absolue de la propriété et de la haine des régulations et interventions fédérales. Bref, que le « futurisme réactionnaire » des années 80 va s’appuyer sur le prophétisme technologique et sa promesse de renouveau de la croissance économique. C’est dès cette époque que les industries de hautes technologies sont gratifiées d’exemptions fiscales pour faciliter leur déploiement, de contrats fusionnels avec l’armée et l’Etat pour promouvoir une rationalisation des choix publics. « Parce qu’elle contient le mot de liberté, l’idéologie libertarienne semble indépendante de toute tradition politique, voire paraît émancipatrice. Mais ses affinités électives avec l’extrême droite depuis un demi-siècle doivent se comprendre à la lumière du soleil californien : la haine libertarienne de l’Etat, c’est la haine de l’égalité ». Pour ces grands patrons, la liberté ne désigne que le capitalisme et son principe d’accumulation. La glorification du plus éminent symbole de son succès, la figure de l’entrepreneur, finit par nous faire croire que l’autoritarisme oligarchique est le remède dont la société aurait besoin. « L’instance honnie n’est pas l’Etat comme abstraction, mais l’Etat libéral et démocratique qui prétend défaire les hiérarchies naturelles ». Pour Sylvie Laurent, la Silicon Valley ouvre un espace de transformation sociale de croissance économique par la dérégularisation. La Tech sera très tôt bien plus l’artisan d’une sous-traitance zélée à surveiller et à réprimer qu’à libérer les individus, via une collusion grandissante avec l’Etat. Pour Sylvie Laurent, la Californie n’est pas le lupanar des hippies, mais celui des réacs qui y ont construit leurs outils de réaction

Pas étonnant donc que pour des gens comme Thiel, la liberté de marché et la démocratie soient incompatibles. La technologie s’impose alors comme une alternative à la politique, à l’image de Paypal, imaginé comme un moyen technique pour renverser le système monétaire mondial. Thiel a toujours vu ses investissements comme un moyen pour promouvoir ses idées, contourner les régulations, imposer ses valeurs. Avec Palantir ou Clearview, il finance des outils qui visent ouvertement à déstabiliser l’Etat de droit et imposer leur seule domination.

Le rapport de force comme méthode, le culte du chef comme idéal

Hadjadji et Tesquet rappellent très pertinemment, que si les idéaux de la Valley semblent se concaténer autour d’un petit groupe d’idées rances, l’idéologie, autre que le libéralisme débridé, semble peu présente. Le trumpisme ne repose sur aucun manifeste. Il n’est qu’un « répertoire d’actions », dont le pouvoir se résume à la pratique du deal (The art of deal était d’ailleurs le titre de l’autobiographie de Trump, où il égraine ses conseils pour faire du business et prône non pas tant la négociation, que le rapport de force permanent). Les deux journalistes rappellent, à la suite du philosophe allemand Franz Neumann, que le nazisme n’était également rien d’autre qu’un champ de bataille entre factions concurrentes. La désorganisation tient bien d’une polycratie où s’affronte différents courants au gré des loyautés personnelles. Il n’y a pas de programme unifié, seulement un langage politique commun qui puise dans un syncrétisme instable et complexe, qu’Emile Torres et Timnit Gebru on désigné sous le nom de Tescreal. Sous couvert d’innombrables courants idéologiques confus, racistes, eugéniques, libertariens, transhumains… se rassemblent des gens qui pensent que la démocratie ne fonctionne plus et que la technologie est plus fiable que les institutions humaines, que le rationalisme permet de soumettre la morale à la logique, enfin surtout à la leur. Au-delà de leurs divergences, ces gens pensent que la fin justifie les moyens et que la hiérarchie permet d’organiser le monde et leur autorité. 

Couverture du livre Libres d’obéir.

Pour ces gens, le chef d’entreprise reste celui qui prend les décisions en dernier recours, notamment en temps de crise. Le mythe de l’entrepreneur est venu se confondre avec le mythe du chef providentiel. D’abord parce que l’un comme l’autre permettent d’affirmer un pouvoir sans démocratie. Le mythe du capitaine d’industrie est né avec l’industrialisation, pour pallier à l’érosion de l’Etat absolutiste et pour lutter contre les théories démocratiques et socialistes. Il a notamment été théorisé par les premières organisations patronales, comme le Comité des forges. Dans l’entre deux guerres, les mêmes vont mobiliser les premières théories managériales pour promouvoir la hiérarchie, non sans lien avec la montée de l’extrême droite, comme le montre l’historien Johann Chapoutot dans ses livres Libres d’obéir : Le Management, du nazisme à aujourd’hui (Gallimard, 2020) et Les Irresponsables : Qui a porté Hitler au pouvoir ? (Gallimard, 2025). Comme l’explique l’historien Yves Cohen, notamment dans son livre, Le siècle des chefs (Amsterdam, 2013), la formation d’un discours qui étaye de nouvelles pratiques de commandement se construit entre 1880 et 1940 dans des domaines aussi variés que la politique, l’armée, l’éducation ou l’entreprise. La figure du chef est une réponse « à l’irruption de phénomènes de masse inconnus jusqu’alors » et qui se propose de remplacer l’aristocratie dévalorisée par l’histoire, par ceux qui dominent l’économie. Elle cherche à mêler la force des systèmes industriels qui se construisent, la force des structures capitalistes, à leur incarnation, en personnalisant la rationalité des structures d’hommes providentiels. Le culte du chef est profondément lié au développement du capitalisme. 

Ce culte du chef et de la décision comme rapport de force est également au cœur de la technologie numérique, rappellent les journalistes. C’est le principe notamment des interfaces de programmation (API), « un protocole qui permet à une fonction d’être réutilisée ailleurs, sans que le programmeur ait besoin d’en comprendre tout le fonctionnement interne ». Il suffit d’appliquer la recette. L’API rend les idées portables, interopérables, mais plus encore fonctionnelles partout où l’on peut les utiliser. Dans le numérique, les décisions se répercutent en cascades obéissantes. Les possibilités sont des fonctions circonscrites. Les décisions s’imposent partout et se déploient via les protocoles dans tous les systèmes interconnectés. Les logiques de classement, de tris, d’ordres se distribuent partout, d’un clic, sans discussion. Le rapport de force est tout entier dans la main de celui qui contrôle le système. 

Pour Musk et ses sbires, tous de jeunes informaticiens, prendre le contrôle de l’État, c’est d’abord prendre le contrôle informatique de l’État. Alors qu’internet était censé nous libérer des autorités, la sacralisation des règles, des scripts, des modes d’organisation toujours plus strictes car organisés par la technologie numérique, nous a conduit à sacraliser l’autorité, expliquions-nous il y a longtemps. Le contrôle, la séparation des tâches, les règles, les processus ont envahi les organisations et semblent être devenus les nouvelles formes d’autorités. L’autorité permet de simplifier la complexité, disions-nous, c’est en cela qu’elle l’emporte. Avec elle, une forme de management antisocial se répand. Le numérique a fait la démonstration de son pouvoir. Il a montré que le logiciel était là où le rapport de force s’exerçait, s’appliquait. La technologie recompose le pouvoir à son avantage et le distribue en le rendant fonctionnel partout. 

Le pouvoir est un script

« Au putsch et à son imagerie militaire, les technofascistes préfèrent le coup d’Etat graduel, une sorte d’administration du basculement, sans recours à la force ». C’est le soft coup qui vise moins à infiltrer le pouvoir qu’à paralyser les institutions démocratiques pour les décrédibiliser. Le but premier, c’est l’épuration, la chasse aux sorcières, pour mettre en place une organisation discrétionnaire. C’est l’épuration des progressistes et de leurs idées. Le dégagisme. C’est le programme qu’applique le Doge : virer les fonctionnaires, rationaliser les dépenses – enfin, uniquement celles liées aux idées progressistes. Le but, produire un État minimal où le marché (et la police) régira les interactions. Ultralibéralisme et autoritarisme s’encouragent et finissent par se confondre. 

Pour les deux journalistes, « on assiste à l’émergence d’un pouvoir césariste, plébiscité non pour sa légalité mais pour sa capacité à se montrer brutal ». Le CEO vient prendre possession d’un système, pour le subvertir sans le renverser. Pourtant, « le pouvoir ne se situe plus tant dans l’autorité d’un individu, que dans l’activation d’un système ». La souveraineté tient désormais d’une API, elle est un service qui se distribue via des plateformes privées. Le pouvoir est un script, une séquence d’instructions, qui se déploie instantanément, qui s’instancie, comme un programme informatique. Le monde n’a plus besoin d’être gouverné politiquement, il est seulement organisé, configuré par les outils technoscientifiques qui ordonnent la société. Pour cela, il suffit de réduire la réalité à des algorithmes, à des variables qu’il suffira d’ajuster, comme les programmes des cabinets de conseils comme McKinsey, Accenture, Cap Gemini, PWC… qui déploient leurs logiciels sur les systèmes sociaux, d’un pays l’autre. Dans le technofascisme, « le pouvoir devient une simple interface de gestion de l’ordre ». « C’est un système sans procédure de recours, qui proclame son affranchissement du droit ». Ce modèle n’est pas une idéologie, mais une méthode, un template, disent très justement les deux journalistes. « L’Europe réactionnaire ne s’unifie pas par le haut » (c’est-à-dire par les idées), « mais s’agrège par le bas, par mimétisme fonctionnel. Ce ne sont pas des idées qui circulent, mais des scripts. Une grammaire d’action ». La politique est désormais une question d’ingénierie, mais seulement parce qu’elle ne promeut qu’une grammaire : une grammaire ultralibérale et ultra-autoritaire dont la seule langue est de produire de l’argent. 

Pour beaucoup qui vénèrent l’efficacité des méthodes de la Tech, qui croient en l’incarnation de son pouvoir dans ces grands hommes providentiels, le technofascisme n’est pas un fascisme. Il ne serait qu’un capitalisme sans plus aucune contrainte dont les effets de bords ne seraient que des dommages collatéraux à l’égard de ceux qui ne sont rien.

L’illusion de la sécession, le rêve de l’impunité…

Couverture du livre Le capitalisme de l’apocalypse.

Le modèle qu’ils proposent, c’est celui de la zone économique spéciale, que décrit l’historien du néolibéralisme Quinn Slobodian dans Le capitalisme de l’apocalypse (Seuil, 2025). Celles des enclaves autoritaires de Dubaï, Singapour ou Hong-Kong. Celles des paradis fiscaux et des zones d’accélération technologiques, comme Shenzhen. Celles de territoires qui ne sont pas des nations car sans démocratie. Derrière le rêve de sécession, le modèle est celui de l’accaparement, disent Naomi Klein et Astra Taylor. Mais cet imaginaire sécessionnistes prend l’eau, rappellent les journalistes en racontant les échecs des projets de micro Etats bunkers, comme Praxis (un délire dans lequel les mêmes ont encore investis), XLII d’Ocean Builders (des structures flottantes qui se veulent des villes libres et qui tournèrent au fiasco, ses promoteurs regagnant bien vite la protection de leur pays d’origine pour éviter la prison : la citoyenneté occidentale a encore bien des atouts !) ou encore Prospera au Honduras (l’enclave libertarienne a fini par être déclarée anticonstitutionnelle). Ces tentatives de néoconquistadors se sont surtout soldées par des échecs. Elles montrent surtout que ces gens n’ont pas dépassé le stade du colonialisme. Ils rêvent de bunkers, de  communautés fermées. Derrière Starbase, la ville dont le maire est un PDG, se profile le vieux rêve de Sun City, la ville censitaire pour riches vieillards. Au mieux, ces citoyennetés se terminent en hôtels de luxe pour digital nomads. La sécession est bien loin. La citoyenneté ne nécessite plus d’impôts, seulement un abonnement. A se demander ce que cela change ?! Hormis mieux exclure ceux qui ne peuvent se le payer. Nastasia Hadjadji et Olivier Tesquet ont bien raison de pointer que cette pensée magique et facile est « saturée d’angles morts ». Que signifie le monde censitaire qu’ils dessinent, hormis une puissance et des droits selon le niveau de fortune ? Ce que les gens doivent comprendre, c’est que dans un tel monde, les droits des milliardaires seraient sans commune mesure par rapport aux droits des millionnaires… Même la police, censée encore assurer l’ordre (bien qu’on pourrait la remplacer par des robots) serait ici une sous-classe sans droits. Le monde qu’ils proposent n’est pas fonctionnel.  

La grande tâche des libertariens n’est pourtant pas tant d’échapper à la politique que d’imposer la leur par la force. D’imposer une impunité à leur profit que leur seule richesse ne leur accorde pas. Leur seule volonté est de précipiter la chute du système démocratique. Ceux qui détestent la démocratie ne cessent de continuer à trouver tous les moyens pour nous en convaincre, dans le seul but qu’on leur rende le pouvoir, nous disait déjà le philosophe Jacques Rancière.

Ce à quoi le livre ne répond pas c’est pourquoi les gens sont si séduits par ces discours. La simplicité, certes. Le fait de trouver des boucs-émissaires certes. Quelque chose d’autre fascine me semble-t-il. Le désir d’autorité d’abord, quand bien même chacun est capable de se rendre compte que s’il désire la restauration de la sienne à l’égard des autres, nul ne supporte celle des autres – et surtout pas ceux qui n’ont que ce mot là à la bouche.  

Couverture du livre, Le monde confisqué.

La croyance que chacun peut devenir l’un de ceux-ci, ensuite. Oubliant qu’en fait, c’est absolument impossible… L’essor des technologies numériques a fait croire que chacun pouvait devenir milliardaire depuis son garage. Cela a peut-être été le cas de quelques-uns. Mais c’est devenu une illusion de le croire encore à l’heure où les investissements dans la tech sont devenus faramineux. La Tech a été le dernier bastion du rêve d’enrichissement “généralisé et illimité”, explique l’économiste Arnaud Orain, qui publie Le Monde confisqué. Essai sur le capitalisme de la finitude (XVIe-XXIe siècle) (Flammarion, 2025). A l’heure du capitalisme de la finitude, le rêve de puissance et de richesse reste entier pour beaucoup, oubliant que l’abondance est derrière nous, et que la solidarité et la justice nous proposent des vies bien plus fécondes que le seul argent. 

Hubert Guillaud

Reçu avant avant-hier
  • ✇Dans les algorithmes
  • IA, la grande escroquerie
    La couverture du livre d’Emily Bender et Alex Hanna. L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
     

IA, la grande escroquerie

4 septembre 2025 à 00:52
La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du développement des grands modèles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient également une newsletter commune et un podcast éponyme, « Mystery AI Hype Theater 3000 », où elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes. 

Des outils de manipulation… sans entraves

L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée. 

Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes

Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».   

Déconstruire l’emballement

Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction. 

Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.  

De l’automatisation à l’IA : dévaluer le travail

L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût »

En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques »

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. » 

Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité

D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”

L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés » pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer »

“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges« Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »

Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler… 

Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social »

On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.  

Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés. 

Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.

Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes ! Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • IA, la grande escroquerie
    La couverture du livre d’Emily Bender et Alex Hanna. L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
     

IA, la grande escroquerie

4 septembre 2025 à 00:52
La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du développement des grands modèles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient également une newsletter commune et un podcast éponyme, « Mystery AI Hype Theater 3000 », où elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes. 

Des outils de manipulation… sans entraves

L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée. 

Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes

Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».   

Déconstruire l’emballement

Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction. 

Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.  

De l’automatisation à l’IA : dévaluer le travail

L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût »

En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques »

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. » 

Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité

D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”

L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés » pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer »

“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges« Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »

Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler… 

Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social »

On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.  

Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés. 

Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.

Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes ! Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • Ecrire le code du numérique
    C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un gro
     

Ecrire le code du numérique

19 juin 2025 à 01:00

C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge

Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.

Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.

Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.

Cet article a été publié originellement pour la lettre d’information du Conseil national du numérique du 23 mai 2025.

Le Code du numérique.
  • ✇Dans les algorithmes
  • Ecrire le code du numérique
    C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un gro
     

Ecrire le code du numérique

19 juin 2025 à 01:00

C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge

Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.

Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.

Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.

Cet article a été publié originellement pour la lettre d’information du Conseil national du numérique du 23 mai 2025.

Le Code du numérique.
  • ✇Dans les algorithmes
  • ​​Droit des étrangers, modèle de la maltraitance administrative
    “Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en cont
     

​​Droit des étrangers, modèle de la maltraitance administrative

22 mai 2025 à 01:00

“Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidé et ne cessent de dégrader non seulement le droit, mais également les services publics dédiés. Ce qu’il se passe aux Etats-Unis n’est pas une exception

Voilà longtemps que le droit des étrangers en France est plus que malmené. Voilà longtemps que les associations et autorités indépendantes qui surveillent ses évolutions le dénoncent. Des travaux des associations comme la Cimade, à ceux des autorités indépendantes, comme le Défenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifère de ce qui ne devrait être pourtant qu’un droit parmi d’autres. 

Couverture du livre France terre d’écueils.

Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, très concrètement, comment agit la maltraitance administrative à l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spécialisée en droit des étrangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les défaillances de l’administration à destination des étrangers. Une administration mise au pas, au service d’un propos politique de plus en plus déconnecté des réalités, qui concentre des pratiques mortifères et profondément dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des étrangers pourraient devenir un modèle de maltraitance à appliquer à tous les autres services publics. 

Le dysfonctionnement des services publics à destination des étrangers est caractérisé par plusieurs maux, détaille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits à minima et qui se réduisent, ce sont partout des procédures à rallonge, où aucune instruction n’est disponible dans un délai “normal”. Ce sont enfin une suspicion et une persécution systématique. L’ensemble produit un empêchement organisé qui a pour but de diminuer l’accès au droit, d’entraver la régularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontés à des pratiques problématiques, mais des pratiques systémiques qui finissent par faire modèle. 

Indisponibilité et lenteur systémique

France, Terre d’écueils décrit d’abord des chaînes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur à l’absurdité qui nous saisit face à la déshumanisation des étrangers dans les parcours d’accès aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilité d’un service : service téléphonique qui ne répond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dépôts sans récépissés, dossier auquel il n’est pas possible d’accéder ou de mettre à jour… Autant de pratiques qui sont là pour faire patienter c’est-à-dire pour décourager… et qui nécessitent de connaître les mesures de contournements qui ne sont pas dans la procédure officielle donc, comme de documenter l’indisponibilité d’un site par la prise de capture d’écran répétée, permettant de faire un recours administratif pour obliger le service à proposer un rendez-vous à un requérant. 

Toutes les procédures que l’avocate décrit sont interminables. Toutes oeuvrent à décourager comme si ce découragement était le seul moyen pour désengorger des services partout incapables de répondre à l’afflux des demandes. Si tout est kafkaïen dans ce qui est décrit ici, on est surtout marqué par la terrible lenteur des procédures, rallongées de recours eux-mêmes interminables. Par exemple, l’Ofpra (Office Français de Protection des Réfugiés et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procédure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 à 24 mois à réétudier un dossier. Quand un ressortissant étranger obtient le statut de réfugié, il devrait obtenir un titre de séjour dans les 3 mois. En réalité, les cartes de séjour et les actes d’état civils mettent de longs mois à être produits (douze mois en moyenne) ce qui prive les étrangers de nombreux droits sociaux, comme de pouvoir s’inscrire à France Travail ou de bénéficier des allocations familiales, du droit du travail. Même constat à l’AES (admission exceptionnelle au séjour). Depuis 2023, la demande d’AES se fait en ligne et consiste à enregistrer quelques documents pour amorcer la procédure. Mais les préfectures ne font de retour que 6 mois après le dépôt de la demande. Un rendez-vous n’est proposé bien souvent qu’encore une année plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour déposer un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter à minima 3 à 4 années pour une demande de régularisation ! Sans compter qu’en cas de refus (ce qui est plutôt majoritairement le cas), il faut ajouter la durée de la procédure de recours au tribunal administratif. Même chose en cas de refus de visa injustifié, qui nécessite plus de 2 ans de procédure pour obtenir concrètement le papier permettant de revenir en France. 

C’est un peu comme s’il fallait patienter des années pour obtenir un rendez-vous chez un dermatologue pour vérifier un grain de beauté inquiétant ou plusieurs mois pour obtenir des papiers d’identité. Dans le domaine du droit des étrangers, la dégradation des services publics semble seulement plus prononcée qu’ailleurs.

Droits minimaux et décisions discrétionnaires

Le dysfonctionnement que décrit l’avocate n’est pas qu’administratif, il est également juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procédure d’appel, qui est pourtant une garantie simple et forte d’une justice équitable. Les demandeurs ayant été refusés peuvent demander un réexamen qui a souvent lieu dans le cadre de procédures « accélérées ». Mais cette accélération là ne consiste pas à aller plus vite, elle signifie seulement que la décision sera prise par un juge unique, et donc, potentiellement, moins équitable.

L’admission exceptionnelle au séjour (AES), autre possibilité pour obtenir une naturalisation, nécessite elle de faire une demande à la préfecture de son domicile. Même si cette admission est bornée de conditions concrètes très lourdes (promesse d’embauche, présence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans…), le préfet exerce ici une compétence discrétionnaire, puisqu’il évalue seul les demandes. « En matière de naturalisation, l’administration a un très large pouvoir d’appréciation », souligne l’avocate. Même constat quant aux demandes de naturalisation, tout aussi compliquées que les autres demandes. L’entretien de naturalisation par exemple, qu’avait étudié le sociologue Abdellali Hajjat dans son livre, Les frontières de l’identité nationale, a tout d’une sinécure. Il consiste en un entretien discrétionnaire, sans procès verbal ni enregistrement, sans programme pour se préparer à y répondre. Ce n’est pas qu’un test de culture général d’ailleurs auquel nombre de Français auraient du mal à répondre, puisque de nombreuses questions ne relèvent pas d’un QCM, mais sont appréciatives. Il n’y a même pas de score minimal à obtenir, comme ce peut-être le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez répondre juste aux questions… et être refusé.

Suspicion, persécution et empêchement systématiques

Le fait de chercher à empêcher les demandeurs d’asile d’accéder à un travail (en janvier 2024, une loi anti-immigration, une de plus, est même venue interdire à ceux qui ne disposent pas de titre de séjour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coûts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux étrangers présents sur le territoire. Et ce alors que 90% des personnes en situation irrégulière travaillent quand même, comme le souligne France Stratégies dans son rapport sur l’impact de l’immigration sur le marché du travail. En fait, en les empêchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de séjour d’un tiers, à qui seront adressés les bulletins de salaires. Tiers qui prélèvent une commission de 30 à 50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.

Parce que le lien de paternité ou de maternité créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systématique quand elle était avant un signe d’intégration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. Enquêtes intrusives, abusives, surveillance policière, maires qui s’opposent aux unions (sans en avoir le droit)… Alors qu’on ne comptait que 345 mariages annulés en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pénales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les défaillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire à tous que ce sont les individus qui sont coupables des lacunes de l’administration française. 

Une politique du non accueil perdu dans ses amalgames

France, terre d’écueils, nous montre le parcours du combattant que représente partout la demande à acquérir la nationalité. L’ouvrage nous montre ce que la France impose à ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte. 

Ces dérives juridiques et administratives sont nées de l’amalgame sans cesse renouvelé à nous faire confondre immigration et délinquance. C’est ce que symbolise aujourd’hui le délires sur les OQTF. L’OQTF est une décision administrative prise par les préfectures à l’encontre d’un étranger en situation irrégulière, lui imposant un départ avec ou sans délai. Or, contrairement à ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majorité des personnes frappées par des OQTF ne sont coupables d’aucun délit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffré. Les préfectures les démultiplent alors qu’elles sont très souvent annulées par les tribunaux. La France en émet plus de 100 000 par an et en exécute moins de 7000. Elle émet 30% des OQTF de toute l’Europe. Les services préfectoraux dédiés sont surchargés et commettent des “erreurs de droit” comme le dit très pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrégulière. Le contentieux des étrangers représente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants étrangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulées, nombre d’autres ne peuvent pas être exécutées. Peut-on sortir de cette spirale inutile, se demande l’avocate ?

Nous misons désormais bien plus sur une fausse sécurité que sur la sûreté. La sûreté, rappelle l’avocate, c’est la garantie que les libertés individuelles soient respectées, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sûreté nous garantit une administration équitable et juste. C’est elle que nous perdons en nous enfermant dans un délire sécuritaire qui a perdu contact avec la réalité. Les témoignages que livre Marianne Leloup-Dassonville montrent des personnes plutôt privilégiées, traumatisées par leurs rapports à l’administration française. Les étrangers sont partout assimilés à des délinquants comme les bénéficiaires de droits sociaux sont assimilés à des fraudeurs.

A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour éviter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons réaffirmer que l’administration ne peut se substituer nulle part à la justice, car c’est assurément par ce glissement là qu’on entraîne tous les autres. 

Hubert Guillaud

PS : Au Royaume-Uni, le ministère de l’intérieur souhaite introduire deux outils d’IA dans les processus de décisions de demande d’asile d’après une étude pilote : une pour résumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer là-bas, la boîte noire des décisions, au prétexte d’améliorer « la vitesse » de décision plutôt que leur qualité, comme le souligne une étude critique. Comme quoi, on peut toujours imaginer pire pour encore dégrader ce qui l’est déjà considérablement.

MAJ du 23/05/2025 : L’extension des prérogatives de l’administration au détriment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertés individuelles, à un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.

  • ✇Dans les algorithmes
  • ​​Droit des étrangers, modèle de la maltraitance administrative
    “Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en cont
     

​​Droit des étrangers, modèle de la maltraitance administrative

22 mai 2025 à 01:00

“Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidé et ne cessent de dégrader non seulement le droit, mais également les services publics dédiés. Ce qu’il se passe aux Etats-Unis n’est pas une exception

Voilà longtemps que le droit des étrangers en France est plus que malmené. Voilà longtemps que les associations et autorités indépendantes qui surveillent ses évolutions le dénoncent. Des travaux des associations comme la Cimade, à ceux des autorités indépendantes, comme le Défenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifère de ce qui ne devrait être pourtant qu’un droit parmi d’autres. 

Couverture du livre France terre d’écueils.

Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, très concrètement, comment agit la maltraitance administrative à l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spécialisée en droit des étrangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les défaillances de l’administration à destination des étrangers. Une administration mise au pas, au service d’un propos politique de plus en plus déconnecté des réalités, qui concentre des pratiques mortifères et profondément dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des étrangers pourraient devenir un modèle de maltraitance à appliquer à tous les autres services publics. 

Le dysfonctionnement des services publics à destination des étrangers est caractérisé par plusieurs maux, détaille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits à minima et qui se réduisent, ce sont partout des procédures à rallonge, où aucune instruction n’est disponible dans un délai “normal”. Ce sont enfin une suspicion et une persécution systématique. L’ensemble produit un empêchement organisé qui a pour but de diminuer l’accès au droit, d’entraver la régularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontés à des pratiques problématiques, mais des pratiques systémiques qui finissent par faire modèle. 

Indisponibilité et lenteur systémique

France, Terre d’écueils décrit d’abord des chaînes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur à l’absurdité qui nous saisit face à la déshumanisation des étrangers dans les parcours d’accès aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilité d’un service : service téléphonique qui ne répond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dépôts sans récépissés, dossier auquel il n’est pas possible d’accéder ou de mettre à jour… Autant de pratiques qui sont là pour faire patienter c’est-à-dire pour décourager… et qui nécessitent de connaître les mesures de contournements qui ne sont pas dans la procédure officielle donc, comme de documenter l’indisponibilité d’un site par la prise de capture d’écran répétée, permettant de faire un recours administratif pour obliger le service à proposer un rendez-vous à un requérant. 

Toutes les procédures que l’avocate décrit sont interminables. Toutes oeuvrent à décourager comme si ce découragement était le seul moyen pour désengorger des services partout incapables de répondre à l’afflux des demandes. Si tout est kafkaïen dans ce qui est décrit ici, on est surtout marqué par la terrible lenteur des procédures, rallongées de recours eux-mêmes interminables. Par exemple, l’Ofpra (Office Français de Protection des Réfugiés et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procédure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 à 24 mois à réétudier un dossier. Quand un ressortissant étranger obtient le statut de réfugié, il devrait obtenir un titre de séjour dans les 3 mois. En réalité, les cartes de séjour et les actes d’état civils mettent de longs mois à être produits (douze mois en moyenne) ce qui prive les étrangers de nombreux droits sociaux, comme de pouvoir s’inscrire à France Travail ou de bénéficier des allocations familiales, du droit du travail. Même constat à l’AES (admission exceptionnelle au séjour). Depuis 2023, la demande d’AES se fait en ligne et consiste à enregistrer quelques documents pour amorcer la procédure. Mais les préfectures ne font de retour que 6 mois après le dépôt de la demande. Un rendez-vous n’est proposé bien souvent qu’encore une année plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour déposer un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter à minima 3 à 4 années pour une demande de régularisation ! Sans compter qu’en cas de refus (ce qui est plutôt majoritairement le cas), il faut ajouter la durée de la procédure de recours au tribunal administratif. Même chose en cas de refus de visa injustifié, qui nécessite plus de 2 ans de procédure pour obtenir concrètement le papier permettant de revenir en France. 

C’est un peu comme s’il fallait patienter des années pour obtenir un rendez-vous chez un dermatologue pour vérifier un grain de beauté inquiétant ou plusieurs mois pour obtenir des papiers d’identité. Dans le domaine du droit des étrangers, la dégradation des services publics semble seulement plus prononcée qu’ailleurs.

Droits minimaux et décisions discrétionnaires

Le dysfonctionnement que décrit l’avocate n’est pas qu’administratif, il est également juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procédure d’appel, qui est pourtant une garantie simple et forte d’une justice équitable. Les demandeurs ayant été refusés peuvent demander un réexamen qui a souvent lieu dans le cadre de procédures « accélérées ». Mais cette accélération là ne consiste pas à aller plus vite, elle signifie seulement que la décision sera prise par un juge unique, et donc, potentiellement, moins équitable.

L’admission exceptionnelle au séjour (AES), autre possibilité pour obtenir une naturalisation, nécessite elle de faire une demande à la préfecture de son domicile. Même si cette admission est bornée de conditions concrètes très lourdes (promesse d’embauche, présence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans…), le préfet exerce ici une compétence discrétionnaire, puisqu’il évalue seul les demandes. « En matière de naturalisation, l’administration a un très large pouvoir d’appréciation », souligne l’avocate. Même constat quant aux demandes de naturalisation, tout aussi compliquées que les autres demandes. L’entretien de naturalisation par exemple, qu’avait étudié le sociologue Abdellali Hajjat dans son livre, Les frontières de l’identité nationale, a tout d’une sinécure. Il consiste en un entretien discrétionnaire, sans procès verbal ni enregistrement, sans programme pour se préparer à y répondre. Ce n’est pas qu’un test de culture général d’ailleurs auquel nombre de Français auraient du mal à répondre, puisque de nombreuses questions ne relèvent pas d’un QCM, mais sont appréciatives. Il n’y a même pas de score minimal à obtenir, comme ce peut-être le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez répondre juste aux questions… et être refusé.

Suspicion, persécution et empêchement systématiques

Le fait de chercher à empêcher les demandeurs d’asile d’accéder à un travail (en janvier 2024, une loi anti-immigration, une de plus, est même venue interdire à ceux qui ne disposent pas de titre de séjour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coûts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux étrangers présents sur le territoire. Et ce alors que 90% des personnes en situation irrégulière travaillent quand même, comme le souligne France Stratégies dans son rapport sur l’impact de l’immigration sur le marché du travail. En fait, en les empêchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de séjour d’un tiers, à qui seront adressés les bulletins de salaires. Tiers qui prélèvent une commission de 30 à 50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.

Parce que le lien de paternité ou de maternité créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systématique quand elle était avant un signe d’intégration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. Enquêtes intrusives, abusives, surveillance policière, maires qui s’opposent aux unions (sans en avoir le droit)… Alors qu’on ne comptait que 345 mariages annulés en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pénales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les défaillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire à tous que ce sont les individus qui sont coupables des lacunes de l’administration française. 

Une politique du non accueil perdu dans ses amalgames

France, terre d’écueils, nous montre le parcours du combattant que représente partout la demande à acquérir la nationalité. L’ouvrage nous montre ce que la France impose à ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte. 

Ces dérives juridiques et administratives sont nées de l’amalgame sans cesse renouvelé à nous faire confondre immigration et délinquance. C’est ce que symbolise aujourd’hui le délires sur les OQTF. L’OQTF est une décision administrative prise par les préfectures à l’encontre d’un étranger en situation irrégulière, lui imposant un départ avec ou sans délai. Or, contrairement à ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majorité des personnes frappées par des OQTF ne sont coupables d’aucun délit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffré. Les préfectures les démultiplent alors qu’elles sont très souvent annulées par les tribunaux. La France en émet plus de 100 000 par an et en exécute moins de 7000. Elle émet 30% des OQTF de toute l’Europe. Les services préfectoraux dédiés sont surchargés et commettent des “erreurs de droit” comme le dit très pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrégulière. Le contentieux des étrangers représente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants étrangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulées, nombre d’autres ne peuvent pas être exécutées. Peut-on sortir de cette spirale inutile, se demande l’avocate ?

Nous misons désormais bien plus sur une fausse sécurité que sur la sûreté. La sûreté, rappelle l’avocate, c’est la garantie que les libertés individuelles soient respectées, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sûreté nous garantit une administration équitable et juste. C’est elle que nous perdons en nous enfermant dans un délire sécuritaire qui a perdu contact avec la réalité. Les témoignages que livre Marianne Leloup-Dassonville montrent des personnes plutôt privilégiées, traumatisées par leurs rapports à l’administration française. Les étrangers sont partout assimilés à des délinquants comme les bénéficiaires de droits sociaux sont assimilés à des fraudeurs.

A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour éviter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons réaffirmer que l’administration ne peut se substituer nulle part à la justice, car c’est assurément par ce glissement là qu’on entraîne tous les autres. 

Hubert Guillaud

PS : Au Royaume-Uni, le ministère de l’intérieur souhaite introduire deux outils d’IA dans les processus de décisions de demande d’asile d’après une étude pilote : une pour résumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer là-bas, la boîte noire des décisions, au prétexte d’améliorer « la vitesse » de décision plutôt que leur qualité, comme le souligne une étude critique. Comme quoi, on peut toujours imaginer pire pour encore dégrader ce qui l’est déjà considérablement.

MAJ du 23/05/2025 : L’extension des prérogatives de l’administration au détriment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertés individuelles, à un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.

❌