Vue normale

Reçu avant avant-hierDans les algorithmes
  • ✇Dans les algorithmes
  • Le mythe de la bonne IA
    « La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosop
     

Le mythe de la bonne IA

11 décembre 2025 à 01:00

« La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosophie et codirecteur du Centre pour les futurs de l’IA de l’université de Londres. Mais, l’IA vient la renforcer parce qu’elle « floute les lignes de nos modes de compréhension de la vérité et du mensonge, du pouvoir et de la résistance, de la subjectivité et de l’objectivité, de la science et de la fiction ». Ce qui change avec l’IA, c’est que Big Brother n’est plus une autorité qui nous contrôle de l’extérieur, mais une perturbation qui vient altérer nos facultés cognitives elles-mêmes. 

Pour Arshin Adib-Moghaddam, ni Orwell, ni Foucault ne peuvent nous aider à saisir le monde actuel. L’assaut contre notre autonomie est massif, à l’image du projet délirant de Torre Centilena à Ciudad Juarez, équipée de 1791 lecteurs de plaques d’immatriculation, 74 drones et 3000 caméras panoramiques pour surveiller la frontière américano-mexicaine à perte de vue. Le pouvoir n’est plus incarné. « Le pouvoir est en train de devenir liquide, il prend la forme de tout ce qu’il colonise et devient quasiment invisible ». Le régime de surveillance est en passe de devenir « microbien ». C’est-à-dire que non seulement il est partout, qu’il est intégré au plus profond de nous, mais qu’il tend à exercer un contrôle total, partout, tout le temps en étant totalement intrusif et en régissant jusqu’à notre psychisme même. Adib-Moghaddam parle de « psycho-codification » du monde pour évoquer cette intrusion inédite des méthodes qui altèrent jusqu’à ce que l’on pense, jusqu’à nos intentions disions-nous récemment. Cette intrusion nous entraîne dans une guerre posthumaine, entre les humains et les machines. Nous sommes désormais la cible de drones, de machines, d’algorithmes qui s’en prennent à nos individualités mêmes. Partout, le meurtre et la torture s’étendent sans avoir plus de comptes à rendre, à l’image de la police des frontières américaines, ICE, qui déploie son emprise, comme d’autres armées et d’autres polices, via des machines de surveillances totalitaires. Comme le pointait pertinemment le journaliste Olivier Tesquet suite aux révélations que l’ICE aurait arrêté plus de 75 000 personnes aux Etats-Unis sans historique criminel (soit un tiers des 220 000 personnes arrêtées depuis 9 mois) : « plus l’ICE s’appuie sur Palantir pour « rationaliser » l’appareil répressif, plus les arrestations deviennent arbitraires. Ce n’est pas un bug mais une fonctionnalité : la machine produit la catégorie d’indésirables dont l’administration Trump a besoin ».

Derrière ces transformations bien réelles, l’IA les prolonge encore, en s’en prenant à nos sens mêmes, jusqu’à nous faire douter de la réalité même. 

Derrière cette société délirante, il faut entendre qu’il y a une « utilisation infâme » des technologies. De la reconnaissance faciale qui criminalise les minorités raciales aux logiciels de récidives qui discriminent les populations racisées aux scores de risques qui refusent des aides et des prêts aux populations minorisées et pauvres… une même oppression se déploie pour renforcer et cimenter les inégalités structurelles de la société.

Dans ce contexte, estime Arshin Adib-Moghaddam, on entend beaucoup parler d’éthique, d’IA responsable, qui serait à même, bientôt, demain, de réparer les systèmes et « d’atténuer les dommages ». Mais l’IA peut-elle être éthique ? 

L’IA peut-elle être éthique ?

Non répond le philosophe. L’IA est là pour imposer sa terreur, comme le disaient Hagen Blix et Ingeborg Glimmer. L’IA est là pour produire de l’incertitude, de l’angoisse, et cette peur est une méthode de gouvernance. « L’IA augmente la capacité de ceux qui l’utilisent à nous terrifier, dans un but de contrôle, de surveillance et de profit ». L’écrivain iranien Jalal Al-e Ahmad parle de « westoxification » (contraction entre West, l’Occident, et intoxication pour désigner une forme d’absorption toxique, de submersion par la culture occidentale – le terme a été traduit en français en « occidentalite ») pour désigner l’oppression de la modernité occidentale, comme le chercheur et sociologue péruvien Anibal Quijano dénonce la « colonialité », c’est-à-dire le fait que les rapports de pouvoir colonialistes perdurent notamment depuis les technologies. 

Dans son livre, Arshin Adib-Moghaddam commence par débugger le discours des machines éthiques. Les fondations idéologiques de la science sont dysfonctionnelles, rappelle le philosophe. La science a accompagné le projet politique de la modernité, comme l’expliquaient Ulises A. Mejias et Nick Couldry dans Data Grab (voir notre recension). Les Lumières ont transformé le racisme en science. Et l’IA n’est qu’une extension d’un système techno-colonial, remanié par le néofascisme en cours

L’idée même d’éthique est poreuse à ces idées problématiques, explique-t-il. L’éthique se présente comme un mécanisme universel, mais oublie que cette philosophie qui pense pouvoir rendre nos machines et nos actions responsables, est une pensée spécifique, historique, contingente à la philosophie occidentale… Et qui l’est d’autant plus qu’elle a oublié les apports des autres philosophies. Arshin Adib-Moghaddam évoque nombre de philosophes asiatiques, arabes ou juifs effacés de la tradition philosophique au profit des philosophes grecs et européens. « Les façons de poser les questions éthiques autrement ont été balayées ». Pour les thuriféraires de l’IA, la vénération de sa puissance tourne à la religion. Mais si la machine peut-être Dieu, ce fondamentalisme s’annonce aussi dangereux que l’extrémisme religieux, prévient Arshin Adib-Moghaddam. Pourtant, qui s’inquiète de l’interfaçage des machines à nos cerveaux, du devenir posthumain que nous promettent les développeurs de l’IA ? Kant, Hume ou Locke, ces grands penseurs de l’Occident, ont tous tenu des propos racistes, ont tous défendu l’idée que les barbares devaient être civilisés par les Européens. Et ces grandes pensées occidentales sont celles-là même qui viennent alimenter de leurs données l’IA moderne. « L’IA est ethnocentrée et cet ethnocentrisme ne sera pas corrigé par les données », par l’amélioration des traitements ou par un sursaut éthique. Les manuels d’éthique doivent être réécrits, estime Adib-Moghaddam, qui invite à partir d’autres philosophies pour bâtir d’autres IA. 

L’IA : machine à discriminer

Arshin Adib-Moghaddam dénonce le terme de biais qui a colonisé la critique de l’IA. Les biais sont un terme bien dépolitisé pour évoquer l’oppression structurelle inscrite dans les données, dans notre histoire. Le racisme des sociétés occidentales a été intériorisé dans une « géopolitique eugéniste » qui ne domine pas seulement les relations internationales ou économiques, mais qui psycho-codifie jusqu’à nos corps et nos esprits. Le racisme a été la  stratégie impériale et scientifique qui a encore des effets quotidiens, qui inocule nos outils, comme la médecine, qui tue encore des patientes et des patients parce qu’elles et ils sont noirs, parce qu’elles sont des femmes et parce que les données médicales ne sont pas collectées sur elles et eux. Les rapports et les études sur le sujet s’accumulent sans que la médecine elle-même ne réagisse vraiment, comme si elle ne s’était jamais départie des origines racistes de la science, que dénonçait par exemple le sociologue Eduardo Bonilla-Silva dans son livre Racism without Racists : Color-Blind Racism and the Persistence of Racial Inequality in the United States (Le racisme sans les racistes : le racisme indifférent à la couleur et la persistance des inégalités raciales en Amérique, Rowman & Littlefield , 2003, non traduit). Même durant le Covid, les quartiers racisés ont été plus décimés que les autres. 

On peut alors dénoncer les biais racistes des systèmes, de la reconnaissance faciale aux pratiques algorithmiques d’Uber. Mais c’est oublier que nous sommes cernés par des données algorithmiques « blanchisées » (whitewashing), c’est-à-dire à la fois blanchies parce qu’ignorantes de la couleur de ceux qu’elles écartent et blanchies parce qu’elles masquent leurs dysfonctionnements raciaux. Nous sommes coincés entre un passé pollué et un présent problématique. Nous restons par exemple coincés dans les constats où les cancers de la peau sont plus importants pour les populations de couleurs alors qu’ils sont moins diagnostiqués pour les patients noirs que blancs. Ces données et ces erreurs pourtant ne sont pas corrigées, pas prises en compte. La perspective d’augmenter notre capture par des données n’annonce pourtant pas d’amélioration, au contraire, d’abord et avant tout parce que cette invasion doit être comprise pour ce qu’elle est : une extension de l’héritage de l’eugénisme raciste de la science, une forme d’expansion biopolitique du contrôle plus qu’une promesse de justice et d’égalité. 

Les mauvaises données produisent de mauvais algorithmes et de piètre systèmes d’IA, rappelle le philosophe. Or, nous sommes cernés de mauvaises données. Les préjudices du passé envers certaines populations sont intégrés aux systèmes qui vont produire l’avenir. Cela ne peut pas bien se passer. Pourtant, fort de ces constats, terribles, les recommandations éthiques paraissent bien trop mesurées. Elles invitent à améliorer la représentation et la diversité des ingénieurs et des éthiciens, à améliorer les principes éthiques, à améliorer l’éducation des ingénieurs… dénonce Arshin Adib-Moghaddam. Autant de mesures qui tiennent plus de l’orientalisme qu’autre chose, pour faire référence au concept développé par l’intellectuel palestino-américain Edward Saïd dans son livre éponyme (Le Seuil, 1978), ouvrage fondateur des études postcoloniales. Pour Saïd, la tradition artistique et scientifique orientaliste n’est qu’une étude de l’Orient par l’Occident, une interprétation de l’Orient, une condescendance au service de l’impérialisme. 

Du techno-orientalisme au privilège épistémique

Pour Arshin Adib-Moghaddam, le techno-orientalisme qui consiste à améliorer la diversité des développeurs ou à produire une équité par des corrections techniques n’est en rien une solution. ll ne remet pas en cause le pouvoir de la technologie. « Les personnes historiquement marginalisées et vulnérables continuent à être inventées comme objets de la technologie ». Les erreurs à leurs égards, finalement, renforcent l’obsession à mieux les surveiller sous prétexte d’objectivité, pour mieux hiérarchiser la société par le calcul. « Le techno-orientalisme ne vise qu’à renforcer les frontières entre nous et eux, l’est et l’ouest, les noirs et les blancs, entre les nationaux et les autres ». Shoshana Zuboff a montré que la tolérance à l’extrémisme est bien souvent un modèle d’affaire acceptable. Dans une étude sur la toxicité de Twitter, le Centre de lutte contre la haine numérique avait montré qu’une dizaine de comptes sur X pouvaient produire du contenu haineux et conspirationniste capable de rapporter… 19 millions de dollars en revenus publicitaires. « Le techno-orientalisme s’impose comme un incubateur pour l’expansion impériale afin de maximiser les revenus pour quelques personnes sélectionnées ». L’impérialisme de X prolifère et impose sa colonialité. Comme les projections de Mercator ont valorisé l’Occident, nous montrant un Groenland par exemple aussi grand que la Chine, quand en réalité il ne fait qu’un quart de la superficie de la Chine. L’impérialisme de X, comme l’impérialisme de l’IA rend possible un « privilège épistémique » qui « confère à une poignée d’hommes le privilège d’interpréter, de juger et de planifier l’avenir de la majorité ». Partout, une poignée d’hommes blancs parlent d’un avenir inévitable (le leur), utilisent ces outils pour diffuser leurs idées sans nuances, mégalomanes, patriarcale et coloniales influentes, sans se préoccuper du sort des autres. Derrière leurs idées rances, ils défendent avant tout leur identité. Les néo-Nazis comme les terroristes d’ISIS tuent au nom de l’identité, comme le soulignait Paul Gilroy dans Against Race. Les médias sociaux sont devenus des paradis pour les fausses informations des extrémistes, où ils peuvent se faire les avocats de leurs agendas hystériques avec plus ou moins d’impunité. La stupidité y est le meilleur capital, assène le philosophe. 

La coercition est forte avec les technologies. Microsoft et Google déploient des technologies de surveillance à l’encontre des Palestiniens. Saïd disait que la déshumanisation des Palestiniens était l’un des grands héritage de l’orientalisme. Pour Arshin Adib-Moghaddam, une IA vraiment éthique devrait assurer que ses traitements et données soient auditables en accord avec les législation qui défendent les droits humains au niveau international, national et local. Le déploiement sans limite des technologies aux frontières, par la police et les militaires, nous montre qu’il n’en est rien. 

L’IA pour peaufiner l’oppression 

L’oppression structurelle, codifiée dans des institutions genrées et racistes, dans des normes politiques et sociales omniprésentes, s’apprête à entrer plus profondément dans nos esprits avec l’IA générative. Quand on pose des questions à ces moteurs, ils produisent certaines réponses qui sont le reflet des sociétés occidentales qui les produisent. A la question y-a-t-il un génocide à Gaza, ChatGPT répond non. A la question peut-on torturer une personne, ChatGPT répondait par l’affirmative si cette personne venait d’Iran, de Corée du Nord ou de Syrie. Ces « erreurs » qui n’en sont pas mais qui peuvent nous être présentées comme telles, sont bien sûr corrigées parfois. Les modèles de langage galvanisent les préjudices raciaux comme le montrait l’étude menée par Valentin Hofmann (qu’on évoquait ici) qui montrait que l’IA s’adapte aux niveaux de langage de son interlocuteur ou qu’elle classe les mêmes CV différemment selon les consonances culturelles des noms et prénoms. Mais ils ne sont que les reflets des sociétés qui les produisent. Les modèles de langage sont bien les produits racistes de sociétés racistes, affirme celui qui avait dénoncé le caractère raciste de l’IA dans un précédent livre. Les corrections sont possibles, au risque d’enseigner superficiellement aux modèles à effacer le racisme, tout en le maintenant à des niveaux plus profonds. « En fait, nous sommes confrontés par une forme furtive de technoracisme soigneusement dissimulée par un univers d’IA de plus en plus opaque ». Dans ces IA, les musulmans sont toujours associés à la violence

Weizenbaum nous avait prévenu : les humains sont plus enclins à se confier à une machine qu’à un humain. Et ce pourrait être exploité plus avant par les machines de coercition de demain. La CIA a beaucoup travaillé sur les drogues et outils permettant de mettre les gens en confiance, rappelle Arshin Adib-Moghaddam. Si les méthodes d’interrogation utilisées à Abu Ghraib ont été sur la sellette, le Mikolashek Report montrait par exemple que les frontières entre la torture, les abus et les techniques d’interrogations dites légitimes étaient plus poreuses que strictes. A Abu Ghraib, la torture n’était pas un accident. Les individus qui ont été torturés n’étaient pas isolés. A Abu Ghraib, les interrogatoires ne devaient pas laisser de traces sur les prisonniers et le système médical a donné ses conseils aux militaires pour y parvenir. C’est lui qui a proposé des modalités d’interrogatoires coercitives. A Abu Ghraib comme à Guantanamo Bay, des procédures ont été mises en place, comme le fait d’empiler les prisionniers nus pour profiter du fort tabou de l’homosexualité dans la culture arabe et musulmane. 

Que fera l’IA qui est déjà appelée à assister les interrogatoires de la CIA ou de la police ? Aura-t-elle encore plus que les humains la capacité de briser notre humanité, comme s’en inquiétaient des chercheurs ? Sera-t-elle l’outil parfait pour la torture, puisqu’elle pourra créer du contexte psychologique ou informationnel pour rendre les gens toujours plus vulnérables à la manipulation, comme des chatbots compagnons, dressés contre nous. 

La torture à Abu Ghraib a été rendu possible parce qu’elle a épousé totalement la culture de ceux qui l’ont pratiqué. « L’histoire récente de l’IA n’apporte aucune preuve que les systèmes d’IA soient plus objectifs que les humains, à mesure qu’ils déploient les mêmes biais qu’eux, avec bien moins de responsabilité »

L’IA pour pour penser à notre place et prendre le contrôle des esprits

Pour le philosophe, le contrôle de l’esprit est le Graal des systèmes d’IA. Ce que veulent ceux qui déploient l’IA, c’est qu’elle prenne le contrôle des esprits. 

Mais, dans les systèmes de domination, la résistance apparaît souvent là où on ne l’attend pas, disait Anibal Quijano. Pourtant, souligne Arshin Adib-Moghaddam, la société civile ne regarde pas suffisamment ce qui se déploie, elle semble peu impliquée dans le très dynamique secteur de l’IA militaire. Face à l’inégalité de pouvoir entre utilisateurs de l’IA et producteurs d’IA qui se sédimente avec le déploiement et l’extension des outils d’IA partout, peu est fait pour nous protéger. L’érosion lente de la vie privée, l’objectivation posthumaine… nous éloignent de la dé-technologisation qu’appelle de ses vœux Carissa Véliz dans son livre, Privacy is Power (Penguin, 2021). 

Pour Adib-Moghaddam, nous devrions pourtant chercher à protéger notre humanité, plutôt que de chercher à flouter les différences entre l’homme et la machine, comme l’attendent les tenants du posthumanisme. Adib-Moghaddam souhaiterait un futur qui soit post-IA, dans lequel l’IA, au moins telle que nous la connaissons aujourd’hui, n’ait pas sa place. Tant que nous la laisserons exploiter les données passées nous laisserons construire une IA fondamentalement destructrice, extractive, qui perpétue l’irrationalité et l’agenda des conservateurs et de l’extrémisme de droite, en exploitant les données pour renforcer les différences entre un nous et un eux dans lesquels personne ne se reconnaîtra autres que les plus privilégiés. 

La promesse d’une bonne IA est centrale dans l’approche éthique que pousse la Silicon Valley, enrôlant les meilleurs chercheurs avec elle, comme ceux du MIT, du Berkman Klein Center for internet et society de Harvard. Leur travail est remarquable, mais la poursuite d’une IA éthique ne nous aide pas à trouver des restrictions au déploiement de technologies qui maximalisent la surveillance de masse et la violence systémique. « Tant qu’il n’existera pas de restrictions, les délibérations morales et politiques sur l’informatisation demeureront secondaires par rapport à l’impératif de profit »

A l’heure de l’IA, la lutte pour la démocratie risque d’être plus essentielle que jamais et plus difficile que jamais. Le mythe de la bonne IA nous promet un monde dont les fondations et constructions sociales ne changeront pas. « L’âge de l’IA nous promet un rapport léthargique et résigné au monde ». C’est sans surprise que ceux qui refusent cette IA là sont qualifiés d’être irrationnels, radicaux ou idéalistes… Mais ne soyons pas dupes. « Il est plus facile de prendre le parti des puissants à l’heure de l’IA, alors que nous devrions prendre la direction inverse ». « Les technologies d’IA sont un danger pour nos démocraties car elles inhibent nos choix en donnant de l’impulsion aux seuls extrêmes ». Elles nous confinent dans un espace de pensée restreint. Pour Arshin Adib-Moghaddam, il nous faut reconnaître notre humanité, une humanité qui ne peut être programmée par des machines qui ne seront jamais sensibles. 

Être humain, c’est savoir se protéger

Être humain signifie savoir se protéger de la pénétration, c’est-à-dire un droit à être laissé tranquille, seul. Nous devons réaffirmer la nécessité d’un « bouclier de la vie privée ». La critique féministe et décoloniale nous donne des armes, comme le fait Françoise Vergès par exemple en croisant les deux. Ressentir, penser, percevoir ou croire doivent rester des valeurs humaines, sans altération des machines. C’est notre intimité même que tente d’envahir le complexe industriel de l’IA

Ainsi par exemple, être créatif c’est indubitablement être humain. La créativité des machines n’est qu’un effort pour rendre confus nos sens et émotions, au profit du profit et dans une aversion de l’art comme un comportement insurrectionnel. Psycho-codifiés, TikTok, FB ou X sont des moyens d’envahir nos sanctuaires intérieurs. Les machines peuvent faire n’importe quelle tâche sans ressentir la douleur et la discipline nécessaire que l’auto-amélioration nécessite. D’où des productions sans âme, « inutiles pour l’émancipation sociale comme politique ». En associant l’art au seul profit, la matrice technologique propose de faire suffoquer l’essence même de l’art, comme s’il n’était qu’une extension technologique, qu’un moyen de contrôler la subjectivité humaine.

De quelque endroit qu’on l’analyse, l’IA ne nous offrira aucun antidote à l’impéralisme, au colonialisme et à l’extrémisme. « Nous sommes tous devenus les objets du colonialisme des données extraites de nos corps mêmes ». Le colonialisme était horizontal, géopolitique dans son expansion. Le colonialisme des données, lui, est intimement vertical. Il vise à objectifier des individus vulnérables au profit des sociétés technologiques du Nord global. Les grandes entreprises exigent de nous psycho-codifier en permanence et partout. Arshin Adib-Moghaddam défend un manifeste post-IA qui seul peut gagner la bataille entre le poète et la machine, le stylo et l’épée, le modérateur biaisé et l’activiste paisible. Nous avons besoin de justice et d’émancipation sociale, rien d’autre. Ce qui n’y œuvre pas n’a pas d’intérêt. L’ignorance, l’évitement et la passivité que nous promettent l’IA et ses tenants, ne nous proposent aucun avenir. « Si nous avons besoin d’une bonne IA, nous avons besoin d’une bonne IA qui réponde à nos termes », qui puisse nous permettre de reprogrammer le futur plutôt que de subir la perpétuation du passé.  

Être humain, c’est savoir se protéger. Et face aux machines, l’enjeu est encore de le pouvoir. 

Hubert Guillaud

La couverture du livre de Arshin Adib-Moghaddam, The Myth of Good AI.

  • ✇Dans les algorithmes
  • Le Doge est mort, pas son esprit !
    Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais.  Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “D
     

Le Doge est mort, pas son esprit !

10 décembre 2025 à 01:00

Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais. 

Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “Doge : l’efficacité, vraiment ?”, “Doge : la privatisation des services publics” et “Doge : la fin du cloisonnement des données”] n’est pas d’accord avec ce constat. « Le Doge n’est pas mort », cingle Wired, il s’est « infiltré dans les agences comme une tique ». « L’esprit DOGE – caractérisé par la réduction des contrats et des effectifs de la fonction publique, la consolidation des données entre les agences et l’importation de pratiques du secteur privé – reste pleinement en vigueur. Bien que plusieurs médias aient suggéré que le Doge ait quasiment disparu, ses affiliés sont disséminés au sein du gouvernement fédéral, travaillant comme développeurs, concepteurs et même à la tête d’agences à des postes clés ».

Le Doge s’est transformé. Ses agents se sont installés durablement dans les administrations – ​​et l’influence de la Silicon Valley reste omniprésente dans le fonctionnement des agences. Ces dernières semaines, par exemple, le Service des impôts a soumis des centaines de techniciens à des tests de programmation afin d’évaluer leurs compétences techniques. Selon une source proche du dossier, cette décision émane de Sam Corcos, membre du Doge et directeur des systèmes d’information du Trésor. Corcos souhaite restructurer en profondeur le département informatique de l’IRS, qui compte 8 500 personnes. Cette initiative s’inscrit dans un processus de modernisation plus vaste mené au sein du Trésor américain. Ces tests, administrés via l’outil HackerRank, ont été utilisés par des entreprises technologiques du secteur privé comme Airbnb, LinkedIn et PayPal pour évaluer les compétences techniques des candidats. Ainsi que chez X. La manière dont seront utilisés ces tests n’ont pas été explicités aux employés des impôts. 

D’autres membres du DOGE continuent également de travailler à la réduction des réglementations au sein du gouvernement. Scott Langmack, ancien agent du DOGE au sein du Département du Logement et du Développement Urbain jusqu’en juillet, occupe désormais le poste de directeur exécutif de « l’IA de déréglementation » au Bureau de la Gestion et du Budget. À ce poste, qu’il occupe depuis août, il dirige le développement « d’applications d’IA personnalisées visant à accélérer l’élimination des réglementations excessives qui entravent les entreprises américaines »

D’autres anciens du Doge ont rejoint le Studio national de design (NDS) qui est chargé de repenser les pages web et les services numériques du gouvernement. Depuis sa création, le NDS a produit une poignée de sites web décrivant les efforts de la Maison Blanche sur des sujets tels que la santé, l’immigration et la sécurité publique. Ces sites, qui ressemblent davantage à ceux d’une entreprise technologique qu’à ceux du gouvernement fédéral, proposent des informations sur des programmes comme la Trump Gold Card et des liens pour postuler à des emplois dans les forces de l’ordre, comme la Task Force de l’administration Trump à Washington.

« La vérité est la suivante : le Doge n’a peut-être plus de direction centralisée sous l’égide de l’USDS [qui chapeautait administrativement le Doge]. Cependant, ses principes restent d’actualité : déréglementation ; élimination de la fraude, du gaspillage et des abus ; restructuration de la fonction publique fédérale ; priorité absolue à l’efficacité ; etc. Le DOGE a catalysé ces changements ; les agences, en collaboration avec le bureau de la gestion du personnel des Etats-Unis et le Bureau de la gestion et du budget de la Maison Blanche, les institutionnaliseront », a déclaré le même Scott Kupor, directeur de l’Office of Personnel Management et ancien associé-gérant du fonds de capital-risque Andreessen Horowitz, dans un communiqué publié sur X à la fin du mois dernier. Il y a un mois, passant chez le célèbre podcasteur réactionnaire Joe Rogan, Musk lui-même expliquait que « le Doge est toujours en marche ». Certes, d’autres figures du Doge ont rejoint des entreprises privées, souligne Wired. Mais l’esprit du Doge est toujours là, et il infuse nombre d’administrations, notamment locales, comme nous le soulignions nous-mêmes. Ses actions et son modèle se développent. Et l’annonce du déploiement d’IA génératives partout dans l’administration américaine contribue à renforcer son emprise.

  • ✇Dans les algorithmes
  • Vers un internet post-alphabétique ?
    Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la
     

Vers un internet post-alphabétique ?

9 décembre 2025 à 01:00

Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la vidéo semblent avoir pris le pas sur le texte.

Ce n’est pas seulement une transformation de notre manière de parler, une adaptation aux algorithmes, comme le défend le linguiste et influenceur Adam Aleksic dans son livre, Algospeak (Knopf, 2025, non traduit), où il analyse comment les réseaux sociaux nous poussent à modifier notre langage, par exemple pour contourner les modes de censure automatisés, à l’image du terme unalive qui est venu remplacer le terme suicide dans l’argot américain. Pour lui, expliquait-il au New York Times, avec le numérique les néologismes accélèrent, c’est-à-dire qu’ils semblent être plus nombreux que jamais et leur diffusion est plus rapide que jamais. « C’est un écosystème linguistique où les mots passent de la marge au courant dominant en quelques jours, et disparaissent parfois tout aussi vite ». C’est notre vocabulaire lui-même qui est bouleversé, secoué, transformé par notre rencontre avec les technologies numériques. 

La présence plus que la patience

Katherine Dee explique qu’elle écoute les machines lire les newsletters auxquelles elle est abonnée plus souvent qu’elle ne les lit. « Nos machines ont aussi commencé à nous répondre, lentement et progressivement : d’abord Alexa et Siri, maintenant ChatGPT. Nous consommons davantage de sons et pensons à voix haute ». C’est un peu comme si nous avions plus qu’avant besoin de moduler notre expression pour comprendre nos émotions, comme le montrent toutes ces vidéos de gens en pleurs dans leurs voitures qui se confient à eux-mêmes et aux autres en vidéo. « La voix abolit la distance entre la pensée et l’expression. C’est le registre idéal pour une époque qui valorise la présence plus que la patience. Quand on parle à un appareil, ou qu’on écoute quelqu’un parler dedans, on s’affranchit du délai qu’imposait autrefois l’écriture. La pause entre l’idée et son expression, cette pause qui rendait l’écriture possible, a quasiment disparu »

Dans un très long billet, le journaliste James Marriott constate que la lecture nous apprenait autrefois à penser de manière séquentielle – à ralentir et à structurer notre pensée – et que cette capacité se perd. Partout, la lecture est en recul. « Les sociétés orales pré-alphabétisées paraissent souvent aux visiteurs de pays alphabétisés remarquablement mystiques, émotionnelles et antagonistes », explique-t-il. « Avec la disparition progressive des livres, nous semblons revenir à ces habitudes de pensée orales. Notre discours sombre dans la panique, la haine et les conflits tribaux. La pensée anti-scientifique prospère jusqu’au plus haut niveau du gouvernement américain »

« Sur le papier, leurs arguments sembleraient absurdes. À l’écran, ils sont persuasifs pour beaucoup ». « L’ignorance était un pilier de l’Europe féodale. Les profondes inégalités de l’ordre aristocratique pouvaient se maintenir en partie parce que la population n’avait aucun moyen de prendre conscience de l’ampleur de la corruption, des abus et des dysfonctionnements de ses gouvernements ». L’imprimé a été une condition préalable et indispensable à la démocratie, rappelle Marriott, qui s’inquiète des conséquences de sa disparition. « À l’ère des vidéos courtes [voir également notre article : « L’ère post-TikTok va continuer à bouleverser la société »], la politique favorise l’exacerbation des émotions, l’ignorance et les affirmations non étayées. Ces circonstances sont extrêmement propices aux charlatans charismatiques. Inévitablement, les partis et les politiciens hostiles à la démocratie prospèrent dans ce monde post-alphabétisé. L’utilisation de TikTok est corrélée à une augmentation du score électoral des partis populistes et de l’extrême droite. » « Les oligarques de la tech ont autant intérêt à l’ignorance de la population que le plus réactionnaire des autocrates féodaux. » Pour Marriott, nous risquons d’entrer dans un second âge féodal, celui de la société post-alphabétisée.

L’ère de l’oralité numérique

Ce qui émerge pourtant, soutient le spécialiste des médias, Andrey Mir, ce n’est pas l’illettrisme, c’est la post-alphabétisation. Selon lui, nous entrons dans « l’oralité numérique » – un retour aux schémas de pensée oraux, mais médiatisés par la technologie numérique. Un retour à l’impulsivité et à l’immersion environnementale. Dans l’interview que lui consacre Katherine Dee, Andrey Mir explique : « l’oralité numérique n’est ni vocale ni orale – ce n’est pas sa caractéristique principale. Il ne s’agit pas de transmettre des informations ou de communiquer oralement. L’oralité numérique est un phénomène culturel et cognitif induit par les nouveaux médias, qui peuvent ou non utiliser des canaux vocaux/audio »

Avant l’écriture, les êtres humains étaient immergés dans un environnement physique (la nature) et social (la tribu). Ils recevaient simultanément des informations de leur environnement, à la manière d’un « espace acoustique », selon l’expression du théoricien des médias Marshall McLuhan. L’écriture les a détachés de cet environnement et les a contraints à se plonger dans la contemplation d’idées et de pensées. L’écriture a imposé l’isolement de la vision par rapport aux autres sens, instaurant un état cognitif particulier. Pour McLuhan, le sens isolé de la vision engourdissait les autres sens lorsqu’une personne écrivait ou lisait. Cet isolement visuel et cet engourdissement des autres sens ont transformé la capacité sensorielle de la vision en une faculté cognitive de vision intérieure – ce que Walter Ong appelait le « tournant vers l’intérieur ». L’isolement visuel et le détachement de l’environnement ont permis une concentration prolongée sur les idées. 

Contrairement aux impulsions immédiates propres à l’oralité, l’écriture et la lecture ont permis un délai de réaction, mis à profit pour la contemplation, explique Andrey Mir. Cela a conduit à la délibération, ce qui, là encore, n’est pas typique de l’immersion environnementale « naturelle », où les individus réagissent vite et impulsivement. L’écriture, d’un point de vue purement technique, exige une organisation linéaire du contenu, ce qui a structuré la pensée elle-même. « Le repli sur soi cognitif, rendu possible par l’écriture, a conduit à la théorisation, à la classification, à l’individualisme, à l’introspection, à la structuration du savoir, au rationalisme, etc. » McLuhan avait déjà observé que la radio et la télévision – médias électroniques – requièrent une implication empathique. La « vocalité » de la transmission de l’information n’est pas essentielle, ce qui importe, ce sont les effets sensoriels et cognitifs du média. « Les médias numériques permettent non seulement une « implication empathique » dans l’environnement induit, mais aussi un engagement empathique. Ils ont transposé l’interactivité de type oral jusqu’à l’écriture. Le texte des courriels, et surtout des messageries instantanées et des réseaux sociaux, est utilisé à cette fin. De manière conversationnelle, comme une interaction dans un environnement partagé, semblable à la parole. C’est cela, l’oralité numérique », explique Mir. Elle est qualifiée « d’orale » non pas parce qu’elle est « vocale » (elle peut l’être, mais ce n’est pas essentiel), mais parce qu’elle est conversationnelle, impulsive et immersive. L’oralité numérique n’est donc pas un phénomène « phonétique », mais une condition cognitive et culturelle. 

Paradoxalement, remarque-t-il, le principal « médium technique » de l’oralité numérique reste le texte ; non pas exactement le texte des livres (le texte de l’écriture), mais les SMS – et notamment les signes et les émojis qui servent la conversation et l’expression spontanée de soi, à la manière de la communication orale/tribale. L’oralité numérique achève la retribalisation de McLuhan, estime-t-il. Il s’agit d’un renversement du « repli sur soi » d’Ong, mais d’une manière particulière, à la manière d’un ruban de Möbius : un « repli sur soi-ouverture », car les utilisateurs numériques restent physiquement isolés tout en étant immergés dans un environnement numérique partagé.

Les technologies vocales (par exemple, Siri, Alexa, les mémos vocaux) accélèrent le déclin de la culture imprimée. Les interfaces vocales permettent une interaction conversationnelle, dans laquelle les interlocuteurs s’appuient l’un sur l’autre pour développer le dialogue et non pas seulement sur la structure du discours. L’utilisateur d’appareils vocaux s’engage dans un échange naturellement impulsif et réactif, qui requiert une implication émotionnelle plutôt qu’une réflexion rationnelle. « Tout média vocal et interactif favorise la prédominance de l’émotivité sur la rationalité et inverse de nombreuses autres caractéristiques essentielles de l’alphabétisation ». Habitués au confort et à l’intimité des appareils personnels, les utilisateurs du numérique sont conditionnés à maintenir des frontières physiques et sociales strictes, d’où l’anxiété sociale croissante des jeunes générations. « Ils n’interrogent pas l’IA en public ; ils lui envoient des SMS ou des messages. C’est plus intime et plus confortable ».

« Dès que les voitures autonomes libéreront les conducteurs des mains et des yeux, la part d’audience de la radio diminuera et rejoindra celle des journaux papiers parmi les espèces en voie de disparition. Si les médias d’ambiance (c’est-à-dire ceux qu’on écoute sans s’impliquer) vont rester, ils risquent de devenir secondaires », prophétise Andrey Mir.

« L’alphabétisation a structuré le monde à l’image d’un catalogue. L’éducation consistait essentiellement à étudier ce catalogue de connaissances pour accéder à des savoirs plus spécialisés ». Les premiers sites web étaient organisés comme des livres ou des bibliothèques, avec des tables des matières ou des catalogues. Le champ de recherche a sonné le glas du catalogue. Plus besoin de se souvenir des connaissances engrangées ou de l’arborescence de son ordinateur, puisqu’il suffit d’interroger le champ de recherche de son ordinateur, un moteur de recherche ou une intelligence artificielle générative. La compétence cruciale désormais dans ce mode de fonctionnement est la capacité à formuler des questions pertinentes pour obtenir la meilleure réponse. Une capacité qui ne repose en rien sur la maîtrise de l’écrit traditionnel.

« Une autre compétence médiatique essentielle consiste à apprendre non pas comment utiliser un média, mais comment ne pas l’utiliser ». Comprendre la dimension hormonale de la consommation médiatique est essentiel à l’éducation aux médias, car cela peut nous aider à éteindre un appareil ou à passer d’un appareil à l’autre, avance-t-il encore.

« Les personnes ayant connu une ère pré-numérique savent généralement qu’un effort important engendre des récompenses importantes et multiples. Lire Dostoïevski demande un effort considérable, mais apporte non seulement une révélation intellectuelle, mais aussi un statut social et l’épanouissement personnel ». « Construire une relation amoureuse demande des efforts soutenus, mais apporte bien plus que des relations sexuelles : le confort du mariage et la sécurité de la famille. Cette récompense substantielle exige un effort conséquent – ​​c’était là l’essence même du système effort-récompense dans le monde physique. Les appareils numériques récompensent de simples clics, mais cette récompense est minime. Elle ne satisfait jamais pleinement ; elle se contente de maintenir l’utilisateur en marche. Cela modifie radicalement les circuits neurophysiologiques liés à l’effort et à la récompense. Les médias numériques récompensent la simple présence – un clic suffit pour se montrer, afficher ses préférences – et, par conséquent, c’est la simple présence, et non l’effort, qui acquiert de la valeur. Sur les plateformes numériques, « faire » n’a pas la même importance que dans le monde physique ; ce qui compte, c’est « être » – signaler sa présence. » 

Cette configuration cognitive engendre des conséquences culturelles profondes. La prédominance de « être » sur « faire » conduit à la génération « flocon de neige » et aux politiques identitaires, où l’identité prime sur le mérite. Ce que vous faites importe peu. L’important désormais, c’est l’identité. Et c’est pourquoi on la perçoit comme un gage de réussite, exigeant des récompenses ou des sanctions basées sur l’identité et non sur les actes. 

Un autre effet de la transition numérique est la diminution de la capacité des individus à fournir des efforts soutenus. Le cerveau n’est pas conditionné à fournir un effort soutenu et prolongé lorsque la récompense se résume à un simple clic. Par conséquent, le niveau d’éducation baisse, les carrières deviennent plus difficiles à construire, la vie personnelle plus ardue, etc. Globalement, l’anxiété sociale augmente. 

La solution à ce problème commence par l’éducation parentale, explique encore Mir. En règle générale, l’accès des enfants aux différents médias devrait suivre les étapes de l’évolution médiatique de l’humanité : jouets et jeux actifs, écoute des récits des parents, lecture, médias électroniques, et seulement ensuite, vers l’âge de 14 ans, appareils tactiles. Si cet ordre est inversé et que les appareils numériques précèdent les jouets et les livres, le cerveau ne bénéficiera pas de la stimulation neuronale associée aux médias précédents : coordination œil-main, orientation spatiale, concentration, persévérance, effort soutenu et récompense différée. 

Cependant, le monde est déjà passé des médias imprimés aux appareils numériques, et nous vivons actuellement la transition de la culture écrite à l’oralité numérique. Aucune stratégie personnelle ne peut annuler ou inverser ce changement, conclut-il. Nous devons donc nous y adapter. 

Le copier-coller, comme oralité

Dans la Suite dans les idées, Sylvain Bourmeau recevait récemment le chercheur Allan Deneuville, auteur notamment de Copier-Coller, le tournant photographique de l’écriture numérique (UGA,2025) qui expliquait que l’un de nos gestes d’écriture le plus courant, le copier-coller, n’en est pas un. Pour lui, cela consiste à écrire avec de la photographie, car copier-coller, consiste bien plus à photographier un texte et à le déplacer. Dans l’acte même de copier-coller, on n’écrit pas. Le copier-coller, au même titre que les SMS ou les vocaux, tient d’un support de l’oralité numérique. 

Deneuville pose les mêmes questions que Mir : nous n’interrogeons pas suffisamment ce que signifie écrire avec de la photographie. « Qu’est-ce que cela change à l’écriture et à la pensée, quand écrire ne consiste plus à écrire, ne consiste plus à faire passer la manière textuelle par notre propre écriture dans la pensée ? » La copie est aussi ancienne que l’écriture, rappelle Deneuville. Elle répond à deux injonctions : aller vite et être exacte. La copie manuscrite et photographique finissent par se mélanger avec la photocomposition et le photocopieur. Le copier-coller, inventé par Larry Tesler chez Xerox date de cette même époque. 

Pour Deneuville, le copier-coller a des effets sur notre manière même d’écrire. Le copier-coller est d’abord un moyen de mieux écrire, comme les élèves ont recopié  Wikipédia ou les contenus de l’IA. Nous devons trouver les modalités d’une « pédagogie du copié-collé », car le copié-collé permet tout de même d’avoir une connaissance accrue des textes. Quand on copie-colle, l’enjeu est de masquer ce qui est copié, de le faire disparaître, explique-t-il. Il faut une compréhension logique du texte pour éviter les ruptures. C’est la mythologie de l’écriture elle-même qu’il faut défaire, estime Deneuville. C’est-à-dire nous défaire du « fantasme de l’écriture »

Pour Bourmeau, copier-coller, c’est cadrer et composer, ce qui nécessite bien plus de créativité qu’on le pense. Pour Deneuville, voilà longtemps que nous savons considérer la photographie comme de l’art. Faire de la photographie avec du texte, devrait nous inviter à faire du traveling, du cadrage, du collage, de la contextualisation, de la composition, du montage… de texte. 

Pour Deneuville, l’arrivée de l’IA dans les apprentissages sonne comme une panique morale, notamment pour tous ceux qui ont une pratique professionnelle de l’écriture. Si cette panique est certainement exagérée tant nous réifions l’écriture, nous ne devons pas pour autant diminuer les risques que l’IA fait peser. Les étudiants l’utilisent d’abord pour écrire sans faire de fautes : c’est notre rapport social qui est interrogé par ces outils qui nous poussent à écrire mieux.  

Vers la folklorisation d’internet ?

« Internet est inondé d’images politiques générées par l’IA que personne ne prend pour la réalité », explique la psychologue sociale finlandaise Zea Szebeni dans un billet pour la newsletter Peripheral Politics. Le débat sur la désinformation, s’est beaucoup concentré sur les deepfakes, ces contrefaçons réalistes utilisées comme outils de déstabilisation politique… qui présentent des risques réels. Mais ce débat oublie que l’essentiel des images générées par l’IA n’ont pas la prétention à tromper. Bien souvent, personne ne les prend pour la réalité. Elles viennent la compléter, construire une atmosphère émotionnelle autour de la réalité, lui donner des formes de résonances émotionnelles, comme si elle permettait de générer un folklore, c’est-à-dire « des variations infinies sur les mêmes archétypes, constamment adaptés et partagés », qui façonnent notre perception sans jamais prétendre à la réalité

Dans les cultures orales, la « vérité » ne résidait pas principalement dans l’exactitude des faits, mais dans la résonance, rappelle la chercheuse : une histoire avait de l’importance si elle aidait les gens à comprendre leur monde, si elle pouvait être mémorisée et partagée. Puis vinrent l’écriture et l’imprimerie, qui ont tout changé. L’alphabétisation a encouragé la pensée linéaire et l’idée que la vérité pouvait être figée dans des textes faisant autorité. L’information est devenue vérifiable par la consultation des sources. Mais les médias numériques nous ramènent en arrière. Walter Ong a appelé cela une « oralité secondaire » ; nous n’avons pas perdu l’écriture, mais nous avons acquis en parallèle un système qui ressemble à la communication orale.

L’information ne réside plus dans un stockage stable, mais dans une circulation constante. Comme le souligne le journaliste de Vox, Eric Levitz : « l’information ne s’ancre pas lorsqu’elle est stockée ; elle s’ancre lorsqu’elle circule ». Ainsi, la répétition crée la réalité. Dans ce contexte, les images politiques générées par l’IA fonctionnent moins comme des affirmations factuelles que comme des mythes en circulation – évaluées non pas comme vraies ou fausses, mais comme pertinentes ou insipides.

« Nous ne sommes pas (seulement) confrontés à une crise où il est devenu impossible de distinguer le vrai du faux. Nous sommes confrontés à quelque chose de plus étrange encore, où la vérité se heurte aux récits mythiques, et dans cette compétition, les faits sont souvent désavantagés. » Mais si on peut débunker une fausse information ou un deepfake, il est plus difficile de défaire un folklore. Pour Zea Szebeni, ces productions tiennent du « lore », d’un univers folklorique, des récits qui se répètent, circulent, s’inscrustent. « Ces productions n’ont pas besoin de tromper pour fonctionner ; il leur suffit de circuler, de se répéter, de s’intégrer à la mythologie ambiante dans laquelle nous baignons. Et comme l’IA rend la production de mythes quasi gratuite, nous vivons tous désormais au sein de multiples légendes concurrentes, chacune renforcée par l’abondance algorithmique ». Ces lores fabriquent des perceptions, les recyclent, les renforcent, même si on sait qu’elles sont fausses. La circularité des fausses images de Trump par exemple renforce sa présence, sa posture, qu’elles soient jugées pertinentes pour les uns ou délirantes pour les autres. Le folklore entretient les représentations, comme l’IA les sédimentent.

  • ✇Dans les algorithmes
  • Améliorer l’accès aux données des plateformes
    Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes.  Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien
     

Améliorer l’accès aux données des plateformes

8 décembre 2025 à 01:00

Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes. 

Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien plus grande que d’autres, expliquent ses promoteurs pour Tech Policy Press. Le cadre « Better Access » se concentre sur le sous-ensemble de publications, de comptes et d’interactions publiques les plus importants pour la vie civique : les données qui révèlent qui détient l’influence, quels contenus se diffusent et comment les entreprises technologiques amplifient, ou atténuent, la voix de certaines personnes. 

Ce cadre définit quatre catégories de données à forte influence : les contenus largement diffusés, les comptes gouvernementaux et politiques, les comptes publics et les comptes d’entreprises notables, et les contenus sponsorisés. Ce cadre détaille les seuils applicables à ces catégories. En se concentrant sur ce segment de données plus restreint, il favorise la transparence, la protection de la vie privée et l’éthique, réduisant ainsi les risques pour la vie privée (sans toutefois les éliminer complètement). Il privilégie les comptes et les contenus dont la publicité et la valeur publique sont clairement définies, tout en établissant des conditions d’accès réalistes aux plateformes. Cependant, les données ne sont utiles que si elles sont accessibles et utilisables. C’est pourquoi ce cadre propose trois moyens pour les plateformes de faciliter l’accès aux données : une interface de données proactive, des demandes personnalisées de la part des chercheurs et une collecte de données indépendante. Ensemble, ces mécanismes renforcent la flexibilité, la pertinence, l’intégrité des plateformes et la responsabilité dans divers contextes de recherche.

Un moyen de donner un cadre pertinent et de structurer les rapports de transparence qu’exige la Commission européenne des grandes plateformes, qui peinent à produire des résultats pertinents, faute de savoir quoi leur demander, comme nous le disions il y a quelques années.

  • ✇Dans les algorithmes
  • Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
    Avec la vérification d’âge : la modération des plateformes au profit des géants Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de loi
     

Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers

4 décembre 2025 à 01:00

Avec la vérification d’âge : la modération des plateformes au profit des géants

Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de lois sur la vérification d’âge. Pour l’EFF, les difficultés de Bluesky montrent que ces lois vont écraser les petites plateformes qui ne peuvent pas absorber les coûts des mesures de vérification et renforcer le pouvoir des plus grandes plateformes. « Les obligations de vérification de l’âge concentrent et consolident le pouvoir entre les mains des plus grandes entreprises, seules entités disposant des ressources nécessaires pour mettre en place des systèmes de conformité coûteux et assumer des amendes potentiellement colossales ». C’est le même constat que fait l’EFF au Royaume-Uni : les plus grandes plateformes « ont mis en place des mesures de vérification de l’âge étendues (et extrêmement maladroites), tandis que des sites plus petits, notamment des forums sur la parentalité, l’écologie et les jeux vidéo sous Linux, ont été contraints de fermer ». L’EFF donne l’exemple du “Forum du Hamster”– un forum britannique pour discuter de tout ce qui touche au petit rongeur domestique, qui a fermé ses forums, pour renvoyer ses utilisateurs vers un simple compte Instagram, et donc vers les géants des réseaux sociaux ! Pour Molly Buckler, l’OSA (Online Safety Act) est en train de flécher le trafic vers les seuls géants du net, qui seront les mieux à même de censurer les utilisateurs. C’est une loi pour consolider le pouvoir des géants au plus grand cauchemar des utilisateurs dont les ressources communautaires vont s’atrophier.

Dans un autre article pour l’Electronic Frontier Foundation, Molly Buckley rappelle que la loi sur la vérification d’âge au Royaume-Uni ne concerne pas que les contenus à caractère sexuel, mais englobe une large catégorie de contenus « préjudiciables ». Préventivement, plusieurs forums sur la parentalité, les jeux vidéo ou l’écologie ont préféré fermer leurs portes pour éviter le risque d’amendes et les complexités de la conformité à la loi. La plateforme Reddit au Royaume-Uni a été contrainte de s’enfermer derrière des barrières de vérification d’âge. Et cela n’a pas concerné que les canaux dédiés aux contenus explicites, mais également à nombre de sous-groupes dédiés à l’identité, au soutien LGBTQ+, au journalisme, aux forums liés à la santé publique comme ceux dédiés au menstruations ou aux violences sexuelles. « L’OSA définit le terme « préjudiciable » de multiples façons, bien au-delà de la pornographie. Les obstacles rencontrés par les utilisateurs britanniques correspondent donc exactement à ce que la loi prévoyait. L’OSA entrave bien plus que l’accès des enfants à des sites clairement réservés aux adultes. En cas d’amendes, les plateformes auront toujours recours à la surcensure. »

L’EFF est surtout étonné que l’OSA ait contraint Reddit à la censure, notamment explique  Buckley parce que Reddit a été une plateforme qui a œuvré à la défense de la liberté d’expression. Même si on peut lui reprocher des excès en la matière, Reddit s’est attelé à résoudre ses problèmes. Elle a été la seule plateforme à obtenir la meilleure note de l’analyse de la modération des plateformes par l’EFF en 2019, notamment parce qu’elle a mis en place une modération souvent qualifiée de remarquable (mais pas parfaite). Pour l’EFF, les mesures de vérifications d’âge ne protégeront pas les adolescents, car ceux-ci trouveront toujours des moyens pour les contourner et se rendre sur des sites toujours plus douteux, où la modération est moindre, les risques plus importants

Pour l’EFF, l’exclusion des publics d’importantes communautés sociales, politiques et créatives est problématique. « Les mandats de vérification de l’âge sont des régimes de censure » et la régulation de la pornographie n’est bien souvent que la partie émergée d’une censure qui va bien au-delà et qui permet très rapidement de censurer des contenus parfaitement légaux, notamment ceux relatifs à l’éducation sexuelle ou à l’actualité. « Les questions de modérations ne sont pas simples : on glisse vite d’une condamnation morale à une condamnation politique », observait déjà le chercheur Tarleton Gillespie dans son livre sur la modération. Et l’EFF de prévenir les Américains du risque qu’ils courent à leur tour. 

Du flou des contenus à modérer… à la régulation individuelle

Dans un autre billet datant de janvier, Paige Collings and Rindala Alajaji de l’EFF rappelaient que le problème des lois pour la protection des jeunes exigeant la vérification de l’âge des internautes, c’est qu’elles ne concernent pas seulement a pornographie en ligne, comme elles aiment à se présenter. Derrière la lutte contre les contenus « dangereux », les gouvernements s’arrogent de plus en plus le pouvoir de décider des sujets jugés « sûrs ». Pas étonnant donc, que les contestations à l’encontre de ces lois se multiplient. En fait, la question du « contenu sexuel » par exemple est définie de manière vague et peut concerner des films et vidéos interdits aux moins de 18 ans, comme des contenus d’éducation sexuelle ou des contenus LGBTQ+. D’autres énumèrent des préjudices causés par les contenus, mais là encore, vaguement définis, comme les violences qui doivent être limitées, alors que les représentations de la violence servent aussi de moyens pour les dénoncer. Sans compter que les plateformes ont déjà des politiques de modération qui qualifient nombre de contenus qui ne tombent pas sous le coup de la loi comme préjudiciables, comme l’expliquait Tarleton Gillespie dans Custodians of the Internet (Yale University Press, 2018). Bref, bien souvent la censure de contenus non pornographiques n’apparaît aux gens qu’une fois que ces lois sont mises en œuvre. En Oklahoma, le projet de loi sur la vérification de l’âge entré en vigueur le 1er novembre 2024 défini comme contenu préjudiciable aux mineurs toute description ou exposition de nudité et de « conduite sexuelle », ce qui implique que des associations sur la sexualité et la santé comme Glaad ou Planet Parenthood doivent mettre en place des systèmes de vérification d’âge des visiteurs. Pour éviter d’éventuelles poursuites judiciaires, ces associations risquent de mettre en place une surcensure.

Toutes ces lois rendent les autorités administratives et les plateformes arbitres de ce que les jeunes peuvent voir en ligne, explique encore l’EFF. C’est le cas du Kids Online Safety Act (Kosa), américain, validé par le Sénat mais pas par la Chambre des représentants, défendue ardemment par la sénatrice américaine Marsha Blackburn qui l’a promue pour « protéger les mineurs des transgenres ». Si la censure des contenus LGBTQ+ par le biais des lois de vérification de l’âge peut être présentée comme une « conséquence involontaire » dans certains cas, interdire l’accès aux contenus LGBTQ+ fait partie intégrante de la conception des plateformes. L’un des exemples les plus répandus est la suppression par Meta de contenus LGBTQ+ sur ses plateformes sous prétexte de protéger les jeunes utilisateurs des « contenus à connotation sexuelle ». Selon un rapport récent, Meta a caché des publications faisant référence au hashtag LGBTQ+, le filtre contenu sensible étant appliqué par défaut aux mineurs, faisant disparaître les hastags #lesbienne, #bisexuel, #gay, #trans et #queer. Si Meta a visiblement fait machine arrière depuis, on constate qu’une forme de censure automatisée vague et subjective s’étend sur nombre de contenus et notamment sur l’information sur la santé sexuelle. Pour les jeunes, notamment LGBTQ+, plus exposés au harcèlement et au rejet, l’accès aux communautés et aux ressources numériques est essentiel pour eux, et en restreindre l’accès présente des dangers particuliers, rappelle un rapport du Gay, Lesbian & Straight Education Network (Glsen). Mais il n’y a pas que ces publics que la censure des contenus d’information sexuel met en danger… A terme, ce sont tous les adolescents qui se voient refuser une information claire sur les risques et la santé sexuelle. Or rappellent des chercheurs espagnols pour The Conversation, l’exposition à la pornographie façonne les expériences affectives et normalisent l’idée que le pouvoir, la soumission et la violence font partie du désir. Mais, rappellent-ils, c’est bien « l’absence d’une éducation sexuelle adéquate qui est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie ».

Pour l’EFF enfin, il est crucial de reconnaître les implications plus larges des lois de vérification d’âge sur la vie privée, la liberté d’expression et l’accès à l’information. Notamment pour ceux qui tentent de préserver leur anonymat. « Ces politiques menacent les libertés mêmes qu’elles prétendent protéger, étouffant les discussions sur l’identité, la santé et la justice sociale, et créent un climat de peur et de répression »

« La lutte contre ces lois ne se limite pas à défendre les espaces en ligne ; il s’agit de protéger les droits fondamentaux de chacun à s’exprimer et à accéder à des informations vitales.» Dans un autre article encore, Paige Collings, rappelle que « les jeunes devraient pouvoir accéder à l’information, communiquer entre eux et avec le monde, jouer et s’exprimer en ligne sans que les gouvernements ne décident des propos qu’ils sont autorisés à tenir ». 

En fait, la proposition d’interdire les contenus aux plus jeunes permet assurément de simplifier la modération : aux plus jeunes, tout est interdit… Mais pour le public majeur, conscient des risques, tout est autorisé. C’est à chacun de réguler ses usages, pas à la société. 

La même injonction à une régulation qui ne serait plus qu’individuelle traverse la société. C’est à chacun de trier ses poubelles et ceux qui ne le font pas seront condamnés pour ne pas l’avoir fait, comme c’est à chacun d’être conscient des risques de ses usages numériques, et d’en subir sinon les conséquences.

Vers la criminalisation des comportements des mineurs

En France, la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs a rendu son rapport. Ses conclusions sont « accablantes », comme le dit le Monde. Mais l’épais rapport (plus de 1000 pages) est tout de même bien problématique, comme l’analyse très pertinemment le journaliste Nicolas Kayser-Bril dans l’édition du 2 octobre de la newsletter d’Algorithm Watch. Alors que nombre d’universitaires interrogés soulignent que l’utilisation élevée de TikTok est corrélée à l’anxiété et la dépression, le rapport glisse souvent à la simple accusation. Comme si TikTok était seul porteur des maux de la jeunesse. « Les députés ont-ils succombé à la faible capacité d’attention et à l’émotionnalisation qu’ils dénoncent ? Nous ne le saurons jamais, car le Parlement français n’a pas commandé, et ne commandera probablement pas, de rapport sur les effets de Facebook sur les baby-boomers, ni sur l’algorithme de X sur les responsables politiques ». Si le rapport est accablant, il l’est surtout parce qu’il montre le déficit de mise en œuvre du DSA, malgré les obligations, comme l’expliquent Garance Denner et Suzanne Vergnolle de la Chaire de modération des contenus du Cnam

Face à ce déluge d’accusations à l’encontre de TikTok, les 53 recommandations du rapport deviennent rapidement plus surprenantes, puisqu’on n’y trouve pas de proposition d’interdiction de TikTok. On ne trouve pas non plus beaucoup de mesures qui imposent quelque chose à la plateforme, hormis celles qui renforcent ou précisent le cadre du RGPD et du DSA européen (recommandation 8 à destination du suivi des modérateurs de la plateforme), celle invitant à étudier la modification du statut des fournisseurs de réseaux sociaux comme éditeur, les rendant responsables des contenus accessibles (recommandation 10), celle réclamant davantage de ressources pour les signaleurs de confiance (c’est-à-dire les organismes en contact direct avec les plateformes pour signaler les contenus inappropriés), ainsi que celles obligeant les plateformes à fournir des paramètres de personnalisation et de diversification ou pluralisme algorithmique (recommandations 11 et 12, qui consisterait à produire « une norme ouverte pour les algorithmes de recommandation afin que des tiers puissent concevoir des flux “Pour vous” spécifiques. Les utilisateurs pourraient ensuite parcourir “TikTok, sélectionné par ARTE”, par exemple », explique Nicolas Kayser-Bril… Ce qui ne semble pas l’objectif d’un pluralisme algorithmique permettant à chacun de produire des règles de recommandation selon ses choix). En fait, presque toutes les recommandations proposées dans ce rapport sont à l’égard d’autres acteurs. Des plus jeunes d’abord : en imposant la fermeture d’accès à TikTok au moins de 15 ans, en proposant un couvre-feu pour les 15-18 ans et en envisageant d’étendre l’interdiction dès 2028 aux moins de 18 ans

Mais l’essentiel des recommandations portent sur le développement de messages de prévention à l’école et dans les services de prévention comme auprès des parents et des services de l’enfance. Des services déjà bien souvent surchargés par les injonctions. Aucune recommandation n’exige de TikTok de renforcer l’accès à des données pour la recherche ou de corriger ses algorithmes pour moins prendre en compte le temps passé par exemple ! 

Si le rapport ne fait pas (encore) de propositions pour condamner les jeunes qui accéderaient aux réseaux sociaux malgré l’interdiction, elle propose de créer dès 2028 un nouveau délit de « négligence numérique » (recommandation 43) à l’égard des parents qui laisseraient leurs enfants accéder aux réseaux sociaux. Un peu comme si dans les années 50 on avait supprimé les aides sociales aux parents qui laissaient écouter du rock à leurs enfants sous prétexte de « négligence musicale ». Ce que suggère cette recommandation qui doit être étudiée par des experts d’ici l’échéance, c’est que la vérification de l’âge va conduire à la criminalisation des comportements des plus jeunes

Pour l’instant, on n’en entend parler nulle part. Toutes les déclarations sur le développement de la vérification d’âge et du contrôle parental, n’évoquent que la protection des plus jeunes, jamais les peines qui pourraient advenir… plus tard. Mais du moment où elles seront en place, on voit déjà s’esquisser la perspective de criminaliser les adolescents et leurs parents qui ne respecteraient pas ces règles. L’implicite ici, consiste d’abord à interdire, puis demain, à condamner. Après la mise en place de la barrière d’accès, viendra la condamnation de ceux qui chercheront à la contourner. Va-t-on vers une société qui s’apprête à condamner des gamins de 14 ans pour être allé chercher des contenus pornos en ligne ? Vers des médias qui seront condamnés pour avoir laissé des enfants accéder à des images de répression violentes de manifestations ? Vers des parents qui seront condamnés pour avoir laissé leurs enfants accéder à internet ? Les 16-18 ans seront-ils condamnés pour être allé cherché de l’information sur la prévention sexuelle ou parce qu’ils se sont connectés sur TikTok au-delà de 23 heures ? Où parce qu’ils auront échangé une vidéo de Squeezie ?

La vérification d’âge nous conduit tout droit à une « nouvelle pudibonderie », disait pertinemment le journaliste David-Julien Rahmil pour l’ADN. Renforçant celle déjà l’œuvre sur les grandes plateformes sociales qu’observait en 2012 Evgeny Morozov ou le chercheur Tarleton Gillespie dans son livre, dont les systèmes automatisés surcontrôlent déjà la nudité plutôt que la pornographie. 

L’autre risque, à terme, c’est l’élargissement sans fin de la vérification d’âge à tous types de contenus, notamment au secteur marchand comme l’a montré la polémique des contenus explicites découverts sur des sites de commerces en ligne. Pour la haut-commissaire à l’enfance, Sarah El Haïry, « la protection des enfants en ligne ne peut souffrir d’aucune faille », soulignant par là le risque maximaliste des règles à venir (et ce alors que la protection sociale à l’enfance par exemple n’est que failles). Au risque que ces règles deviennent des couteaux suisses, faisant glisser la surveillance des contenus pornographiques à la surveillance de l’internet, comme le disait avec pertinence le journaliste Damien Leloup dans une analyse pourLe Monde, au prétexte que le « risque » pornographique est partout. 

Qu’on s’entende bien. Loin de moi de défendre TikTok (pas plus que Meta ou X). Mais la criminalisation des comportements des enfants et des parents sans imposer de mesures de régulation claires aux entreprises et d’abord à elles, me semble une voie sans issue. La vérification d’âge accuse la société des dégâts sociaux provoqués par les décisions des plateformes sans leur demander ni de données, ni de correctifs. En criminalisant les mineurs, elle ne propose qu’une nouvelle ère de contrôle moral, sans nuance, comme s’en émouvait pour The Conversation, le spécialiste en gestion de l’information, Alex Beattie.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Tarifs sous IA : vers l’hyper-personnalisation à grande échelle
    « La véritable contribution de l’IA à l’humanité pourrait bien être de maximiser les profits des entreprises en exploitant les données personnelles pour augmenter les prix. En réalité, c’est déjà le cas », explique le journaliste David Dayen, le rédacteur en chef de Prospect Magazine. Uri Yerushalmi, cofondateur et directeur de l’intelligence artificielle de Fetcherr, une société israélienne de conseil en tarification dont les clients comptent une demi-douzaine de compagnies aériennes à travers
     

Tarifs sous IA : vers l’hyper-personnalisation à grande échelle

3 décembre 2025 à 01:00

« La véritable contribution de l’IA à l’humanité pourrait bien être de maximiser les profits des entreprises en exploitant les données personnelles pour augmenter les prix. En réalité, c’est déjà le cas », explique le journaliste David Dayen, le rédacteur en chef de Prospect Magazine. Uri Yerushalmi, cofondateur et directeur de l’intelligence artificielle de Fetcherr, une société israélienne de conseil en tarification dont les clients comptent une demi-douzaine de compagnies aériennes à travers le monde développe des agents commerciaux automatisés pour simuler les dynamiques de marchés, analyser et fixer les prix. L’atout de Fetcherr, inspiré des techniques de trading haute fréquence, estime son promoteur, c’est que l’utilisation du système permet d’adapter les prix plutôt qu’ils ne soient stables et linéaires. « La dynamique est bien plus proche de celle du NASDAQ ou des marchés financiers, où les prix fluctuent beaucoup plus fréquemment car chaque changement sur le marché entraîne une réaction immédiate. » Fetcherr promet à ses clients une augmentation annuelle du chiffre d’affaires de plus de 10 %. Mais les dindons de ces variations, ceux qu’on dépouille de leur argent, « c’est vous et moi »

Pour l’avocat Lee Hepner, de l’American Economic Liberties Project, « nous construisons maintenant les plateformes qui contrôlent la circulation de l’argent ». La tarification pilotée par la technologie est plus répandue qu’on ne le pense, rappelle Prospect Magazine qui avait consacré tout un numéro au sujet (dont nous avions rendu compte). En février, le journaliste Keith Spencer avait montré dans SFGate que selon la localisation de son IP, les prix de réservation d’une chambre d’hôtel pouvaient passer du simple au double. Stephanie Nguyen et Sam Levine, ancien directeur du Bureau de la protection des consommateurs de la Commission fédérale du commerce, ont récemment publié un article sur la manière dont les données collectées par les cartes de fidélité servent surtout à augmenter les tarifs : « plus un client est fidèle, plus ses données sont collectées et plus il paie ». « Voulons-nous vraiment un monde où il faudra payer un supplément pour faire ses achats anonymement ? », questionne Sam Levine. 

Plusieurs techniques sont mobilisées pour augmenter les prix. La surveillance des profils de consommation des consommateurs, la tarification dynamique qui fait grimper les prix lorsque la demande augmente et l’abonnement (avec leurs politiques de résiliation compliquées : il fallait 23 étapes et 32 actions pour résilier l’un des abonnements que proposait Uber et la politique de résiliation d’Amazon Prime qui a coûté 2,5 milliards d’amende à Amazon, était surnommée l’Iliade, en référence au long et difficile combat d’Ulysse pour la surmonter. 

« L’offre et la demande ne déterminent plus à elles seules les prix, comme l’explique la théorie économique. La tarification basée sur l’IA est devenue plus importante que le volume des ventes ou la qualité des produits », assène Dayen. 

« Les démocrates de la Chambre des représentants ont proposé un projet de loi visant à interdire la tarification basée sur la surveillance et la fixation des salaires par la surveillance. La pratique dite de « tarification progressive », qui consiste à ajouter des frais cachés lors d’une vente, a été de facto interdite pour la billetterie d’événements et les séjours hôteliers par une réglementation de la FTC finalisée en mai. Mais avec le contrôle du Congrès par les Républicains, le véritable enjeu se situe désormais au niveau des États. Des interdictions de la tarification basée sur la surveillance ont été introduites en Californie, au Colorado, en Géorgie, dans l’Illinois et au Minnesota ; des interdictions de la tarification dynamique pour les supermarchés et les restaurants ont été introduites à New York et dans le Maine. En juillet, 24 États avaient examiné des projets de loi concernant une forme ou une autre de tarification assistée par la technologie, selon un outil de suivi de Consumer Reports ». 51 projets de loi sur la fixation algorithmique des prix ont été déposés à travers le pays lors de la seule session législative de 2025. « Il s’agit d’une première étape potentiellement très importante pour rééquilibrer l’économie en faveur des consommateurs », estime Hepner. En Californie, le projet de loi AB 446, qui proposait d’interdire la tarification fondée sur les données personnelles, a été suspendu, donnant ainsi aux promoteurs le temps de rallier des soutiens. Des entreprises de tous les secteurs, même celles non soupçonnées de pratiquer cette tarification, ont afflué à Sacramento pour défendre leurs pratiques. La ville de New York a adopté une loi sur la transparence exigeant que les transactions concernées incluent une fenêtre contextuelle indiquant : « Ce prix a été fixé par un algorithme utilisant vos données personnelles. » Pas sûr pourtant que ces avertissements suffisent. 

Dayen souligne que la complexité des calculs rend le travail du régulateur de plus en plus difficile. Lyft, pionnier de la tarification dynamique, a réagi à la colère des usagers, dont les tarifs augmentaient précisément aux moments où ils en avaient le plus besoin, en optant pour Price Lock, un service d’abonnement qui plafonne les tarifs sur certains trajets, moyennant un forfait mensuel. 

Pour Sam Levine, nous devrions revenir à des prix publics avant que la situation soit hors de contrôle. L’autre levier, consiste à limiter la collecte de données. Une norme de minimisation des données pourrait empêcher l’utilisation des informations personnelles à des fins de tarification, estime Ben Winters, responsable de l’IA et de la vie privée à la Fédération des consommateurs américains. Mais aux Etats-Unis, les projets de loi pour renforcer la protection des données n’arrivent pas à être promulgués :  « trop d’entreprises ont investi dans l’économie de la surveillance pour qu’on puisse la faire disparaître par la loi », estime Dayen. « Les lobbyistes de l’industrie technologique n’ont qu’une seule spécialité : anéantir les lois sur la protection de la vie privée », souligne le juriste Tim Wu, dans son nouveau livre, The Age of Extraction : How Tech Platforms Conquered the Economy and Threaten Our Future Prosperity (Bodley Head, 2025, non traduit). 

La meilleure façon de lutter contre ces pratiques n’est peut-être pas de s’attaquer à la collecte de données pour les limiter, mais plutôt à ceux qui les reçoivent, les partagent et les traitent, courtiers et consultants en tarification par exemple, estime Dayen. « La vente de données pourrait être considérée comme déloyale ou trompeuse au regard des lois étatiques sur la protection des consommateurs. De plus, même lorsque les clients consentent à la collecte de leurs données, ils ne consentent pas nécessairement à leur transfert à des tiers »

Pour Dayen, le pire est certainement à venir, car la tarification par IA dans cinq ans ne sera plus la même qu’aujourd’hui. Les compagnies aériennes ont été à l’avant-garde de toutes les innovations tarifaires des 30 dernières années, des frais cachés à la tarification différenciée en passant par les programmes de fidélité, rappelle-t-il. Quel sera le prochain défi ? Fetcherr, qui a levé 90 millions de dollars en 2024 et 42 millions supplémentaires cette année, l’affirmait  clairement sur son site web : « hyper-personnalisation à grande échelle ». Robby Nissan, cofondateur de Fetcherr, a déclaré publiquement que ses systèmes d’IA peuvent « manipuler le marché pour accroître les profits »

Les autres entreprises de conseil en tarification comme Flyr, Pros ou Air Price IQ (toutes positionnées surtout sur le segment de la tarification aérienne) tiennent le même discours : maximiser la disposition à payer des voyageurs en analysant des masses de données. Quand on souhaite prendre un billet d’avion pour Noël, il est devenu impossible de prévoir le prix ou de les comparer. A l’avenir, cela risque d’être Noël tous les jours, sauf pour les consommateurs. Pire, suggère Dayen, à terme, ces conseils en tarification pourraient également permettre aux entreprises aériennes d’ajuster leurs itinéraires pour éviter la concurrence, afin de pouvoir pratiquer les tarifs qu’elles souhaitent. Ajoutez à cela les agents IA qui prendront vos billets d’avion à votre place… et nul ne pourra être certain d’être assuré que les robots agissent dans l’intérêt des consommateurs ou des détaillants partenaires des entreprises d’IA qui fourniront les agents. 
Au consommateurs de réagir, conclut Dayen. Ils détiennent les ressources financières dont les entreprises ont besoin pour prospérer. « Il est encore possible que l’on assiste à un retour à une tarification basée sur les coûts », déclare la sociologue Lindsay Owens,  qui prépare un livre consacré à cette nouvelle ère de la tarification pour 2026 (Gouged : The End of a Fair Price in America, Arnaqués : la fin du juste prix en Amérique). « C’est ainsi que les entreprises ont fonctionné pendant des décennies… Un monde où la tarification est transparente, publique et prévisible est encore envisageable. » On voudrait y croire.

  • ✇Dans les algorithmes
  • Vérification d’âge (1/4) : vers un internet de moins en moins sûr
    Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard,
     

Vérification d’âge (1/4) : vers un internet de moins en moins sûr

2 décembre 2025 à 01:00

Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard, sont définies différentes catégories de contenus, allant de contenus dits illégaux à des contenus dits nuisibles aux enfants. La loi ne se contente pas de faire la chasse à la pornographie en ligne, c’est-à-dire à des contenus à caractères sexuels explicites, mais déborde très largement de ce seul cadre qui ouvre, en regard des sanctions lourdes, et impose une modération des contenus qui peut aller jusqu’aux images violentes de l’actualité (et pas seulement sanglantes) voire à tous propos sur la sexualité, comme ceux abordant les questions de santé.  

Un renforcement sans précédent de la surveillance et de la censure préventive : la conformité n’est pas contournable

Comme le pointe l’une des plus synthétiques et lumineuses analyses en français sur le loi que j’ai pu lire, celle de Nicolas Morin sur son blog, la loi demande aux plateformes un « devoir de diligence » proactif et fondé sur les risques, mais également impose un comportement « préventif », rendant les plateformes, sites et services en ligne, directement responsables de la sécurité de leurs utilisateurs et du contenu qu’ils rencontrent. « Enfin ! », pourrait-on s’enthousiasmer en pensant qu’on exige un peu plus de contrôle de la part des Gafams. Sauf que le champ d’application de la loi est très large et dépasse les seules plateformes de médias sociaux et les plus grands services en ligne. Elle s’applique jusqu’aux forums, commentaires de blogs et sites de partage de fichiers, même si les obligations les plus strictes s’appliquent aux plateformes les plus importantes. 

Les services en ligne doivent garantir que les enfants aient un « accès adapté à leur âge », ce qui implique une approche faisant appel à des systèmes de filtrage et de modération de contenu adaptés aux différents groupes d’âge qui s’imposent partout. « Les sanctions prévues sont sévères, potentiellement existentielles, en cas de manquement. Les amendes peuvent atteindre 18 millions de livres sterling ou 10 % du chiffre d’affaires annuel mondial d’une entreprise, et les cadres supérieurs peuvent être tenus personnellement responsables pénalement en cas de non-coopération avec le régulateur. » Du fait de la lourdeur des sanctions, avec l’OSA, la conformité réglementaire n’est pas contournable.

Mais surtout, explique Morin, « à un niveau fondamental, l’OSA illustre la bascule d’une logique procédurale à une logique de valeurs ». Jusqu’à présent, la modération de contenu suivait une approche procédurale, se concentrant sur le « comment » plutôt que sur le « quoi ». Cette logique ne disait pas aux plateformes quel contenu spécifique (en dehors de ce qui est déjà manifestement illégal) était bon ou mauvais. Elle imposait plutôt des obligations de moyens et de transparence (souvent très légères, comme des conditions de modération claires, des mécanismes de signalement simples, des processus d’appels, des rapports sur les contenus modérés…). Avec l’OSA et son approche sur les valeurs, les plateformes doivent porter un jugement même sur les contenus et leur impose une obligation de résultat. « Ce faisant, la loi délègue aux entreprises privées et à l’organe de régulation britannique (l’Ofcom) le soin de définir ce qui constitue un discours acceptable dans la société, une mission qui relève normalement du débat démocratique et de la loi pénale ». Le problème est que les contenus qui peuvent être qualifiés de préjudiciables est large et introduit un flou juridique supplémentaire, qui, à l’aune de la sévérité des sanctions, conduit déjà chacun à une sur-modération. « Pour les utilisateurs, l’application des règles devient arbitraire. Un même contenu pourra être supprimé un jour et toléré le lendemain, en fonction du modérateur ou de l’algorithme qui l’examine. Il n’y a plus de prévisibilité, un principe fondamental de l’État de droit »

« En utilisant des termes vagues, le Parlement britannique a, de fait, délégué son pouvoir normatif. Ce ne sont plus les législateurs élus qui définissent précisément les limites de la liberté d’expression, mais l’Ofcom, un régulateur non élu, qui publiera des codes de pratique pour “interpréter” ce que la loi entend par “préjudiciable”, et les plateformes elles-mêmes, qui créeront leurs propres règles internes pour se conformer aux interprétations de l’Ofcom.

Le débat sur ce que notre société tolère comme discours est ainsi retiré de la sphère publique et démocratique pour être confié à des comités de conformité et des régulateurs techniques.

En passant d’une logique procédurale à une logique de valeurs incarnée par des termes vagues, l’Online Safety Act crée un système où la censure devient préventive, privatisée et arbitraire. La quête légitime de sécurité en ligne, sous l’étendard ici de la sécurité des enfants et de la lutte contre le terrorisme, se fait au détriment de la liberté d’expression, de la sécurité juridique et des principes démocratiques fondamentaux. »

« L’obligation pour les plateformes de gérer le contenu « préjudiciable » mais légal les amène, par prudence, à classifier et restreindre l’accès à un large éventail de contenus, y compris les reportages d’actualité, la couverture de la guerre et des conflits, le journalisme d’investigation et les images de manifestations politiques, qui pourraient tous être considérés comme « préjudiciables » ou « dépeignant une violence grave » selon les définitions larges de la loi. Ce système délègue de fait aux entreprises technologiques privées le rôle d’arbitres de l’État en matière de discours acceptable. Alors que les partisans pourraient y voir une application de la responsabilité, les critiques y voient un « cadeau massif à la grande technologie ». Cela renforce leur pouvoir en leur donnant une autorité mandatée par l’État pour décider de ce que les utilisateurs peuvent et ne peuvent pas voir, une fonction quasi-judiciaire pour laquelle les entreprises privées sont institutionnellement mal adaptées et démocratiquement irresponsables. »

Le premier problème de l’OSA est bien le large spectre de ce que son champ réglementaire couvre. Ce n’est pas une loi qui cherche à réguler uniquement les vidéos et les images pornographiques. 

Vers une modération fonctionnelle

La loi s’applique aux sites web, aux services de réseaux sociaux, aux sites de stockage et de partage de fichiers, aux forums en ligne, aux applications de rencontre et aux services de messagerie instantanée. Tous sont désormais tenus de vérifier l’âge des visiteurs si leurs plateformes contiennent du contenu préjudiciable ou inapproprié, rappelle le New York Times. Au-delà des sites pornographiques, les applications qui ont introduit la vérification de l’âge incluent Grindr, le service de rencontres gay ; Discord, l’application de chat social ; et Reddit… Même l’encyclopédie Wikipédia reste menacée de devoir intégrer une vérification d’âge (notamment parce qu’elle entre dans la catégorie des grands services en ligne).  

La majorité des Britanniques – près de 80 % – se sont déclarés favorables aux nouvelles règles, selon un sondage YouGov auprès d’environ 4 400 adultes, peut-être sans toujours comprendre que ces règles ne concernaient pas que les contenus sexuellement explicites, puisqu’après la mise en place des premières mesures effectives, ils n’étaient plus que 69% à soutenir les règles. Mais, selon l’enquête, seule une personne sur quatre environ estime que ces restrictions empêcheront réellement les enfants d’accéder à la pornographie en ligne. Au Royaume-Uni, une vague de résistance s’est également manifestée. Plus de 500 000 personnes ont signé une pétition demandant l’abrogation de la loi sur la sécurité en ligne, critiquée par les défenseurs du droit à la vie privée et de la liberté d’expression. Ces derniers affirment que ces règles constituent un exemple d’abus de pouvoir du gouvernement et les jugent dangereuses pour les personnes souhaitant préserver leur anonymat en ligne. 

Les critiques affirment également que la portée des règles va trop loin, en incluant les forums de loisirs en ligne et divers autres sites. Ils affirment que les petits sites qui ne disposent pas des ressources nécessaires pour se conformer à la loi devront fermer, notamment parce qu’ils s’exposent à des poursuites juridiques inédites. 

Les contenus sont définis en trois catégories : des contenus primaires prioritaires préjudiciable aux enfants (les contenus pornographiques et de promotion du suicide notamment), les contenus prioritaires préjudiciables aux enfants (contenus incitant à la haine, à l’intimidation ou à la violence notamment) et des contenus non désigné comme dangereux pour les enfants mais qui peuvent leur porter préjudice, c’est-à-dire les perturber, comme des images de violences ou de manifestation. Le problème consiste bien sûr dans les flous de ces définitions : un article qui parle d’un suicide en fait-il la promotion ? Parler des violences d’une guerre ou de manifestations est-il préjudiciable ? Même la définition de la pornographie peut-être plus ou moins lâche : un texte érotique est-il de même nature qu’une vidéo explicite ?  

Face à ces risques, les sites accessibles doivent mettre en œuvre un certain nombre de mesures et notamment la « vérification vigoureuse de l’âge », en développant des algorithmes plus sûrs pour les jeunes publics et en renforçant la modération des contenus. 

Depuis l’entrée en vigueur de ces mesures fin juillet, les plateformes de réseaux sociaux Reddit, Bluesky, Discord et X ont toutes mis en place des contrôles d’âge pour empêcher les enfants de consulter des contenus préjudiciables sur leurs sites. Des sites pornographiques comme Pornhub et YouPorn ont mis en place des contrôles d’âge, demandant désormais aux utilisateurs de fournir une pièce d’identité officielle, une adresse e-mail pour que la technologie analyse les autres services en ligne où elle a été utilisée, ou de soumettre leurs informations à un fournisseur tiers pour vérification de l’âge. Des sites comme Spotify exigent également que les utilisateurs soumettent un scan facial à Yoti, une société tierce de gestion d’identité numérique, pour accéder aux contenus étiquetés 18+. L’Ofcom, qui supervise la mise en œuvre de l’OSA, est allé plus loin en envoyant des lettres pour tenter de faire appliquer la législation britannique aux entreprises basées aux États-Unis. 

La généralisation de la vérification d’âge et du contrôle parental

La contrainte de la vérification d’âge n’est pas que britannique. Elle concerne également  l’Union européenne, les Etats-Unis (une vingtaine d’Etats ayant déjà légiféré en ce sens) et l’Australie. « En France, deux lois successives ont entériné depuis 2020 la vérification d’âge », rappelait Le Monde cet été. En juin, menacé de sanctions par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) s’il ne mettait pas en place une procédure de vérification d’âge, Pornhub a fermé ses accès en France. Si l’Europe a lancé une enquête à l’encontre des principales plateformes de contenus pornographiques, pour qu’elles mettent en place des outils de vérification d’âge plus approprié qu’un simple déclaratif, au motif du DSA et de la taille de leur audience, la Commission estime que fixer une majorité numérique ne relève pas de ses compétences, même si elle travaille à proposer une solution harmonisée de vérification d’âge des internautes. En novembre, les députés macronistes ont déposé une proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans, imposer un couvre-feu numérique pour les 15-18 ans de 22 heures à 8 heures, ainsi que l’interdiction des smartphones dans les lycées. Des perspectives défendues par le président lui-même. Des propositions d’interdiction des réseaux sociaux aux moins de 15 ans sont également à l’ordre du jour au Danemark, en Norvège, et au Royaume-Uni (via un autre projet de loi, le Protection of Children Bill).

En Australie, une loi nationale a d’ores et déjà été adoptée. Elle interdit l’accès aux réseaux sociaux aux moins de 16 ans. En revanche, les applications de messagerie ou celles dévolues à l’éducation et à la santé sont exclues de cette réglementation, tout comme YouTube – sans qu’on comprenne très bien les motivations de cette exclusion. 

« Parallèlement, tous les grands réseaux sociaux ont mis en place, au fil du temps, des outils de contrôle parental et de protection des adolescents, qui permettent notamment de limiter le temps d’utilisation de l’application par les plus jeunes. Certaines plateformes, comme Instagram ou TikTok, limitent ainsi les fonctionnalités des comptes créés par les mineurs, qui sont notamment paramétrés par défaut comme « privés », c’est-à-dire dont le contenu n’est accessible qu’aux personnes acceptées par l’utilisateur.

Les grandes plateformes assurent également utiliser toute une série d’outils automatisés pour détecter les internautes qui mentent sur leur âge lors de leur inscription. En avril, Meta – maison mère d’Instagram – a ainsi annoncé son intention de tester aux Etats-Unis l’utilisation de l’intelligence artificielle pour repérer les profils des jeunes s’étant fait passer pour des adultes afin de les basculer automatiquement en « comptes adolescents ».

La plupart des réseaux sociaux arguent toutefois que la responsabilité du contrôle ne devrait pas leur échoir, mais être confiée aux opérateurs téléphoniques ainsi qu’à Apple et à Google. Ce sont ces deux entreprises qui gèrent les magasins d’applications et sont plus à même, selon les grandes plateformes, de contrôler facilement l’âge des utilisateurs. »

Certains États américains ont également commencé à introduire des législations pour restreindre l’accès à certains sites, notamment pornographiques, aux mineurs, rappelait Le Monde. Les lois de l’Utah et du Texas sont particulièrement contraignante, rappelle la chercheuse Meg Leta Jones pour Tech Policy Press : elles demandent de vérifier l’âge de tous les utilisateurs et les classent en quatre catégories : enfant (moins de 13 ans), jeune adolescent (13-15 ans), adolescent plus âgé (16-17 ans) et adulte (18 ans et plus). « Les deux lois exigent des plateformes d’applications : (1) qu’elles vérifient l’âge des utilisateurs lors de leur inscription par des « méthodes commercialement raisonnables » (par exemple, pièce d’identité, carte de crédit, lecture biométrique), (2) qu’elles relient les comptes des enfants à ceux de leurs parents, (3) qu’elles obtiennent l’autorisation des parents avant que les enfants puissent télécharger des applications ou effectuer des achats, (4) qu’elles indiquent aux développeurs d’applications l’âge de chaque utilisateur et si les parents ont donné leur autorisation, (5) qu’elles informent les parents des modifications importantes apportées aux applications (comme une nouvelle collecte de données) et qu’elles obtiennent à nouveau leur autorisation, et (6) qu’elles transmettent les informations relatives à l’âge aux développeurs de manière sécurisée et chiffrée ». Des mesures qui devraient permettre à l’Etat de poursuivre ceux qui ne les mettraient pas en œuvre au motif de pratiques commerciales trompeuses en vertu de la loi sur la protection des consommateurs et aux parents de porter plainte directement contre les applications et les boutiques d’applications. 

La loi Californienne, elle, privilégie l’auto-déclaration de l’âge (sans vérification d’exactitude). « La Californie exige : (1) un écran simple lors de la configuration de l’appareil demandant aux utilisateurs de saisir leur âge ou leur date de naissance ; (2) que le système d’exploitation partage automatiquement cette information d’âge avec les applications lors de leur téléchargement ; et (3) que les boutiques d’applications obtiennent l’autorisation parentale avant que les enfants de moins de 16 ans puissent télécharger des applications ». Ces différences permettent de comprendre pourquoi Google a soutenu le projet Californien et s’oppose aux projets du Texas et de l’Utah, explique la chercheuse Meg Leta Jones. Au Texas, les géants du web s’opposent à une loi imposant la vérification d’âge sur les magasins d’application d’Apple et Google, au prétexte de la liberté. Facebook soutient pourtant l’obligation faite aux magasins d’applications de procéder aux vérifications d’âge, afin de ne pas avoir à le faire lui-même. Pornhub également. La loi sur la responsabilité des App Stores (App Store Accountability Act) en discussion au Congrès vise pourtant à étendre l’approche de l’Utah et du Texas, mais en plaçant son respect sous la responsabilité de la Commission fédérale du commerce afin d’éliminer les recours privés de parents contre des applications qui ne se conformeraient pas à la législation. Le projet de loi fédéral permettrait d’harmoniser les modalités de contrôle d’âge aux Etats-Unis, explique The Verge

Pour l’instant, la vérification d’âge avance donc en ordre dispersé et tente de faire peser des obligations à certains acteurs plus qu’à d’autres. Plutôt que d’être organisée dès l’achat d’appareil ou la création de comptes, elle a tendance à se propager partout, pour mieux exercer son carcan et éliminer ses failles – quand on pourrait peut-être chercher plutôt à faire progresser globalement les limites d’accès, plutôt que de les imposer partout et penser qu’elles doivent être sans failles. Enfin, la vérification d’âge ne vient pas seule, notamment aux Etats-Unis, où elle se raffine d’un droit de regard renforcé des parents sur les téléphones de leurs enfants, notamment avec le développement du contrôle parental.

Vers un nouvel internet : le contrôle identitaire et moral généralisé 

Pour Wired, nous franchissons une nouvelle étape dans l’ère d’un internet de plus en plus contrôlé, qui pourrait mettre fin à l’anonymat en ligne, comme l’explique Riana Pfefferkorn, chercheuse en politiques publiques à l’Université de Stanford. « Si les gens choisissent de ne pas se connecter [aux moteurs de recherche] pour éviter les contrôles d’âge, cela pourrait avoir un impact considérable sur les méthodes de recherche d’informations en ligne, rationalisées et intégrées », explique Lisa Given, professeure de sciences de l’information à l’Université RMIT en Australie. Pour Riana Pfefferkorn de Stanford : « En fin de compte, la technologie de vérification de l’âge présente un risque pour les enfants qu’elle est censée protéger. Elle entrave leur accès à l’information et peut les exposer à des risques de violation de la vie privée, d’usurpation d’identité et d’autres problèmes de sécurité. » Pour Emanuel Maiberg et Samantha Cole de 404media, les techniques de vérification d’âge s’apprêtent à « refondre en profondeur de l’infrastructure d’Internet ». Pornhub est pourtant, scandale après scandale, bien plus modéré qu’il n’a jamais été. Le risque que fait introduire la vérification d’âge est celui d’un développement de « sites qui ne tiennent aucun compte de la loi et où certains des contenus les plus nocifs disponibles en ligne leur sont activement proposés ». Au Texas, où Pornhub est désormais bloqué, c’est Xvideos qui s’impose désormais et d’autres sites hébergés dans des pays bien moins regardant, avec des contenus plus problématiques encore. Ce que proposent les lois de vérification d’âge, c’est de « ré-embrayer sur le piratage », estiment les journalistes de 404media, c’est-à-dire que le renforcement des règles risque surtout d’assombrir les pratiques faisant naître des galaxies de sites qu’il sera plus difficile de réguler, comme la lutte contre le piratage a contribué à l’exacerber. 

Dans le nouvel internet qu’introduit la vérification d’âge, l’enjeu n’est pas seulement qu’il va être pénible de devoir s’identifier partout en activant la vérification d’âge localement, mais bien plus qu’il n’y aura plus d’internet sans identification. Le mouvement, déjà largement amorcé partout par l’authentification généralisée ne va faire que se renforcer en tentant de réduire toujours plus les espaces de liberté. Au final, la vérification d’âge va surtout renforcer les grands acteurs, ceux seuls à même de développer ces technologies de contrôle

Reste à savoir si la vérification d’âge nous promet un internet plus sécurisé et plus sûr ? Cela risque d’être le cas pour les mineurs effectivement, qui partout autour du monde risquent d’avoir de moins en moins accès à internet et moins accès à l’information quelles que soient ses qualités. Mais, la vérification d’âge ne promet pas une amélioration de la protection pour tous, au contraire. Elle va surtout permettre d’ouvrir les vannes des machines pour tous les majeurs. Elle risque surtout de renforcer la modération pour les plus jeunes et de l’arrêter pour tous les autres. C’est ainsi qu’il faut lire les annonces d’OpenAI à permettre à ses chatbots de produire des contenus érotiques. C’est le sens qu’il faut d’ailleurs donner à un autre projet de loi américain, dénoncé par l’EFF, la loi GUARD, qui oblige à un contrôle d’âge qui s’imposerait à tous les chatbots d’IA destinés au public.Si l’accès aux chatbots va se fermer pour les mineurs, la crise des chatbots compagnons, elle, risque surtout de se résoudre par son accélération. 

Ce que promet la vérification d’âge, finalement, c’est un internet fermé aux enfants et aux adolescents et un internet beaucoup moins sûr pour tous les autres. Un peu comme si on concentrait la régulation sur le seul principe de l’âge et de la responsabilité individuelle. En fait, il est probable que ces lois renforcent encore le peu de prise qu’ont les utilisateurs sur les politiques de modération « unilatérales décidées par les plateformes », comme l’expliquait  le chercheur Tarleton Gillespie dans son livre, Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit – voir notre recension). 

Comme si tous les autres types d’intervention n’avaient pas d’importance. danah boyd ne disait pas autre chose : les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer. « Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites ». Nous mettons en place un solutionnisme techno-légal. « Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre ». Le risque enfin, c’est qu’au prétexte du contrôle, nous enterrions toutes les autres modalités politiques, allant de l’éducation à la conception des plateformes. Avec la vérification d’âge, on propose finalement aux géants de concentrer leur modération sur l’exclusion des mineurs, au détriment de toute autre politique

Hubert Guillaud

  • ✇Dans les algorithmes
  • Financer des médias sociaux publics
    On se souvient des invitations, il y a quelques années, du chercheur Ethan Zuckerman à développer des infrastructures publiques du numérique, comme des médias sociaux publics. C’est la piste que tente de rendre concrète la chercheuse Christine Galvagna dans une tribune pour Tech Policy Press. La loi européenne sur les services numériques ne parvient pas à neutraliser les menaces que les grandes entreprises de médias sociaux font peser sur la démocratie et les droits fondamentaux. Les lourdes ame
     

Financer des médias sociaux publics

1 décembre 2025 à 01:00

On se souvient des invitations, il y a quelques années, du chercheur Ethan Zuckerman à développer des infrastructures publiques du numérique, comme des médias sociaux publics. C’est la piste que tente de rendre concrète la chercheuse Christine Galvagna dans une tribune pour Tech Policy Press. La loi européenne sur les services numériques ne parvient pas à neutraliser les menaces que les grandes entreprises de médias sociaux font peser sur la démocratie et les droits fondamentaux. Les lourdes amendes infligées en cas de non-conformité sont trop souvent considérées comme un simple coût d’exploitation par des entreprises aux revenus colossaux et il est peu probable qu’elles modifient significativement leurs comportements. 

Les institutions européennes et les États membres ont commencé à financer le développement de logiciels libres, notamment pour favoriser l’émergence d’alternatives aux produits et services des géants du numérique. On peut citer, par exemple, l’initiative « Next Generation » de la Commission européenne et l’Agence allemande pour la souveraineté technologique (ou plus pragmatiquement encore, chez nous en France, la suite numérique portée par la Direction interministérielle du numérique (Dinum), alternative aux outils propriétaires de Google ou de Microsoft sous forme de suite d’outils numériques proposant messagerie, système de visioconférence, éditeur et tableur collaboratif, outils de transferts de fichiers… disponibles pour les agents de l’Etat). Dans certains cas mêmes, des financements publics soutiennent le développement de réseaux sociaux décentralisés comme Mastodon, qui peuvent servir d’alternatives aux réseaux commerciaux. Mais, les programmes de financement public n’apportent généralement pas le soutien financier nécessaire au développement et à la compétitivité des réseaux décentralisés, estime la chercheuse. Les aides restent modestes et ponctuelles. Une nouvelle approche du financement public est nécessaire. Elle doit permettre de favoriser un écosystème de réseau social décentralisé, dynamique et durable, capable d’attirer des utilisateurs issus des principales plateformes de médias sociaux. 

Une stratégie plus efficace consisterait à calquer le financement public des réseaux sociaux décentralisés sur celui des médias de service public. Ce financement, plus conséquent et stable, favoriserait une croissance durable. Conditionner ce financement à un engagement envers les valeurs du service public permettrait de garantir que les réseaux sociaux décentralisés protègent la démocratie, les droits fondamentaux et l’intérêt général sur le long terme. Le financement public doit également couvrir l’ensemble des activités et des fonctions nécessaires au succès d’un réseau social. Ces tâches comprennent le développement d’applications destinées aux utilisateurs et de leurs interfaces bien sûr, mais aussi les travaux techniques hors recherche et développement (comme la modération de contenu) et les activités non techniques telles que le marketing. Même les applications les plus sophistiquées échoueront si personne n’en a connaissance ou si elles sont truffées de bugs et de spams. 

De manière générale, le montant des financements publics disponibles doit être au moins comparable aux budgets des grandes entreprises de médias sociaux. Pour la chercheuse, ce devrait être au minima 2 milliards d’euros d’aides qui devraient être disponibles pour ces réseaux. C’est beaucoup d’argent, mais ces investissements ne constituent qu’une infime fraction des dépenses annuelles des pays européens consacrées aux médias de service public pour soutenir des écosystèmes informationnels sains. Et la chercheuse de promouvoir la création d’un Fonds européen de souveraineté technologique (FEST) au niveau de l’Union européenne, qui constituerait un point de départ soutenu par de nombreux experts et entreprises. OpenForum Europe a présenté plusieurs options juridiques permettant aux institutions européennes de mettre en place ce Fonds.

  • ✇Dans les algorithmes
  • Manipuler la synthèse de document
    Désormais, la personne la plus importante d’une réunion est devenue celle qui prend des notes, à savoir, bien souvent, l’IA. C’est elle qui attribue des actions et détermine l’importance des propos tenus. D’où l’enjeu à l’influencer , en s’exprimant davantage en fonction des critères de résumés et d’importance que l’IA va prendre en compte. D’où l’enjeu à adapter son langage afin qu’il soit plus susceptible d’être repris dans les résumés, par exemple en répétant les points clés ou en utilisant d
     

Manipuler la synthèse de document

28 novembre 2025 à 01:00

Désormais, la personne la plus importante d’une réunion est devenue celle qui prend des notes, à savoir, bien souvent, l’IA. C’est elle qui attribue des actions et détermine l’importance des propos tenus. D’où l’enjeu à l’influencer , en s’exprimant davantage en fonction des critères de résumés et d’importance que l’IA va prendre en compte. D’où l’enjeu à adapter son langage afin qu’il soit plus susceptible d’être repris dans les résumés, par exemple en répétant les points clés ou en utilisant des formules passe partout. C’est ce que, pour CSO Online, Gadi Evron, le PDG de Knowstic.ai, et Bruce Schneier appellent « l’optimisation pour la synthèse automatique par IA » (AISO).

Pour l’instant, l’efficacité et l’applicabilité de ces techniques restent largement expérimentales, mais certaines semblent assez bien fonctionner, comme le fait de citer des statistiques ou des chiffres, de citer des éléments ou des sources spécifiques. Des mots comme « le principal facteur » ou « le résultat clé » ou « actions à entreprendre » fonctionnent comme attracteurs. Les générateurs de résumés proposent souvent des sections telles que « Points clés » ou « actions à entreprendre », ce qui augmente la probabilité d’inclure un propos reprenant ces intitulés. En pratique, des expressions bien choisies servent de marqueurs implicites qui guident l’IA dans son choix. 

Les synthétiseurs ont également tendance à valoriser les déclarations au début ou à la fin des transcriptions, au détriment du milieu, expliquent les spécialistes en pointant vers plusieurs études soulignant ces problèmes. A terme, estiment-ils, les entreprises devront peut-être prévoir des contre-mesures techniques, mais il est probable aussi qu’apparaissent de nouveaux comportements sociaux humains pour y répondre. En attendant, la compréhension stratégique des ces systèmes pourrait bien devenir une compétence essentielle pour prendre la main sur la synthèse automatique et, derrière elle, sur les actions entérinées par les réunions. Via Algorithm Watch.

  • ✇Dans les algorithmes
  • Des marchands d’attention aux architectes de l’intention
    « Pendant plus d’un siècle, les marchands d’attention ont régné en maîtres [voir notre recension du livre éponyme de Tim Wu – NDE], du sensationnalisme au clickbait, des radios à sensation aux réseaux sociaux. Mais cet empire s’effondre. Les grands éditeurs ont perdu 50 % de leur trafic lorsque Google a opté pour les classements basés sur l’IA. Le secteur de la publicité numérique, qui pèse 685 milliards de dollars, est confronté à une crise existentielle : les assistants vocaux IA cessent de cl
     

Des marchands d’attention aux architectes de l’intention

27 novembre 2025 à 01:00

« Pendant plus d’un siècle, les marchands d’attention ont régné en maîtres [voir notre recension du livre éponyme de Tim Wu – NDE], du sensationnalisme au clickbait, des radios à sensation aux réseaux sociaux. Mais cet empire s’effondre. Les grands éditeurs ont perdu 50 % de leur trafic lorsque Google a opté pour les classements basés sur l’IA. Le secteur de la publicité numérique, qui pèse 685 milliards de dollars, est confronté à une crise existentielle : les assistants vocaux IA cessent de cliquer sur les publicités. Le SEO, cet art obscur qui a façonné deux décennies de contenu web, a commencé à se fissurer dès l’instant où les moteurs de recherche ont cessé de diriger les internautes vers les sites web », explique Shuwei Fang, directrice associée des programmes de l’Open Society Foundations, dans une tribune pour le Shorenstein Center de Harvard.

Construire le « graphe de la curiosité »

Pour elle, l’IA vise à produire un « graphe de la curiosité » des utilisateurs, qui n’est plus le graphe social des premiers réseaux sociaux ni le graphe des centres d’intérêts (ces étiquettes collés à nos profils en fonction de nos actions, comme l’expliquait Tim Hwang) permettant de cibler la publicité de la seconde génération des réseaux sociaux, mais la cartographie de l’évolution de vos centres d’intérêts au fil du temps. Vos incertitudes émergentes seraient commercialisées sous forme de produits dérivés, votre assistant IA pouvant potentiellement parier sur votre prochaine question. Nous voici en train d’entrer dans ce que certains baptisent « l’économie de l’intention », où « les systèmes d’IA collectent, commercialisent et manipulent potentiellement l’intention des utilisateurs ».  

Mais ce constat déjà inquiétant n’est que la partie émergée de l’iceberg, estime Shuwei Fang. Nous assistons à une restructuration fondamentale de la circulation de l’information dans la société [voir également notre article sur le remplacement du web par l’IA]. Dans cette économie de l’intention qui émerge, les systèmes d’IA pourraient rivaliser pour anticiper et façonner les recherches des utilisateurs avant même qu’ils n’en aient conscience. L’infrastructure en cours de construction, largement invisible pour la plupart d’entre nous, ne déterminera pas seulement ce que nous voyons, elle déterminera ce que nous voulons voir avant même que nous le sachions.

Pour comprendre comment l’intention remplace l’attention, il faut examiner l’inversion fondamentale qui s’opère dans le flux d’informations. Lorsqu’on pose une question à une IA aujourd’hui, elle dispose généralement d’énormément d’éléments de contexte pour élaborer sa réponse. Cela représente un changement structurel dans la circulation de l’information au sein de la société. Pour Shuwei Fang, nous entrons dans un monde « B2A2C », expliquait-elle pour SpliceMedia (voir la traduction sur Meta Media), c’est-à-dire un monde où les contenus suivent une nouvelle chaîne logistique, Business to Agent to Consumer (de l’entreprise à l’agent IA, puis au consommateur). Les contenus ne sont plus conçus pour seulement capter l’attention, mais doivent être également structurés pour être lisibles par les machines. « L’IA constitue à la fois un nouveau public et un nouvel intermédiaire » au risque que la « relation directe entre humains se réduise de manière drastique », notamment parce que « les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser ». Pour Fang, les humains dépendront d’interfaces de plus en plus complexes pour accéder à l’information pensée pour les machines et ceux qui produisent les contenus ne sont plus appelés à produire des histoires mais à saisir des données. « La couche de traduction Agent to consumer, où l’IA retranscrit l’information optimisée pour les machines à destination des humains, est le véritable lieu du basculement de pouvoir. Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains »

… ou y résister

Pour Fang, pour éviter cette capture, c’est-à-dire le fait d’être inféré, d’être nous-mêmes hallucinés, l’enjeu dès lors consiste à « construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer ». C’est-à-dire rendre cette traduction visible (à l’image des tableaux de bord qu’imaginait Fernanda Viegas, permettant de comprendre les facteurs qui façonnent le contenu que les utilisateurs reçoivent des réponses des modèles d’IA générative), créer des structures de gouvernance permettant aux individus de moduler leur propre accès au sens, concevoir des dispositifs permettant de montrer quels schémas conduisent à telle ou telle conclusion et surtout garantir la coexistence de multiples options de traduction. Cela passe par exemple par le développement d’outils capables de garantir la provenance et l’intégrité des contenus, comme les travaux de Truepic ou de la Content authenticity Initiative. Ou encore en intégrant de l’IA dans des plateformes hyperlocales, capables de produire de l’information où le contexte reste sous la surveillance des communautés locales ou thématiques. Cela pourrait passer par des interfaces de traduction capables d’établir une relation durable avec les utilisateurs finaux, comme quand Perplexity affiche ses sources et ses chaînes de raisonnement ou par des outils qui favorisent la compréhension plus que l’engagement, comme l’esquissait Anthropic avec Consitutional AI, où les utilisateurs ajusteraient eux-mêmes les valeurs et priorités des couches de traduction qu’ils mobilisent. 

Ce qui est sûr, estime Fang, c’est que, contrairement à l’ère des plateformes, l’information est en passe de devenir la matière première des machines plus que des humains. Google organisait les liens vers des pages que les humains lisaient. Facebook mettait en avant les publications de votre réseau. Ces plateformes avaient une influence algorithmique, mais pas de pouvoir d’action ; elles ne pouvaient pas créer de contenu, seulement classer celui existant. 

Les systèmes d’IA ont un pouvoir d’action fonctionnel : ils transforment les sources d’information en des formes entièrement nouvelles. Cette information n’est plus statique ni permanente. Elle devient « liquide », constamment reformée en fonction de la personne qui pose la question et de la manière dont elle la pose. Ils ne se contentent pas de sélectionner des options ; ils génèrent de nouvelles réalités. « Lorsqu’une IA synthétise une réponse, elle ne vous oriente pas vers une information, elle crée une information qui n’a jamais existé sous cette forme précise auparavant. Chaque réponse est spécifique à une intention, façonnée non pas par ce qui existe, mais par ce que vous cherchez à savoir », selon ce que la machine en calcule 

« Cette intermédiation par les machines ne modifie pas seulement la physique des flux d’information ; elle réécrit fondamentalement l’économie de l’information », explique Fang. « Lorsque la synthèse devient la principale valeur ajoutée, la création de contenu se banalise tandis que le contrôle de l’interprétation prend de la valeur ». Dès lors qu’une ressource devient librement copiable ou génératrice, sa valeur ne disparaît pas ; elle migre vers ceux qui contrôlent sa distribution et sa synthèse. « On passe ainsi d’un modèle économique de stock à un modèle de flux. Lorsque la musique pouvait être copiée à l’infini et gratuitement, Spotify s’est approprié la valeur en contrôlant l’accès. La réplication de logiciels étant gratuite, le logiciel en tant que service (SaaS) a capté la valeur en contrôlant les mises à jour et l’intégration. L’information a atteint le même point d’inflexion. Lorsque l’IA peut générer un contenu infini à coût marginal nul et lorsque les machines, et non les humains, sont les principaux consommateurs de ce contenu, la valeur ne réside plus dans le contenu lui-même. Elle migre vers l’infrastructure qui contrôle la synthèse : la manière dont l’IA trouve, traite, interprète et diffuse l’information aux humains »

Dans ce nouveau paradigme économique, tout contenu numérisé devient inévitablement la matière première des infrastructures. La récente vague d’accords entre entreprises d’IA et éditeurs de presse illustre parfaitement cette dynamique. « Il ne s’agit pas simplement de licences de contenu ; ce sont, en fin de compte, des opérations d’infrastructure. Les entreprises d’IA n’achètent pas seulement du contenu ou des données d’entraînement ; elles acquièrent le droit de devenir les canaux légitimes par lesquels transite toute l’information »

Cette infrastructure de l’intention est déjà en train de se réaliser, explique Fang. Des entreprises comme Pinecone ou Databricks sont en train de construire la couche de recherche qui permet à l’IA de trouver l’information. Tollbit est en train de construire un système de paiement pour le contenu consommé par l’IA, permettant de construire une couche d’attribution permettant de suivre les contributeurs et les rémunérations. Une couche de synthèse contrôle la combinaison des informations, à l’image de LangChain ou du protocole MCP d’Anthropic. Enfin, la couche transactionnelle permet les paiements de machine à machine : Google a récemment annoncé le protocole APP (Agent Payments Protocol), tandis que des solutions crypto promettent une monnaie programmable pour les transactions entre agents. 

Mais d’autres couches s’annoncent encore. « Lorsque la mémoire de l’IA deviendra persistante, elle permettra de stocker les préférences des utilisateurs à long terme, et votre « graphe de curiosité » pourrait devenir un actif à la fois malléable et échangeable. Aujourd’hui, les entreprises enchérissent sur les mots-clés que vous avez déjà recherchés. Dans un avenir proche, elles pourraient enchérir pour influencer vos prochaines recherches. Le mécanisme d’enchères publicitaires ne consistera plus à « montrer cette publicité à une personne qui cherche des chaussures », mais à « susciter la curiosité de cette personne pour les chaussures haut de gamme durables avant même qu’elle ne réalise avoir besoin de nouvelles chaussures ». La valeur résidera dans le fait même de susciter cette curiosité. Lorsque l’IA pourra prédire et influencer les désirs avant qu’ils ne se forment, la publicité elle-même pourrait passer de la persuasion à l’anticipation »

Façonner le désir ?

« De même que les cookies tiers ont engendré toute une économie de données comportementales, les profils de curiosité pourraient être commercialisés et faire l’objet de produits dérivés », s’emballe Fang. « Imaginez des marchés à terme sur les sujets qui intéresseront les personnes fortunées au prochain trimestre, des options sur votre parcours intellectuel, des marchés d’échanges basés sur la corrélation entre vos centres d’intérêt et vos habitudes d’achat. Lorsque les marchés prédictifs synthétisent l’intelligence collective à grande échelle, ils ne se contentent pas de prévoir les événements ; ils peuvent générer des microprofits en anticipant les intentions. Chaque requête devient un pari. Votre assistant IA pourrait littéralement spéculer et potentiellement tirer profit de votre prochaine question, créant ainsi de la liquidité à partir de l’incertitude elle-même. L’écart entre ce que vous pensez vouloir savoir et ce dont vous avez réellement besoin pourrait devenir une inefficience exploitable. Alors, la mémoire et l’intention pourraient donner naissance à quelque chose d’indéfini. Des produits dérivés émotionnels ? Des obligations de curiosité ? ». Certes. Reste que ce monde d’inférences risque surtout d’être assez indifférent à la vérité, ou de pousser les gens vers l’optimisation des prédictions des machines, orientant leurs propos pour vous amener vers les questions qu’elles ont intérêts à produire, par exemple pour maximiser les profits liés à certains mots clés publicitaires sur d’autres. C’est oublier que les systèmes conçus à des fins commerciales ne sont généralement pas destinés à remettre en question vos idées, seulement vous fidéliser.

Shuwei Fang a pourtant raison de s’inquiéter. « Dans ce monde, la vérité de fond, la recherche de la vérité et les mécanismes d’autocorrection de l’information sont plus importants que jamais ». Les journalistes qui conçoivent des systèmes de vérification de nouvelle génération, les spécialistes des technologies civiques qui créent des outils de transparence, les chercheurs qui développent des protocoles de vérification des faits basés sur l’IA, ont tout à fait raison dans leurs convictions. Ce travail est essentiel. Mais il ne suffit pas. L’infrastructure de l’intention façonnera ce qui, au final, parvient aux humains et la manière dont les récits sont synthétisés. « Nous devons commencer à réfléchir à la manière de façonner le prochain écosystème informationnel afin qu’il serve, plutôt qu’il ne compromette, la connaissance et la compréhension humaines ». Mais peut-il encore y avoir une démocratie dans l’économie de l’intention ? 

« L’inversion informationnelle émergente signifie que lorsque nous aurons réponse à tout, la curiosité deviendra la dernière rareté ». Dans ce monde, influencer les questions des citoyens pourrait être plus efficace que de contrôler leurs lectures. Les mêmes techniques utilisées par les annonceurs pour anticiper les intentions des consommateurs pourraient déterminer le débat démocratique, et le clore. Un peu comme si les sondages étaient le vote et que ces sondages étaient réalisés sur des profils synthétiques pour finalement se passer de nos opinions. 

Reste, estime Fang, que l’infrastructure de curiosité est déjà en train d’être façonnée. Les systèmes capables d’orienter nos demandes sont en train d’être construits. Sans intervention, la technologie qui pourrait aider les citoyens à s’orienter dans la complexité ne fera que confirmer les préjugés. Et la chercheuse d’en appeler à construire des alternatives, avant que les infrastructures soient en place

« Contrairement aux précédents bouleversements qui ont pris la démocratie au dépourvu (la consolidation des radios, la commercialisation de la télévision, la polarisation des réseaux sociaux), nous pourrions cette fois-ci être avertis ». Pas sûr que cette alerte suffise, hélas, pour éviter les dérives qui nous y conduisent.

  • ✇Dans les algorithmes
  • IA et emploi : de quoi l’IA est-elle responsable ? 
    Sur son site, Brian Merchant continue de creuser la question du rapport IA et emploi. Il nous avait expliqué, il y a peu, que la crise de l’emploi liée à l’IA ne consiste pas à remplacer des hommes par des programmes, mais consiste en une crise de réduction des coûts de main-d’œuvre, une forme d’attrition structurelle. Aux Etats-Unis, les plans de licenciements dans les entreprises de la tech se succèdent. 153 000 emplois ont été supprimés en octobre 2025 : un record depuis 2003. Et l’année 2025
     

IA et emploi : de quoi l’IA est-elle responsable ? 

26 novembre 2025 à 01:00

Sur son site, Brian Merchant continue de creuser la question du rapport IA et emploi. Il nous avait expliqué, il y a peu, que la crise de l’emploi liée à l’IA ne consiste pas à remplacer des hommes par des programmes, mais consiste en une crise de réduction des coûts de main-d’œuvre, une forme d’attrition structurelle. Aux Etats-Unis, les plans de licenciements dans les entreprises de la tech se succèdent. 153 000 emplois ont été supprimés en octobre 2025 : un record depuis 2003. Et l’année 2025 a déjà battu le record de suppressions d’emploi de 2020, année de la pandémie. Toutes ces suppressions ne sont pas liées à l’IA seulement, mais celle-ci est souvent un des facteurs avancés pour la restructuration.

La réorganisation annoncée chez Amazon qui a communiqué sur la suppression de 30 000 emplois a été contestée par les employés. « Tous mes collègues affirment que l’IA qu’on les a obligés à utiliser n’a pas augmenté leur productivité de manière significative », critique un ingénieur d’Amazon. Pour Merchant, l’IA ne vient pas remplacer le travail, mais sa menace permet de créer une justification logique et idéologique permettant de réduire les coûts pour optimiser les profits. « L’ IA est une justification extrêmement convaincante », tant et si bien qu’on parle déjà d’AI-Washing, c’est-à-dire d’une pratique où, alors que les investissements dans l’IA augmentent, et que les ventes se tassent, les entreprises réduisent les coûts ailleurs, et d’abord sur la masse salariale. « Si Amazon licencie 30 000 employés parce que sa technologie est si avancée que ses systèmes d’IA peuvent parfaitement les remplacer, les investisseurs seront bien plus satisfaits que si Amazon réduit ses coûts parce qu’elle s’endette excessivement pour l’expansion de ses centres de données ou qu’elle s’inquiète de ses résultats ». Le narratif de l’IA semble finalement un outil plus puissant encore que l’IA elle-même. 

Reste qu’il se passe bien quelque chose sur le marché de l’emploi américain, constate Merchant, mais il est difficile de démêler quoi, notamment parce que le bureau des statistiques du travail est empêché de faire son travail par l’administration Trump. Quelques tendances se dégagent néanmoins. La première, c’est que le nombre d’emplois disponibles pour les jeunes diplômés diminue. Une étude de Stanford, dirigée par Erik Brynjolfsson,  explique que l’emploi en début de carrière pour les travailleurs américains âgés de 22 à 25 ans, dans des « professions exposées à l’IA générative », a chuté de 13 % dans des secteurs clés depuis 2022, date précise de l’arrivée de cette technologie sur le marché. Mais cette chute pourrait être liée à une plus grande externalisation plus que par un remplacement par l’IA. 

Henley Chiu fondateur de Revealera a conçu un programme pour analyser 180 millions d’offres d’emploi dans le monde, afin de déterminer les secteurs ayant connu une baisse ou une croissance. Chiu constate tout d’abord une baisse de 8 % des offres d’emploi dans le monde, d’une année sur l’autre, mais qui tiennent certainement de bien des facteurs contextuels, sans qu’on puisse les attribuer à l’IA. Ensuite, Chiu détaille les offres d’emploi dans le monde qui ont le plus fortement diminué ces deux dernières années. « Surprise : ce sont les emplois créatifs, ainsi que les postes liés au développement durable et à la conformité, qui arrivent en tête ». Parmi les 10 métiers en plus forte baisse, 3 sont des postes créatifs : infographistes (-33 %), photographes (-28 %) et rédacteurs (-28 %). 

Il y a de réelles raisons de penser que les emplois d’infographiste, de photographe et de rédacteur sont impactés par l’IA et que les entreprises publient moins d’offres du fait du développement des outils d’IA et de sa concurrence. Quant aux postes liés au développement durable ou à la conformité, Merchant pointe la suppression massive des réglementations aux États-Unis.

La baisse dans les offres d’embauches des métiers créatifs n’est pas qu’un accident, mais se poursuit depuis 2 ans. « Chiu souligne également que si les offres d’emploi pour les rédacteurs, les artistes et les créatifs ont diminué, celles pour les directeurs artistiques ont augmenté. C’est précisément ce à quoi on pouvait s’attendre avec l’adoption de l’IA par les directions : moins de personnes créant réellement le travail et davantage de personnes occupant des postes de direction supervisant la production automatisée ». Pour Henley Chiu, « l’impact de l’IA est sélectif. Elle affecte durement certains emplois créatifs. » Pour Merchant, « les patrons utilisent l’IA comme ils ont utilisé les technologies d’automatisation depuis la révolution industrielle : pour tirer le maximum de profit des travailleurs et profiter de la profonde incertitude qui entoure l’étendue réelle de sa puissance et de son utilité ».

Sur Wired, Will Knight évoque un nouveau benchmark de l’IA, lancé par Scale AI, le Centre pour la sécurité de l’IA (CAIS) : le Remote labor index, qui vise à mesurer la capacité des modèles à automatiser certaines tâches spécifiques issues d’exemples réels (comme la conception graphique, le montage vidéo, le développement de jeux ou des tâches administratives telles que l’extraction de données). Les conclusions sont sans appel : les agents d’IA les plus performants n’obtiennent quasiment aucun résultat : « les systèmes d’IA actuels ne parviennent pas à réaliser la grande majorité des projets avec un niveau de qualité acceptable pour un travail commandé ». Un résultat qui vient contrebalancer un benchmark équivalent lancé en septembre par OpenAI, qui était lui, bien plus optimiste, puisqu’il affirmait que les modèles d’IA de pointe atteignaient des performances proches de celles des humains dans 220 tâches couvrant un large éventail d’emplois de bureau.

  • ✇Dans les algorithmes
  • « La machine met la pression toute seule » : comment le numérique rend le travail coercitif
    Le journaliste indépendant Clément Pouré, dont on a lu bien des articles sur sur Mediapart, notamment… signe Les nouveaux contremaîtres : enquête sur la surveillance au travail à l’heure de l’IA (Equateurs, 2025).  Dans DLA, nous avons souvent documenté l’enjeu de surveillance que produit le développement du numérique sur le travail : son emprise coercitive qui vient contraindre les activités et augmenter les cadences. Clément Pouré prolonge ce regard depuis une enquête qui mêle terrain et pr
     

« La machine met la pression toute seule » : comment le numérique rend le travail coercitif

25 novembre 2025 à 01:00

Le journaliste indépendant Clément Pouré, dont on a lu bien des articles sur sur Mediapart, notamment… signe Les nouveaux contremaîtres : enquête sur la surveillance au travail à l’heure de l’IA (Equateurs, 2025). 

Dans DLA, nous avons souvent documenté l’enjeu de surveillance que produit le développement du numérique sur le travail : son emprise coercitive qui vient contraindre les activités et augmenter les cadences. Clément Pouré prolonge ce regard depuis une enquête qui mêle terrain et prise de distance. Son livre donne la part belle aux témoignages de personnes confrontées à la réalité du contrôle au travail. Pouré tente de nous montrer, partout où elle a lieu et comment elle procède. Du minutage du temps de réalisation des Big Mac au minutage des durées d’intervention des réparateurs ou des employés des centres d’appels, de la surveillance des activités des développeurs sur Github au contrôle des employés en télétravail… Partout, les machines resserrent leur emprise sur les travailleurs. Partout, la même logique est à l’œuvre. 

En évoquant, les difficultés des conditions de travail dans la logistique (voir notre article, « L’ogre logistique »), le sociologue David Gaborieau y distingue le contrôle de la surveillance. Le contrôle prescrit et organise le travail, impose des modalités normées, quand la surveillance, elle observe la productivité et le comportement des travailleurs. Dans certains secteurs, comme la logistique, « le contrôle est tellement fort que la surveillance est plutôt rare », rappelle-t-il. « La machine met la pression toute seule », témoigne un salarié de McDo : chaque sandwich doit sortir en 300 secondes. Là où le contrôle est difficile, parce que les gestes pour réaliser le travail sont peu scriptés, la surveillance prend le relais et inversement. Et leur développement s’entremêle pour laisser de moins en moins de marge de manœuvre à tous. 

Les progiciels de travail sont désormais partout. Rares sont les secteurs qui y échappent. Le développement des systèmes de contrôle au travail dévalorise le travail et dégrade les conditions de travail, comme le soulignait le sociologue Juan Sebastian Carbonell dans son récent livre. Ils servent à enlever du pouvoir aux employés qualifiés pour le donner aux ingénieurs, à ceux qui programment machines et logiciels, moins nombreux et plus dociles. L’automatisation permet surtout de « reléguer la prise de décision à des systèmes, et avec eux aux cadres, transformant les employés en simples exécutants ». Avec eux, bien souvent, les employés deviennent plus facilement remplaçables, les rémunérations moins élevées et les horaires plus irréguliers. Les systèmes imposent les cadences au détriment de la santé. Qu’importe si la course à la productivité pèse d’abord sur les cotisations sociales de chacun, puisque les corps abîmés sont bien plus pris en charge par la société que par les entreprises. Qu’importe si cela se fait au coût d’un turnover conséquent. Les objectifs de productivité sont individualisés. Les productions comme les ventes sont mesurées à l’heure, pour chacun. Tout l’enjeu est désormais de régler la machine pour optimiser la productivité, ajuster les indicateurs… « sans que ça explose »

Dans nombre d’entreprises, raconte Pouré, les choses se dégradent souvent par l’introduction de la surveillance. On commence par introduire des badges et des caméras. La défiance s’installe toujours au prétexte d’améliorer la sécurité. Pourtant, comme le rappellent nombre de scandales liés à la vidéosurveillance en entreprise, « le management essaie régulièrement de détourner les caméras pour s’en servir contre les salariés », comme ce fut le cas chez Basic-Fit. « Aucune enquête sérieuse ne s’intéresse à l’utilisation concrète des caméras de surveillance au travail », rappelle celui qui a beaucoup enquêté sur le sujet. Pourtant, elles sont extrêmement mobilisées pour surveiller les salariés, comme dans le monde de la coiffure ou dans les salles d’escalades

En caisse, les codes-barres permettent de passer à des cadences industrielles. Là encore, dans la grande distribution, on mesure le nombre d’articles scannés à la minute (29 à 32). Là aussi le turnover est fort. Dans les données, la complexité du travail est simplifiée. Tout ce qui n’est pas rentable disparaît, même si cela permet de fidéliser la clientèle, l’image de marque ou des revenus à long terme. 

De l’autre côté du spectre, les entreprises qui font parler les données des points de vente ou de la production se portent bien. Elles raffinent les données, les analysent pour trouver des optimisations nouvelles. La performance de chaque employé est observée à la loupe. Les employés sont comparés entre eux quels que soient les secteurs où ils travaillent. Partout, leur nombre est optimisé aux objectifs productifs du site, de plus en plus finement. 

Dans les centres d’appels de Téléperformance, les employés qui restent changent de postes et de sites pour éviter qu’ils ne puissent s’organiser – quand ils ne sont pas transformés en simple télétravailleurs pour être plus isolés encore. Les erreurs et les problèmes sont listés. Les employés doivent en rendre compte selon des entretiens tout aussi codifiés que les procédures de travail. Ici, tout est sous contrôle, comme le disait le journaliste dans son enquête pour Mediapart. Et ces logiciels ne surveillent pas seulement les ouvriers, leurs regards s’étendent de plus en plus aux cadres, comme c’est le cas des développeurs, monitorés à la ligne de code sur GitHub. 

Bien des indicateurs finissent par être écrasants, ne parvenant à mesurer que ce qu’ils mesurent. On compte le nombre d’interventions, pas leur complexité. On compte la rentabilité, pas l’expérience nécessaire pour y parvenir. 

Le pouvoir est un script disaient Hadjadji et Tesquet. Clément Pouré en montre les réalités. Il nous montre la réalité du bossware, en descendant dans les logiciels développés par Hubstaff, Time Doctor, FlexiSPy, CleverControl… capables de montrer l’activité d’un employé sur son ordinateur dans le plus total détail. Celle-ci s’étend très souvent aux réseaux sociaux où les propos des employés sont de plus en plus évoqués dans des entretiens préalables au licenciement. D’un outil l’autre, la plateformisation du travail progresse. Et l’IA ne va rien améliorer. « Les biais, au fond, n’existent pas. Les discriminations relèvent du fonctionnement naturel de l’IA », constate, désabusé, le journaliste. Dans la banque, les conseillers n’ont plus comme fonction que de valider des contenus standardisés et sont de plus en plus dédiés à des objectifs commerciaux. Leur travail consiste à passer un certain nombre d’appels par jours et à répondre à encore plus de mails. L’efficacité est mesurée, qu’importe les difficultés des clients… Dans certaines banques, le nombre de conseillers n’est que de quelques milliers pour gérer des millions de clients. 

Derrière la manière dont les nouveaux contremaîtres numériques s’en prennent aux employés, il faut saisir que ces contremaîtres eux-mêmes sont une ligne une ligne budgétaire à optimiser. Comme on l’a vu dans le service client ou dans la modération chez Meta. Le travail est en passe de devenir partout une optimisation à flux tendu, sans aucune marge de manœuvre. 

La comptabilité a pris le pouvoir, la machine à profit tourne pour elle-même. Les conséquences concrètes, elles, n’entrent plus en ligne de compte. « Le numérique commande, le numérique surveille, le numérique punit », nous disait déjà Karen Levy. Clément Pouré nous montre que ce numérique là est en passe de s’immiscer partout dans le monde du travail, sans échappatoire.  

Hubert Guillaud

La couverture du livre de Clément Pouré.
  • ✇Dans les algorithmes
  • Le piège des newsletters payantes se referme
    Jason Koebler, rédacteur en chef de 404media s’inquiète de « l’Ai-fication de l’email ». Le média indépendant qui a construit un paywall sur ses contenus, s’est transformé en newsletter payante, passant de 3 000 à 11 000 abonnés payants. Mais, avec le développement de l’IA partout, les outils de webmails pourraient se mettre à résumer automatiquement les newsletters, conduisant les lecteurs à ne plus les ouvrir, expliquait-t-il dans un récent débat.   Cette transformation des conditions écono
     

Le piège des newsletters payantes se referme

24 novembre 2025 à 01:00

Jason Koebler, rédacteur en chef de 404media s’inquiète de « l’Ai-fication de l’email ». Le média indépendant qui a construit un paywall sur ses contenus, s’est transformé en newsletter payante, passant de 3 000 à 11 000 abonnés payants. Mais, avec le développement de l’IA partout, les outils de webmails pourraient se mettre à résumer automatiquement les newsletters, conduisant les lecteurs à ne plus les ouvrir, expliquait-t-il dans un récent débat.  

Cette transformation des conditions économiques de l’information, dont nous nous inquiétions nous-mêmes, est très concrète, explique le journaliste David-Julien Rahmil pour l’ADN. La plateforme de newsletter, Substack semble avoir passé le pic des abonnements payants, avec près de 5 millions d’abonnés pour quelques 75000 newsletters payantes actives. Il est désormais plus difficile pour les nouveaux venus de conquérir un public et surtout, « seuls 17 000 comptes parviennent à générer des revenus, et pour la majorité d’entre eux, il ne s’agit que de quelques centaines de dollars par mois ».

Ce « journalisme de mécénat » conduit non seulement à l’individualisation et à la précarisation des journalistes, mais pire, il les soumet aux tendances du marché qu’orientent les plateformes. Et non des moindres, puisque la journaliste Ana Marie Cox observe que de nombreux journalistes esseulés ont tendance à tenir des propos de plus en plus à droite pour satisfaire aux lecteurs les plus à même de payer. Elle estime que cette dépendance aux plateformes force les journalistes à se conformer au marché, dans une forme de clientélisme incompatible avec le métier.

  • ✇Dans les algorithmes
  • ChatFishing, hameçonnage par l’IA
    Votre nouveau crush sur Tinder vous pose des questions stimulantes et vous discutez avec lui jusqu’au bout de la nuit ? Et lorsque vous le rencontrez, c’est la douche froide, il ne dit pas un mot. Pas de doute, vous avez été chatfishée !
     
  • ✇Dans les algorithmes
  • Mais où sont les faux négatifs de la reconnaissance faciale ?
    Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérime
     

Mais où sont les faux négatifs de la reconnaissance faciale ?

21 novembre 2025 à 01:00

Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.

  • ✇Dans les algorithmes
  • Meta : de l’IA publicitaire à la fraude publicitaire
    « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », déclarait Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise (voir notre article, « L’IA, un nouvel internet… sans condition »). Nous y sommes, explique Jason Koebler pour 404media en mo
     

Meta : de l’IA publicitaire à la fraude publicitaire

20 novembre 2025 à 01:00

« Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », déclarait Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise (voir notre article, « L’IA, un nouvel internet… sans condition »). Nous y sommes, explique Jason Koebler pour 404media en montrant l’usage de l’IA générative par Ticketmaster pour personnaliser ses campagnes publicitaires, où l’IA est utilisée à la fois pour le ciblage et la génération des publicités. « Moins d’argent investi dans la création signifie plus de budget publicitaire et donc une plus grande variété de publicités », rappelle Koebler. « Les entreprises peuvent ainsi inonder les réseaux sociaux de millions de variantes de publicités IA faciles à créer, investir leur budget publicitaire dans les versions les plus performantes et laisser les algorithmes de ciblage faire le reste. Dans ce cas précis, l’IA est une stratégie de mise à l’échelle. Inutile de consacrer des sommes considérables en temps, en argent et en ressources humaines à peaufiner les textes publicitaires et à concevoir des publicités pertinentes, astucieuses, drôles, charmantes ou accrocheuses. Il suffit de publier des tonnes de versions bâclées, et la plupart des gens ne verront que celles qui fonctionnent bien ».

Un rapport de Reuters, vient de révéler que « 10 % du chiffre d’affaires brut de Meta provient de publicités pour des produits frauduleux et des arnaques ». « 15 milliards de publicités frauduleuses sont diffusées chaque jour, générant 7 milliards de dollars de revenus par an ». Mais, plutôt que refuser ces publicités frauduleuses, Meta ne ferme pas les comptes qui les proposent et leur inflige des frais supplémentaires, les rendant plus rentables encore qu’elles ne sont. Un tiers des arnaques aux États-Unis transiteraient par Facebook (au Royaume-Uni, ce chiffre atteindrait 54 % des pertes liées aux arnaques aux paiements). Si Meta a mis en place des mesures pour réduire la fraude sur sa plateforme, l’entreprise estime que le montant maximal des amendes qu’elle devra finalement payer dans le monde s’élèvera à 1 milliard de dollars, alors qu’elle en encaisse 7… On comprend que Meta ne soit pas incité à la diligence, comme l’explique très clairement une note interne citée par Reuters, ironise Cory Doctorow. Mais surtout, on y apprend que l’équipe antifraude est tributaire d’un quota interne : « elle n’est autorisée à prendre que des mesures susceptibles de réduire les revenus publicitaires de 0,15 % (soit 135 millions de dollars) ». Les services de modération ou de lutte contre la fraude ressemblent désormais aux services clients qu’on évoquait récemment : une ligne budgétaire avec des objectifs et des contraintes !

Pire, explique encore Doctorow dans sa lecture de Reuters : alors que les équipes de sécurité recevaient environ 10 000 signalements de fraudes valides par semaine, celles-ci, en ignoraient ou en rejetaient à tort 96 %. Le problème, c’est que lorsque Meta classe un signalement sans suite ou refuse de corriger des signalements de fraudes valides, non seulement les utilisateurs perdent beaucoup, mais l’usurpation d’identité permet également de faire les poches des relations des victimes en leur extorquant de l’argent, voire beaucoup d’argent.

Meta qualifie ce type d’escroquerie, où les escrocs usurpent l’identité d’utilisateurs, d’« organique », la distinguant ainsi des publicités frauduleuses, où les escrocs paient pour atteindre leurs victimes potentielles. Meta estime héberger 22 milliards de messages frauduleux « organiques » par jour. Ces escroqueries organiques sont en réalité souvent autorisées par les conditions d’utilisation de Meta : lorsque la police de Singapour a porté plainte auprès de Meta concernant 146 publications frauduleuses, l’entreprise a conclu que seulement 23 % d’entre elles violaient ses conditions d’utilisation. Les autres étaient toutes autorisées. Ces fraudes tolérées incluaient des offres alléchantes promettant des réductions de 80 % sur de grandes marques de mode, des offres de faux billets de concert et de fausses offres d’emploi – le tout autorisé par les propres politiques de Meta. Des notes internes consultées par Reuters révèlent que les équipes antifraude de Meta étaient de plus en plus exaspérées de constater que ces escroqueries n’étaient pas interdites sur la plateforme. Un employé de Meta l’a même écrit a sa direction en dénonçant des escroqueries visibles : « Les politiques actuelles ne permettraient pas de signaler ce compte ! » Mais même si un fraudeur enfreint les conditions d’utilisation de Meta, l’entreprise reste inactive. Selon les propres politiques de Meta, un « Compte à forte valeur ajoutée » (un compte dépensant des sommes importantes en publicités frauduleuses) doit accumuler plus de 500 « avertissements » (c’est-à-dire des violations avérées des politiques de Meta) avant d’être suspendu. Reuters a constaté que 40 % des escrocs les plus notoires étaient toujours actifs sur la plateforme six mois après avoir été signalés comme les fraudeurs les plus prolifiques de l’entreprise. 

Ce mépris flagrant pour les utilisateurs de Meta n’est pas dû à une nouvelle tendance sadique de la part de la direction. Comme le démontre en détail le livre de Sarah Wynn-Williams, Careless People (Flatiron Books, 2025 ; Des gens peu recommandables, Buchet-Chastel, 2025), l’entreprise a toujours été dirigée par des individus sans scrupules. Ce qui a changé en quelques années, assène Doctorow, c’est qu’ils ont assimilé qu’ils pouvaient gagner de l’argent en vous escroquant. 

Oui, réduire la fraude a un coût ! « Tant que nous aurons un environnement législatif si complaisant qui ne leur inflige qu’un milliard de dollars d’amende alors qu’ils en ont engrangé 7 sur nos malheurs », nous n’irons pas très loin.

  • ✇Dans les algorithmes
  • Sur la piste des algorithmes… l’opacité est toujours la règle
    L’Observatoire des algorithmes publics a mis à jour son inventaire, portant de 70 à 120 son répertoire d’algorithmes utilisés dans le secteur public. Les constats établis l’année dernière, au lancement de l’initiative, demeurent les mêmes : l’opacité administrative reste persistante ; les évaluations des systèmes et les informations budgétaires lacunaires. Et si l’IA fait son entrée dans l’administration, là aussi, l’information est bien souvent inexistante.  Signalons que depuis septembre, l
     

Sur la piste des algorithmes… l’opacité est toujours la règle

19 novembre 2025 à 01:00

L’Observatoire des algorithmes publics a mis à jour son inventaire, portant de 70 à 120 son répertoire d’algorithmes utilisés dans le secteur public. Les constats établis l’année dernière, au lancement de l’initiative, demeurent les mêmes : l’opacité administrative reste persistante ; les évaluations des systèmes et les informations budgétaires lacunaires. Et si l’IA fait son entrée dans l’administration, là aussi, l’information est bien souvent inexistante. 

Signalons que depuis septembre, l’Odap a également publié de nombreux entretiens avec des chercheurs sur ces enjeux. Tous ces entretiens, « sur la piste des algorithmes », méritent largement une lecture. 

On recommandera notamment celui avec la sociologue Claire Vivès sur le contrôle à France Travail qui pointe trois outils algorithmiques développés à France Travail : un outil de pour déterminer les contrôles des bénéficiaires, un autre pour déterminer si les bénéficiaires recherchent activement un travail et un outil d’aide à la détermination de la sanction en cas de manquements dans la recherche d’emploi. « En 2023, plus de la moitié des contrôles ont ciblé des demandeur·ses d’emploi inscrit·es dans des métiers dits en tension. Ce ciblage pose des questions d’équité territoriale et sociale. » Mais là encore, les caractéristiques de ces outils demeurent opaques aux usagers comme aux agents, et plus encore aux citoyens puisque leurs fonctionnement ne sont pas documentés. A l’heure où le Sénat vient de proposer de nouvelles mesures de surveillance des bénéficiaires, comme d’accéder à leurs relevés téléphoniques, révèle L’Humanité, la surveillance coercitive des allocataires avance bien plus vite que la transparence de l’action administrative. 

La sociologue souligne combien ces outils ont du mal à s’inscrire dans les activités des agents et surtout que ces dispositifs viennent souvent alourdir leur activité plutôt qu’en réduire la charge. « Les réformes sont pensées à distance, sans prise en compte réelle du travail fait sur le terrain. Les algorithmes ne font qu’ajouter une couche à ce problème, en accentuant ce sentiment de perte de sens, parfois même de mépris ou au moins d’ignorance de leur expertise de la part des décideur·ses. Dans ce contexte, on peut se demander si l’acceptation des algorithmes, quand elle existe, ne tient pas surtout à une forme de résignation. » 

« L’une des principales difficultés de notre enquête tient en réalité à une opacité structurelle de l’administration, qui dépasse largement la question algorithmique. France Travail, comme d’autres institutions administratives, reste un espace très difficile d’accès. Les autorisations sont rares, les possibilités de terrain très encadrées, et les refus fréquents, que ce soit pour les chercheur·ses ou les journalistes d’ailleurs. Nos demandes d’observations du travail réalisé sur les plateformes de contrôle, par exemple, n’ont jamais abouti. Et sur le terrain, les agent·es eux-mêmes hésitent à parler : le devoir de réserve est souvent interprété de façon erronée et fait barrière aux prises de parole. Sur les algorithmes spécifiquement, l’information est très parcellaire. La Direction générale de France Travail ne publie quasiment rien à ce sujet, le site officiel est muet sur les outils utilisés. C’est d’ailleurs quelque chose qui pose question : pourquoi est-ce que les documents internes, qui sont ceux d’une administration publique, ne sont pas diffusés en accès libre ? En tous cas, tout cela conditionne profondément notre manière de mener l’enquête, le rythme de travail et les types de matériaux mobilisables. » 

L’opacité fonctionnelle explique certainement la perspective à orienter la suite de l’enquête. « Dans les prochaines étapes de l’enquête, nous allons notamment chercher à travailler sur le volet conception de ces outils : qui les commande ? Qui les paramètre ? Avec quels objectifs ? Qui les évalue ? Ce sont des points sur lesquels on a pour l’instant peu de réponses ». On a hâte de voir ce qui va en sortir en tout cas.

  • ✇Dans les algorithmes
  • Intelligence artificielle générale : le délire complotiste de la tech
    « Le mythe de l’intelligence artificielle générale ressemble beaucoup à une théorie du complot et c’est peut-être la plus importante de notre époque ». Obsédées par cette technologie hypothétique, les entreprises d’IA nous la vendent avec acharnement, explique le journaliste Will Douglas Heaven dans la Technology Review.   Pour élaborer une théorie du complot, il faut plusieurs ingrédients, rappelle-t-il : un schéma suffisamment flexible pour entretenir la croyance même lorsque les choses ne
     

Intelligence artificielle générale : le délire complotiste de la tech

18 novembre 2025 à 01:00

« Le mythe de l’intelligence artificielle générale ressemble beaucoup à une théorie du complot et c’est peut-être la plus importante de notre époque ». Obsédées par cette technologie hypothétique, les entreprises d’IA nous la vendent avec acharnement, explique le journaliste Will Douglas Heaven dans la Technology Review.  

Pour élaborer une théorie du complot, il faut plusieurs ingrédients, rappelle-t-il : un schéma suffisamment flexible pour entretenir la croyance même lorsque les choses ne se déroulent pas comme prévu ; la promesse d’un avenir meilleur qui ne peut se réaliser que si les croyants découvrent des vérités cachées ; et l’espoir d’être sauvé des horreurs de ce monde. L’intelligence artificielle générale (IAG) remplit quasiment tous ces critères. Et plus on examine cette idée de près, plus elle ressemble à un complot. Ce n’en est pas totalement un, bien sûr, pas exactement, concède Heaven. « Mais en nous penchant sur les points communs entre l’IAG et les véritables théories du complot, je pense que nous pouvons mieux cerner ce concept et le révéler pour ce qu’il est : un délire techno-utopique (ou techno-dystopique, à vous de choisir) qui s’est ancré dans des croyances profondément enracinées et difficiles à déraciner »

Une histoire de l’IAG

Dans son article, Heaven retrace l’histoire du terme d’intelligence artificielle générale, initié par Ben Goertzel et Shane Legg. Quand ils discutent de cette idée, l’idée d’une IA capable d’imiter voire dépasser les capacités humaines était alors une plaisanterie. Mais Goertzel en tira un un livre sous ce titre (Springer, 2006) qui se présentait sous les atours les plus sérieux, puis organisa en 2008 une conférence dédiée au sujet (une conférence devenue annuelle et qui continue encore). En rejoignant DeepMind en tant que cofondateur, Shane Legg y importe le terme, légitimant le concept. Proche de Peter Thiel et de Eliezer Yudkowsky, Goertzel a beaucoup discuté avec eux du concept. Mais si l’iconoclaste Ben Goertzel était enthousiaste, le sombre Yudkowsky, lui, était beaucoup plus pessimiste, voyant l’arrivée de l’AGI comme une catastrophe. Malgré tous ces efforts, le concept n’a alors rencontré que peu d’échos et semblait surtout tenir de la pure science-fiction. 

C’est la publication de Superintelligence par le philosophe Nick Bostrom en 2014, qui  va changer les choses. Bostrom rend acceptable les concepts spécieux de Yudkowsky. Aujourd’hui, l’IAG est évoquée partout, que ce soit pour annoncer l’arrivée de temps immémoriaux ou pour prédire l’extermination de l’humanité. 

Dans son récent livre, apocalyptique, If Anyone Builds It, Everyone Dies : why Superhuman AI Would Kill Us All (Si quelqu’un le construit, tout le monde meurt, Little Brown, 2025, non traduit), coécrit avec Nate Soares, Yudkowsky accumule les déclarations extravagantes pour une interdiction totale de l’IAG. Un ouvrage « décousu et superficiel », comme l’explique le journaliste Adam Becker – auteur lui-même de More Everything Forever : AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity (Hachette, 2025, non traduit) – dans sa recension critique pour The Atlantic, qui « tente de nous faire croire que l’intelligence est un concept discret et mesurable, et que son accroissement est une question de ressources et de puissance de calcul ». L’IA superintelligente hypothétique des Cassandre « fait ce dont rêvent toutes les start-ups technologiques : croître de façon exponentielle et éliminer ses concurrents jusqu’à atteindre un monopole absolu », expliquait déjà l’écrivain de science-fiction Ted Chiang. La superintelligence évoque bien plus un capitalisme débridé porté par des individus parfaitement néoréactionnaires qu’autre chose, comme l’analysait Elisabeth Sandifer dans son livre sur l’extrême-droite technologique américaine, ou encore les livres de Thibault Prévost ou Nastasia Hadjadji et Olivier Tesquet que nous avons déjà chroniqué. « En réalité, l’apocalypse de l’IA qui inquiète tant Yudkowsky et Soares n’est autre que notre propre monde, vu à travers le prisme déformant d’un miroir de science-fiction », une « vision simpliste du salut technologique », conclut Becker.

Malgré sa vacuité, l’ouvrage de Soares et Yudkowsky est un des bestsellers du New York Times. Pour Heaven, comme toutes les théories du complot les plus puissantes, l’intelligence artificielle générale s’est infiltrée dans le débat public et a pris racine.

Le mythe d’une machine plus intelligente que l’humain, capable de tout faire, se retrouve pourtant dès l’origine de l’IA, chez Alan Turing comme chez John McCarthy. « Mais l’IAG n’est pas une technologie, c’est un rêve », affirme Becker. Comme nombre de théories du complot, il est impossible de réfuter une idée aussi protéiforme que l’IAG. Discuter d’IAG consiste en un affrontement de visions du monde, et non en un échange de raisonnements fondés sur des preuves, puisqu’il ne peut y en avoir autour d’un objet hypothétique pour lequel il n’existe pas de définition précise et partagée. Les prédictions sur l’avènement de l’IAG sont formulées avec la précision de numérologues annonçant la fin des temps. Sans véritable enjeu, les échéances sont repoussées sans conviction. « L’IAG, c’est toujours ce qui arrivera, la prochaine fois, mais son arrivée imminente est la vérité que partagent ses adeptes »

Du conspirationnisme

Pour l’anthropologue des religions Jeremy Cohen, qui étudie les théories du complot dans les milieux technologiques, la vérité cachée « est un élément fondamental de la pensée conspirationniste ». Pour Ben Goertzel et les thuriféraires de l’IAG, les raisons du scepticisme envers l’IAG tiennent du scepticisme global. « Avant chaque grande avancée technique, du vol humain à l’énergie électrique, des hordes de prétendus experts vous expliquaient pourquoi cela n’arriverait jamais. En réalité, la plupart des gens ne croient qu’à ce qu’ils voient. » Si vous n’êtes pas convaincus par l’IAG, c’est que vous êtes un idiot naïf disent ses partisans, inversant la charge de la preuve, alors qu’ils sont bien plus que d’autres les idiots utiles de ce qu’ils dénoncent et vénèrent à la fois.

« L’idée de donner naissance à des dieux-machines est évidemment très flatteuse pour l’ego », affirme la philosophe Shannon Vallor de l’Edinburgh Futures Institute (voir notre article sur son livre, « L’IA n’est qu’un miroir »). « C’est incroyablement séduisant de penser que l’on pose soi-même les fondements de cette transcendance ». C’est un autre point commun avec les théories du complot. Une partie de l’attrait réside dans le désir de trouver un sens à un monde chaotique et parfois dénué de sens et dans l’aspiration à être une personne consciente du danger. Pour David Krueger, chercheur à l’Université de Montréal et ancien directeur de recherche à l’Institut de sécurité de l’IA du Royaume-Uni, nombre de personnes travaillant sur l’IA considèrent cette technologie comme notre successeur naturel. « Ils voient cela comme une forme de maternité » dont ils ont la charge, explique-t-il. Jeremy Cohen, lui, dresse des parallèles entre de nombreuses théories du complot moderne et le mouvement New Age, qui connut son apogée dans les années 1970 et 1980. Ses adeptes croyaient que l’humanité était sur le point d’accéder à une ère de bien-être spirituel et d’éveil de la conscience, instaurant un monde plus paisible et prospère. L’idée était qu’en s’adonnant à un ensemble de pratiques pseudo-religieuses, les humains transcenderaient leurs limites et accéderaient à une sorte d’utopie hippie. Pour Cohen, nous sommes confrontés aux mêmes attentes à l’égard de l’IAG : que ce soit par la destruction ou la sublimation de l’humanité, elle seule permettra de surmonter les problèmes auxquels l’humanité est confrontée. Pour Yudkowsky et Soares, les enjeux de l’IAG sont plus importants que le risque nucléaire ou le risque climatique. 

Pour beaucoup de ceux qui optent pour cette croyance, l’IAG arrivera d’un seul coup, sous la forme d’une singularité technologique introduite par l’auteur de science-fiction Vernor Vinge dans les années 80. Un moment transcendant où l’humanité, telle que nous la connaissons, changera à jamais. Pour Shannon Vallor, ce système de croyance est remarquable par la façon dont la foi en la technologie a remplacé la foi en l’humanité. Malgré son côté ésotérique, la pensée New Age était au moins motivée par l’idée que les gens avaient le potentiel de changer le monde par eux-mêmes, pourvu qu’ils puissent y accéder. Avec la quête de l’IA générale, nous avons abandonné cette confiance en nous et adhéré à l’idée que seule la technologie peut nous sauver, explique-t-elle. C’est une pensée séduisante, voire réconfortante, pour beaucoup. « Nous vivons à une époque où les autres voies d’amélioration matérielle de la vie humaine et de nos sociétés semblent épuisées », affirme Vallor. La technologie promettait autrefois un avenir meilleur : le progrès était une échelle que nous devions gravir vers l’épanouissement humain et social. « Nous avons dépassé ce stade », déclare Vallor. « Je pense que ce qui redonne espoir à beaucoup et leur permet de retrouver cet optimisme quant à l’avenir, c’est l’IA générale. » Poussons cette idée à son terme et, une fois encore, l’IA générale devient une sorte de divinité, capable de soulager les souffrances terrestres, affirme Vallor. Kelly Joyce, sociologue à l’Université de Caroline du Nord, qui étudie comment les croyances culturelles, politiques et économiques façonnent notre rapport à la technologie, considère toutes ces prédictions extravagantes concernant l’IA générale comme quelque chose de plus banal : un exemple parmi d’autres de la tendance actuelle du secteur technologique à faire des promesses excessives. « Ce qui m’intrigue, c’est que nous nous laissions prendre au piège. »

« À chaque fois », dit-elle. « Il existe une conviction profonde que la technologie est supérieure aux êtres humains. » Joyce pense que c’est pourquoi, lorsque l’engouement s’installe, les gens sont prédisposés à y croire. « C’est une religion », dit-elle. « Nous croyons en la technologie. La technologie est divine. Il est très difficile de s’y opposer. Les gens ne veulent pas l’entendre. » 

Le fantasme d’ordinateurs capables de faire presque tout ce qu’un humain peut faire est séduisant. Mais comme beaucoup de théories du complot répandues, elle a des conséquences bien réelles. Elle fausse notre perception des enjeux, déstabilise l’industrie pour l’éloigner d’applications immédiates… Et surtout, elle nous invite à la paresse. A quoi bon s’acharner à résoudre les problèmes du monde réel, quand les machines s’en chargeront demain ? Le projet pharaonique de l’IA engloutit désormais des centaines de milliards de dollars et détourne nombre d’investissements de technologies plus immédiates, capables de changer dès à présent la vie des gens. 

Tina Law, spécialiste des politiques technologiques à l’Université de Californie à Davis, s’inquiète du fait que les décideurs politiques soient davantage influencés par le discours selon lequel l’IA finira par nous anéantir que par les préoccupations réelles concernant l’impact concret et immédiat de l’IA sur la vie des gens dès aujourd’hui. La question des inégalités est occultée par la notion de risque existentiel. « Le battage médiatique est une stratégie lucrative pour les entreprises technologiques », affirme Law. Ce battage médiatique repose en grande partie sur l’idée que ce qui se passe est inévitable : si nous ne le construisons pas, quelqu’un d’autre le fera. « Quand quelque chose est présenté comme inévitable », rappelle Law, « les gens doutent non seulement de leur capacité à résister, mais aussi de leur droit à le faire. » Tout le monde se retrouve piégé. 

Selon Milton Mueller, du Georgia Institute of Technology, spécialiste des politiques et de la réglementation technologiques, le champ de distorsion lié à l’IAG ne se limite pas aux politiques technologiques. La course à l’IA générale est comparée à la course à la bombe atomique, explique-t-il. « Celui qui y parviendra en premier aura un pouvoir absolu sur tous les autres. C’est une idée folle et dangereuse qui faussera profondément notre approche de la politique étrangère. » Les entreprises (et les gouvernements) ont tout intérêt à promouvoir le mythe de l’IA générale, explique encore Mueller, car elles peuvent ainsi prétendre être les premières à y parvenir. Mais comme il s’agit d’une course sans consensus sur la ligne d’arrivée, le mythe peut être entretenu tant qu’il est utile. Ou tant que les investisseurs sont prêts à y croire. Il est facile d’imaginer comment cela se déroule. Ce n’est ni l’utopie ni l’enfer : c’est OpenAI et ses pairs qui s’enrichissent considérablement. 

Voilà. Le grand complot de l’IAG est enfin résolu, ironise Heaven. « Et peut-être cela nous ramène-t-il à la question du complot, et à un rebondissement inattendu dans cette histoire. Jusqu’ici, nous avons ignoré un aspect courant de la pensée conspirationniste : l’existence d’un groupe de personnalités influentes tirant les ficelles en coulisses et la conviction que, par la recherche de la vérité, les croyants peuvent démasquer cette cabale ». L’IAG n’accuse publiquement aucune force occulte d’entraver son développement ou d’en dissimuler les secrets. Aucun complot n’est ourdi par les Illuminati ou le Forum économique mondial… ici, ceux-là même qui dénoncent les dangers fomentent la cabale. Ceux qui propagent la théorie du complot de l’IAG sont ses principaux instigateurs. Les géants de la Silicon Valley investissent toutes leurs ressources dans la création d’une IAG à des fins lucratives. Le mythe de l’IAG sert leurs intérêts plus que ceux de quiconque. Comme le souligne Vallor : « Si OpenAI affirme construire une machine qui rendra les entreprises encore plus puissantes qu’elles ne le sont aujourd’hui, elle n’obtiendra pas l’adhésion du public nécessaire. » « N’oubliez pas : vous créez un dieu et vous finissez par lui ressembler », ironise Heaven. « Beaucoup pensent que s’ils y parviennent en premier, ils pourront dominer le monde ». 

À bien des égards, conclut Heaven, je pense que l’idée même d’IAG repose sur une vision déformée de ce que l’on attend de la technologie, et même de ce qu’est l’intelligence. En résumé, l’argument en faveur de l’IA générale repose sur le postulat qu’une technologie, l’IA, a progressé très rapidement et continuera de progresser. Mais abstraction faite des objections techniques – que se passera-t-il si les progrès cessent ? –, il ne reste plus que l’idée que l’intelligence est une ressource dont on peut augmenter la quantité grâce aux données, à la puissance de calcul ou aux réseaux neuronaux adéquats. Or, ce n’est pas le cas. L’intelligence n’est pas une quantité que l’on peut accroître indéfiniment. Des personnes intelligentes peuvent exceller dans un domaine et être moins douées dans d’autres. Tout comme les babioles dopées à l’IA peuvent exceller dans une tâche et être nulles dans bien d’autres, surtout toutes celles, innombrables, qui échappent à leurs données et continueront de leur échapper. 

De l’IAG au fantasme des trombones

Ce fantasme d’automatisation totale que produirait l’IAG est aussi la symbolique du jeu du maximiseur de trombone. Le jeu met en scène, très concrètement, une idée développée par le chantre du transhumanisme d’extrême droite, Nick Bostrom, dès 2002, à savoir celle du « risque existentiel » que ferait peser sur nous cette intelligence artificielle superintelligente, capable de créer des situations pouvant détruire toute vie sur terre. Pour Bostrom, l’usine à trombone est un démonstrateur, où une IA qui aurait pour seul objectif de produire des trombones, pourrait exploiter toutes les ressources pour se faire jusqu’à leur plus total épuisement, en optimisant son objectif sans limites. 

Cette démonstration, pourtant extrêmement simpliste, a marqué les esprits. Son aporie même, qui fait d’un objectif absurde le démonstrateur ultime de l’intelligence des machines, demeure particulièrement problématique. Puisqu’il n’y a ici aucune intelligence des machines, mais bien au contraire, la démonstration de leur pure aberration. Or, la crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique « repose sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel », comme le disaient les chercheurs Arvind Narayanan et Sayash Kapoor. Le jeu est bien plus un simulateur de marché qu’un jeu sur l’IA. Universal Paperclips incite les joueurs à l’empathie avec ses buts, notamment en proposant de nouvelles fonctionnalités pour les assouvir, et c’est bien notre empathie avec le jeu qui conduit l’IA à détruire l’humanité pour accomplir son but absurde de productivité sans limite. Son créateur, Frank Lantz, raconte d’ailleurs que ce n’est pas l’augmentation des chiffres, mais la manière dont ils augmentent qui incite les joueurs à cliquer et à faire cœur avec les objectifs du jeu. « Les jeux incrémentaux sont très bruts. Ils s’attachent à un processus pour faire que les joueurs deviennent obsédés par sa croissance». L’interface épurée hypnotise par la répétition. « Le joueur détruit l’univers avec le même sentiment d’éloignement que lorsqu’on commande un pull en ligne ». Cette fiction est censée nous prévenir que l’IA pourrait avoir des motivations très différentes de l’homme.

Pourtant le jeu, très scripté, ne montre en rien que l’IA pourrait raisonner, planifier ou comprendre le monde physique ou le dominer. Il masque surtout que des fonctionnalités déclenchent des possibilités et que celles-ci sont prévues par l’interface et le concepteur du jeu. La fable du maximiseur de trombone ne démontre en rien que l’IA pourrait prendre le contrôle du monde, mais que ses objectifs et fonctions, eux, sont le produit de celui qui les a programmés. Le maximiseur de trombone n’accomplit aucune démonstration qu’une intelligence artificielle générale conduirait à l’extermination du genre humain. Comme l’ont dit Kate Crawford ou Melanie Mitchell, les voix les plus fortes qui débattent des dangers potentiels de la superintelligence sont celles d’hommes blancs aisés et racistes, et, pour eux, la plus grande menace est peut-être l’émergence d’un prédateur au sommet de l’intelligence artificielle, mais qui est certainement personne d’autre qu’eux-mêmes. Le capitalisme est un bien plus grand maximiseur que l’IA. Les entreprises maximisent le cours de leurs actions sans se soucier des coûts, qu’ils soient humains, environnementaux ou autres. Ce processus d’optimisation est bien plus incontrôlable et pourrait bien rendre notre planète inhabitable bien avant que nous sachions comment créer une IA optimisant les trombones

Hubert Guillaud

  • ✇Dans les algorithmes
  • Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits
    Bruxelles propose de réviser le RGPD pour faciliter l’entraînement des modèles d’IA, en considérant désormais l’utilisation de données personnelles pour l’entraînement d’une IA comme un « intérêt légitime », explique Jérôme Marin dans CaféTech. Autre changement majeur : une redéfinition plus restrictive de la notion de « donnée personnelle ». Une information ne serait plus considérée comme telle si l’entreprise qui la collecte n’est pas en mesure d’identifier la personne concernée. Son utilisati
     

Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits

17 novembre 2025 à 01:01

Bruxelles propose de réviser le RGPD pour faciliter l’entraînement des modèles d’IA, en considérant désormais l’utilisation de données personnelles pour l’entraînement d’une IA comme un « intérêt légitime », explique Jérôme Marin dans CaféTech. Autre changement majeur : une redéfinition plus restrictive de la notion de « donnée personnelle ». Une information ne serait plus considérée comme telle si l’entreprise qui la collecte n’est pas en mesure d’identifier la personne concernée. Son utilisation échapperait alors au RGPD. 

Bruxelles propose également d’assouplir la « protection renforcée » des données sensibles. Celle-ci ne s’appliquerait plus que lorsqu’elles « révèlent directement » l’origine raciale ou ethnique, les opinions politiques, l’état de santé ou l’orientation sexuelle.

  • ✇Dans les algorithmes
  • Objectiver la douleur ?
    Vous vous souvenez peut-être de ce que nous disait le neuroscientifique Albert Moukheiber sur la scène d’USI : la difficulté que nous avons à mesurer la douleur d’une manière objective ? Et bien visiblement, la Technology Review nous annonce plusieurs solutions en cours de déploiement, celle d’une application pour smartphone réservée aux professionnels et baptisée PainCheck qui scanne les visages pour détecter des mouvements musculaires microscopiques et qui utilise l’IA pour générer un score de
     

Objectiver la douleur ?

17 novembre 2025 à 01:00

Vous vous souvenez peut-être de ce que nous disait le neuroscientifique Albert Moukheiber sur la scène d’USI : la difficulté que nous avons à mesurer la douleur d’une manière objective ? Et bien visiblement, la Technology Review nous annonce plusieurs solutions en cours de déploiement, celle d’une application pour smartphone réservée aux professionnels et baptisée PainCheck qui scanne les visages pour détecter des mouvements musculaires microscopiques et qui utilise l’IA pour générer un score de douleur. 

Ce système propose donc une réponse par l’analyse comportementale, qui vise à détecter des grimaces, des postures, des inspirations brusques, corrélées à différents niveaux de douleurs, en analysant des micro-mouvements faciaux. PainCheck recherche sur les visages des mouvements microscopiques spécifiques comme la levée de la lèvre supérieure, le pincement des sourcils, une tension des joues… provenant d’une méthode de description des mouvements du visage. Associé à d’autres indications comportementales (comme l’évaluation de gémissements, la présence de douleurs, de troubles du sommeil…), l’application vise à transformer ces indications en score. Développé en Australie depuis 2017, notamment dans des Ehpad, le système a été autorisé également au Royaume-Uni ainsi qu’au Canada et est en cours d’autorisation aux Etats-Unis. Son utilisation a permis de réduire les prescriptions de médicaments et d’améliorer la prise en compte de la douleur. Après s’être concentré sur les patients âgés, les développeurs de PainChek tentent d’adapter leurs outils aux bébés de moins d’un an. 

Une autre piste consiste à mesurer la réponse galvanique, c’est-à-dire la réponse électrique des muscles ou des nerfs via des capteurs adaptés, comme des casques EEG, couplés à la mesure de la fréquence cardiaque, de la transpiration, à l’image du moniteur PMD-200 de Medasense qui propose de produire des scores de douleurs pour les patients opérés afin d’aider les anesthésistes à ajuster les doses d’anti douleurs pendant et après les opérations. 

Reste que si ces outils proposent des solutions, celles-ci ne peuvent être fiables et adaptées à tous les publics. L’analyse des mouvements du visage par exemple n’est pas adaptée à tous et risque de discriminer certains profils, comme les minorités ethniques ou culturelles qui n’expriment pas la douleur de la même façon que les autres ou parce que les outils vont être mal adaptés à certaines handicap (dans un récent article, Wired montrait que, sans surprise, la reconnaissance faciale ne fonctionnait pas pour les gueules cassées, pointant que l’enjeu n’était pas tant que la reconnaissance faciale intègre mieux les profils atypiques, qu’elle ne devienne pas un outil obligatoire empêchant ces publics par exemple de voyager ou de prendre l’avion). Le rêve d’un outil parfaitement universel de mesure de la douleur est certainement peu probable et nécessite, à nouveau, de bien connaître les publics sur lesquels ils sont entraînés et ceux sur lesquels ils vont être relativement efficaces, des autres. Les douleurs des femmes noires sont depuis longtemps minorées en milieu médical, comme celles des populations atypiques, comme les handicapés ou les autistes. Ces outils ne fonctionneront certainement pas très bien sur eux. Les outils ne viennent pas sans biais et inexactitudes. 

L’autre risque de ces nouveaux outils, enfin, c’est que leur promesse d’objectivité normative nous pousse à éliminer la prise en compte de la subjectivité de la douleur. Comme le disait Laura Tripaldi dans Gender Tech, le « masque de l’objectivité scientifique occulte le récit idéologique ». Les technologies ne peuvent être des vecteurs d’émancipations seulement si elles sont conçues comme des espaces ouverts et partagés, permettant de se composer et de se recomposer, plutôt que d’être assignés et normalisés. L’objectivation de la douleur et la normalisation qu’elle implique risque surtout de laisser sur le carreau ceux qui ne sont pas objectivables, comme ceux qui y sont insensibles.

  • ✇Dans les algorithmes
  • Du fardeau de penser
    « La vraie surprise est que beaucoup de personnes semblent ravies de se décharger du fardeau de mettre leur pensée en mots. Voilà ce qui me paraît être le fond du problème, plus que l’outil qui le permet ». Martin Lafréchoux (qui revient du futur)
     
  • ✇Dans les algorithmes
  • De l’impunité du vol d’identité
    Dans la dernière newsletter d’Algorithm Watch, le journaliste Nicolas Kayser-Bril revient sur la production par un magazine bulgare d’articles génératifs qui lui étaient attribués. Ce qu’il montre, c’est que les mécanismes de réclamation dysfonctionnent. Google lui a demandé de prouver qu’il ne travaillait pas pour ce magazine (!) et a refusé de désindexer les articles. L’autorité de protection des données allemande a transmis sa demande à son homologue bulgare, sans réponse. Le seul moyen pour
     

De l’impunité du vol d’identité

14 novembre 2025 à 01:03

Dans la dernière newsletter d’Algorithm Watch, le journaliste Nicolas Kayser-Bril revient sur la production par un magazine bulgare d’articles génératifs qui lui étaient attribués. Ce qu’il montre, c’est que les mécanismes de réclamation dysfonctionnent. Google lui a demandé de prouver qu’il ne travaillait pas pour ce magazine (!) et a refusé de désindexer les articles. L’autorité de protection des données allemande a transmis sa demande à son homologue bulgare, sans réponse. Le seul moyen pour mettre fin au problème a été de contacter un avocat pour qu’il produise une menace à l’encontre du site, ce qui n’a pas été sans frais pour le journaliste. La « législation sur la protection des données, comme le RGPD, n’a pas été d’une grande aide ».

Ceux qui pratiquent ces usurpations d’identité, qui vont devenir très facile avec l’IA générative, n’ont pour l’instant pas grand chose à craindre, constate Kayser-Bril.

  • ✇Dans les algorithmes
  • « L’IA générative est un désastre social »
    « Les industriels de l’IA ont habilement orienté le débat sur l’IA générative vers leurs propres intérêts, en nous expliquant qu’elle était une technologie transformatrice qui améliore de nombreux aspects de notre société, notamment l’accès aux soins de santé et à l’éducation ». Mais plutôt que prendre au sérieux les vraies critiques (notamment le fait que ces technologies ne soient pas si transformatrices qu’annoncées et qu’elles n’amélioreront ni l’accès au soin ni l’accès à l’éducation), les
     

« L’IA générative est un désastre social »

14 novembre 2025 à 01:01

« Les industriels de l’IA ont habilement orienté le débat sur l’IA générative vers leurs propres intérêts, en nous expliquant qu’elle était une technologie transformatrice qui améliore de nombreux aspects de notre société, notamment l’accès aux soins de santé et à l’éducation ». Mais plutôt que prendre au sérieux les vraies critiques (notamment le fait que ces technologies ne soient pas si transformatrices qu’annoncées et qu’elles n’amélioreront ni l’accès au soin ni l’accès à l’éducation), les géants de l’IA ont préféré imposer leur propre discours sur ses inconvénients : à savoir, celui de la menace existentielle, explique clairement Paris Marx sur son blog. Ce scénario totalement irréaliste a permis de mettre de côté les inquiétudes bien réelles qu’impliquent le déploiement sans mesure de l’IA générative aujourd’hui (comme par exemple, le fait qu’elle produise des « distorsion systémique » de l’information selon une étude de 22 producteurs d’information de services publics).

En Irlande, à quelques jours des élections présidentielles du 24 octobre, une vidéo produite avec de l’IA a été diffusée montrant Catherine Connolly, la candidate de gauche en tête des sondages, annoncer qu’elle se retirait de la course, comme si elle le faisait dans le cadre d’un reportage d’une des chaînes nationales. La vidéo avait pour but de faire croire au public que l’élection présidentielle était déjà terminée, sans qu’aucun vote n’ait été nécessaire et a été massivement visionnée avant d’être supprimée. 

Cet exemple nous montre bien que nous ne sommes pas confrontés à un risque existentiel où les machines nous subvertiraient, mais que nous sommes bel et bien confrontés aux conséquences sociales et bien réelles qu’elles produisent. L’IA générative pollue l’environnement informationnel à tel point que de nombreuses personnes ne savent plus distinguer s’il s’agit d’informations réelles ou générées. 

Les grandes entreprises de l’IA montrent bien peu de considération pour ses effets sociaux. Au lieu de cela, elles imposent leurs outils partout, quelle que soit leur fiabilité, et participent à inonder les réseaux de bidules d’IA et de papoteurs destinés à stimuler l’engagement, ce qui signifie plus de temps passé sur leurs plateformes, plus d’attention portée aux publicités et, au final, plus de profits publicitaires. 
En réponse à ces effets sociaux, les gouvernements semblent se concentrer sur la promulgation de limites d’âge afin de limiter l’exposition des plus jeunes à ces effets, sans paraître vraiment se soucier des dommages individuels que ces produits peuvent causer au reste de la population, ni des bouleversements politiques et sociétaux qu’ils peuvent engendrer. Or, il est clair que des mesures doivent être prises pour endiguer ces sources de perturbation sociale et notamment les pratiques de conception addictives qui ciblent tout le monde, alors que les chatbots et les générateurs d’images et de vidéos accélèrent les dégâts causés par les réseaux sociaux. Du fait des promesses d’investissements, de gains de productivité hypothétiques, les gouvernements sacrifient les fondements d’une société démocratique sur l’autel de la réussite économique profitant à quelques monopoles. Pour Paris Marx, l’IA générative n’est rien d’autre qu’une forme de « suicide social » qu’il faut endiguer avant qu’elle ne nous submerge. « Aucun centre de données géant ni le chiffre d’affaires d’aucune entreprise d’IA ne justifie les coûts que cette technologie est en train d’engendrer pour le public ».

  • ✇Dans les algorithmes
  • Mon corps électrique
    En 2022, Arnaud Robert est devenu tétraplégique. Dans un podcast en 7 épisodes pour la Radio-Télévision Suisse, il raconte sa décision de participer à une étude scientifique pour laquelle il a reçu un implant cérébral afin de retrouver le contrôle d’un de ses bras. Un podcast qui décortique le rapport à la technologie de l’intérieur, au plus intime, loin des promesses transhumanistes. « Être cobaye, cʹest prêter son corps à un destin plus grand que le sien ». Mais être cobaye, c’est apprendre au
     

Mon corps électrique

14 novembre 2025 à 01:00

En 2022, Arnaud Robert est devenu tétraplégique. Dans un podcast en 7 épisodes pour la Radio-Télévision Suisse, il raconte sa décision de participer à une étude scientifique pour laquelle il a reçu un implant cérébral afin de retrouver le contrôle d’un de ses bras. Un podcast qui décortique le rapport à la technologie de l’intérieur, au plus intime, loin des promesses transhumanistes. « Être cobaye, cʹest prêter son corps à un destin plus grand que le sien ». Mais être cobaye, c’est apprendre aussi que les miracles technologiques ne sont pas toujours au-rendez-vous. Passionnant !

  • ✇Dans les algorithmes
  • Syndicats : négociez les algorithmes !
    Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisab
     

Syndicats : négociez les algorithmes !

13 novembre 2025 à 01:00

Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisables par les travailleurs en lien notamment avec la nouvelle législation européenne des travailleurs des plateformes. La gestion algorithmique confère aux employeurs des avantages informationnels considérables sur les travailleurs, leur permet de contourner les conventions collectives et de modifier les conditions de travail et les salaires de chaque travailleur voire de chaque poste. Elle leur permet d’espionner les travailleurs même en dehors de leurs heures de travail et leur offre de nombreuses possibilités de représailles. 

En regard, les travailleurs piégés par la gestion algorithmique sont privés de leur pouvoir d’action et de leurs possibilités de résolution de problèmes, et bien souvent de leurs droits de recours, tant la gestion algorithmique se déploie avec de nombreuses autres mesures autoritaires, comme le fait de ne pouvoir joindre le service RH. 

Il est donc crucial que les syndicats élaborent une stratégie pour lutter contre la gestion algorithmique. C’est là qu’intervient la directive sur le travail de plateforme qui prévoit des dispositions assez riches, mais qui ne sont pas auto-exécutoires… C’est-à-dire que les travailleurs doivent revendiquer les droits que la directive propose, au travail comme devant les tribunaux. Or, elle permet aux travailleurs et à leurs représentants d’exiger des employeurs des données exhaustives sur les décisions algorithmiques, du licenciement au calcul du salaire. 

Bien souvent ces données ne sont pas rendues dans des formats faciles à exploiter, constate Wray : le rapport encourage donc les syndicats à constituer leurs propres groupes d’analyses de données. Le rapport plaide également pour que les syndicats développent des applications capables de surveiller les applications patronales, comme l’application UberCheats, qui permettait de comparer le kilométrage payé par Uber à ses livreurs par rapport aux distances réellement parcourues (l’application a été retirée en 2021 au prétexte de son nom à la demande de la firme Uber). En investissant dans la technologie, les syndicats peuvent combler le déficit d’information des travailleurs sur les employeurs. Wray décrit comment les travailleurs indépendants ont créé des « applications de contre-mesure » ​​qui ont documenté les vols de salaires et de pourboires (voir notre article “Réguler la surveillance au travail”), permis le refus massif d’offres au rabais et aidé les travailleurs à faire valoir leurs droits devant les tribunaux. Cette capacité technologique peut également aider les organisateurs syndicaux, en fournissant une plateforme numérique unifiée pour les campagnes syndicales dans tous les types d’établissements. Wray propose que les syndicats unissent leurs forces pour créer « un atelier technologique commun » aux travailleurs, qui développerait et soutiendrait des outils pour tous les types de syndicats à travers l’Europe. 

Le RGPD confère aux travailleurs de larges pouvoirs pour lutter contre les abus liés aux logiciels de gestion, estime encore le rapport. Il leur permet d’exiger le système de notation utilisé pour évaluer leur travail et d’exiger la correction de leurs notes, et interdit les « évaluations internes cachées ». Il leur donne également le droit d’exiger une intervention humaine dans les prises de décision automatisées. Lorsque les travailleurs sont « désactivés » (éjectés de l’application), le RGPD leur permet de déposer une « demande d’accès aux données » obligeant l’entreprise à divulguer « toutes les informations personnelles relatives à cette décision », les travailleurs ayant le droit d’exiger la correction des « informations inexactes ou incomplètes ». Malgré l’étendue de ces pouvoirs, ils ont rarement été utilisés, en grande partie en raison de failles importantes du RGPD. Par exemple, les employeurs peuvent invoquer l’excuse selon laquelle la divulgation d’informations révélerait leurs secrets commerciaux et exposerait leur propriété intellectuelle. Le RGPD limite la portée de ces excuses, mais les employeurs les ignorent systématiquement. Il en va de même pour l’excuse générique selon laquelle la gestion algorithmique est assurée par un outil tiers. Cette excuse est illégale au regard du RGPD, mais les employeurs l’utilisent régulièrement (et s’en tirent impunément). 

La directive sur le travail de plateforme corrige de nombreuses failles du RGPD. Elle interdit le traitement des « données personnelles d’un travailleur relatives à : son état émotionnel ou psychologique ; l’utilisation de ses échanges privés ; la captation de données lorsqu’il n’utilise pas l’application ; concernant l’exercice de ses droits fondamentaux, y compris la syndicalisation ; les données personnelles du travailleur, y compris son orientation sexuelle et son statut migratoire ; et ses données biométriques lorsqu’elles sont utilisées pour établir son identité. » Elle étend le droit d’examiner le fonctionnement et les résultats des « systèmes décisionnels automatisés » et d’exiger que ces résultats soient exportés vers un format pouvant être envoyé au travailleur, et interdit les transferts à des tiers. Les travailleurs peuvent exiger que leurs données soient utilisées, par exemple, pour obtenir un autre emploi, et leurs employeurs doivent prendre en charge les frais associés. La directive sur le travail de plateforme exige une surveillance humaine stricte des systèmes automatisés, notamment pour des opérations telles que les désactivations. 

Le fonctionnement de leurs systèmes d’information est également soumis à l’obligation pour les employeurs d’informer les travailleurs et de les consulter sur les « modifications apportées aux systèmes automatisés de surveillance ou de prise de décision ». La directive exige également que les employeurs rémunèrent des experts (choisis par les travailleurs) pour évaluer ces changements. Ces nouvelles règles sont prometteuses, mais elles n’entreront en vigueur que si quelqu’un s’y oppose lorsqu’elles sont enfreintes. C’est là que les syndicats entrent en jeu. Si des employeurs sont pris en flagrant délit de fraude, la directive les oblige à rembourser les experts engagés par les syndicats pour lutter contre les escroqueries. 

Wray propose une série de recommandations détaillées aux syndicats concernant les éléments qu’ils devraient exiger dans leurs contrats afin de maximiser leurs chances de tirer parti des opportunités offertes par la directive sur le travail de plateforme, comme la création d’un « organe de gouvernance » au sein de l’entreprise « pour gérer la formation, le stockage, le traitement et la sécurité des données. Cet organe devrait inclure des délégués syndicaux et tous ses membres devraient recevoir une formation sur les données. » 

Il présente également des tactiques technologiques que les syndicats peuvent financer et exploiter pour optimiser l’utilisation de la directive, comme le piratage d’applications permettant aux travailleurs indépendants d’augmenter leurs revenus. Il décrit avec enthousiasme la « méthode des marionnettes à chaussettes », où de nombreux comptes tests sont utilisés pour placer et réserver du travail via des plateformes afin de surveiller leurs systèmes de tarification et de détecter les collusions et les manipulations de prix. Cette méthode a été utilisée avec succès en Espagne pour jeter les bases d’une action en justice en cours pour collusion sur les prix. 

Le nouveau monde de la gestion algorithmique et la nouvelle directive sur le travail de plateforme offrent de nombreuses opportunités aux syndicats. Cependant, il existe toujours un risque qu’un employeur refuse tout simplement de respecter la loi, comme Uber, reconnu coupable de violation des règles de divulgation de données et condamné à une amende de 6 000 € par jour jusqu’à sa mise en conformité. Uber a maintenant payé 500 000 € d’amende et n’a pas divulgué les données exigées par la loi et les tribunaux. 

Grâce à la gestion algorithmique, les patrons ont trouvé de nouveaux moyens de contourner la loi et de voler les travailleurs. La directive sur le travail de plateforme offre aux travailleurs et aux syndicats toute une série de nouveaux outils pour contraindre les patrons à jouer franc jeu. « Ce ne sera pas facile, mais les capacités technologiques développées par les travailleurs et les syndicats ici peuvent être réutilisées pour mener une guerre de classes numérique totale », s’enthousiasme Cory Doctorow.

  • ✇Dans les algorithmes
  • Dérégulation de l’IA ? Pas vraiment !
    Dans une tribune pour le Guardian, les chercheuses Sacha Alanoca et Maroussia Levesque estiment que si le gouvernement américain adopte une approche non interventionniste à l’égard des applications d’IA telles que les chatbots et les générateurs d’images, il est fortement impliqué dans les composants de base de l’IA. « Les États-Unis ne déréglementent pas l’IA ; ils réglementent là où la plupart des gens ne regardent pas ». En fait, expliquent les deux chercheuses, les régulations ciblent différ
     

Dérégulation de l’IA ? Pas vraiment !

12 novembre 2025 à 01:00

Dans une tribune pour le Guardian, les chercheuses Sacha Alanoca et Maroussia Levesque estiment que si le gouvernement américain adopte une approche non interventionniste à l’égard des applications d’IA telles que les chatbots et les générateurs d’images, il est fortement impliqué dans les composants de base de l’IA. « Les États-Unis ne déréglementent pas l’IA ; ils réglementent là où la plupart des gens ne regardent pas ». En fait, expliquent les deux chercheuses, les régulations ciblent différents composants des systèmes d’IA. « Les premiers cadres réglementaires, comme la loi européenne sur l’IA, se concentraient sur les applications à forte visibilité, interdisant les utilisations à haut risque dans les domaines de la santé, de l’emploi et de l’application de la loi afin de prévenir les préjudices sociétaux. Mais les pays ciblent désormais les éléments constitutifs de l’IA. La Chine restreint les modèles pour lutter contre les deepfakes et les contenus inauthentiques. Invoquant des risques pour la sécurité nationale, les États-Unis contrôlent les exportations des puces les plus avancées et, sous Biden, vont jusqu’à contrôler la pondération des modèles – la « recette secrète » qui transforme les requêtes des utilisateurs en résultats ». Ces réglementations sur l’IA se dissimulent dans un langage administratif technique, mais derrière ce langage complexe se cache une tendance claire : « la réglementation se déplace des applications de l’IA vers ses éléments constitutifs».

Les chercheuses dressent ainsi une taxonomie de la réglementation. « La politique américaine en matière d’IA n’est pas du laisser-faire. Il s’agit d’un choix stratégique quant à l’endroit où intervenir. Bien qu’opportun politiquement, le mythe de la déréglementation relève davantage de la fiction que de la réalité ». Pour elles, par exemple, il est difficile de justifier une attitude passive face aux préjudices sociétaux de l’IA, alors que Washington intervient volontiers sur les puces électroniques pour des raisons de sécurité nationale.

  • ✇Dans les algorithmes
  • Du contrôle des moyens de prédiction
    Pour Jacobin, l’économiste britannique Giorgos Galanis convoque le récent livre de l’économiste Maximilian Kasy, The Means of Prediction: How AI Really Works (and Who Benefits) (Les moyens de prédictions : comment l’IA fonctionne vraiment (et qui en bénéficie), University of Chicago Press, 2025, non traduit), pour rappeler l’importance du contrôle démocratique de la technologie. Lorsqu’un algorithme prédictif a refusé des milliers de prêts hypothécaires à des demandeurs noirs en 2019, il ne s’ag
     

Du contrôle des moyens de prédiction

10 novembre 2025 à 01:00

Pour Jacobin, l’économiste britannique Giorgos Galanis convoque le récent livre de l’économiste Maximilian Kasy, The Means of Prediction: How AI Really Works (and Who Benefits) (Les moyens de prédictions : comment l’IA fonctionne vraiment (et qui en bénéficie), University of Chicago Press, 2025, non traduit), pour rappeler l’importance du contrôle démocratique de la technologie. Lorsqu’un algorithme prédictif a refusé des milliers de prêts hypothécaires à des demandeurs noirs en 2019, il ne s’agissait pas d’un dysfonctionnement, mais d’un choix délibéré, reflétant les priorités des géants de la tech, guidés par le profit. Pour Maximilian Kasy de tels résultats ne sont pas des accidents technologiques, mais les conséquences prévisibles de ceux qui contrôlent l’IA. « De même que Karl Marx identifiait le contrôle des moyens de production comme le fondement du pouvoir de classe, Kasy identifie les « moyens de prédiction » (données, infrastructure informatique, expertise technique et énergie) comme le socle du pouvoir à l’ère de l’IA ». « La thèse provocatrice de Kasy révèle que les objectifs de l’IA sont des choix délibérés, programmés par ceux qui contrôlent ses ressources pour privilégier le profit au détriment du bien commun. Seule une prise de contrôle démocratique des moyens de prédiction permettra de garantir que l’IA serve la société dans son ensemble et non les profits des géants de la tech ». 

Les algorithmes ne sont pas programmés pour prédire n’importe quels résultats. Les  plateformes de médias sociaux, par exemple, collectent d’énormes quantités de données utilisateur pour prédire quelles publicités maximisent les clics, et donc les profits attendus. En quête d’engagement, les algorithmes ont appris que l’indignation, l’insécurité et l’envie incitent les utilisateurs à faire défiler les publications. D’où l’envolée de la polarisation, des troubles anxieux et la dégradation du débat… « Les outils prédictifs utilisés dans le domaine de l’aide sociale ou du recrutement produisent des effets similaires. Les systèmes conçus pour identifier les candidats « à risque » s’appuient sur des données historiques biaisées, automatisant de fait la discrimination en privant de prestations ou d’entretiens d’embauche des groupes déjà marginalisés. Même lorsque l’IA semble promouvoir la diversité, c’est généralement parce que l’inclusion améliore la rentabilité, par exemple en optimisant les performances d’une équipe ou la réputation d’une marque. Dans ce cas, il existe un niveau de diversité « optimal » : celui qui maximise les profits escomptés »

Les systèmes d’IA reflètent en fin de compte les priorités de ceux qui contrôlent les « moyens de prédiction ». Si les travailleurs et les usagers, plutôt que les propriétaires d’entreprises, orientaient le développement technologique, suggère Kasy, les algorithmes pourraient privilégier des salaires équitables, la sécurité de l’emploi et le bien-être public au détriment du profit. Mais comment parvenir à un contrôle démocratique des moyens de prédiction ? Kasy préconise un ensemble d’actions complémentaires comme la taxation des entreprises d’IA pour couvrir les coûts sociaux, la réglementation pour interdire les pratiques néfastes en matière de données et la création de fiducies de données, c’est-à-dire la création d’institutions collectives pour gérer les données pour le compte des communautés à des fins d’intérêt public. 

Ces algorithmes décident qui est embauché, qui reçoit des soins médicaux ou qui a accès à l’information, privilégiant souvent le profit au détriment du bien-être social. Il compare la privatisation des données à l’accaparement historique des biens communs, arguant que le contrôle exercé par les géants de la tech sur les moyens de prédiction concentre le pouvoir, sape la démocratie et creuse les inégalités. Des algorithmes utilisés dans les tribunaux aux flux des réseaux sociaux, les systèmes d’IA façonnent de plus en plus nos vies selon les priorités privées de leurs créateurs. Pour Kasy, il ne faut pas les considérer comme de simples merveilles technologiques neutres, mais comme des systèmes façonnés par des forces sociales et économiques. L’avenir de l’IA ne dépend pas de la technologie elle-même, mais de notre capacité collective à bâtir des institutions telles que des fiducies de données pour gouverner démocratiquement les systèmes. Kasy nous rappelle que l’IA n’est pas une force autonome, mais une relation sociale, un instrument de pouvoir de classe qui peut être réorienté à des fins collectives. La question est de savoir si nous avons la volonté politique de nous en emparer.

Dans une tribune pour le New York Times, Maximilian Kasy explique que la protection des données personnelles n’est plus opérante dans un monde où l’IA est partout. « Car l’IA n’a pas besoin de savoir ce que vous avez fait ; elle a seulement besoin de savoir ce que des personnes comme vous ont fait auparavant ». Confier à l’IA la tâche de prendre des décisions à partir de ces données transforme la société. 

« Pour nous prémunir contre ce préjudice collectif, nous devons créer des institutions et adopter des lois qui donnent aux personnes concernées par les algorithmes d’IA la possibilité de s’exprimer sur leur conception et leurs objectifs. Pour y parvenir, la première étape est la transparence. À l’instar des obligations de transparence financière des entreprises, les sociétés et les organismes qui utilisent l’IA devraient être tenus de divulguer leurs objectifs et ce que leurs algorithmes cherchent à maximiser : clics publicitaires sur les réseaux sociaux, embauche de travailleurs non syndiqués ou nombre total d’expulsions », explique Kasy. Pas sûr pourtant que cette transparence des objectifs suffise, si nous n’imposons pas aux entreprises de publier des données sur leurs orientations. 

« La deuxième étape est la participation. Les personnes dont les données servent à entraîner les algorithmes – et dont la vie est influencée par ces derniers – doivent être consultées. Il faudrait que des citoyens contribuent à définir les objectifs des algorithmes. À l’instar d’un jury composé de pairs qui instruisent une affaire civile ou pénale et rendent un verdict collectivement, nous pourrions créer des assemblées citoyennes où un groupe représentatif de personnes choisies au hasard délibère et décide des objectifs appropriés pour les algorithmes. Cela pourrait se traduire par des employés d’une entreprise délibérant sur l’utilisation de l’IA sur leur lieu de travail, ou par une assemblée citoyenne examinant les objectifs des outils de police prédictive avant leur déploiement par les agences gouvernementales. Ce sont ces types de contre-pouvoirs démocratiques qui permettraient d’aligner l’IA sur le bien commun, et non sur le seul intérêt privé. L’avenir de l’IA ne dépendra pas d’algorithmes plus intelligents ou de puces plus rapides. Il dépendra de qui contrôle les données et de quelles valeurs et intérêts guident les machines. Si nous voulons une IA au service du public, c’est au public de décider de ce qu’elle doit servir ».

  • ✇Dans les algorithmes
  • Slop : « On est cuits ! » 
    Le slop est déjà partout, constate, à nouveau, désabusé, Charlie Warzel dans The Atlantic. Nous sommes en train de disparaître sous la distorsion des déchets de l’IA générative. Le nombre d’articles créés par l’IA serait même passé devant celui des articles créés par des humains. Le designer Angelos Arnis parle même d’« infrastructure du non-sens ». Dans la Harvard Business Review, les chercheurs estiment que le travail de remplissage (workslop) généré par l’IA et en train de coloniser le monde
     

Slop : « On est cuits ! » 

7 novembre 2025 à 01:05

Le slop est déjà partout, constate, à nouveau, désabusé, Charlie Warzel dans The Atlantic. Nous sommes en train de disparaître sous la distorsion des déchets de l’IA générative. Le nombre d’articles créés par l’IA serait même passé devant celui des articles créés par des humains. Le designer Angelos Arnis parle même d’« infrastructure du non-sens ». Dans la Harvard Business Review, les chercheurs estiment que le travail de remplissage (workslop) généré par l’IA et en train de coloniser le monde du travail sans produire grand chose d’utile. 

« L’IA a créé une véritable infrastructure d’absurdité et de désorientation », explique Warzel. Pire, la perte de sens « rend l’acte même de créer quelque chose de significatif presque insignifiant ». Et perdre l’envie de créer, « je le crains, revient à capituler sur notre humanité même ».

  • ✇Dans les algorithmes
  • La Californie interdit la fixation algorithmique des prix
    En Californie, quatrième économie mondiale, le gouverneur Newsom vient de promulguer la loi AB325, interdisant les cabinets de conseil en tarification, permettant de surveiller les tarifs et plus encore de les augmenter, nous apprend Cory Doctorow. La loi interdit « l’utilisation ou la diffusion d’un algorithme de tarification commun si cette personne contraint une autre personne à fixer ou à adopter un prix ou une condition commerciale recommandés par l’algorithme pour des produits ou services
     

La Californie interdit la fixation algorithmique des prix

7 novembre 2025 à 01:03

En Californie, quatrième économie mondiale, le gouverneur Newsom vient de promulguer la loi AB325, interdisant les cabinets de conseil en tarification, permettant de surveiller les tarifs et plus encore de les augmenter, nous apprend Cory Doctorow. La loi interdit « l’utilisation ou la diffusion d’un algorithme de tarification commun si cette personne contraint une autre personne à fixer ou à adopter un prix ou une condition commerciale recommandés par l’algorithme pour des produits ou services identiques ou similaires » (voir notre dossier “Du marketing à l’économie numérique : une boucle de prédation”). Pour Matt Stoller, cette législation peut paraître insignifiante, mais il s’agit d’une immense victoire interdisant la coercition des prix. La loi AB325 dit qu’il est désormais illégal de contraindre quelqu’un à utiliser un algorithme de tarification basé sur des données non publiques.

  • ✇Dans les algorithmes
  • Tensions domestiques
    Passionnant article de recherche qui montre que le développement de l’internet des objets dans l’espace domestique n’est pas sans créer des tensions entre les habitants. Les chercheurs parlent de « résistance banale » pour montrer que ces outils, comme les dispositifs vocaux de type Alexa ou domotiques, finissent par être peu à peu rejetés du fait des tensions familiales que leur usage génère. Le capitalisme de surveillance est moins panoptique que myope, ironisent les chercheurs Murray Goulden
     

Tensions domestiques

7 novembre 2025 à 01:00

Passionnant article de recherche qui montre que le développement de l’internet des objets dans l’espace domestique n’est pas sans créer des tensions entre les habitants. Les chercheurs parlent de « résistance banale » pour montrer que ces outils, comme les dispositifs vocaux de type Alexa ou domotiques, finissent par être peu à peu rejetés du fait des tensions familiales que leur usage génère. Le capitalisme de surveillance est moins panoptique que myope, ironisent les chercheurs Murray Goulden et Lewis Cameron. Via Algorithm Watch.

  • ✇Dans les algorithmes
  • Saisir le monde des objets autour de nous
    On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous inv
     

Saisir le monde des objets autour de nous

6 novembre 2025 à 01:00

On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous invitent à nous intéresser aux objets techniques qui nous entourent, à les observer pour nous libérer de leur autorité. Ces 11 nouveaux exercices d’observation active nous montrent que comprendre la technique nécessite, plus que jamais, de chercher à l’observer autrement que la manière dont elle nous est présentée. 

A contre-emploi commence par un moulin à café qui tombe en panne et continue en explorant des machines qui dysfonctionnent… Dans ce monde à réparer, nous avons « à remettre du je » dans le lien que nous entretenons avec les machines. Que ce soit en explorant les controverses situées des trottinettes en libre accès ou les rapports difficiles que nous avons à nos imprimantes, les deux artistes nous invitent au glanage pour ré-armer notre sensibilité technique. Ils nous invitent à ré-observer notre rapport aux objets techniques, pour mieux le caractériser, en s’inspirant des travaux d’observations typologiques réalisés par Bernd et Hilla Becher ou par Marianne Wex par exemple. Pour Raffard et Roussel, à la suite des travaux du psychologue James Gibson dans Approche écologique de la perception visuelle (1979, éditions du Dehors, 2014), c’est en se déplaçant dans notre environnement visuel qu’on peut voir émerger d’autres catégories. C’est le mouvement qui nous permet de voir autrement, rappellent-ils Pour les deux artistes : « c’est la fixité de notre position d’observateur qui rend notre lecture des environnements technologiques compliquée »

Pour changer de regard sur la technologie, nous avons besoin d’une « nouvelle écologie de la perception ». Pour cela, ils nous invitent donc à démonter nos objets pour mieux les comprendre, pour mieux les cartographier, pour mieux saisir les choix socio-économiques qui y sont inscrits et déplacer ainsi leur cadre symbolique. Ils nous invitent également à lire ce qu’on y trouve, comme les inscriptions écrites sur les circuits électroniques, d’une manière quasi-automatique, comme quand Kenneth Goldsmith avait recopié un exemplaire du New York Times pour mieux se sentir concerné par tout ce qui y était inscrit – voir notre lecture de L’écriture sans écriture (Jean Boîte éditions, 2018). Raffard et Roussel rappellent que jusqu’en 1970, jusqu’à ce qu’Intel mette au point le processeur 4004, tout le monde pouvait réencoder une puce électronique, comme l’explique le théoricien des médias Friedrich Kittler dans Mode protégé (Presses du réel, 2015). Cet accès a été refermé depuis, nous plongeant dans le « paradoxe de l’accessibilité » qui veut que « plus un objet devient universel et limpide en surface, plus il devient opaque et hermétique en profondeur. Autrement dit, ce que l’on gagne en confort d’expérience, on le perd en capacité de compréhension – et d’action ». Pour le géographe Nigel Thrift, nos objets technologiques nous empêchent d’avoir pleinement conscience de leur réalité. Et c’est dans cet « inconscient technologique », comme il l’appelait, que les forces économiques prennent l’ascendant sur nos choix. « Dans les sociétés technocapitalistes, nous sommes lus davantage que nous ne pouvons lire ».

Ils nous invitent à extraire les mécanismes que les objets assemblent, comme nous y invitait déjà le philosophe Gilbert Simondon quand il évoquait l’assemblage de « schèmes techniques », c’est-à-dire l’assemblage de mécanismes existants permettant de produire des machines toujours plus complexes. Ils nous invitent bien sûr à représenter et schématiser les artefacts à l’image des vues éclatées, diffractées que proposent les dessins techniques, tout en constatant que la complexité technologique les a fait disparaître. On pense bien sûr au travail de Kate Crawford  (Anatomy of AI, Calculating Empires) et son « geste stratégique », ou établir une carte permet de se réapproprier le monde. On pense également au Handbook of Tyranny (Lars Müller Publishers,  2018) de l’architecte Theo Deutinger ou les topographies de pouvoir de l’artiste Mark Lombardi ou encore au Stack (UGA éditions, 2019) du designer Benjamin Bratton qui nous aident à visualiser et donc à comprendre la complexité à laquelle nous sommes confrontés. La cartographie aide à produire des représentations qui permettent de comprendre les points faibles des technologies, plaident les artistes. Elle nous aide à comprendre comment les technologies peuvent être neutralisées, comme quand Extinction Rébellion a proposé de neutraliser les trottinettes électriques urbaines en barrant à l’aide d’un marqueur indélébile, les QR codes pour les rendre inutilisables. Ces formes de neutralisations, comme on les trouve dans le travail de Simon Weckert et son hack de Google Maps en 2020, permettent de faire dérailler la machine, de trouver ses faiblesses, de contourner leur emprise, de « s’immiscer dans l’espace que contrôlent les technologies », de contourner ou détourner leurs assignations, de détourner leurs usages, c’est-à-dire de nous extraire nous-mêmes des scénarios d’usages dans lesquels les objets technologiques nous enferment, c’est-à-dire de réécrire les « scripts normatifs » que les technologies, par leur pouvoir, nous assignent, de comprendre leur « toxicité relationnelle »

Ils nous invitent enfin à construire nos machines, bien plus modestement qu’elles n’existent, bien sûr. Les machines que nous sommes capables de refaçonner, seuls, ne peuvent répondre à la toute-puissance des technologies modernes, rappellent-ils en évoquant leur tentative de reconstruire une imprimante à jet d’encre. Raffard et Roussel ont reconstruit une imprimante encombrante et peu performante, tout comme Thomas Thwaites avait reconstruit un grille-pain défaillant (The Toaster Project, Princeton, 2011). Cette bricologie a néanmoins des vertus, rappellent les artistes. Elle nous rappelle qu’à la toute puissance répond la vulnérabilité, à la high tech, la low tech. Et que ce changement même de regard, cette réappropriation, permet au moins de modifier le système cognitif des utilisateurs. Comme quand les manifestes cyberféministes nous invitent à regarder le monde autrement (souvenez-vous de Data Feminism). Pour Raffard et Roussel, créer des situations de vulnérabilité permet de changer la relation que nous avons avec les objets techniques. De nous réinterroger, pour savoir si nous sommes satisfaits de la direction dans laquelle les objets technologiques et nous-mêmes évoluons. En nous invitant à décider de ce que nous voulons faire de nos technologies et de ce que nous acceptons qu’elles nous fassent, ils militent pour une éducation à l’expérimentation technologique, qui fait peut-être la part un peu trop belle à notre rapport aux technologies, plutôt qu’à notre liberté à ne pas s’y intéresser. 

Le manuel pour réveiller notre curiosité technologique oublie peut-être que nous aurions aussi envie de les éteindre, de nous en détourner, de nous y opposer. Car le constat qu’ils dressent, à savoir celui que nous ne sommes pas capables de reproduire la puissance des machines contemporaines par nous-mêmes, risque d’être perçu comme un aveu d’impuissance. C’est peut-être là, la grande limite au démontage qu’ils proposent. Renforcer notre impuissance, plutôt que de nous aider à prendre le contrôle des systèmes, à peser de nos moyens d’actions collectifs contre eux, comme le peuvent la démocratie technique et la législation. Nous pouvons aussi parfois vouloir que la technologie ne nous saisisse pas… Et prendre le contrôle des systèmes pour que cela n’arrive pas, les réguler, nous y opposer, refuser de les comprendre, de les faire entrer là où nous ne voulons pas qu’ils interviennent est aussi un levier pour nous saisir des objets qui s’imposent autour de nous.

Hubert Guillaud

La couverture du livre de Matthieu Raffard et Mathilde Roussel, A contre-emploi.

MAJ du 7/11/2025 : Signalons que Matthieu Raffard et Mathilde Roussel publient un autre livre, directement issu de leur thèse, Bourrage papier : leçons politiques d’une imprimante (Les liens qui libèrent, 2025).

  • ✇Dans les algorithmes
  • Le piège de la loyauté : la fidélité des clients joue à leur détriment
    Les cartes de fidélité ne sont plus ce qu’elles étaient, explique le Washington Post. « Les entreprises prétendent récompenser votre fidélité par des points, des réductions et des avantages. Mais en coulisses, elles utilisent de plus en plus ces programmes pour surveiller votre comportement et créer un profil, puis vous facturer le prix qu’elles pensent que vous paierez ». Le journaliste tech Geoffrey Fowler a demandé à Starbuck les données relatives à son profil lié à sa carte de fidélité. En l
     

Le piège de la loyauté : la fidélité des clients joue à leur détriment

5 novembre 2025 à 01:00

Les cartes de fidélité ne sont plus ce qu’elles étaient, explique le Washington Post. « Les entreprises prétendent récompenser votre fidélité par des points, des réductions et des avantages. Mais en coulisses, elles utilisent de plus en plus ces programmes pour surveiller votre comportement et créer un profil, puis vous facturer le prix qu’elles pensent que vous paierez ». Le journaliste tech Geoffrey Fowler a demandé à Starbuck les données relatives à son profil lié à sa carte de fidélité. En les analysant, il a constaté que plus il achetait de café, moins il recevait de promotions : « plus j’étais fidèle, moins je bénéficiais de réductions ». Pour les commissaires du bureau de la protection des consommateurs à la Federal Trade Commission, Samuel Levine et Stephanie Nguyen, les programmes de fidélité se sont transformé en moteurs de « tarification de surveillance » : les entreprises utilisent l’IA et les données personnelles pour fixer des prix individualisés, autrement dit des marges personnalisées. Dans un rapport publié avec le Vanderbilt Policy Accelerator consacré au « piège de la loyauté », ils affirment que les programmes de fidélité ont inversé le concept de fidélité : au lieu de récompenser les clients réguliers, les entreprises pourraient en réalité facturer davantage à leurs clients fidèles. En fait, les clients réguliers bénéficient de moins de réduction que les clients occasionnels et finissent donc par payer plus cher du fait de leur loyauté. Les entreprises utilisent les données de consommation pour déterminer votre sensibilité au prix et votre capacité à payer. Starbuck n’est pas la seule entreprise à utiliser ses programmes de fidélité pour optimiser ses profits. 

Une enquête menée par Consumer Reports a révélé que Kroger, l’une des grandes enseignes de la grande distribution aux Etats-Unis, utilise des données clients détaillées, notamment des estimations de revenus, pour personnaliser les remises via son programme de fidélité. Pour Levine et Nguyen, les programmes de fidélité sont devenus une mauvaise affaire pour les consommateurs.

Via ces programmes, les entreprises attirent les clients avec des remises importantes, puis réduisent discrètement ces avantages au fil du temps. Les compagnies aériennes en sont l’exemple le plus flagrant : obtenir un vol gratuit nécessite de collecter de plus en plus de points avec le temps. Les points se déprécient, les dates d’effets se réduisent… bref, l’utilisation du programme de fidélité se complexifie. Désormais, toutes les entreprises vous poussent à passer par leur application pour surveiller vos achats. Même les programmes gratuits s’y mettent. « Les entreprises ne disent pas la vérité sur la quantité de données qu’elles collectent et sur ce qu’elles en font », explique Samuel Levine. Reste qu’abandonner les programmes de fidélité n’est pas si simple, car sans eux, impossible d’obtenir les premières réductions alléchantes qu’ils proposent. « Nous ne devrions pas être obligés de choisir entre payer nos courses et protéger notre vie privée », conclut Levine. 

Les lois des États sur la protection de la vie privée obligent déjà les entreprises à minimiser la quantité de données qu’elles collectent, mais ces lois ne sont pas appliquées aux programmes de fidélité, affirment Levine et Nguyen, qui militent également pour améliorer la surveillance des prix, comme le proposait leur rapport pour la FTC. Ils invitent les consommateurs à être moins fidèles, à supprimer régulièrement leurs applications, à s’inscrire sous différents mails. « J’entends souvent des lecteurs me demander pourquoi ils devraient se soucier de la surveillance. Voici une réponse : ce n’est pas seulement votre vie privée qui est en jeu. C’est votre portefeuille », conclut le journaliste.

  • ✇Dans les algorithmes
  • Une brève histoire de la Silicon Valley
    Sur Fake Tech, en 4 billets fleuves, Christophe Le Boucher dresse une histoire de la Silicon Valley qui vaut vraiment le déplacement. S’inspirant de la somme de Malcolm Harris, Palo Alto : A History of California, Capitalism, and the World (Little Brown and company, 2023, non traduit) Le Boucher rappelle combien la Valley relève du colonialisme et d’une privatisation par le capitalisme. Et montre que la conquête du monde repose sur une radicalisation du modèle économique et politique des ingénie
     

Une brève histoire de la Silicon Valley

4 novembre 2025 à 01:11

Sur Fake Tech, en 4 billets fleuves, Christophe Le Boucher dresse une histoire de la Silicon Valley qui vaut vraiment le déplacement. S’inspirant de la somme de Malcolm Harris, Palo Alto : A History of California, Capitalism, and the World (Little Brown and company, 2023, non traduit) Le Boucher rappelle combien la Valley relève du colonialisme et d’une privatisation par le capitalisme. Et montre que la conquête du monde repose sur une radicalisation du modèle économique et politique des ingénieurs et entrepreneurs qui la façonnent. Les articles sont longs et riches, mais vous ne regretterez pas votre lecture. Ca commence par là.

  • ✇Dans les algorithmes
  • Technologies de la déprise
    « Le fait d’avoir un super assistant doit surtout nous rappeler qu’il s’agit avant tout de nous placer en situation de super assistés ». Olivier Ertzscheid – Affordance
     
  • ✇Dans les algorithmes
  • L’ogre Airbnb
    Très belle série du Monde en 6 articles sur l’ogre Airbnb, la solution de rentabilisation immédiate et maximale de l’immobilier privé. La série commence par décrire son emprise en quelques années et termine en montrant comment la ville de New York a réussi à endiguer le fléau en créant de la complexité administrative, plus encore en obligeant les propriétaires à être présents pendant le séjour des locataires et en renforçant les contrôles.
     

L’ogre Airbnb

4 novembre 2025 à 01:11

Très belle série du Monde en 6 articles sur l’ogre Airbnb, la solution de rentabilisation immédiate et maximale de l’immobilier privé. La série commence par décrire son emprise en quelques années et termine en montrant comment la ville de New York a réussi à endiguer le fléau en créant de la complexité administrative, plus encore en obligeant les propriétaires à être présents pendant le séjour des locataires et en renforçant les contrôles.

  • ✇Dans les algorithmes
  • « Nous sommes le slop »
    « On dit que ma génération gâche sa vie à regarder des divertissements insensés. Mais je pense que c’est pire que ça. Nous transformons désormais nos vies en divertissements insensés. Nous ne nous contentons pas de consommer des bêtises, nous les devenons ».  « Je vois des gens se transformer en personnages de télévision, leurs souvenirs en épisodes, eux-mêmes en divertissement. Nous sommes devenus un contenu dénué de sens, que l’on feuillette et que l’on parcourt. (…) Vieillir est devenu une
     

« Nous sommes le slop »

20 octobre 2025 à 01:00

« On dit que ma génération gâche sa vie à regarder des divertissements insensés. Mais je pense que c’est pire que ça. Nous transformons désormais nos vies en divertissements insensés. Nous ne nous contentons pas de consommer des bêtises, nous les devenons »

« Je vois des gens se transformer en personnages de télévision, leurs souvenirs en épisodes, eux-mêmes en divertissement. Nous sommes devenus un contenu dénué de sens, que l’on feuillette et que l’on parcourt. (…) Vieillir est devenu une succession d’épisodes à diffuser. (…) Nous existons pour nous divertir les uns les autres. Pour les influenceurs, bien sûr, c’est leur métier. Ils transforment leur vie en séries télé. Nous avons des bandes-annonces et des teasers. On a des cliffhangers, des fins de saison, des rappels – À la semaine prochaine ! On a des personnages pré-enregistrés et des apparitions surprises. Des cultes et des conventions. Des gags récurrents et des ouvertures spontanées. Des génériques et des génériques de fin. (…) C’est la carrière que tout le monde rêve ; celle qui ne finit jamais. (…) Vendez-vous comme un produit et soyez traité comme tel. (…) Ta douleur est ma distraction ; tes sentiments sont mes épisodes de remplissage. (…) Je voterai contre ton divorce s’il n’est pas assez divertissant. Ta vie est ce qui me sert à nettoyer ma cuisine, ce qui me permet de tuer le temps. Et si tu ne me divertis pas, tant pis, je ferai défiler la page pour une autre vie à consommer. (…) Les influenceurs nous invitent à entrer, puis ne peuvent plus nous faire sortir. » 

« Que ressentiraient ces familles si Internet était coupé, si elles devaient faire des compliments, des compromis et des sacrifices sans la validation d’inconnus ? Sauraient-elles comment faire ? Sans commentaires ni émojis d’applaudissements ? (…) Tout semble inutile, inutile tant que ce n’est pas publié. Pourquoi être beau sans un selfie ; pourquoi sortir sans publier une story ? Pourquoi s’engager. »
« On sait comment cette émission se termine, cependant. Comme toutes les autres. Un jour, cette génération, ces influenceurs, découvrira avec effroi ce que toutes les célébrités, tous les candidats et tous les acteurs ont compris avant eux. Qu’après avoir tout offert, chaque centimètre de leur vie, chaque instant limité sur cette Terre, peu importe combien ils mettent en scène, combien ils répètent, combien ils échangent, combien de temps ils laissent les caméras tourner, nous nous demanderons toujours, finalement, ce qu’il y a d’autre à l’affiche ?»  – Freya IndiaGirls.

MAJ du 4/11/2025 : « Nous avons gaspillé bien trop de temps sur nos téléphones », constatent les promoteurs de l’appel, Time to refuse (Il est temps de refuser). Le manifeste de ce collectif est porté par l’influenceuse américaine Freya India, par Gabriela Nguyen qui est à l’origine d’Appstinence, de Sean Killingsworth qui a lancé le Reconnect Movement et Nicholas Plante responsable de campagne du collectif Design it for us – et est soutenu par la Young People Alliance ainsi que par le psychologue Jonathan Haidt, l’auteur de Génération anxieuse (Les arènes, 2025 – voir également le site dédié) et animateur du blog After Babel, sur lequel ces jeunes chercheurs et activistes ont tous publié. Le collectif en appelle à une journée d’action le 10 octobre en invitant les jeunes à effacer une des applications de leurs téléphones. Leur manifeste (« un appel à l’action pour la génération Z, par la génération Z ») rappelle que c’est à cette génération de faire quelque chose pour se protéger de l’envahissement numérique. 

« Nous souffrons. Près de la moitié de la génération Z regrette l’existence de plateformes comme X et TikTok. Nous trouvons enfin les mots pour décrire ce qui nous est arrivé : l’impact du porno hardcore sur notre cerveau enfant, l’impact des applications et des algorithmes sur notre capacité de concentration, et le fait que nous ne pouvons même plus distinguer correctement notre propre visage dans nos images. Nous réalisons que ce n’était pas normal ; ce n’était pas une enfance. Nous sommes arrivés dans ce monde sans limite d’âge, sans barrières, avec si peu de protection. Et la plupart des jeunes adultes à qui nous parlons – hommes, femmes, de tous horizons – réagissent avec une horreur totale à l’idée que leurs futurs enfants vivent ce qu’ils ont vécu »

« Il est temps de se demander ce qui peut être fait. Il est temps de construire quelque chose de nouveau. Il est temps de reprendre ce que nous valons ». Et les porteurs de l’initiative de profiter de la Journée mondiale de la santé mentale, pour inviter leur génération à agir. « Refusez. Refusez d’être un produit. Refusez d’exposer votre vie privée au jugement public. Refusez de perdre encore des années de votre vie à parcourir des contenus vides et sans fin qui vous dégradent, vous rendent amer, envieux et égocentriques, de publier pour des personnes qui se moquent complètement de vous. Refusez de donner un centimètre de plus à des entreprises qui font fortune en vous volant votre attention et en vous servant des informations insignifiantes. Et refusez que cela se reproduise » pour la génération suivante. « Nous devons être les adultes dont la prochaine génération aura besoin », c’est-à-dire refuser que les prochaines générations subissent la même chose que la génération Z a vécu. 

Et le manifeste d’appeler à « supprimez vos comptes », « libérez-vous de la pression de publier ». « Nous pouvons refuser d’être la génération anxieuse. Nous pouvons être la génération dont l’enfance a été volée par les entreprises, mais qui a récupéré cette liberté pour ceux qui sont venus après »
Dans un reportage pour le New York Times, la journaliste Christina Caron rappelle pourtant que ce mouvement n’est pas un mouvement particulièrement techno-critique. Il n’incite pas les élèves à modifier leur rapport à la technologie, juste à créer des moments de déconnexion, sans téléphones, et de socialisation IRL.

  • ✇Dans les algorithmes
  • Privacy Trap : sortir du piège de la seule protection des données
    « Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exe
     

Privacy Trap : sortir du piège de la seule protection des données

16 octobre 2025 à 01:00

« Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exerçant sur leurs employés un contrôle qui devrait susciter de vives inquiétudes ». « Sans contrôle ni intervention proactive, ces technologies seront déployées de manière à obscurcir encore davantage la responsabilité, à approfondir les inégalités et à priver les travailleurs de leur voix et de leur pouvoir d’action ».

Les chercheurs et chercheuses – Minsu Longiaru, Wilneida Negrón, Brian J. Chen, Aiha Nguyen, Seema N. Patel, et Dana Calacci – attirent l’attention sur deux mythes fondamentaux sur la confidentialité des données, à savoir : croire que la protection des données sur le marché de la consommation fonctionne de manière similaire sur le lieu de travail et croire que renforcer la protection des informations personnelles suffit à remédier aux préjudices subis par les travailleurs suite à l’extraction de données. En fait, rappellent les chercheurs, les réglementations sur la protection des données personnelles reposent sur un cadre d’action fondé sur les droits individuels d’accès, de rectification et de suppression, et ne s’appliquent qu’aux données dites personnelles : les données anonymisées, dépersonnalisées ou agrégées ne bénéficient que de peu voire d’aucune protection juridique. Mais ces approches individualisées sont « cruellement » insuffisantes sur le lieu de travail, notamment parce que les travailleurs évoluent dans des conditions de pouvoir de négociations extrêmement inégales où l’exercice de leurs droits peut-être impossible et ils n’ont bien souvent pas le pouvoir de contrôler, voire même de percevoir, l’étendue de la surveillance dont ils sont l’objet. « Par conséquent, on observe une expansion sans précédent de la capacité des employeurs à collecter les données des travailleurs sans leur consentement explicite et à les utiliser à des fins de surveillance, de sanction et d’intensification de l’exploitation », comme par exemple quand les employeurs revendent ou transmettent les données des travailleurs à des tiers – comme l’expliquait par exemple la sociologue Karen Levy dans son livre sur la surveillance des routiers

De l’instrumentalisation de la protection de la vie privée

Les technologies d’IA préservant la confidentialité (par exemple des techniques de chiffrement permettant de masquer les données lors de leur collecte, de leur traitement ou de leur utilisation), le développement des données synthétiques (qui servent à remplacer ou compléter des données réelles) et le calcul multipartite (des technologies permettant d’analyser les données de différents appareils ou parties, sans divulguer les données des uns aux autres), permettent désormais aux entreprises de se conformer aux cadres réglementaires, tout en accentuant la surveillance

Les entreprises utilisent les données de leurs employés pour générer des profils détaillés, des indicateurs de performance… et manipulent ces informations à leur profit grâce à l’asymétrie d’information, comme le montrait le rapport de Power Switch Action sur Uber. Le développement du chiffrement ou de la confidentialité différentielle (ce que l’on appelle le marché des technologies qui augmentent la confidentialité, les Privacy-Enhancing Technologies (PET) est en explosion, passant de 2,4 milliards de dollars en 2023 à 25,8 milliards en 2033 selon des prévisions du Forum économique mondial) risquent d’ailleurs à terme de renforcer l’opacité et l’asymétrie d’information sur les lieux de travail, s’inquiètent les chercheurs, en permettant aux entreprises d’analyser des ensembles de données sans identifier les éléments individuels (ce qui leur permet de ne pas consulter les données des individus, tout en continuant à extraire des informations individuelles toujours plus précises). Le déploiement de ces technologies permettent aux entreprises de se dégager de leurs responsabilités, de masquer, voire d’obfusquer les discriminations, comme le disait la chercheuse Ifeoma Ajunwa ou comme l’explique la chercheuse Elizabeth Renieris dans son livre Beyond Data (MIT Press, 2023, non traduit et disponible en libre accès). Elle y rappelle que les données ne sont pas une vérité objective et, de plus, leur statut « entièrement contextuel et dynamique » en fait un fondement instable pour toute organisation. Mais surtout, que ces technologies encouragent un partage accru des données. 

Uber par exemple est l’un des grands utilisateurs des PETs, sans que cela n’ait jamais bénéficié aux chauffeurs, bien au contraire, puisque ces technologies permettent à l’entreprise (et à toutes celles qui abusent de la discrimination salariale algorithmique, comme l’expliquait Veena Dubal) de réviser les rémunérations à la baisse. 

Les chercheurs donnent d’autres exemples encore, notamment le développement du recours à des données synthétiques pour produire des conclusions statistiques similaires aux données réelles. Elles peuvent ainsi prédire ou simuler le comportement des employés sans utiliser ou en masquant les données personnelles. C’est ce que fait Amazon dans les entrepôts où il déploie des robots automatiques par exemple. Or, depuis 2019, des rapports d’enquêtes, comme celui du syndicat Strategic Organizing Center, ont montré une corrélation entre l’adoption de robots chez Amazon et l’augmentation des problèmes de santé des travailleurs dû à l’augmentation des cadencements. 

Le problème, c’est que les lois régissant les données personnelles peuvent ne pas s’appliquer aux données synthétiques, comme l’expliquent les professeures de droit Michal S. Gal et Orla Lynskey dans un article consacré aux implications légales des données synthétiques. Et même lorsque ces lois s’appliquent, l’autorité chargée de l’application peut ne pas être en mesure de déterminer si des données synthétiques ou personnelles ont été utilisées, ce qui incite les entreprises à prétendre faussement se conformer en masquant l’utilisation réelle des données derrière la génération synthétique. Enfin, le recours aux données synthétiques peuvent compromettre les exigences légales d’explicabilité et d’interprétabilité. En général, plus le générateur de données synthétiques est sophistiqué, plus il devient difficile d’expliquer les corrélations et, plus fortement encore, la causalité dans les données générées. Enfin, avec les données synthétiques, le profilage pourrait au final être plus invasif encore, comme l’exprimaient par exemple les professeurs de droit Daniel Susser et Jeremy Seeman. Enfin, leur utilisation pourrait suggérer au régulateur de diminuer les contrôles, sans voir de recul du profilage et des mesures disciplinaires sans recours. 

D’autres techniques encore sont mobilisés, comme le calcul multipartite et l’apprentissage fédéré qui permettent aux entreprises d’analyser des données en améliorant leur confidentialité. Le calcul multipartite permet à plusieurs parties de calculer conjointement des résultats tout en conservant leurs données chiffrées. L’apprentissage fédéré permet à plusieurs appareils d’entraîner conjointement un modèle d’apprentissage automatique en traitant les données localement, évitant ainsi leur transfert vers un serveur central : ce qui permet qu’une entreprise peut analyser les données personnelles d’une autre entreprise sans en être réellement propriétaire et sans accéder au détail. Sur le papier, la technologie du calcul multipartite semble améliorer la confidentialité, mais en pratique, les entreprises peuvent l’utiliser pour coordonner la consolidation et la surveillance des données tout en échappant à toute responsabilité. Ces technologies sont par exemple très utilisées pour la détection des émotions en assurant d’une confidentialité accrue…  sans assurer que les préjudices ne soient réduits et ce, alors que, l’intégration des IA émotionnelles dans le champ du travail est complexifié par le règlement européen sur l’IA, comme l’expliquait un récent article du Monde

Comment réguler alors ?

« Sans garanties proactives pour réguler les conditions de travail, l’innovation continuera d’être utilisée comme un outil d’exploitation », rappellent les chercheurs. « Pour inverser cette tendance, nous avons besoin de politiques qui placent la dignité, l’autonomie et le pouvoir collectif des travailleurs au cœur de nos préoccupations ». Et les chercheurs de proposer 3 principes de conception pour améliorer la réglementation en la matière. 

Tout d’abord, supprimer le droit de surveillance des employeurs en limitant la surveillance abusive. Les chercheurs estiment que nous devons établir de meilleures règles concernant la datafication du monde du travail, la collecte comme la génération de données. Ils rappellent que le problème ne repose pas seulement dans l’utilisation des données, mais également lors de la collecte et après : « une fois créées, elles peuvent être anonymisées, agrégées, synthétisées, dépersonnalisées, traitées de manière confidentielle, stockées, vendues, partagées, etc. » Pour les chercheurs, il faut d’abord « fermer le robinet » et fermer « la surveillance illimitée », comme nous y invitaient déjà en 2017 Ifeoma Ajunwa, Kate Crawford et Jason Schultz. 

Bien souvent, l’interdiction de la collecte de données est très limitée. Elle est strictement interdite dans les salles de pause et les toilettes, mais la collecte est souvent autorisée partout ailleurs. Il faut briser la « prérogative de surveillance de l’employeur », et notamment la surveillance massive et continue. « Lorsque la surveillance électronique intermittente du lieu de travail est autorisée, elle doit respecter des principes stricts de minimisation » (d’objectif et de proportionnalité pourrait-on ajouter pour rappeler d’autres principes essentiels de la protection des données). « Plus précisément, elle ne devrait être autorisée que lorsqu’elle est strictement nécessaire (par exemple, pour des raisons de conformité légale), lorsqu’elle affecte le plus petit nombre de travailleurs, qu’elle collecte le moins de données nécessaires et qu’elle est strictement adaptée à l’utilisation des moyens les moins invasifs ». Les chercheurs recommandent également d’informer les travailleurs de ces surveillance et de leur objectif et signalent l’existence de propositions de loi interdisant aux entreprises d’exiger de leurs employés des dispositifs de localisation ou le port permanent d’appareils de surveillance. Des propositions qui reconnaissent que la protection des données des travailleurs ne saurait se substituer à la protection de leur espace, de leur temps et de leur autonomie.

Enfin, ils recommandent de réduire voire d’interdire la vente de données et leurs exploitation à des tiers (sans développer cette proposition, hélas).  

Le deuxième angle des propositions appelle à se concentrer sur les objectifs des systèmes, en soulignant, très pertinemment que « les cadres juridiques qui se concentrent sur les détails techniques ont tendance à désavantager les travailleurs, car ils exacerbent les asymétries de pouvoir » et surtout se concentrent sur des propositions qui peuvent être vite mises à mal et contournées par le déploiement de nouvelles technologies

Les chercheurs recommandent de ne pas tant regarder regarder les intrants (la collecte de données ou leur anonymisation) et de se concentrer plutôt sur les « conséquences concrètes, intentionnelles comme imprévues, que ces systèmes produisent pour les travailleurs », comme l’instabilité des horaires, les mesures disciplinaires injustes, le stress, les cadences, ou la précarité de l’emploi… indépendamment des technologies utilisées ou du respect des normes de confidentialité. Par exemple, en interdisant la prise de décision automatisée dans certaines situations, comme le proposait déjà l’AI Now Institute en 2023 en demandant à établir des lignes rouges interdisant la surveillance émotionnelle ou la discrimination salariale algorithmique. Une loi fédérale pour la protection des travailleurs de la logistique par exemple interdit les quotas de cadencement inférieurs à la journée (88, 89) et charge l’administration de la sécurité et de la santé au travail (OSHA) de créer une norme dédiée suggérant l’intérêt à autoriser les organismes de réglementation existants à actualiser et améliorer les protections depuis les données. Un projet de loi sur la sécurité des emplois de la ville de New York interdit par exemple expressément aux employeurs de licencier des travailleurs sur la base de données issues de technologies biométriques, de technologies de géolocalisation, d’applications installées sur les appareils personnels et d’enregistrements effectués au domicile des employés. « L’un des avantages des approches politiques qui restreignent clairement certaines pratiques des employeurs est leur lisibilité : elles n’obligent pas les travailleurs ou les autorités de réglementation à déchiffrer des systèmes de boîte noire. Ces lois permettent aux travailleurs de mieux reconnaître les violations de leurs droits », comme les lois sur la semaine de travail équitable qui protègent les travailleurs contre les modifications d’horaires sans préavis ni rémunération (voir ce que nous en disions déjà en 2020). « Plusieurs États et localités ont adopté ces lois en réponse à l’essor des pratiques de planification à flux tendu, où les employeurs, souvent à l’aide de logiciels basés sur les données, tentent d’optimiser les coûts de main-d’œuvre par le biais de modifications d’horaires très imprévisibles. Les protections liées à la semaine de travail équitable ne réglementent pas les détails techniques, comme les données intégrées à l’algorithme ; elles désamorcent plutôt le problème en obligeant les employeurs à indemniser financièrement les travailleurs pour les modifications d’horaires de dernière minute. Les lois sur les horaires équitables et les limites de cadencement illustrent la manière dont les régulateurs peuvent créer de nouveaux droits substantiels pour les travailleurs en élaborant de nouvelles réglementations sur le lieu de travail pour les préjudices induits par les nouvelles technologies, qui n’étaient auparavant pas reconnus par la loi. Ces types de politiques sont facilement applicables et ont un impact concret et direct sur les conditions de travail ». Mettre des limites aux cadences, était d’ailleurs une des propositions que nous avions mises en avant dans notre article sur la surveillance au travail.

Enfin, les chercheurs évoquent un troisième faisceau de règles visant à privilégier les politiques qui renforcent l’autonomie des travailleurs et limitent le pouvoir des entreprises en rééquilibrant les asymétries de pouvoir. « Pour renforcer le pouvoir des travailleurs à l’ère de l’IA, les décideurs politiques doivent reconnaître que le problème fondamental ne réside pas dans la protection de données spécifiques, mais dans la manière dont les nouvelles technologies en milieu de travail peuvent exacerber les asymétries de pouvoir et l’exploitation structurelle », comme l’expliquait le Roosevelt Institute. Ils invitent à ce que les décideurs politiques soutiennent des mécanismes qui renforcent la participation collective des travailleurs à toutes les étapes du développement et du déploiement des technologies en milieu de travail : comme ceux favorisant la négociation collective et ceux favorisant la participation des travailleurs à toutes les étapes du développement, du déploiement et des ajustements des systèmes d’IA. Ensuite, ils recommandent, notamment face à la sophistication des déploiements technologiques, de renforcer les pouvoir d’enquêtes et les capacités des agences du travail et des procureurs et d’imposer plus activement des mesures de transparence en proposant des sanctions proportionnées pour dissuader les abus (et notamment en sanctionnant les dirigeants et pas seulement les entreprises, comme le suggérait le rapport 2025 de l’AI Now Institute). Les chercheurs proposent d’établir un droit privé d’action permettant à une personne ou une organisation de poursuivre une entreprise ou un employeur individuellement comme dans le cadre d’un recours collectif. Ils recommandent également que dans les cas de surveillance ou de décision algorithmique, la charge de la preuve incombe aux employeurs et de renforcer la protection des lanceurs d’alerte comme le proposait la juriste Hannah Bloch-Wehba pour contrer le silence autour du fonctionnement des technologies par ceux qui les déploient. Les révélations éclairent le débat public et incitent à agir. Il faut donc les encourager plus efficacement. 

Et les chercheurs de conclure en rappelant que les entreprises privilégient de plus en plus les profits aux personnes. Pour défaire cette tendance, « nous avons besoin de garanties ancrées dans des droits collectifs », renforcés. Nous devons traiter les travailleurs non pas comme des données, mais leur permettre de peser sur les décisions. 

Ces propositions peuvent paraître radicales, notamment parce que le déploiement des technologies de surveillance au travail est déjà partout très avancé et nécessite d’exiger de faire marche arrière pour faire reculer la surveillance au travail. De réfléchir activement à une dénumérisation voire une rematérialisation… Ils nous montrent néanmoins que nous avons un lourd travail à réaliser pour humaniser à nouveau la relation de travail et qu’elle ne se brise pas sur des indicateurs abscons et défaillants laissant partout les travailleurs sans pouvoir sur le travail. 

Hubert Guillaud

Le 18 novembre, les chercheurs de Data & Society responsables du rapport proposent un webinaire sur le sujet. Son titre : « mettre fin au pipeline de la surveillance via l’IA »

  • ✇Dans les algorithmes
  • Après le Doge, les Doges !
    Si le département de l’Efficacité Gouvernementale (DOGE) a disparu de l’actualité, ce n’est pas le cas de ses actions ni du modèle initié, au contraire. Aux États-Unis, des dizaines de d’État ont mis en place des « missions d’efficacité », inspirées du Doge. Un point commun à nombre de ces initiatives est « l’objectif affiché d’identifier et d’éliminer les inefficacités des administrations publiques grâce à l’intelligence artificielle (IA) » et de promouvoir « un accès élargi aux systèmes de don
     

Après le Doge, les Doges !

15 octobre 2025 à 01:00

Si le département de l’Efficacité Gouvernementale (DOGE) a disparu de l’actualité, ce n’est pas le cas de ses actions ni du modèle initié, au contraire. Aux États-Unis, des dizaines de d’État ont mis en place des « missions d’efficacité », inspirées du Doge. Un point commun à nombre de ces initiatives est « l’objectif affiché d’identifier et d’éliminer les inefficacités des administrations publiques grâce à l’intelligence artificielle (IA) » et de promouvoir « un accès élargi aux systèmes de données étatiques existants », selon une analyse récente de Maddy Dwyer, analyste politique au Centre pour la démocratie et la technologie.

Sur Tech Policy Press, Justin Hendrix en discute justement avec Maddy Dwyer et l’ingénieur Ben Green, dont on a souvent évoqué le travail sur InternetActu et dont on avait lu The smart enough city (MIT Press, 2019, non traduit, voir notre article “Vers des villes politiquement intelligentes”) et qui travaille à un nouveau livre, Algorithmic Realism: Data Science Practices to Promote Social Justice.

Dans son analyse, Maddy Dwyer parle d’une « dogification des administrations américaines » et des gouvernements d’Etats. 29 États américains ont mis en place des initiatives en ce sens, avec des succès pour l’instant mitigés, et un certain nombre (11) ont particulièrement mobilisé les données et l’IA pour se faire. Certains l’ont mobilisé pour simplifier les processus réglementaires, réduire les effectifs et évaluer les financements. Dwyer a établi 5 signaux d’alertes permettant de montrer que ces dogifications pouvaient être problématiques. 

La première concerne le manque de transparence. Du Doge fédéral à ses déclinaisons locales, dans beaucoup de situations nous ne savons pas qui compose la structure, quel est son rôle, quelles sont ses attributions légales, de quels accès aux systèmes dispose-t-il ? 

Le second point d’alerte concerne les violations des règles sur la protection de la vie privée, notamment lorsque le Doge a eu accès à des données sensibles et protégées. Cela rappelle aux Etats qu’ils ont l’obligation de veiller à ce que leurs initiatives d’efficacité soient conformes aux lois sur la confidentialité et la cybersécurité.

Le troisième point d’alerte concerne les failles de sécurité et notamment l’absence de contrôle d’accès, voir l’usurpation d’identité. L’efficacité ne peut se faire au détriment de la sécurité des systèmes. 

Le quatrième signal d’alarme concerne l’instrumentalisation des données gouvernementales, notamment en accélérant les échanges de données entre agences, à des fins non prévues initialement et au risque de saper la confiance des administrés. 

Enfin, un ultime signal d’alarme consiste à utiliser des outils IA sans avoir démontré leur efficacité pour prendre des décisions à haut risque. Les administrations et États locaux devraient donc s’assurer que les outils utilisés sont bien adaptés aux tâches à accomplir. 

Pour Ben Green, ces programmes sont d’abord des programmes austéritaires. Le Doge nous a surtout montré qu’intégrer la technologie dans l’administration peut considérablement échouer. Certes l’IA peut produire du code, mais une grande partie du travail d’ingénieur logiciel ne consiste pas à l’écrire, il consiste à l’intégrer dans un système logiciel complexe, de suivre des protocoles de sécurité appropriés, de concevoir un logiciel capable d’être maintenu dans le temps. Autant de choses que les outils de codage automatisés savent peu faire, rappelle l’ingénieur. Ensuite, ce n’est pas parce qu’un outil d’IA a des capacités ou semble utile qu’il est réellement utile aux travailleurs d’un domaine très spécifique. Déployer un chatbot pour les agents fédéraux ne leur est pas très utile, comme l’expliquait Wired. Un outil d’IA ne sait pas s’intégrer dans un contexte de règles, de réglementations, de processus ni vraiment avec d’autres équipes avec lesquelles les administrations se coordonnent. En vérité, rappelle Green, « il est extrêmement difficile de faire collaborer efficacement les gens et l’IA ». Pour lui, le succès de l’IA s’explique parce qu’elle « rend la mise en œuvre des mesures d’austérité plus rapides ». L’IA est un prétexte, comme le disait Eryk Salvaggio. Elle n’améliore pas l’efficacité du gouvernement. Quand l’IA a été mobilisée au sein de l’Agence des anciens combattants pour réduire les contrats, le code pour distinguer les contrats acceptables des autres a été écrit en une seule journée. Pour Green, le Doge ne s’est jamais soucié de bien faire les choses, ni de garantir le bon fonctionnement des systèmes, mais simplement de rapidité. Sans compter, rappelle Maddy Dwyer, que les administrations subissent désormais une forte pression à avoir recours à l’IA. 

Pour Justin Hendrix, nous sommes aujourd’hui dans un cycle technologique et politique d’expansion de l’IA. Mais ce cycle risque demain de passer. Pourra-t-on utiliser l’IA autrement ? Il est probable que administrations fédérales, étatiques ou locales, se rendent compte que l’IA ne leur apporte pas grande chose et génère surtout des erreurs et de l’opacité, tout comme les entreprises elles-mêmes commencent à déchanter. C’était d’ailleurs l’un des constats du rapport sur l’état du business des l’IA générative publiée par le MIT, qu’évoquait Fortune fin août : « 95% des projets pilotes d’IA générative dans les entreprises échouent ». L’intégration d’outils IA dans les entreprises se révèle particulièrement ardue, et les projets sont souvent peu pertinents, bien moins que les outils des grands acteurs de l’IA. Le rapport soulignait également un décalage dans l’allocation des ressources : plus de la moitié des budgets dédiés à l’IA génératives sont orientés vers le marketing et la vente plutôt que vers l’automatisation des processus métiers. Dans le New York Times, Steve Lohr résumait autrement la situation. « Selon une étude récente de McKinsey & Company, près de huit entreprises sur dix déclarent utiliser l’IA générative, mais tout aussi nombreuses sont celles qui n’ont signalé aucun impact significatif sur leurs résultats financiers. » Malgré l’espoir d’une révolution dans tous les domaines, de la comptabilité back-office au service client, les bénéfices des entreprises à adopter l’IA peinent à émerger. C’est « le paradoxe de l’IA générative », comme dit McKinsey. Et il ressemble furieusement au paradoxe de la productivité de l’introduction des premiers ordinateurs personnels dans les entreprises : malgré les investissements massifs des entreprises dans l’équipement et les nouvelles technologies, les économistes voyaient peu de gains de productivité chez les employés. Selon une enquête de S&P Global, 42% des entreprises qui avaient un projet pilote d’AI l’ont abandonné en 2024, contre 17% l’année précédente. Pour le Gartner, qui analyse depuis des années les cycles de battage médiatique technologiques, l’IA est en train de glisser vers le creux de la désillusion, tout en promettant que c’est l’étape avant qu’une technologie ne devienne un outil à la productivité éprouvé (oubliant de rappeler pourtant, que nombre de technologies mise en avant par cette étude annuelle controversée et fort peu sérieuse, ne sont jamais revenues du creux de la désillusion). Pour l’instant, rappelle Lohr, les seuls gagnants de la course à l’IA ont été les fournisseurs de technologies et de conseils en IA, même si le journaliste tente de nous convaincre du contraire en nous parlant du déploiement de systèmes d’IA chez deux acteurs mondiaux, sans qu’ils soient encore capables de mesurer leurs effets. « Il n’est pas surprenant que les premiers efforts en matière d’IA échouent », clamait Andrew McAfee, codirecteur de l’Initiative sur l’économie numérique du Massachusetts Institute of Technology et fondateur de Workhelix, une société de conseil en IA : « L’innovation est un processus d’échec assez régulier. » 

Reste qu’il est difficile de changer de cap pour ceux qui l’adoptent, rappelle Green, alors que ces bascules favorisent une approche très solutionniste de la technologie. Dans les technologies liées à la ville intelligente, l’adoption rapide de technologies a été déceptive et a conduit à l’abandon de nombre de projets, parce que les équipes, face aux critiques, sont souvent désarmées. Pour lui, l’idée d’une IA indispensable risque surtout de rendre le réveil difficile. « Pour beaucoup de personnes travaillant dans le domaine de la technologie et du gouvernement, la technologie devient la finalité, et on perd de vue ce que nous cherchons réellement à accomplir. On se laisse alors happer par des idées très étroites d’efficacité », au détriment de l’amélioration du gouvernement. Notre navigation à courte vue entre des programmes très pro-techno et leur reflux, conduit à bien plus de stagnation que d’avancées.

Pour Maddy Dwyer tout l’enjeu vise à évaluer s’il existe des alternatives à l’IA plus adaptées pour résoudre nos problèmes, en favorisant la transparence des solutions. Pour Ben Green, nous devrions chercher à mieux comprendre pourquoi l’IA suscite un tel engouement et comment il se propage.

L’engouement pour les solutions technologiques ne date pas de l’IA, comme le montre les nombreuses vagues que nous avons connues. Pour Green, l’enjeu ne consiste pas seulement à expliquer pourquoi l’IA est défaillante, mais à comprendre pourquoi « notre façon de concevoir la technologie est défaillante ». Nous devrions réfléchir à « la façon dont l’information sur la technologie est transmise et partagée à des personnes qui souhaitent simplement améliorer le gouvernement et croient que toutes ces technologies sont efficaces pour y parvenir ». Enfin, dans les discours actuels sur l’efficacité, il faut prendre en compte l’austérité bien sûr, mais plus encore mieux mesurer la profonde méfiance qui s’exprime à l’égard des fonctionnaires. Pourquoi « ne fait-on pas confiance aux bureaucrates pour prendre des décisions à notre place » ? Si l’efficacité est importante, la gauche devrait aussi porter un discours sur l’intérêt général, la dignité, le bien être. L’efficacité est un piège qu’il faut à la fois répondre et dépasser. 

  • ✇Dans les algorithmes
  • De la violence algorithmique… et retour
    Saint Luigi, comment répondre à la violence du capitalisme (Frustration, Les liens qui libèrent, 2025), le petit livre du journaliste Nicolas Framont pose une question de fond qui explique son succès. Comment répondre à la violence du capitalisme ? Le rédacteur en chef du très vivifiant Frustration Magazine part de l’assassinat de Brian Thompson, le PDG d’United HealthCare en décembre 2024 par Luigi Mangione, pour reposer la question qui anime depuis longtemps les mouvements contestataires, à
     

De la violence algorithmique… et retour

14 octobre 2025 à 01:00

Saint Luigi, comment répondre à la violence du capitalisme (Frustration, Les liens qui libèrent, 2025), le petit livre du journaliste Nicolas Framont pose une question de fond qui explique son succès. Comment répondre à la violence du capitalisme ?

Le rédacteur en chef du très vivifiant Frustration Magazine part de l’assassinat de Brian Thompson, le PDG d’United HealthCare en décembre 2024 par Luigi Mangione, pour reposer la question qui anime depuis longtemps les mouvements contestataires, à savoir celle de la violence. Le PDG d’United HealthCare n’a pas été une cible prise au hasard. L’assureur privé américain était largement connu pour sa politique de refus de remboursement de soins de santé, avec un taux de rejet des demandes atteignant 29% en 2024. Thompson a été particulièrement célébré par les milieux économiques pour ses succès économiques à la tête d’United HealthCare, et notamment pour avoir fait s’envoler ce taux de refus, qui n’était que de 10,9% en 2020. Pour cela, comme l’avait révélé ProPublica en novembre 2024, l’assureur a utilisé des algorithmes pour réduire la prise en charge. Même lorsque la prise en charge était acceptée, les employés des centres d’appels de l’assureur étaient formés à retarder les paiements, comme l’expliquaient certains d’entre eux dans un reportage d’Envoyé Spécial (mai 2025). En mai, The Guardian révélait que des pratiques tout aussi problématiques avaient cours pour faire signer aux pensionnaires de maisons de retraites des clauses de non-réanimation en cas de prises en charge hospitalières… Ces politiques ont permis à l’assureur de multiplier ses profits : 12 milliards en 2021, 16 milliards en 2023. Les profits records que le PDG a réalisés ont directement été réalisés « sur les invalidités à vie, les pertes de chance de survie et les décès de milliers de patients à qui des soins postopératoires ont été refusés ». Sur les douilles que Mangione a tiré étaient inscrit les termes Delay, Deny, Defend, une référence à un court essai signé d’un expert en assurance, Jay Feinman (Delay, Deny, Defend : why insurance companies don’t pay claims and what you can do about it, Portfolio Hardcover, 2010, non traduit – Retarder, refuser, défendre : pourquoi les compagnies d’assurances ne remboursent pas les demandes et que pouvez-vous faire pour y remédier).

Pour beaucoup d’Américains, Luigi Mangione est apparu comme le Robin des bois, le vengeur masqué des victimes de la rapacité des assurances de santé, comme le constatait récemment Le Monde. Par son geste, Mangione rappelait que derrière l’abstraction des profits de United HealthCare, il y avait des vies en jeu. Aux Etats-Unis, des centaines de milliers d’Américains sont déclarés en faillite à cause du coût des soins de santé quand ils ne meurent pas faute de soins. Or, rappelle Framont, des Etats-Unis à chez nous, la dégradation du système de soin est un choix politique et économique. Le sort des malades, là-bas, comme ici, est recouvert de discussions chiffrées, technicisées dans des décisions budgétaires, des règles qui définissent ce qui est pris en charge et ce qui ne l’est pas en fonction de l’intérêt des assureurs et du budget de la santé. On y évoque rarement les impacts bien réels que ces décisions entraînent. Derrière l’augmentation de la rentabilité des assurances de santé privées, c’est la qualité de l’aide publique qui est dégradée. C’est au nom du profit que Purdue Pharma a libéré ses antidouleurs à base d’opioïdes causant la mort par overdose de près d’un million d’Américains. La famille Sackler, propriétaire de Purdue Pharma et qui a commercialisé de manière très agressive l’oxycodone, a pour l’instant évité toute condamnation personnelle malgré le désastre humain provoqué, comme le montrait le documentaire de Laura Poitras, Toute la beauté et le sang versé (2022). 

Cette violence, très concrète, très réelle de la classe dominante est laissée sans réponse, rappelle très justement Framont. Derrière les chiffres, les réalités sociales sont invisibilisées. Des médias aux élections, l’accès à l’expression reste très socialement distribué et d’une manière toujours plus inéquitable, comme le montre le baromètre de la représentativité dans les médias de l’Arcom en France. On comprend alors que l’action radicale ou violente devienne le seul moyen d’expression des classes sociales qui n’ont plus leur mot à dire. Des gilets jaunes à Mangione, les milieux populaires tentent de rappeler aux possédants les dégradations sociales et les morts que leurs décisions ont causés.

« Make capitalists afraid again »

Dans les rapports de classe, la violence a toujours été présente, rappelle Nicolas Framont. Les violences, les séquestrations, les menaces, les intimidations permettent bien souvent d’attirer l’attention médiatique. Dans le monde du travail, le conflit paye, rappelle Framont qui soulignait d’ailleurs l’année dernière que les grèves et les conflits sociaux conduisent majoritairement à une amélioration des conditions de travail (en s’appuyant sur des études de la Dares, la Direction de l’Animation de la recherche, des Études et des Statistiques du ministère du travail). Elle a toujours été un levier pour rétablir un rapport de force. L’activiste anarchiste américain Peter Gelderloos a montré dans son livre, Comment la non-violence protège l’État : essai sur l’inefficacité des mouvements sociaux (Editions libre, 2021) que la violence des mouvements sociaux victorieux a toujours été gommée par l’histoire. Le mouvement des droits civiques aux Etats-Unis est aujourd’hui souvent assimilé aux marches pacifiques de Martin Luther King ou à l’opposition silencieuse de Rosa Parks. Or, pour Gelderloos, ce sont les émeutes violentes qui permettent les victoires populaires. Et Framont de rappeler que les congés payés n’ont pas été obtenus par la victoire du Front populaire, mais bien suite à un intense mouvement social de grèves et d’occupation d’usines. Les saccages, les sabotages, l’émeute, les occupations violentes ont rythmé toutes les contestations sociales du XIXe siècle à la veille de la Seconde Guerre mondiale. 

Mais ces actions violentes n’ont plus le vent en poupe. Elles ont été marginalisées dans les contestations ouvrières comme écologistes. Elles sont souvent devenues des actions symboliques, désarmées, à l’image de la manifestation qui a depuis longtemps remplacé les émeutes. Des manifestations « indolores pour la classe dominante ». Tant et si bien qu’elles finissent par décrédibiliser le mode d’action lui-même qui ne porte même plus ses fruits, à l’image des grèves contre les lois travail ou la réforme des retraites, massives, soutenues par la population… et qui n’ont rien renversé quand l’essentiel de la population était contre ces réformes. Framont dénonce les organisations syndicales et politiques qui obtiennent « l’oreille de la classe dominante en échange de la canalisation de la violence ». Les rendez-vous aux ministères, les Etats généraux et les Ségur se succèdent… sans plus rien obtenir. « Dans le monde du travail, le dialogue social aboutit surtout à des reculs pour les salariés, sauf s’ils installent un conflit ». « Ceux à qui l’on sous-traite la contestation sociale » ont renoncé à toute forme de violence, permettant « à celle de la bourgeoisie de se déployer de façon décomplexée ».

La violence n’est ni un moyen ni une fin

Framont ne fait pas l’apologie de Mangione ni du meurtre. Mais il pose la question de la violence dans nos sociétés, rappelant d’où elle vient, contre qui elle s’exerce d’abord. Et soulignant que les dominants, violents à l’encontre des autres, en appellent toujours à la non-violence des dominés. 

Nous avons longtemps vécu dans une société se présentant comme ouverte, démocratique, méritocratique, où le dépassement des inégalités serait possible, au moins pour quelques individus, rappelle le journaliste. Tenter sa chance au jeu de l’ascension sociale permet d’être moins occupé à se battre collectivement pour changer les règles du jeu. Mais, quand les règles du jeu sont figées, qu’il devient impossible de les faire bouger, on comprend que pour certains, il ne reste que l’action sacrificielle, telle qu’elle se déchaîne aux Etats-Unis, quelles que soient ses motivations. La violence permet alors de s’émanciper de l’inaction politique et sociale, comme le revendiquaient les Brigades rouges ou Action directe dans les années 80. Désormais, l’hyperviolence est l’action de loups solitaires. La solitude de Luigi Mangione, son action politique sans politique, inclassable (Mangione semble être plus à droite qu’à gauche de l’échiquier politique en tout cas, il a semble-t-il exprimé des opinions plus conservatrices qu’autre chose) est devenue une marque de sincérité. Sa violence est celle des hors-la-loi. Elle est une réponse à l’anesthésie de la violence collective. Le risque, prévient Framont, c’est que « la violence s’impose à nous comme moyen parce que la société est violente ». Pourtant, conclut Framont, la violence n’est ni un moyen ni une fin. Aujourd’hui, la violence économique des entreprises et des politiques, les violences répressives, les violences étatiques, les violences des dominants (de celles des malfaiteurs à celle des entreprises) ont anesthésié les violences populaires. Les systèmes oppressifs se renforcent au risque de laisser comme seule réponse une escalade délétère. 

Framont rappelle pourtant que les régimes politiques ne peuvent légaliser leur propre contestation. Le droit à l’insurrection inscrit dans l’article 35 de la Déclaration des droits de l’homme de 1793 a rapidement été abrogé. Toute action radicale qui viserait à s’en prendre à la propriété lucrative, toute action radicalement transformatrice est condamnée à être illégale. Mais Framont de poser une question dérangeante : « pensez-vous sincèrement qu’il va être possible de survivre aux décennies à venir sans recourir à la désobéissance civile et à une réévaluation à la hausse de la radicalité de nos réponses individuelles et collectives ? » Quand l’écoute est devenue impossible, quand le déni est la seule réponse, quand la contestation d’une mesure comme l’allongement de la durée du travail aussi massivement soutenue pour être aussitôt déniée… quelle option reste-t-il aux gens ?

La violence est toujours effrayante. Nul n’en veut. Mais quand des contestations fondamentalement pacifistes sont réprimées violemment… et ne permettent plus d’avancées (rappelons-nous les constats que dressaient la politologue Erica Chenoweth qui pointait que la contestation pacifique ne fonctionnait plus), le risque est fort qu’à la radicalité des uns réponde la radicalité des autres. La radicalité du capitalisme actuel et la terreur algorithmique qu’il mobilise, ne nous mènent vers aucun apaisement.

Hubert Guillaud

La couverture du livre Saint Luigi.
  • ✇Dans les algorithmes
  • De l’apocalypse économique de l’IA
    « L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre à 100 % votre patron de vous licencier et de vous remplacer par une IA incapable de le faire ». « L’IA est l’amiante que nous injectons dans les murs de notre société et que nos descendants déterreront pendant des générations ».  « Chaque génération d’IA a été considérablement plus coûteuse que la précédente, et chaque nouveau client IA a été plus cher », explique Cory Doctorow sur son blog. Qui rappelle que, même
     

De l’apocalypse économique de l’IA

13 octobre 2025 à 01:00

« L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre à 100 % votre patron de vous licencier et de vous remplacer par une IA incapable de le faire ».

« L’IA est l’amiante que nous injectons dans les murs de notre société et que nos descendants déterreront pendant des générations ». 

« Chaque génération d’IA a été considérablement plus coûteuse que la précédente, et chaque nouveau client IA a été plus cher », explique Cory Doctorow sur son blog. Qui rappelle que, même pour Wall Street Journal, la bulle de l’IA est « plus importante que toute autre bulle de l’histoire récente ». Pour Doctorow, la comptabilité est devenue « rocambolesque ». Nvidia investit des milliards dans un acteur de l’IA qui investit dans les puces de Nvidia, comme s’en moque un mème récent. Pour Bain & Co, pour rentabiliser les investissements actuels dans l’IA, le secteur doit générer 2000 milliards de dollars d’ici 2030, soit un chiffre d’affaire supérieur à celui combiné d’Amazon, Google, Microsoft, Apple, Nvidia et Meta – et ce alors que Morgan Stanley estime que le secteur ne génère que 45 milliards de dollars par an. « L’IA ne va pas se réveiller, devenir super-intelligente et vous transformer en trombones ; en revanche, les riches, animés par la psychose de l’investissement en IA, vont très certainement vous appauvrir considérablement ».

  • ✇Dans les algorithmes
  • Automagique
    « Le vibe coding et les assistants ne sont pas des technologies automagiques. Ils font des erreurs en permanence et n’ont pas de vision d’ensemble. »Thomas Gerbaud sur le vibe coding en ses limites.
     
  • ✇Dans les algorithmes
  • … A l’IA pour faire régner la terreur
    Dans sa newsletter Blood in the Machine, l’historien Brian Merchant s’entretient avec le chercheur en sciences cognitives Hagen Blix qui vient de publier avec la spécialiste de l’IA, Ingeborg Glimmer, Pourquoi nous avons peur de l’IA (Why We Fear AI, Common Notions, 2025, non traduit). Dans leur livre, Blix et Glimmer passent en revue les craintes que génère l’IA, des peurs apocalyptiques à celles qui annoncent la destruction des emplois, même si personne ne croit vraiment ni aux unes ni aux aut
     

… A l’IA pour faire régner la terreur

9 octobre 2025 à 01:00


Dans sa newsletter Blood in the Machine, l’historien Brian Merchant s’entretient avec le chercheur en sciences cognitives Hagen Blix qui vient de publier avec la spécialiste de l’IA, Ingeborg Glimmer, Pourquoi nous avons peur de l’IA (Why We Fear AI, Common Notions, 2025, non traduit). Dans leur livre, Blix et Glimmer passent en revue les craintes que génère l’IA, des peurs apocalyptiques à celles qui annoncent la destruction des emplois, même si personne ne croit vraiment ni aux unes ni aux autres. Or, ce qui est bien moins interrogé, parce que personne ne le voit comme un risque, c’est le fait que la technologie soit un moyen de produire des gains de productivité. C’est-à-dire le fait que de nombreuses technologies soient développées pour accroître le contrôle de la direction sur les lieux de travail et pour déqualifier les employés (comme le suggère le sociologue Juan Sebastian Carbonell dans son livre), c’est-à-dire en rémunérant des travailleurs auparavant qualifiés comme des travailleurs non qualifiés. « Il faut considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité »

De nombreuses études indiquent que les augmentations de productivité ne sont pas au rendez-vous, malgré l’empressement de beaucoup à ânonner l’idée que l’IA leur ferait gagner du temps. Par contre, on constate dans de nombreux secteurs, que les emplois se dégradent, comme c’est le cas des traducteurs. Les machines savent produire des traductions de mauvaises qualités, mais pas au point d’être inutiles. Et « l’offre de cette version médiocre est si importante qu’elle fait baisser les prix et les salaires »

Pour Blix, nous devrions considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité. Et si c’est le cas, il faut comprendre que la fin de l’essor de l’IA n’est pas pour demain, quand bien même la productivité n’augmente pas. C’est en cela qu’il faut entendre la peur sourde de l’IA. Elle est « un vecteur omnidirectionnel et omniprésent de déqualification ». Jusqu’à présent, dans tous les secteurs où l’on maniait le langage notamment, l’industrialisation était peu poussée. Or, la promesse de l’IA est bien celle d’une prolétarisation partout où elle s’infiltre. Pour Blix, l’IA permet de créer une « bifurcation » selon la valeur. Si vous êtes avocat spécialisé en fusion d’entreprises, vous avez peu de chance d’être remplacé par une IA, car la moindre erreur pourrait coûter des millions de dollars. Mais si vous êtes avocat commis d’office, l’IA va vous aider à traiter bien plus de dossiers, même si vous ne les gagnez pas tous. Pour Blix, les services coûteux vont l’être de plus en plus, alors que les services les moins coûteux seront peut-être moins chers encore, mais avec de moins en moins de garanties de qualité. « L’IA fabrique des produits tellement moins chers qu’ils surpassent la concurrence non pas en qualité, mais en prix ». Pour lui, c’est « une attaque d’en haut contre les salaires ». 

Mais ce n’est pas une attaque à l’encontre de n’importe quels secteurs. Les secteurs que l’IA s’apprête à déstabiliser regroupent des emplois où les gens étaient relativement privilégiés et éduqués. Ils étaient ceux de gens qui « constituaient un rempart contre le système d’exploitation dans lequel nous vivons », même si beaucoup de ces personnes n’étaient jusqu’à présent pas forcément les plus syndiquées parce que pas nécessairement les plus hostiles au développement du capitalisme. C’est là quelque chose qui risque de bouger, esquisse Blix, comme quand les scénaristes et les acteurs se sont mis en grève l’année dernière, alors que ce n’était pas jusqu’alors un secteur très politisé. Brian Merchant dresse le même constat en évoquant des discussions avec des designers inquiets face à la précarisation qui les menace. Peut-être effectivement que ces perspectives vont faire réagir ceux dont les intérêts collectifs sont mis en danger. 

« L’IA est un moyen de s’attaquer aux salaires et à la qualité du travail ». Sans compter que ces outils sont excellents à discipliner les travailleurs par les scripts qu’ils imposent. « Pourquoi vivons-nous dans une société où la technologie est conçue comme un outil permettant aux gens d’avoir moins de contrôle sur leur travail ? La technologie devrait être développée de manière à rendre le travail plus agréable. Mais les intérêts de ceux qui financent la technologie, les entreprises et les patrons, sont souvent hostiles à ceux des travailleurs, car ces derniers souhaitent faire les choses différemment. On veut que son travail soit confortable, intéressant et peut-être convivial, mais l’entreprise cherche à exercer un contrôle », une pression, notamment pour que le travail lui coûte le moins possible. Par nature, il y a une forme d’hostilité intrinsèque à l’égard de ceux qu’elle emploie. « Les Luddites n’étaient pas opposés à la technologie. Ils étaient opposés à la technologie comme outil d’écrasement de la classe ouvrière ». Et il est probable que nous ayons à nous opposer à l’IA comme outil d’écrasement de toutes les autres. 

Le but d’un système est ce qu’il fait

Dans un article pour le site Liberal Currents, Blix et Glimmer vont plus loin encore. Ils estiment que dénoncer la hype de l’IA ne nous mène nulle part. Qualifier l’IA de bulle, d’escroquerie ou de poudre de perlimpimpin ne nous aide à comprendre ni à agir. Même si le battage médiatique de l’intelligence artificielle était moins fort, les problèmes qu’elle cause persisteraient. Pour les deux auteurs, il nous faut mieux qualifier son utilité pour saisir ce qu’elle accomplit réellement. 

Elle est d’abord massivement utilisée pour produire de la désinformation et de la propagande, c’est-à-dire manipuler nos émotions et amplifier nos résonances affectives. Elle est d’abord le moyen « d’innonder la zone de merde », comme le recommande le stratège extrêmiste Steve Bannon. Elle sert d’abord « à attiser sans relâche le scandale et l’indignation jusqu’à ce que personne ne puisse plus suivre les attaques contre la démocratie, la science, les immigrants, les Noirs, les personnes queer, les femmes, les anciens combattants ou les travailleurs. L’objectif : faire perdre aux gens le sens de ce qui se passe, de la réalité, afin qu’ils soient politiquement paralysés et incapables d’agir. » Les productions de l’IA générative n’y arrivent certainement pas toutes seules, mais reconnaissons qu’elles ont largement participé de la confusion ambiante ces dernières années. « Le fascisme, quant à lui, est engagé dans un jeu de pouvoir et d’esthétique qui considère le désir de vérité comme un aveu de faiblesse. Il adore les générateurs de conneries, car il ne peut concevoir un débat que comme une lutte de pouvoir, un moyen de gagner un public et des adeptes, mais jamais comme un processus social visant à la délibération, à l’émancipation ou au progrès vers la vérité. Les fascistes tentent, bien sûr, d’exploiter les conditions mêmes du discours (la volonté de présumer la bonne foi, de considérer l’égalité sinon comme une condition, du moins comme un objectif louable de progrès social, etc.). Prenons, par exemple, les débats sur la liberté d’expression comme un moyen pour retourner l’ennemi (c’est-à-dire nous). Les fascistes proclament sans cesse leur défense et leur amour de la liberté d’expression. Ils arrêtent également des personnes pour avoir proféré des discours, interdisent des livres » et s’en prennent à tous ceux qui n’expriment pas les mêmes idées qu’eux. « Considérer cela comme une incohérence, ou une erreur intellectuelle, revient à mal comprendre le projet lui-même : les fascistes ne cherchent pas la cohérence, ni à créer un monde rationnel et raisonnable, régi par des règles que des personnes libres et égales se donnent. Cette contradiction apparente s’inscrit plutôt dans la même logique stratégique que l’inondation de la zone de merde : utiliser tous les outils nécessaires pour accroître son pouvoir, renforcer les hiérarchies et consolider ses privilèges.»

« Cette attaque politique contre la possibilité d’un discours de bonne foi est-elle favorisée par le battage médiatique ? La situation serait-elle meilleure si les modèles étaient améliorés ou si la publicité était atténuée ? Ou est-ce plutôt l’incapacité des modèles à distinguer les mots du monde qui les rend si utiles aux visées fascistes ? Si tel est le cas, qualifier l’IA de battage médiatique revient à penser que les fascistes sont simplement stupides ou qu’ils commettent une erreur en étant incohérents. Mais les fascistes ne se trompent ni sur la nature de la liberté d’expression, ni sur la nature du « discours » produit par un LLM. Ils savent ce qu’ils veulent, ce qu’ils font et où cela mène. »

Ensuite, l’IA est un outil de terreur politique. Outil de la surveillance et du contrôle, le développement de l’IA tout azimut impose peu à peu sa terreur. Actuellement, le gouvernement américain utilise l’IA pour analyser les publications sur les réseaux sociaux à un niveau sans précédent et recueillir des « renseignements » à grande échelle. L’initiative « Catch and Revoke » du département d’État, par exemple, utilise l’IA pour annuler les visas des étrangers dont les propos ne sont pas suffisamment alignés avec les objectifs de politique étrangère du gouvernement. « S’agit-il d’un problème de battage médiatique ? Non  ! »

« Qualifier l’IA de « battage médiatique » met en évidence un écart entre un argument de vente et les performances réelles du modèle. Lorsqu’un modèle à succès est mis en pratique, il commet des « erreurs » (ou en commet à une fréquence déraisonnable). Qu’en est-il des outils d’IA du département d’État ? Leur IA de surveillance des étudiants commettra certainement des « erreurs » : elle signalera des personnes qui ne sont pas titulaires de visas étudiants ou des personnes pour des propos sans rapport avec le sujet », sans que ces erreurs ne soient décisives, au contraire. L’expulsion de gens qui n’avaient pas à l’être n’est qu’un dommage collatéral sans importance. Alors peut-être que quelqu’un au département d’État s’est laissé prendre et a réellement cru que ces modèles surveillaient mieux qu’ils ne le font en réalité. Nous n’en savons rien. Mais le sujet n’est pas là ! 

La journaliste et chercheuse Sophia Goodfriend qualifie toute cette affaire de « rafle de l’IA » et observe avec perspicacité : « Là où l’IA échoue techniquement, elle tient ses promesses idéologiques ». Indubitablement, des personnes sont faussement classées comme ayant tenu des propos non autorisés par les défenseurs autoproclamés de la liberté d’expression. Mais ces erreurs de classification ne sont des erreurs qu’au sens strict du terme. Le but du département d’Etat de Marco Rubio est d’augmenter les expulsions et de supprimer certains types de discours, pas d’être précis. En fait, ce programme politique vise surtout l’échelle, le traitement de masse, c’est-à-dire atteindre le plus grand nombre de personnes. Et pour cela, l’IA est particulièrement efficace

« Dans notre livre, nous affirmons que c’est précisément leur nature, sujette aux erreurs, leurs fragilités, qui rend l’IA si efficace pour la répression politique. C’est l’imprévisibilité des personnes qui seront prises dans ses filets, et l’insondabilité de la boîte noire de l’IA qui rendent ces outils si efficaces pour générer de l’anxiété, et qui les rendent si utiles pour la suppression de la parole ». Et les deux auteurs de comparer cela à la reconnaissance faciale. « Certes, les dommages causés par les erreurs d’identification des personnes causées par les systèmes de reconnaissances faciales sont bien réels. Reconnaissons d’abord que même si les algorithmes étaient parfaits et ne se trompaient jamais, ils favoriseraient tout de même un système raciste qui vise souvent à produire une déshumanisation violente… Mais aujourd’hui, les algorithmes de la reconnaissance faciale  commettent bel et bien des erreurs d’identification, malgré leurs prétentions. Qualifier cela de « bêtise » nous aide-t-il à comprendre le problème ?»

Les « erreurs d’identification de la reconnaissance faciale ne sont pas distribuées aléatoirement, bien au contraire. Lorsque les erreurs de l’IA sont si clairement réparties de manière inégale et qu’elles sont source de préjudices – de fausses arrestations et de possibles violences policières –, il est évidemment inutile de les qualifier simplement d’« erreurs », de « bêtise » ou de théoriser cela à travers le prisme du « battage médiatique ». Ce que ce système produit, ce ne sont pas des erreurs, c’est de la terreur. Et cette terreur a une histoire et des liens évidents avec la pseudoscience et les structures politiques racistes : de la phrénologie à la reconnaissance faciale, de l’esclavage aux lois Jim Crow – jusqu’aux nouveaux Jim Crow qu’évoquaient Michelle Alexander ou Ruha Benjamin. Une fois ces liens établis, le caractère semi-aléatoire, les « erreurs », les « fausses » arrestations apparaissent non pas comme des accidents, mais comme faisant partie intégrante de l’IA en tant que projet politique. »

Ces erreurs non-aléatoires se situent précisément dans l’écart entre le discours commercial et la réalité. C’est cet écart qui offre un déni plausible aux entreprises comme aux politiques. « C’est l’algorithme qui a foiré », nous diront-ils sans doute, et que, par conséquent, personne n’est réellement responsable des fausses arrestations racistes. « Mais le fait même que les erreurs d’identification soient prévisibles au niveau des populations (on sait quels groupes seront le plus souvent mal identifiés), et imprévisibles au niveau individuel (personne ne sait à l’avance qui sera identifié de manière erronée) renforce également son utilité pour le projet politique de production de terreur politique : il s’agit, là encore, de susciter le sentiment généralisé que « cela pourrait arriver à n’importe lequel d’entre nous ». Cela est aussi vrai pour l’IA que pour d’autres outils plus anciens de terreur politique et d’intimidation policière. Pourtant, personne n’a jamais suggéré que les arguments de vente pour les armes « non létales » comme les balles en caoutchouc étaient du battage médiatique. Une balle en caoutchouc peut parfois aveugler, voire tuer, et il s’agit là aussi d’une « erreur » distribuée de manière semi-aléatoire, un écart entre l’argumentaire et la réalité. Les balles en caoutchouc, comme l’IA de surveillance et le système de reconnaissance faciale, fonctionnent comme des outils de contrôle politique, précisément parce que cet écart est fonctionnel, et non accessoire, au système ». Pour reprendre les termes du cybernéticien Stafford Beer, « il est inutile de prétendre que la finalité d’un système est de faire ce qu’il échoue constamment à faire ». «  Le but d’un système est ce qu’il fait », disait-il.  Et se concentrer principalement sur ce que le système ne peut pas réellement faire (comme le fait le battage médiatique) risque de détourner l’attention de ce qu’il fait réellement.

Enfin, l’IA est un outil pour écraser les salaires, défendent les deux auteurs. Des critiques comme celles d’Emily Bender et Alex Hanna ont, à juste titre, souligné que l’affirmation de notre remplacement par les machines – et leur répétition incessante par des médias peu critiques – sont essentiellement des formes de publicité pour ces outils. Pour Blix et Glimmer, « ce discours s’adresse avant tout aux investisseurs et aux entreprises clientes pour qui remplacer les travailleurs par des outils pourrait être bénéfique pour leurs résultats. Pour les travailleurs, ces mots ne sonnent certainement pas comme de la publicité, mais comme une menace ». A ces derniers on conseille de se mettre à l’IA avant que la concurrence ne les écrase et que leur emploi ne se délocalise dans cette nouvelle machinerie. Plutôt que de se défendre, on leur conseille par avance d’accepter l’inéluctable. « Taisez-vous et réduisez vos attentes, car vous êtes remplaçables !», tel est le refrain ambiant. 

« C’est le suffixe « -able » dans « remplaçable » qui est crucial ici. Pour la menace, c’est l’évocation de la possibilité d’un remplacement qui compte. C’est ce que la loi de l’offre et de la demande implique en matière d’offre de personnes (dotées de compétences particulières) : une offre accrue d’un substitut potentiel (l’IA) entraînera une baisse du prix d’une marchandise (le salaire des travailleurs). »

Le discours de l’inéluctabilité de l’IA, de la formation comme seule réponse, porte également une teneur fortement antisyndicale, qui « trahit le véritable objectif économique de l’IA : c’est un outil pour faire baisser les salaires ». « Et pour atteindre cet objectif, la capacité réelle de l’outil à remplacer le travail effectué par des personnes à qualité égale est souvent sans importance. Après tout, la remplaçabilité ne se résume pas à une simple équivalence, mais le plus souvent à un compromis qualité-prix. Les gens aiment acheter ce qu’ils estiment être le meilleur rapport qualité-prix. Les entreprises font de même, substituant souvent des intrants moins chers (compétences, matériel, etc.) pour réduire leurs coûts, même si cela nuit à la qualité. C’est l’horizon évident de l’IA : non pas l’automatisation complète, mais le modèle de la fast fashion ou d’Ikea : proposer une qualité inférieure à des prix nettement inférieurs ». D’ailleurs, rappellent Blix et Glimmer, les arguments de vente d’Ikea ou de la fast fashion exagèrent eux aussi souvent la qualité de leurs produits. 

« Des codeurs aux assistants juridiques, des tuteurs aux thérapeutes, les investissements pour produire des versions bon marché assistées par IA sont en bonne voie, et ils vont probablement faire baisser les salaires ». Les stratégies seront certainement différentes selon les métiers. Reste que L’attaque contre les travailleurs, la qualité des emplois et la qualité des produits que nous produisons et consommons est le problème que produit l’IA, et ce problème existe indépendamment du battage médiatique. « À moins d’être un investisseur en capital-risque, vous n’êtes pas la cible de la publicité pour l’IA, vous êtes la cible de la menace. Nous n’avons que faire de termes comme la hype qui avertissent les investisseurs qu’ils pourraient faire de mauvais investissements ; nous avons besoin de termes utiles pour riposter.»

L’éclatement à venir de la bulle de l’IA n’explique par pourquoi l’information est inondée de merde, n’explique pas pourquoi les erreurs des systèmes du social vont continuer. La dénonciation de la bulle et de la hype est finalement « étroitement technique, trop axée sur l’identification des mensonges, plutôt que sur l’identification des projets politiques ». Il ne faut pas commettre l’erreur de penser que le simple fait qu’une déclaration soit mensongère suffit à la négliger. Nous devrions prendre les mensonges bien plus au sérieux, car ils sont souvent révélateurs d’autre chose, même s’ils ne sont pas vrais. 

Pour Blix et Glimmer nous devons nous concentrer sur les projets politiques. « Nous devons appeler l’IA pour ce qu’elle est : une arme entre les mains des puissants. Prenons le projet de dépression salariale au sérieux : appelons-le une guerre des classes par l’emmerdification, la lutte antisyndicale automatisée, une machine à conneries pour des boulots à la con, ou encore le techno-taylorisme…» « Désemmerdifions le monde ! »

La couverture de Why we fear AI.
  • ✇Dans les algorithmes
  • De l’internet de la répression…
    A New York, l’Assemblée générale des Nations Unies a ouvert sa quatre-vingtième session. « Le podium de marbre, les drapeaux, les discours solennels, tout cela vous semblera familier : des présidents invoquant la démocratie, des Premiers ministres promettant de protéger les droits humains, des ministres des Affaires étrangères mettant en garde contre les dangers de l’autoritarisme. Le langage est toujours noble, le symbolisme toujours lourd ».  Mais, pendant que les délégués s’affairent à se
     

De l’internet de la répression…

8 octobre 2025 à 01:00

A New York, l’Assemblée générale des Nations Unies a ouvert sa quatre-vingtième session. « Le podium de marbre, les drapeaux, les discours solennels, tout cela vous semblera familier : des présidents invoquant la démocratie, des Premiers ministres promettant de protéger les droits humains, des ministres des Affaires étrangères mettant en garde contre les dangers de l’autoritarisme. Le langage est toujours noble, le symbolisme toujours lourd ». 

Mais, pendant que les délégués s’affairent à se féliciter de défendre la liberté, un coup d’État silencieux se déroule au cœur des infrastructures même d’internet, explique Konstantinos Komaitis dans une vibrante tribune pour Tech Policy Press. Pour le chercheur au Digital Forensics Research Lab (DFRLab) de l’Atlantic Council, un think tank américain, internet est largement devenu un outil de répression. Les rapports « le coup d’Etat d’internet » d’InterSecLab et celui de Follow the Money sur l’exportation par la Chine de ses technologies de censure sont « comme des dépêches venues des premières lignes de cette prise de contrôle ». Inspection des échanges, surveillance en temps réel, limitation du trafic, blocage des VPN… Les gouvernements sont les premiers à adhérer et acheter ces solutions, notamment en Asie et en Afrique, expliquait Wired. Mais ce n’est plus seulement le cas des autocraties… La professeure de droit Elizabeth Daniel Vasquez expliquait dans une longue enquête pour le New York Times, comment la police de New York a mis les New-Yorkais sous surveillance continue au nom de la lutte contre la criminalité. La police a mis en place d’innombrables dispositifs pour capter les données des habitants, qu’elle conserve sans mandat, lui permettant de reconstituer les parcours de nombre d’habitants, de connaître leurs échanges en ligne. Joseph Cox pour 404media vient de révéler que l’ICE, l’agence fédérale de l’immigration et des douanes américaines, venait d’acquérir un outil lui permettant de collecter d’innombrables données des téléphones des Américains et notamment de suivre leurs déplacements. Sous couvert de sécurité des réseaux, les messages sont surveillés, leur distribution empêchée, l’accès aux VPN désactivé. Et ces systèmes ne sont pas uniquement les créations de régimes paranoïaques, mais « des produits commerciaux vendus à l’international, accompagnés de manuels de formation, de contrats de maintenance et de supports techniques ». La censure est désormais une industrie qui repose bien souvent sur des technologies occidentales. « Les démocraties condamnent le contrôle autoritaire tandis que leurs entreprises contribuent à en fournir les rouages ». « L’hypocrisie est stupéfiante et corrosive ». 

Les régimes autoritaires ont toujours cherché à museler la dissidence et à monopoliser les discours. Ce qui a changé, c’est l’industrialisation de ce contrôle. Il ne s’agit plus du pare-feu d’un seul pays ; il s’agit d’un modèle d’autoritarisme numérique mondial, dénonce Konstantinos Komaitis. La tragédie est que ce coup d’État progresse au moment même où les démocraties vacillent. Partout dans le monde, les institutions sont assiégées, la société civile s’affaiblit, la désinformation est omniprésente et la confiance en chute libre

Dans ce contexte, la tentation d’adopter des outils de contrôle numérique est immense. Pourquoi ne pas bloquer des plateformes au nom de la « sécurité » ? Pourquoi ne pas surveiller les militants pour préserver la « stabilité » ?… Ce qui n’était au départ qu’une pratique autoritaire à l’étranger devient accessible, voire séduisante, aux démocraties en difficulté en Occident. Les normes évoluent en silence. Ce qui semblait autrefois impensable devient la norme. Et pendant ce temps, la promesse originelle d’Internet – comme espace de dissidence, de connexion et d’imagination – s’érode.

« La censure est désormais un bien d’exportation ». Et une fois ces infrastructures bien installées, elles sont extrêmement difficiles à démanteler. « Le coup d’État n’est pas métaphorique. Il s’agit d’une capture structurelle, d’une réécriture des règles, d’une prise de pouvoir – sauf qu’il se déroule au ralenti, presque invisiblement, jusqu’au jour où l’Internet ouvert disparaît »

Les gouvernements démocratiques continueront-ils à faire de belles déclarations tandis que leurs propres entreprises aident à doter les régimes autoritaires d’outils de répression, comme c’est le cas en Chine ? L’ONU adoptera-t-elle à nouveau des résolutions qui paraissent nobles, mais qui resteront sans effet ? La société civile sera-t-elle laissée seule à lutter, sous-financée et dépassée ? Ou la communauté internationale reconnaîtra-t-elle enfin que la défense de l’Internet ouvert est aussi urgente que la défense de la souveraineté territoriale ou de la sécurité climatique. La réponse déterminera la réussite du coup d’État. 

Contrôles à l’exportation des technologies de censure, exigences de transparence contraignantes pour les fournisseurs, sanctions en cas de complicité, soutien aux outils de contournement, investissement dans les organisations de défense des droits numériques : tout cela n’est pas un luxe, rappelle Komaitis. Ces mesures constituent le strict minimum si nous voulons préserver ne serait-ce qu’un semblant de l’esprit fondateur d’Internet. À la 80e session de l’Assemblée générale des Nations Unies, les dirigeants mondiaux ont l’occasion de prouver qu’ils comprennent les enjeux, non seulement de l’architecture technique d’un réseau, mais aussi de l’architecture morale de la liberté mondiale. « S’ils échouent, s’ils détournent le regard, s’ils laissent ce coup d’État se poursuivre sans être contesté, alors l’Internet ouvert ne s’éteindra pas d’un coup. Il disparaîtra clic après clic, pare-feu après pare-feu, jusqu’au jour où nous nous réveillerons et découvrirons que l’espace autrefois annoncé comme la plus grande expérience d’ouverture de l’humanité n’est plus qu’un instrument de contrôle parmi d’autres. Et là, il sera trop tard pour riposter. »

Bon, il n’y a pas que les démocraties qui démantèlent l’internet libre et ouvert, bien sûr. Global Voices par exemple revient sur la manière dont le gouvernement russe restreint considérablement l’internet russe, notamment en créant une longue liste de sites à bloquer. Mais depuis peu, les autorités russes sont passés de la liste noire à la liste blanche, une liste de sites à ne pas bloquer, alors que les coupures du réseau sont de plus en plus fréquentes en Russie. Mais surtout, explique l’article, la Russie ne cible plus des plateformes ou des services individuels : « elle démantèle systématiquement l’infrastructure technique qui permet les communications internet gratuites, y compris les appels vocaux » ou l’accès aux VPN. Les censeurs russes identifient par exemple les protocoles VoIP (voix sur IP) quelle que soit l’application utilisée, pour les dégrader au niveau du protocole et non plus seulement seulement bloquer telle ou telle application (afin que même les nouvelles applications soient dégradées). « Toutes les messageries, qu’il s’agisse de WhatsApp, Telegram, Signal ou Viber, reposent sur les mêmes technologies sous-jacentes pour les appels vocaux : protocoles VoIP, WebRTC pour les appels via navigateur et flux de données UDP/TCP pour la transmission audio. Les censeurs russes peuvent désormais utiliser le DPI pour analyser les signatures de paquets et identifier les schémas de trafic VoIP en temps réel. Ils n’ont pas besoin de savoir si vous utilisez WhatsApp ou Telegram ; il leur suffit de reconnaître que vous passez un appel Internet et de le bloquer au niveau du protocole. C’est comme couper toutes les lignes téléphoniques au lieu de déconnecter chaque téléphone individuellement. » Ce contrôle au niveau des infrastructures est bien sûr regardé avec attention par bien d’autres autocraties, pour s’en inspirer.

Après avoir fait l’édifiante histoire de la censure de l’internet russe, la chercheuse Daria Dergacheva, qui signe l’article de Global Voices, explique que la Russie se dirige vers un réseau internet interne. Le risque à terme, c’est que l’internet russe se coupe totalement du reste de l’internet et se referme sur lui-même, sur le modèle de la Corée du Nord. 

  • ✇Dans les algorithmes
  • Politiques publiques : passer de l’IA… à la dénumérisation
    L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’objectivité, notamment quant il s’agit de rationner le service public…  Mai
     

Politiques publiques : passer de l’IA… à la dénumérisation

7 octobre 2025 à 01:00

L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’objectivité, notamment quant il s’agit de rationner le service public… 

Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les problèmes structurels. Elle propose des solutions performatives qui obscurcissent et amplifient les problèmes, explique l’iconoclaste Dan MacQuillan dans un article pour la Joseph Rowntree Foundation, une association britannique de lutte contre la pauvreté, qui a initié une réflexion sur l’usage de l’IA pour le bien public. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’intelligence artificielle, Bristol University Press, 2022, non traduit) dont nous avions déjà parlé

McQuillan rappelle que l’IA, par principe, consiste à produire des corrélations réductrices plutôt que des analyses causales. « La complexité de l’IA introduit une opacité fondamentale dans le lien entre les données d’entrée et les résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une boucle de rétroaction entre les membres de la famille et les services sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les stéréotypes et la stigmatisation, mais à grande échelle ». Ses inférences au final renforcent les stratifications sociales de la société comme pour les rendre acceptables.

Or, rappelle le chercheur, « une bonne politique doit impérativement être ancrée dans la réalité ». C’est pourtant bien ce lien que rompent les calculs de l’IA, à l’image des hallucinations. Celles-ci proviennent du fait que l’IA repose sur l’imitation du langage plutôt que sa compréhension. Le même principe s’applique à toutes les prédictions ou classifications que produit l’IA. « Que l’IA soit appliquée directement pour prédire la fraude aux aides sociales ou simplement utilisée par un décideur politique pour « dialoguer » avec une multitude de documents politiques, elle dégrade la fiabilité des résultats »

Des données probantes suggèrent déjà que l’imbrication des algorithmes dans les solutions politiques conduit à une appréciation arbitraire de l’injustice et de la cruauté. Les scandales abondent, de Robodebt en Australie à l’affaire des allocations familiales aux Pays-Bas, qui auraient tous pu être évités en écoutant la voix des personnes concernées. Mais l’IA introduit une injustice épistémique, où la capacité des individus à connaître leur propre situation est dévaluée par rapport aux abstractions algorithmiques. Si l’IA, comme la bureaucratie, est présentée comme une forme généralisée et orientée vers un objectif de processus rationnel, elle engendre en réalité de l’inconscience : l’incapacité à critiquer les instructions, le manque de réflexion sur les conséquences et l’adhésion à la croyance que l’ordre est correctement appliqué. Pire encore, l’IA dite générative offre la capacité supplémentaire de simuler une large consultation, que ce soit par « l’interprétation » hallucinatoire d’un grand nombre de soumissions publiques ou par la simulation littérale d’un public virtuel et prétendument plus diversifié en remplaçant des personnes réelles par des avatars d’IA générative. Une technique, qui, si elle a l’avantage de réduire les coûts, est dénoncée par des chercheurs comme contraire aux valeurs mêmes de l’enquête et de la recherche, rappelait Scientific American. « L’approche technocratique mise en œuvre par l’IA est à l’opposé d’un mécanisme réactif aux aléas de l’expérience vécue », explique McQuillan. « L’IA n’est jamais responsable, car elle n’est pas responsable ». Si l’on considère les attributs de l’IA dans leur ensemble, son application à l’élaboration des politiques publiques ou comme outil politique aggravera l’injustice sociale, prédit le chercheur. L’apport de l’IA à l’ordre social ne consiste pas à générer des arrangements de pouvoir alternatifs, mais à mettre en place des mécanismes de classification, de hiérarchisation et d’exclusion

Chaque signalement par l’IA d’un risque de fraude, d’un classement d’une personne dans une catégorie, mobilise une vision du monde qui privilégie des représentations abstraites à la complexité des relations vécues, et ce dans l’intérêt des institutions et non des individus. « Imprégnées des injustices criantes du statu quo, les solutions de l’IA tendent inexorablement vers la nécropolitique, c’est-à-dire vers des formes de prise de décision qui modifient la répartition des chances de vie par des désignations de disponibilité relative. Détourner massivement les individus des parcours éducatifs ou des prestations sociales dont ils ont besoin pour survivre, par exemple, constitue un filtre algorithmique pour déterminer qui est bienvenu dans la société et qui ne l’est pas »

Le problème, c’est que la pression sur les décideurs politiques à adopter l’IA est immense, non seulement parce que ses biais viennent confirmer les leurs, mais plus encore du fait des engagements commerciaux et des promesses économiques que représente le développement de ce secteur. Et McQuillan de regretter que cette orientation nous éloigne de l’enjeu éthique qui devrait être au cœur des politiques publiques. La politique s’intéresse de moins en moins aux injustices structurelles de la société. « Un monde où l’élaboration et la mise en œuvre des politiques publiques reposent sur l’IA est aussi un monde qui confère un pouvoir considérable à la petite poignée d’entreprises capables de disposer de ces ressources ». Par essence, « l’adoption de l’IA constitue un engagement en faveur de l’extractivisme et d’un transfert de contrôle à un niveau qui supplante toute politique réelle »

En fait, explique McQuillan, adopter l’IA dans l’élaboration des politiques publiques revient à soumettre les politiques à des agendas corporatifs et idéologiques plus vastes (à savoir se soumettre à ceux qui ont déjà décidé que l’avenir de la civilisation réside dans l’intelligence artificielle générale (IAG), ceux qui ont décidé que la meilleure réponse à la crise structurelle est de la masquer sous le battage médiatique de l’IA, et ceux qui ont conclu que le meilleur moyen de maintenir les revenus en période de récession mondiale est de remplacer les travailleurs réels par des émulations d’IA de mauvaise qualité). L’impact net de l’IA dans l’élaboration des politiques la rendrait plus précaire et favoriserait l’externalisation et la privatisation sous couvert d’une technologie surmédiatisée. Il s’agit d’une forme de « stratégie du choc », où le sentiment d’urgence généré par une technologie prétendument transformatrice du monde est utilisé comme une opportunité pour l’emprise des entreprises et pour transformer les systèmes sociaux dans des directions ouvertement autoritaires, sans réflexion ni débat démocratique. 

Pour Dan McQuillan, plutôt que de se demander comment l’IA va imprégner l’élaboration des politiques, il faudrait se concentrer sur des politiques publiques qui favorisent la dénumérisation. C’est-à-dire favoriser une stratégie sociotechnique de réduction de la dépendance à l’échelle computationnelle, de participation maximale des communautés concernées et de reconnaissance accrue du fait que le raisonnement computationnel ne saurait se substituer aux questions politiques exigeant un jugement réfléchi et perspicace. L’IA, en tant qu’appareil de calcul, de concepts et d’investissements, est l’apothéose de la « vue d’en haut », l’abstraction désincarnée du savoir privilégié qui empoisonne déjà nombre de formes d’élaboration des politiques. Pour McQuillan, un pivot vers la « décomputation » est une façon de réaffirmer la valeur des connaissances situées et du contexte sur le seul passage à l’échelle. Contrairement aux prédictions et simulations de l’IA, notre réalité commune est complexe et intriquée, et la théorie ne permet pas de prédire l’avenir. Cela ne signifie pas que nous ne pouvons pas progresser vers des objectifs tels que la justice sociale et une transition juste, mais la dénumérisation suggère de les aborder de manière à la fois itérative et participative. Le véritable travail de restructuration réoriente l’attention des technologies toxiques vers le développement de techniques de redistribution du pouvoir social, telles que les conseils populaires et les assemblées populaires. Bref, pour sortir de l’enfermement des politiques publiques de l’abstraction qu’impose l’IA, il faut prendre un virage contraire, suggère McQuillan. Un constat qui n’est pas si éloigné de celui que dresse le chercheur Arvind Narayanan quand il invite à limiter l’emprise du calcul sur le social, même s’il est exprimé ici d’une manière bien plus radicale. 

  • ✇Dans les algorithmes
  • Extrême Tech
    L’Observatoire des multinationales publie une série d’enquêtes sur l’influence des extrêmes-droites dans le secteur français de la tech. On vous recommande notamment l’article sur le grand silence de la French Tech face à Pierre-Edouard Stérin qui rappelle que « très rares sont donc les entreprises soutenues par Stérin à avoir pris leur distance avec le milliardaire anti-IVG ».
     

Extrême Tech

6 octobre 2025 à 01:01

L’Observatoire des multinationales publie une série d’enquêtes sur l’influence des extrêmes-droites dans le secteur français de la tech. On vous recommande notamment l’article sur le grand silence de la French Tech face à Pierre-Edouard Stérin qui rappelle que « très rares sont donc les entreprises soutenues par Stérin à avoir pris leur distance avec le milliardaire anti-IVG ».

  • ✇Dans les algorithmes
  • La discrimination salariale algorithmique progresse
    La discrimination salariale algorithmiques progresse estime la chercheuse à l’origine du concept, Veena Dubal, dans un rapport pour l’association Equitable Growth. Pour cela, l’association a réalisé un audit auprès de 500 fournisseurs de solutions de gestion des relations de travail basées sur l’IA qui montre que la rémunération algorithmique s’étend, de la santé au service client, en passant par la logistique et la vente au détail, avec le risque que ces pratiques se normalisent, au détriment d
     

La discrimination salariale algorithmique progresse

6 octobre 2025 à 01:00

La discrimination salariale algorithmiques progresse estime la chercheuse à l’origine du concept, Veena Dubal, dans un rapport pour l’association Equitable Growth. Pour cela, l’association a réalisé un audit auprès de 500 fournisseurs de solutions de gestion des relations de travail basées sur l’IA qui montre que la rémunération algorithmique s’étend, de la santé au service client, en passant par la logistique et la vente au détail, avec le risque que ces pratiques se normalisent, au détriment des pratiques de salaires clairs, fixes, prévisibles et scrutables.

Non seulement les rémunérations algorithmiques ne sont plus limitées au travail à la demande et s’étendent, mais partout où elles sont introduites, les rémunérations baissent et les études sectorielles montrent également que dans tous les secteurs, les personnes qui travaillent plus longtemps depuis un salaire optimisé par les algorithmes sont moins payées à l’heure.

  • ✇Dans les algorithmes
  • IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés
    Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkeha
     

IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés

2 octobre 2025 à 01:00

Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkehard Ernst, qui dirige l’observatoire sur l’IA et le travail dans l’économie numérique de l’OIT, qui rappelait combien le chômage technologique a toujours été rare. Cela n’empêche pas les inquiétudes d’être au plus haut, d’abord et avant tout, disions-nous, parce que la discussion sur le partage des fruits du déploiement de l’IA n’a pas lieu.

Dans son précédent livre, Le Futur du travail (éditions Amsterdam, 2022), le sociologue Juan Sebastian Carbonell nous expliquait déjà que le futur du travail n’était pas notre « grand remplacement » par les machines, mais notre prolétarisation. Il y décrivait déjà une « taylorisation assistée par ordinateurs » qui vise bien plus à « intensifier le travail, déqualifier les salariés, les discipliner et les surveiller ». Les robots ne travaillent pas à notre place mais nous imposent une intensification nouvelle, à l’image des employés de la logistique soumis aux rythmes de la commande vocale.

Un taylorisme sous stéroïdes…

Son nouveau livre, Un taylorisme augmenté : critique de l’intelligence artificielle (éditions Amsterdam, 2025) nous explique que l’IA n’est « ni une solution miracle aux problèmes de la société, ni Prométhée déchaîné », elle n’est qu’un taylorisme augmenté qui élude les questions de fonds que sont les conditions de travail, son organisation et la distribution du pouvoir. Le chercheur rappelle qu’il n’y a pas de consensus quant aux effets de l’IA sur le travail. Pour les uns, elle augmente les besoins de qualifications de ceux qui vont les utiliser, pour les autres, l’IA produit surtout une polarisation des emplois. Pour Carbonell, l’IA n’est ni l’un ni l’autre. Elle est d’abord un outil de dégradation du travail. 

Pour le chercheur, il n’y a pas de polarisation homogène des emplois, c’est-à-dire le fait que les métiers intermédiaires et routiniers auraient tendance à disparaître au profit de métiers très qualifiés d’un côté et des métiers peu qualifiés et non routiniers de l’autre. Si ce phénomène s’observe parfois, les profils des emplois changent surtout au sein de mêmes métiers. Cela signifie qu’il faut non seulement prendre en compte les tâches, mais également l’organisation du travail. La distinction entre tâches routinières et non routinières est souvent caricaturée dans un discours qui dit que l’IA ferait disparaître les tâches répétitives pour nous en libérer. Ce n’est pas ce que constatent les employés de la logistique ou de la traduction, au contraire. Ce n’est plus ce que constatent également les codeurs, victimes désormais de la « Prompt fatigue », épuisés par l’usage de l’IA générative, rapporte Le Monde informatique… Certains qualifiant déjà le recours à ces outils « d’illusion de rapidité ».

« Le degré de routine ne fait pas tout », rappelle le sociologue. Il est nécessaire de prendre en compte, les « stratégies de profit » des entreprises et leur volonté à automatiser le travail. Enfin, la variété des produits, des composants et processus déterminent également la possibilité d’automatiser ou pas une production. « Une même technologie peut donc avoir des effets très différents sur le travail ». Des métiers hautement qualifiés, peu routiniers et hautement cognitifs peuvent ainsi être déstabilisés par l’IA, comme s’en inquiétait l’artiste Aurélie Crop sur son compte Instagram, en observant les possibilités du nouveau service d’IA de Google, Nano Banana, ou encore les scénaristes de cinéma associés face aux annonces d’OpenAI de produire un film d’animation entièrement génératif. Ces métiers ne vont pas disparaître, mais vont être taylorisés, c’est-à-dire « simplifiés, standardisés ou parcellisés ». C’est-à-dire précarisés pour en réduire le coût et augmenter les profits. Car ce qui demeure déterminant dans le choix technologique au travail, c’est le contrôle, « c’est-à-dire le pouvoir de décider comment on travaille et avec quels outils ».

… non pas guidé par l’efficacité technique mais par la prise de contrôle du management

Carbonell revient bien sûr sur l’émergence du taylorisme à la fin du XIXe siècle, rappelant combien il est lié à la vague d’immigration américaine, à l’entrée à l’usine d’ouvriers sans qualification, venant remplacer le long apprentissage des ouvriers spécialisés. L’objectif premier de Taylor était de « briser l’ouvrier de métier » pour y imposer la norme patronale c’est-à-dire contrôler le rythme et la façon de travailler. Le taylorisme a souvent été réduit à la chaîne de montage que Taylor n’a pourtant pas connu. Pour l’économiste Harry Braverman, le taylorisme consiste à dissocier le processus de travail en le décomposant, à séparer la conception de l’exécution et enfin à utiliser le monopole de l’organisation du travail pour contrôler chaque étape du processus et de son exécution. Parcelliser chaque métier abaisse le coût de chaque tâche, expliquait l’économiste américain. Ce taylorisme-là n’est pas mort avec Taylor, explique Carbonell, il se confond désormais avec l’organisation du travail elle-même. L’informatique, le numérique, puis l’IA aujourd’hui, sont surtout venus le renforcer. 

Les machines rythment et contrôlent les décisions venues de la direction afin d’améliorer la productivité du travail. L’introduction des machines-outils à commande numérique après la Seconde Guerre mondiale va permettre de transférer les compétences des ouvriers à la direction en pilotant toujours plus finement et en standardisant l’usinage. Mais leur adoption ne repose pas sur le seul critère de l’efficacité technique, rappelle le sociologue, elle est d’abord le résultat de choix politiques, « notamment la volonté de retirer le contrôle du processus de travail aux tourneurs-fraiseurs ». « Une technologie s’impose surtout en raison de la supériorité des acteurs qui la promeuvent ». Pour Juan Sebastian Carbonell, le progrès technique ne s’impose pas de lui-même, sous couvert d’une efficacité immanente, mais répond d’abord d’enjeux politiques au profit de ceux qui le déploient. Le taylorisme augmenté n’a cessé de s’imposer depuis, par exemple avec les centres d’appels, avec l’invention de systèmes capables de distribuer les appels, complétés de scripts et de procédures extrêmement standardisées et des modalités capables de surveiller les échanges. Et l’IA ne fait rien pour arranger cela, au contraire. Ils sont désormais confrontés à « la tornade de l’intelligence artificielle », rappelait Alternatives Economiques, plongeant les services clients à un stade d’embolie terminal (voir notre article sur le sujet). 

Le service client a ainsi pu être externalisé et les statuts des personnels dégradés. La standardisation et l’intensification vont toujours de pair, rappelle le sociologue. « Les tâches non automatisées par les outils ne sont pas celles qui ont un contenu peu routinier, mais plutôt celles qui, tout en étant routinières, sont trop coûteuses pour être automatisées ». A l’image de la logistique : on n’a pas remplacé les employés par des robots, mais on a transformé les employés en robots devant suivre les ordres des machine, comme l’expliquait très bien le sociologue David Gaborieau : « On n’est pas du tout en train d’automatiser les entrepôts, au contraire. Il y a de plus en plus d’ouvriers dans le secteur de la logistique. En fait, ce discours sur l’automatisation produit seulement des effets politiques et des effets d’invisibilisation du travail. On ne cesse de répéter que ces emplois vont disparaître ce qui permet surtout de les dévaluer. » 

Si le taylorisme numérique est particulièrement frappant sur les plateformes, il s’applique également aux métiers très qualifiés, comme les musiciens, les artistes, les journalistes ou les traducteurs, à mesure qu’ils sont intégrés à des chaînes de valeur mondiales. Carbonell donne d’autres exemples de capture des connaissances et de confiscation des savoir-faire. Notamment avec les premiers systèmes experts d’IA symbolique, comme les systèmes pour diagnostiquer les maladies infectieuses ou gérer les protocoles de chimiothérapie ou encore les outil-test de maintenance de la RATP, mais qui, pour beaucoup, a surtout consisté à valider les protocoles organisés par ces logiciels qui proposaient surtout beaucoup d’alertes, nécessitant de passer du temps pour distinguer les alertes graves de celles qui ne le sont pas. Tous ces développements contribuent à « une déqualification des métiers, même les plus qualifiés ». L’IA connexionniste d’aujourd’hui, elle, est capable de faire fi des règles explicites pour formuler ses propres règles. La capture de connaissance devient un processus implicite, lié aux données disponibles. L’IA générative qui en est le prolongement, dépend très fortement du travail humain : d’abord du travail gratuit de ceux qui ont produit les données d’entraînement des modèles, celui des salariés et d’une multitude de micro-travailleurs qui viennent nettoyer, vérifier, annoter et corriger. Pour Carbonell, l’IA générative s’inscrit donc dans cette longue histoire de la « dépossession machinique ». « Elle n’est pas au service des travailleurs et ne les libère pas des tâches monotones et peu intéressantes ; ce sont les travailleurs qui sont mis à son service ». Dans le journalisme, comme le montrait un rapport d’Associated Press, l’usage de l’IA accroît la charge de travail et les dépossède du geste créatif : la rédaction d’articles. Ils doivent de plus en plus éditer les contenus générés par IA, comme de corriger les systèmes transformant les articles en posts de réseaux sociaux. Même constat dans le domaine de la traduction, où les traducteurs doivent de plus en plus corriger des contenus générés. Dans un cas comme dans l’autre, cependant, le développement de l’IA relève d’abord des choix économiques, sociaux, politiques et éditoriaux des entreprises. 

Carbonell rappelle qu’il faut aussi saisir les limites technologiques et nuancer leurs performances. La qualité de la traduction automatique par exemple reste assez pauvre comme le constatent et le dénoncent les syndicats et collectifs de traducteurs, la Société française des traducteurs ou le collectif en Chair et en Os. En musclant leurs revendications (rémunération, transparence, signalement des traductions automatisées, fin des aides publiques à ceux qui ont recours à l’automatisation…), ils montrent que le changement technologique n’est pas une fatalité. C’est l’absence de critique radicale qui le rend inéluctable, défend Juan Sebastian Carbonell. Et le sociologue de battre en brèche l’inéluctabilité de l’IA ou le discours qui répète qu’il faut s’adapter pour survivre et se former. La formation ne remet pas en cause le pouvoir et l’organisation du travail. Elle ne reconnaît pas le droit des salariés à décider comment travailler. La formation ne propose rien d’autre que l’acceptation. Elle tient bien plus du catéchisme, comme le pointait pertinemment Ambroise Garel dans la newsletter du Pavé numérique. 

La division du travail est un moyen pour rendre le management indispensable 

Dans l’entreprise, le contrôle relève de plus en plus du seul monopole de l’employeur sur l’organisation du travail et sert à obtenir des salariés certains comportements, gestes et attitudes. Le contrôle a longtemps été l’apanage du contremaître, qui devint l’agent de la direction. A ce contrôle direct s’est ajouté un contrôle technique propre aux milieux industriels où les employés doivent répondre de la formulation des tâches avec des machines qui dirigent le processus de travail et imposent leur rythme. Après la Seconde Guerre mondiale s’ajoute encore un contrôle bureaucratique où la norme et les dispositifs de gestion remplacent le pouvoir personnel du contremaître. Le management algorithmique s’inscrit dans la continuité du commandement à distance et des dispositifs de gestion qui renforcent le taylorisme numérique. L’IA n’est qu’un outil de contrôle de plus, comme l’expliquaient Aiha Nguyen et Alexandra Mateescu de Data & Society

Face à ces constats, le sociologue rappelle une question de fond : pourquoi le travail est-il divisé entre ceux qui commandent et ceux qui exécutent ? Pour l’économiste Stephen Marglin, la division du travail entre commandement et exécution n’est pas liée à l’efficacité économique ou technologique, mais serait purement politique, expliquait-il en 1974. « La division du travail et l’entreprise hiérarchisée ne résultent pas de la recherche d’une organisation du travail plus efficace, ni d’un progrès technologique, mais de la volonté des employeurs de se rendre indispensables en s’interposant entre le travailleur et le marché ». Le système de la fabrique comme le taylorisme visent à faire disparaître le contrôle ouvrier sur le travail au profit d’un contrôle managérial qui renforce la subordination. « C’est en approfondissant la division du travail que le capitaliste peut s’assurer de demeurer indispensable dans le processus de production, comme unificateur d’opérations séparées et comme accès au marché ». Contrairement à la vulgate, « les algorithmes ne sont pas des outils numériques permettant une coordination plus efficace », explique Carbonell, mais « des dispositifs de mise au travail traversés par des rapports de pouvoir ». La plateforme agit sur le marché, à l’image des algorithmes d’Uber. « En se plaçant entre le travailleur et le marché, il agit comme un employeur cherchant à exercer un contrôle numérique sur sa main d’œuvre ». Le management algorithmique produit et renforce le commandement. Il dirige, évalue et discipline et ces trois fonctions se renforcent l’une l’autre. Dans le cas des applications de livraisons de repas, ils interviennent à chaque étape, de la commande à la livraison en exploitant à chaque étape l’asymétrie de l’information qu’ils permettent et mettent en œuvre. Même chose avec les applications qui équipent les employés de la logistique ou ceux de la réparation, contrôlés en continue, les laissant avec de moins en moins de marge de manœuvre. Dans la restauration ou le commerce, le management algorithmique est d’abord utilisé pour pallier au très fort turnover des employés, comme le disait Madison Van Oort. L’évaluation y est permanente, que ce soit depuis les clients qui notent les travailleurs ou depuis les calculs de productivité qui comparent la productivité des travailleurs les uns avec les autres. Les systèmes disciplinent les travailleurs, comme l’expliquait la sociologue Karen Levy ou le chercheur Wolfie Christl. Elle produit les cadences. Licenciements, récompenses, promotions et pénalités sont désormais alignés aux performances. L’évaluation sert à produire les comportements attendus, comme le montrait Sophie Bernard dans UberUsés : le capitalisme racial de plateforme (Puf, 2023). 

Mais il n’y a pas que les employés du bas de l’échelle qui sont ubérisés par ces contrôles automatisés, rappelle Carbonell. Les managers eux-mêmes sont désormais les exécutants de ce que leur disent les données. « Ils ne gèrent pas les travailleurs, ils appliquent ce que le système informatique leur dicte ». Et Carbonell de conclure en rappelant que notre patron n’est pas un algorithme. Dans le taylorisme augmenté, « l’asymétrie d’information devient une asymétrie de pouvoir ». L’asymétrie de l’information est le produit de la division du travail et celle-ci s’accentue avec des outils qui permettent d’atomiser le collectif et de mettre en concurrence les employés entre eux en les évaluant les uns par rapport aux autres. 

Cette asymétrie n’est pas accidentelle, au contraire. Elle permet d’empêcher les collectifs de travail de contester les décisions prises. Sans droit de regard sur les données collectées et sur les modalités d’organisation des calculs, sans possibilité de réappropriation et donc sans discussion sur l’accès aux données des entreprises par les collectifs, rien n’évoluera. Comme le rappelle Carbonell, en Allemagne, l’introduction de nouvelles technologies qui surveillent la performance des travailleurs doit être validée par les comités d’entreprise où siègent les représentants du personnel. En France aussi, la négociation collective s’est timidement emparée du sujet. Le Centre d’études de l’emploi et du travail avait d’ailleurs livré une analyse des accords d’entreprise français signés entre 2017 et 2024 qui mentionnent l’IA. Depuis 2017, un peu moins d’un accord sur mille fait référence à l’IA, ceux-ci insistent particulièrement sur la préservation de l’emploi.

L’IA, moteur de déresponsabilisation

Pour l’instant, explique Juan Sebastian Carbonell, l’IA est surtout un moteur de déresponsabilisation des patrons. Les entreprises ont recours à des systèmes tiers pour établir ces surveillances et contrôles. Ce qui permet une forme de dispersion de la responsabilité, comme l’évoquait le professeur de droit d’Oxford, Jeremias Adams-Prassl, tout en « concentrant le contrôle » (voir également son livre, L’ubérisation du travail, Dalloz, 2021).

« De la même façon que, dans les configurations de l’emploi précaire, avec leurs schémas de sous-traitance en cascade, il est difficile d’établir qui est l’employeur responsable, l’usage d’IA dans la gestion de la main-d’œuvre brouille les frontières de la responsabilité », rappelle le sociologue. « Si les systèmes de contrôle (direct, technique, bureaucratique et algorithmique) se succèdent, c’est parce qu’ils rencontrent toujours des limites, correspondant aux résistances des travailleurs et de leurs organisations ». Pourtant, à mesure que le panoptique se referme, les résistances deviennent de plus en plus difficiles, faute de marge de manœuvre. 

Pour Carbonell, un renouveau luddite aurait toute sa place aujourd’hui, pour donner aux individus et aux collectifs les moyens de garder un contrôle sur l’organisation du travail, pour réouvrir des marges de manœuvre. Reste que le « luddisme diffus » qui émerge à l’égard de l’IA ne s’incarne pas dans un mouvement de masse ancré dans les mondes du travail, mais au mieux « dans un rejet individuel et une approche morale de l’IA », voire dans une vision technique et éthique qui consiste à améliorer les calculs plus qu’à les rendre redevables. Les travailleurs ont pourtant de bonnes raisons de s’opposer au changement technologique au travail, conclut le sociologue, surtout quand il ne vient plus accompagné de progrès sociaux mais au contraire de leurs délitements, comme une solution de remplacement bon marché de l’Etat Providence, disaient la linguiste Emily Bender et la sociologue Alex Hanna dans leur récent livre, The AI Con (HarperCollins, 2025). Avec l’IA et l’ubérisation s’impose un monde où les statuts protecteurs du travail reculent. 

L’appropriation collective des moyens de production n’est plus une promesse pour transformer le monde. Il ne peut y avoir de chaîne de montage socialiste, car « il n’y a rien de potentiellement émancipateur dans la dissociation entre la conception et l’exécution ». Peut-on imaginer une IA qui nous aide à sortir de Taylor plutôt que de nous y enfermer ?, questionne le sociologue en conclusion. Une IA qui rende du pouvoir aux travailleurs, qui leur permette de concevoir et d’exécuter, qui leur rende du métier plutôt qu’elle ne les en dépossède. 

Pour l’instant, on ne l’a pas encore aperçu ! 

Hubert Guillaud

Couverture du livre de Juan Sebastian Carbonell, Un taylorisme augmenté.

  • ✇Dans les algorithmes
  • Aux Etats-Unis, la résistance contre les data centers s’organise
    Pour Tech Policy Press, Justin Hendrix discute avec Vivek Bharathan, membre de l’association No Desert Data Center Coalition qui s’oppose à la construction de centres de données dans le désert, à Tucson, en Arizona, et Steven Renderos directeur de Media Justice, une association qui aide à la mobilisation contre le déploiement des data centers, et qui a notamment publié le rapport The People Say No: Resisting Data Centers in the South.  La discussion montre la difficulté pour les habitants d’o
     

Aux Etats-Unis, la résistance contre les data centers s’organise

1 octobre 2025 à 01:00

Pour Tech Policy Press, Justin Hendrix discute avec Vivek Bharathan, membre de l’association No Desert Data Center Coalition qui s’oppose à la construction de centres de données dans le désert, à Tucson, en Arizona, et Steven Renderos directeur de Media Justice, une association qui aide à la mobilisation contre le déploiement des data centers, et qui a notamment publié le rapport The People Say No: Resisting Data Centers in the South

La discussion montre la difficulté pour les habitants d’obtenir de l’information sur les déploiements en cours, voire sur les projets que décident les collectivités locales de plus en plus souvent liées par des contrats de confidentialité. Ce qui fait le plus réagir les gens, c’est la perspective de voir leurs factures d’électricité ou d’eau grimper, du fait de la concurrence entre ces nouveaux déploiements industriels et les usages domestiques. Les opposants aux projets rappellent qu’ils ne sont jamais invités à s’exprimer lors des réunions publiques, quand ceux qui le défendent, eux, sont payés pour le faire. 
Pour Steven Renderos, le rapport de Media Justice montre qu’il s’agit de savoir qui sera sacrifié dans la course à l’IA. Ceux qui déploient ces projets affirment que “les intérêts économiques des habitants sont les mêmes que l’intérêt national”, qu’importe si la course à l’IA implique d’empoisonner des Américains. Pour eux, certaines personnes méritent d’être sacrifiées pour le progrès technologique. Mais quels que soient les gagnants de la course mondiale à l’IA, les perdants seront toujours les mêmes. Même la promesse d’emploi est une illusion qui se terminera en ne proposant qu’une poignée d’emplois sous-traités. Ce que ces projets proposent, c’est de sacrifier des communautés au profit des produits technologiques et des bénéfices d’autrui. “Les entreprises technologiques construisent intentionnellement des installations là où elles pensent trouver la voie de la moindre résistance”, c’est-à-dire dans des endroits déjà dévastés par des procédés extractifs pour les renforcer encore. Ce que la résistance populaire montre, c’est qu’il est possible de dire non et que ces constructions ne sont pas inéluctables.

❌