Vue lecture

De l’impunité du vol d’identité

Dans la dernière newsletter d’Algorithm Watch, le journaliste Nicolas Kayser-Bril revient sur la production par un magazine bulgare d’articles génératifs qui lui étaient attribués. Ce qu’il montre, c’est que les mécanismes de réclamation dysfonctionnent. Google lui a demandé de prouver qu’il ne travaillait pas pour ce magazine (!) et a refusé de désindexer les articles. L’autorité de protection des données allemande a transmis sa demande à son homologue bulgare, sans réponse. Le seul moyen pour mettre fin au problème a été de contacter un avocat pour qu’il produise une menace à l’encontre du site, ce qui n’a pas été sans frais pour le journaliste. La « législation sur la protection des données, comme le RGPD, n’a pas été d’une grande aide ».

Ceux qui pratiquent ces usurpations d’identité, qui vont devenir très facile avec l’IA générative, n’ont pour l’instant pas grand chose à craindre, constate Kayser-Bril.

  •  

« L’IA générative est un désastre social »

« Les industriels de l’IA ont habilement orienté le débat sur l’IA générative vers leurs propres intérêts, en nous expliquant qu’elle était une technologie transformatrice qui améliore de nombreux aspects de notre société, notamment l’accès aux soins de santé et à l’éducation ». Mais plutôt que prendre au sérieux les vraies critiques (notamment le fait que ces technologies ne soient pas si transformatrices qu’annoncées et qu’elles n’amélioreront ni l’accès au soin ni l’accès à l’éducation), les géants de l’IA ont préféré imposer leur propre discours sur ses inconvénients : à savoir, celui de la menace existentielle, explique clairement Paris Marx sur son blog. Ce scénario totalement irréaliste a permis de mettre de côté les inquiétudes bien réelles qu’impliquent le déploiement sans mesure de l’IA générative aujourd’hui (comme par exemple, le fait qu’elle produise des « distorsion systémique » de l’information selon une étude de 22 producteurs d’information de services publics).

En Irlande, à quelques jours des élections présidentielles du 24 octobre, une vidéo produite avec de l’IA a été diffusée montrant Catherine Connolly, la candidate de gauche en tête des sondages, annoncer qu’elle se retirait de la course, comme si elle le faisait dans le cadre d’un reportage d’une des chaînes nationales. La vidéo avait pour but de faire croire au public que l’élection présidentielle était déjà terminée, sans qu’aucun vote n’ait été nécessaire et a été massivement visionnée avant d’être supprimée. 

Cet exemple nous montre bien que nous ne sommes pas confrontés à un risque existentiel où les machines nous subvertiraient, mais que nous sommes bel et bien confrontés aux conséquences sociales et bien réelles qu’elles produisent. L’IA générative pollue l’environnement informationnel à tel point que de nombreuses personnes ne savent plus distinguer s’il s’agit d’informations réelles ou générées. 

Les grandes entreprises de l’IA montrent bien peu de considération pour ses effets sociaux. Au lieu de cela, elles imposent leurs outils partout, quelle que soit leur fiabilité, et participent à inonder les réseaux de bidules d’IA et de papoteurs destinés à stimuler l’engagement, ce qui signifie plus de temps passé sur leurs plateformes, plus d’attention portée aux publicités et, au final, plus de profits publicitaires. 
En réponse à ces effets sociaux, les gouvernements semblent se concentrer sur la promulgation de limites d’âge afin de limiter l’exposition des plus jeunes à ces effets, sans paraître vraiment se soucier des dommages individuels que ces produits peuvent causer au reste de la population, ni des bouleversements politiques et sociétaux qu’ils peuvent engendrer. Or, il est clair que des mesures doivent être prises pour endiguer ces sources de perturbation sociale et notamment les pratiques de conception addictives qui ciblent tout le monde, alors que les chatbots et les générateurs d’images et de vidéos accélèrent les dégâts causés par les réseaux sociaux. Du fait des promesses d’investissements, de gains de productivité hypothétiques, les gouvernements sacrifient les fondements d’une société démocratique sur l’autel de la réussite économique profitant à quelques monopoles. Pour Paris Marx, l’IA générative n’est rien d’autre qu’une forme de « suicide social » qu’il faut endiguer avant qu’elle ne nous submerge. « Aucun centre de données géant ni le chiffre d’affaires d’aucune entreprise d’IA ne justifie les coûts que cette technologie est en train d’engendrer pour le public ».

  •  

De l’impunité du vol d’identité

Dans la dernière newsletter d’Algorithm Watch, le journaliste Nicolas Kayser-Bril revient sur la production par un magazine bulgare d’articles génératifs qui lui étaient attribués. Ce qu’il montre, c’est que les mécanismes de réclamation dysfonctionnent. Google lui a demandé de prouver qu’il ne travaillait pas pour ce magazine (!) et a refusé de désindexer les articles. L’autorité de protection des données allemande a transmis sa demande à son homologue bulgare, sans réponse. Le seul moyen pour mettre fin au problème a été de contacter un avocat pour qu’il produise une menace à l’encontre du site, ce qui n’a pas été sans frais pour le journaliste. La « législation sur la protection des données, comme le RGPD, n’a pas été d’une grande aide ».

Ceux qui pratiquent ces usurpations d’identité, qui vont devenir très facile avec l’IA générative, n’ont pour l’instant pas grand chose à craindre, constate Kayser-Bril.

  •  

« L’IA générative est un désastre social »

« Les industriels de l’IA ont habilement orienté le débat sur l’IA générative vers leurs propres intérêts, en nous expliquant qu’elle était une technologie transformatrice qui améliore de nombreux aspects de notre société, notamment l’accès aux soins de santé et à l’éducation ». Mais plutôt que prendre au sérieux les vraies critiques (notamment le fait que ces technologies ne soient pas si transformatrices qu’annoncées et qu’elles n’amélioreront ni l’accès au soin ni l’accès à l’éducation), les géants de l’IA ont préféré imposer leur propre discours sur ses inconvénients : à savoir, celui de la menace existentielle, explique clairement Paris Marx sur son blog. Ce scénario totalement irréaliste a permis de mettre de côté les inquiétudes bien réelles qu’impliquent le déploiement sans mesure de l’IA générative aujourd’hui (comme par exemple, le fait qu’elle produise des « distorsion systémique » de l’information selon une étude de 22 producteurs d’information de services publics).

En Irlande, à quelques jours des élections présidentielles du 24 octobre, une vidéo produite avec de l’IA a été diffusée montrant Catherine Connolly, la candidate de gauche en tête des sondages, annoncer qu’elle se retirait de la course, comme si elle le faisait dans le cadre d’un reportage d’une des chaînes nationales. La vidéo avait pour but de faire croire au public que l’élection présidentielle était déjà terminée, sans qu’aucun vote n’ait été nécessaire et a été massivement visionnée avant d’être supprimée. 

Cet exemple nous montre bien que nous ne sommes pas confrontés à un risque existentiel où les machines nous subvertiraient, mais que nous sommes bel et bien confrontés aux conséquences sociales et bien réelles qu’elles produisent. L’IA générative pollue l’environnement informationnel à tel point que de nombreuses personnes ne savent plus distinguer s’il s’agit d’informations réelles ou générées. 

Les grandes entreprises de l’IA montrent bien peu de considération pour ses effets sociaux. Au lieu de cela, elles imposent leurs outils partout, quelle que soit leur fiabilité, et participent à inonder les réseaux de bidules d’IA et de papoteurs destinés à stimuler l’engagement, ce qui signifie plus de temps passé sur leurs plateformes, plus d’attention portée aux publicités et, au final, plus de profits publicitaires. 
En réponse à ces effets sociaux, les gouvernements semblent se concentrer sur la promulgation de limites d’âge afin de limiter l’exposition des plus jeunes à ces effets, sans paraître vraiment se soucier des dommages individuels que ces produits peuvent causer au reste de la population, ni des bouleversements politiques et sociétaux qu’ils peuvent engendrer. Or, il est clair que des mesures doivent être prises pour endiguer ces sources de perturbation sociale et notamment les pratiques de conception addictives qui ciblent tout le monde, alors que les chatbots et les générateurs d’images et de vidéos accélèrent les dégâts causés par les réseaux sociaux. Du fait des promesses d’investissements, de gains de productivité hypothétiques, les gouvernements sacrifient les fondements d’une société démocratique sur l’autel de la réussite économique profitant à quelques monopoles. Pour Paris Marx, l’IA générative n’est rien d’autre qu’une forme de « suicide social » qu’il faut endiguer avant qu’elle ne nous submerge. « Aucun centre de données géant ni le chiffre d’affaires d’aucune entreprise d’IA ne justifie les coûts que cette technologie est en train d’engendrer pour le public ».

  •  

Mon corps électrique

En 2022, Arnaud Robert est devenu tétraplégique. Dans un podcast en 7 épisodes pour la Radio-Télévision Suisse, il raconte sa décision de participer à une étude scientifique pour laquelle il a reçu un implant cérébral afin de retrouver le contrôle d’un de ses bras. Un podcast qui décortique le rapport à la technologie de l’intérieur, au plus intime, loin des promesses transhumanistes. « Être cobaye, cʹest prêter son corps à un destin plus grand que le sien ». Mais être cobaye, c’est apprendre aussi que les miracles technologiques ne sont pas toujours au-rendez-vous. Passionnant !

  •  

Mon corps électrique

En 2022, Arnaud Robert est devenu tétraplégique. Dans un podcast en 7 épisodes pour la Radio-Télévision Suisse, il raconte sa décision de participer à une étude scientifique pour laquelle il a reçu un implant cérébral afin de retrouver le contrôle d’un de ses bras. Un podcast qui décortique le rapport à la technologie de l’intérieur, au plus intime, loin des promesses transhumanistes. « Être cobaye, cʹest prêter son corps à un destin plus grand que le sien ». Mais être cobaye, c’est apprendre aussi que les miracles technologiques ne sont pas toujours au-rendez-vous. Passionnant !

  •  

Syndicats : négociez les algorithmes !

Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisables par les travailleurs en lien notamment avec la nouvelle législation européenne des travailleurs des plateformes. La gestion algorithmique confère aux employeurs des avantages informationnels considérables sur les travailleurs, leur permet de contourner les conventions collectives et de modifier les conditions de travail et les salaires de chaque travailleur voire de chaque poste. Elle leur permet d’espionner les travailleurs même en dehors de leurs heures de travail et leur offre de nombreuses possibilités de représailles. 

En regard, les travailleurs piégés par la gestion algorithmique sont privés de leur pouvoir d’action et de leurs possibilités de résolution de problèmes, et bien souvent de leurs droits de recours, tant la gestion algorithmique se déploie avec de nombreuses autres mesures autoritaires, comme le fait de ne pouvoir joindre le service RH. 

Il est donc crucial que les syndicats élaborent une stratégie pour lutter contre la gestion algorithmique. C’est là qu’intervient la directive sur le travail de plateforme qui prévoit des dispositions assez riches, mais qui ne sont pas auto-exécutoires… C’est-à-dire que les travailleurs doivent revendiquer les droits que la directive propose, au travail comme devant les tribunaux. Or, elle permet aux travailleurs et à leurs représentants d’exiger des employeurs des données exhaustives sur les décisions algorithmiques, du licenciement au calcul du salaire. 

Bien souvent ces données ne sont pas rendues dans des formats faciles à exploiter, constate Wray : le rapport encourage donc les syndicats à constituer leurs propres groupes d’analyses de données. Le rapport plaide également pour que les syndicats développent des applications capables de surveiller les applications patronales, comme l’application UberCheats, qui permettait de comparer le kilométrage payé par Uber à ses livreurs par rapport aux distances réellement parcourues (l’application a été retirée en 2021 au prétexte de son nom à la demande de la firme Uber). En investissant dans la technologie, les syndicats peuvent combler le déficit d’information des travailleurs sur les employeurs. Wray décrit comment les travailleurs indépendants ont créé des « applications de contre-mesure » ​​qui ont documenté les vols de salaires et de pourboires (voir notre article “Réguler la surveillance au travail”), permis le refus massif d’offres au rabais et aidé les travailleurs à faire valoir leurs droits devant les tribunaux. Cette capacité technologique peut également aider les organisateurs syndicaux, en fournissant une plateforme numérique unifiée pour les campagnes syndicales dans tous les types d’établissements. Wray propose que les syndicats unissent leurs forces pour créer « un atelier technologique commun » aux travailleurs, qui développerait et soutiendrait des outils pour tous les types de syndicats à travers l’Europe. 

Le RGPD confère aux travailleurs de larges pouvoirs pour lutter contre les abus liés aux logiciels de gestion, estime encore le rapport. Il leur permet d’exiger le système de notation utilisé pour évaluer leur travail et d’exiger la correction de leurs notes, et interdit les « évaluations internes cachées ». Il leur donne également le droit d’exiger une intervention humaine dans les prises de décision automatisées. Lorsque les travailleurs sont « désactivés » (éjectés de l’application), le RGPD leur permet de déposer une « demande d’accès aux données » obligeant l’entreprise à divulguer « toutes les informations personnelles relatives à cette décision », les travailleurs ayant le droit d’exiger la correction des « informations inexactes ou incomplètes ». Malgré l’étendue de ces pouvoirs, ils ont rarement été utilisés, en grande partie en raison de failles importantes du RGPD. Par exemple, les employeurs peuvent invoquer l’excuse selon laquelle la divulgation d’informations révélerait leurs secrets commerciaux et exposerait leur propriété intellectuelle. Le RGPD limite la portée de ces excuses, mais les employeurs les ignorent systématiquement. Il en va de même pour l’excuse générique selon laquelle la gestion algorithmique est assurée par un outil tiers. Cette excuse est illégale au regard du RGPD, mais les employeurs l’utilisent régulièrement (et s’en tirent impunément). 

La directive sur le travail de plateforme corrige de nombreuses failles du RGPD. Elle interdit le traitement des « données personnelles d’un travailleur relatives à : son état émotionnel ou psychologique ; l’utilisation de ses échanges privés ; la captation de données lorsqu’il n’utilise pas l’application ; concernant l’exercice de ses droits fondamentaux, y compris la syndicalisation ; les données personnelles du travailleur, y compris son orientation sexuelle et son statut migratoire ; et ses données biométriques lorsqu’elles sont utilisées pour établir son identité. » Elle étend le droit d’examiner le fonctionnement et les résultats des « systèmes décisionnels automatisés » et d’exiger que ces résultats soient exportés vers un format pouvant être envoyé au travailleur, et interdit les transferts à des tiers. Les travailleurs peuvent exiger que leurs données soient utilisées, par exemple, pour obtenir un autre emploi, et leurs employeurs doivent prendre en charge les frais associés. La directive sur le travail de plateforme exige une surveillance humaine stricte des systèmes automatisés, notamment pour des opérations telles que les désactivations. 

Le fonctionnement de leurs systèmes d’information est également soumis à l’obligation pour les employeurs d’informer les travailleurs et de les consulter sur les « modifications apportées aux systèmes automatisés de surveillance ou de prise de décision ». La directive exige également que les employeurs rémunèrent des experts (choisis par les travailleurs) pour évaluer ces changements. Ces nouvelles règles sont prometteuses, mais elles n’entreront en vigueur que si quelqu’un s’y oppose lorsqu’elles sont enfreintes. C’est là que les syndicats entrent en jeu. Si des employeurs sont pris en flagrant délit de fraude, la directive les oblige à rembourser les experts engagés par les syndicats pour lutter contre les escroqueries. 

Wray propose une série de recommandations détaillées aux syndicats concernant les éléments qu’ils devraient exiger dans leurs contrats afin de maximiser leurs chances de tirer parti des opportunités offertes par la directive sur le travail de plateforme, comme la création d’un « organe de gouvernance » au sein de l’entreprise « pour gérer la formation, le stockage, le traitement et la sécurité des données. Cet organe devrait inclure des délégués syndicaux et tous ses membres devraient recevoir une formation sur les données. » 

Il présente également des tactiques technologiques que les syndicats peuvent financer et exploiter pour optimiser l’utilisation de la directive, comme le piratage d’applications permettant aux travailleurs indépendants d’augmenter leurs revenus. Il décrit avec enthousiasme la « méthode des marionnettes à chaussettes », où de nombreux comptes tests sont utilisés pour placer et réserver du travail via des plateformes afin de surveiller leurs systèmes de tarification et de détecter les collusions et les manipulations de prix. Cette méthode a été utilisée avec succès en Espagne pour jeter les bases d’une action en justice en cours pour collusion sur les prix. 

Le nouveau monde de la gestion algorithmique et la nouvelle directive sur le travail de plateforme offrent de nombreuses opportunités aux syndicats. Cependant, il existe toujours un risque qu’un employeur refuse tout simplement de respecter la loi, comme Uber, reconnu coupable de violation des règles de divulgation de données et condamné à une amende de 6 000 € par jour jusqu’à sa mise en conformité. Uber a maintenant payé 500 000 € d’amende et n’a pas divulgué les données exigées par la loi et les tribunaux. 

Grâce à la gestion algorithmique, les patrons ont trouvé de nouveaux moyens de contourner la loi et de voler les travailleurs. La directive sur le travail de plateforme offre aux travailleurs et aux syndicats toute une série de nouveaux outils pour contraindre les patrons à jouer franc jeu. « Ce ne sera pas facile, mais les capacités technologiques développées par les travailleurs et les syndicats ici peuvent être réutilisées pour mener une guerre de classes numérique totale », s’enthousiasme Cory Doctorow.

  •  

Syndicats : négociez les algorithmes !

Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisables par les travailleurs en lien notamment avec la nouvelle législation européenne des travailleurs des plateformes. La gestion algorithmique confère aux employeurs des avantages informationnels considérables sur les travailleurs, leur permet de contourner les conventions collectives et de modifier les conditions de travail et les salaires de chaque travailleur voire de chaque poste. Elle leur permet d’espionner les travailleurs même en dehors de leurs heures de travail et leur offre de nombreuses possibilités de représailles. 

En regard, les travailleurs piégés par la gestion algorithmique sont privés de leur pouvoir d’action et de leurs possibilités de résolution de problèmes, et bien souvent de leurs droits de recours, tant la gestion algorithmique se déploie avec de nombreuses autres mesures autoritaires, comme le fait de ne pouvoir joindre le service RH. 

Il est donc crucial que les syndicats élaborent une stratégie pour lutter contre la gestion algorithmique. C’est là qu’intervient la directive sur le travail de plateforme qui prévoit des dispositions assez riches, mais qui ne sont pas auto-exécutoires… C’est-à-dire que les travailleurs doivent revendiquer les droits que la directive propose, au travail comme devant les tribunaux. Or, elle permet aux travailleurs et à leurs représentants d’exiger des employeurs des données exhaustives sur les décisions algorithmiques, du licenciement au calcul du salaire. 

Bien souvent ces données ne sont pas rendues dans des formats faciles à exploiter, constate Wray : le rapport encourage donc les syndicats à constituer leurs propres groupes d’analyses de données. Le rapport plaide également pour que les syndicats développent des applications capables de surveiller les applications patronales, comme l’application UberCheats, qui permettait de comparer le kilométrage payé par Uber à ses livreurs par rapport aux distances réellement parcourues (l’application a été retirée en 2021 au prétexte de son nom à la demande de la firme Uber). En investissant dans la technologie, les syndicats peuvent combler le déficit d’information des travailleurs sur les employeurs. Wray décrit comment les travailleurs indépendants ont créé des « applications de contre-mesure » ​​qui ont documenté les vols de salaires et de pourboires (voir notre article “Réguler la surveillance au travail”), permis le refus massif d’offres au rabais et aidé les travailleurs à faire valoir leurs droits devant les tribunaux. Cette capacité technologique peut également aider les organisateurs syndicaux, en fournissant une plateforme numérique unifiée pour les campagnes syndicales dans tous les types d’établissements. Wray propose que les syndicats unissent leurs forces pour créer « un atelier technologique commun » aux travailleurs, qui développerait et soutiendrait des outils pour tous les types de syndicats à travers l’Europe. 

Le RGPD confère aux travailleurs de larges pouvoirs pour lutter contre les abus liés aux logiciels de gestion, estime encore le rapport. Il leur permet d’exiger le système de notation utilisé pour évaluer leur travail et d’exiger la correction de leurs notes, et interdit les « évaluations internes cachées ». Il leur donne également le droit d’exiger une intervention humaine dans les prises de décision automatisées. Lorsque les travailleurs sont « désactivés » (éjectés de l’application), le RGPD leur permet de déposer une « demande d’accès aux données » obligeant l’entreprise à divulguer « toutes les informations personnelles relatives à cette décision », les travailleurs ayant le droit d’exiger la correction des « informations inexactes ou incomplètes ». Malgré l’étendue de ces pouvoirs, ils ont rarement été utilisés, en grande partie en raison de failles importantes du RGPD. Par exemple, les employeurs peuvent invoquer l’excuse selon laquelle la divulgation d’informations révélerait leurs secrets commerciaux et exposerait leur propriété intellectuelle. Le RGPD limite la portée de ces excuses, mais les employeurs les ignorent systématiquement. Il en va de même pour l’excuse générique selon laquelle la gestion algorithmique est assurée par un outil tiers. Cette excuse est illégale au regard du RGPD, mais les employeurs l’utilisent régulièrement (et s’en tirent impunément). 

La directive sur le travail de plateforme corrige de nombreuses failles du RGPD. Elle interdit le traitement des « données personnelles d’un travailleur relatives à : son état émotionnel ou psychologique ; l’utilisation de ses échanges privés ; la captation de données lorsqu’il n’utilise pas l’application ; concernant l’exercice de ses droits fondamentaux, y compris la syndicalisation ; les données personnelles du travailleur, y compris son orientation sexuelle et son statut migratoire ; et ses données biométriques lorsqu’elles sont utilisées pour établir son identité. » Elle étend le droit d’examiner le fonctionnement et les résultats des « systèmes décisionnels automatisés » et d’exiger que ces résultats soient exportés vers un format pouvant être envoyé au travailleur, et interdit les transferts à des tiers. Les travailleurs peuvent exiger que leurs données soient utilisées, par exemple, pour obtenir un autre emploi, et leurs employeurs doivent prendre en charge les frais associés. La directive sur le travail de plateforme exige une surveillance humaine stricte des systèmes automatisés, notamment pour des opérations telles que les désactivations. 

Le fonctionnement de leurs systèmes d’information est également soumis à l’obligation pour les employeurs d’informer les travailleurs et de les consulter sur les « modifications apportées aux systèmes automatisés de surveillance ou de prise de décision ». La directive exige également que les employeurs rémunèrent des experts (choisis par les travailleurs) pour évaluer ces changements. Ces nouvelles règles sont prometteuses, mais elles n’entreront en vigueur que si quelqu’un s’y oppose lorsqu’elles sont enfreintes. C’est là que les syndicats entrent en jeu. Si des employeurs sont pris en flagrant délit de fraude, la directive les oblige à rembourser les experts engagés par les syndicats pour lutter contre les escroqueries. 

Wray propose une série de recommandations détaillées aux syndicats concernant les éléments qu’ils devraient exiger dans leurs contrats afin de maximiser leurs chances de tirer parti des opportunités offertes par la directive sur le travail de plateforme, comme la création d’un « organe de gouvernance » au sein de l’entreprise « pour gérer la formation, le stockage, le traitement et la sécurité des données. Cet organe devrait inclure des délégués syndicaux et tous ses membres devraient recevoir une formation sur les données. » 

Il présente également des tactiques technologiques que les syndicats peuvent financer et exploiter pour optimiser l’utilisation de la directive, comme le piratage d’applications permettant aux travailleurs indépendants d’augmenter leurs revenus. Il décrit avec enthousiasme la « méthode des marionnettes à chaussettes », où de nombreux comptes tests sont utilisés pour placer et réserver du travail via des plateformes afin de surveiller leurs systèmes de tarification et de détecter les collusions et les manipulations de prix. Cette méthode a été utilisée avec succès en Espagne pour jeter les bases d’une action en justice en cours pour collusion sur les prix. 

Le nouveau monde de la gestion algorithmique et la nouvelle directive sur le travail de plateforme offrent de nombreuses opportunités aux syndicats. Cependant, il existe toujours un risque qu’un employeur refuse tout simplement de respecter la loi, comme Uber, reconnu coupable de violation des règles de divulgation de données et condamné à une amende de 6 000 € par jour jusqu’à sa mise en conformité. Uber a maintenant payé 500 000 € d’amende et n’a pas divulgué les données exigées par la loi et les tribunaux. 

Grâce à la gestion algorithmique, les patrons ont trouvé de nouveaux moyens de contourner la loi et de voler les travailleurs. La directive sur le travail de plateforme offre aux travailleurs et aux syndicats toute une série de nouveaux outils pour contraindre les patrons à jouer franc jeu. « Ce ne sera pas facile, mais les capacités technologiques développées par les travailleurs et les syndicats ici peuvent être réutilisées pour mener une guerre de classes numérique totale », s’enthousiasme Cory Doctorow.

  •  

Dérégulation de l’IA ? Pas vraiment !

Dans une tribune pour le Guardian, les chercheuses Sacha Alanoca et Maroussia Levesque estiment que si le gouvernement américain adopte une approche non interventionniste à l’égard des applications d’IA telles que les chatbots et les générateurs d’images, il est fortement impliqué dans les composants de base de l’IA. « Les États-Unis ne déréglementent pas l’IA ; ils réglementent là où la plupart des gens ne regardent pas ». En fait, expliquent les deux chercheuses, les régulations ciblent différents composants des systèmes d’IA. « Les premiers cadres réglementaires, comme la loi européenne sur l’IA, se concentraient sur les applications à forte visibilité, interdisant les utilisations à haut risque dans les domaines de la santé, de l’emploi et de l’application de la loi afin de prévenir les préjudices sociétaux. Mais les pays ciblent désormais les éléments constitutifs de l’IA. La Chine restreint les modèles pour lutter contre les deepfakes et les contenus inauthentiques. Invoquant des risques pour la sécurité nationale, les États-Unis contrôlent les exportations des puces les plus avancées et, sous Biden, vont jusqu’à contrôler la pondération des modèles – la « recette secrète » qui transforme les requêtes des utilisateurs en résultats ». Ces réglementations sur l’IA se dissimulent dans un langage administratif technique, mais derrière ce langage complexe se cache une tendance claire : « la réglementation se déplace des applications de l’IA vers ses éléments constitutifs».

Les chercheuses dressent ainsi une taxonomie de la réglementation. « La politique américaine en matière d’IA n’est pas du laisser-faire. Il s’agit d’un choix stratégique quant à l’endroit où intervenir. Bien qu’opportun politiquement, le mythe de la déréglementation relève davantage de la fiction que de la réalité ». Pour elles, par exemple, il est difficile de justifier une attitude passive face aux préjudices sociétaux de l’IA, alors que Washington intervient volontiers sur les puces électroniques pour des raisons de sécurité nationale.

  •  

Dérégulation de l’IA ? Pas vraiment !

Dans une tribune pour le Guardian, les chercheuses Sacha Alanoca et Maroussia Levesque estiment que si le gouvernement américain adopte une approche non interventionniste à l’égard des applications d’IA telles que les chatbots et les générateurs d’images, il est fortement impliqué dans les composants de base de l’IA. « Les États-Unis ne déréglementent pas l’IA ; ils réglementent là où la plupart des gens ne regardent pas ». En fait, expliquent les deux chercheuses, les régulations ciblent différents composants des systèmes d’IA. « Les premiers cadres réglementaires, comme la loi européenne sur l’IA, se concentraient sur les applications à forte visibilité, interdisant les utilisations à haut risque dans les domaines de la santé, de l’emploi et de l’application de la loi afin de prévenir les préjudices sociétaux. Mais les pays ciblent désormais les éléments constitutifs de l’IA. La Chine restreint les modèles pour lutter contre les deepfakes et les contenus inauthentiques. Invoquant des risques pour la sécurité nationale, les États-Unis contrôlent les exportations des puces les plus avancées et, sous Biden, vont jusqu’à contrôler la pondération des modèles – la « recette secrète » qui transforme les requêtes des utilisateurs en résultats ». Ces réglementations sur l’IA se dissimulent dans un langage administratif technique, mais derrière ce langage complexe se cache une tendance claire : « la réglementation se déplace des applications de l’IA vers ses éléments constitutifs».

Les chercheuses dressent ainsi une taxonomie de la réglementation. « La politique américaine en matière d’IA n’est pas du laisser-faire. Il s’agit d’un choix stratégique quant à l’endroit où intervenir. Bien qu’opportun politiquement, le mythe de la déréglementation relève davantage de la fiction que de la réalité ». Pour elles, par exemple, il est difficile de justifier une attitude passive face aux préjudices sociétaux de l’IA, alors que Washington intervient volontiers sur les puces électroniques pour des raisons de sécurité nationale.

  •  

Du contrôle des moyens de prédiction

Pour Jacobin, l’économiste britannique Giorgos Galanis convoque le récent livre de l’économiste Maximilian Kasy, The Means of Prediction: How AI Really Works (and Who Benefits) (Les moyens de prédictions : comment l’IA fonctionne vraiment (et qui en bénéficie), University of Chicago Press, 2025, non traduit), pour rappeler l’importance du contrôle démocratique de la technologie. Lorsqu’un algorithme prédictif a refusé des milliers de prêts hypothécaires à des demandeurs noirs en 2019, il ne s’agissait pas d’un dysfonctionnement, mais d’un choix délibéré, reflétant les priorités des géants de la tech, guidés par le profit. Pour Maximilian Kasy de tels résultats ne sont pas des accidents technologiques, mais les conséquences prévisibles de ceux qui contrôlent l’IA. « De même que Karl Marx identifiait le contrôle des moyens de production comme le fondement du pouvoir de classe, Kasy identifie les « moyens de prédiction » (données, infrastructure informatique, expertise technique et énergie) comme le socle du pouvoir à l’ère de l’IA ». « La thèse provocatrice de Kasy révèle que les objectifs de l’IA sont des choix délibérés, programmés par ceux qui contrôlent ses ressources pour privilégier le profit au détriment du bien commun. Seule une prise de contrôle démocratique des moyens de prédiction permettra de garantir que l’IA serve la société dans son ensemble et non les profits des géants de la tech ». 

Les algorithmes ne sont pas programmés pour prédire n’importe quels résultats. Les  plateformes de médias sociaux, par exemple, collectent d’énormes quantités de données utilisateur pour prédire quelles publicités maximisent les clics, et donc les profits attendus. En quête d’engagement, les algorithmes ont appris que l’indignation, l’insécurité et l’envie incitent les utilisateurs à faire défiler les publications. D’où l’envolée de la polarisation, des troubles anxieux et la dégradation du débat… « Les outils prédictifs utilisés dans le domaine de l’aide sociale ou du recrutement produisent des effets similaires. Les systèmes conçus pour identifier les candidats « à risque » s’appuient sur des données historiques biaisées, automatisant de fait la discrimination en privant de prestations ou d’entretiens d’embauche des groupes déjà marginalisés. Même lorsque l’IA semble promouvoir la diversité, c’est généralement parce que l’inclusion améliore la rentabilité, par exemple en optimisant les performances d’une équipe ou la réputation d’une marque. Dans ce cas, il existe un niveau de diversité « optimal » : celui qui maximise les profits escomptés »

Les systèmes d’IA reflètent en fin de compte les priorités de ceux qui contrôlent les « moyens de prédiction ». Si les travailleurs et les usagers, plutôt que les propriétaires d’entreprises, orientaient le développement technologique, suggère Kasy, les algorithmes pourraient privilégier des salaires équitables, la sécurité de l’emploi et le bien-être public au détriment du profit. Mais comment parvenir à un contrôle démocratique des moyens de prédiction ? Kasy préconise un ensemble d’actions complémentaires comme la taxation des entreprises d’IA pour couvrir les coûts sociaux, la réglementation pour interdire les pratiques néfastes en matière de données et la création de fiducies de données, c’est-à-dire la création d’institutions collectives pour gérer les données pour le compte des communautés à des fins d’intérêt public. 

Ces algorithmes décident qui est embauché, qui reçoit des soins médicaux ou qui a accès à l’information, privilégiant souvent le profit au détriment du bien-être social. Il compare la privatisation des données à l’accaparement historique des biens communs, arguant que le contrôle exercé par les géants de la tech sur les moyens de prédiction concentre le pouvoir, sape la démocratie et creuse les inégalités. Des algorithmes utilisés dans les tribunaux aux flux des réseaux sociaux, les systèmes d’IA façonnent de plus en plus nos vies selon les priorités privées de leurs créateurs. Pour Kasy, il ne faut pas les considérer comme de simples merveilles technologiques neutres, mais comme des systèmes façonnés par des forces sociales et économiques. L’avenir de l’IA ne dépend pas de la technologie elle-même, mais de notre capacité collective à bâtir des institutions telles que des fiducies de données pour gouverner démocratiquement les systèmes. Kasy nous rappelle que l’IA n’est pas une force autonome, mais une relation sociale, un instrument de pouvoir de classe qui peut être réorienté à des fins collectives. La question est de savoir si nous avons la volonté politique de nous en emparer.

Dans une tribune pour le New York Times, Maximilian Kasy explique que la protection des données personnelles n’est plus opérante dans un monde où l’IA est partout. « Car l’IA n’a pas besoin de savoir ce que vous avez fait ; elle a seulement besoin de savoir ce que des personnes comme vous ont fait auparavant ». Confier à l’IA la tâche de prendre des décisions à partir de ces données transforme la société. 

« Pour nous prémunir contre ce préjudice collectif, nous devons créer des institutions et adopter des lois qui donnent aux personnes concernées par les algorithmes d’IA la possibilité de s’exprimer sur leur conception et leurs objectifs. Pour y parvenir, la première étape est la transparence. À l’instar des obligations de transparence financière des entreprises, les sociétés et les organismes qui utilisent l’IA devraient être tenus de divulguer leurs objectifs et ce que leurs algorithmes cherchent à maximiser : clics publicitaires sur les réseaux sociaux, embauche de travailleurs non syndiqués ou nombre total d’expulsions », explique Kasy. Pas sûr pourtant que cette transparence des objectifs suffise, si nous n’imposons pas aux entreprises de publier des données sur leurs orientations. 

« La deuxième étape est la participation. Les personnes dont les données servent à entraîner les algorithmes – et dont la vie est influencée par ces derniers – doivent être consultées. Il faudrait que des citoyens contribuent à définir les objectifs des algorithmes. À l’instar d’un jury composé de pairs qui instruisent une affaire civile ou pénale et rendent un verdict collectivement, nous pourrions créer des assemblées citoyennes où un groupe représentatif de personnes choisies au hasard délibère et décide des objectifs appropriés pour les algorithmes. Cela pourrait se traduire par des employés d’une entreprise délibérant sur l’utilisation de l’IA sur leur lieu de travail, ou par une assemblée citoyenne examinant les objectifs des outils de police prédictive avant leur déploiement par les agences gouvernementales. Ce sont ces types de contre-pouvoirs démocratiques qui permettraient d’aligner l’IA sur le bien commun, et non sur le seul intérêt privé. L’avenir de l’IA ne dépendra pas d’algorithmes plus intelligents ou de puces plus rapides. Il dépendra de qui contrôle les données et de quelles valeurs et intérêts guident les machines. Si nous voulons une IA au service du public, c’est au public de décider de ce qu’elle doit servir ».

  •  

Du contrôle des moyens de prédiction

Pour Jacobin, l’économiste britannique Giorgos Galanis convoque le récent livre de l’économiste Maximilian Kasy, The Means of Prediction: How AI Really Works (and Who Benefits) (Les moyens de prédictions : comment l’IA fonctionne vraiment (et qui en bénéficie), University of Chicago Press, 2025, non traduit), pour rappeler l’importance du contrôle démocratique de la technologie. Lorsqu’un algorithme prédictif a refusé des milliers de prêts hypothécaires à des demandeurs noirs en 2019, il ne s’agissait pas d’un dysfonctionnement, mais d’un choix délibéré, reflétant les priorités des géants de la tech, guidés par le profit. Pour Maximilian Kasy de tels résultats ne sont pas des accidents technologiques, mais les conséquences prévisibles de ceux qui contrôlent l’IA. « De même que Karl Marx identifiait le contrôle des moyens de production comme le fondement du pouvoir de classe, Kasy identifie les « moyens de prédiction » (données, infrastructure informatique, expertise technique et énergie) comme le socle du pouvoir à l’ère de l’IA ». « La thèse provocatrice de Kasy révèle que les objectifs de l’IA sont des choix délibérés, programmés par ceux qui contrôlent ses ressources pour privilégier le profit au détriment du bien commun. Seule une prise de contrôle démocratique des moyens de prédiction permettra de garantir que l’IA serve la société dans son ensemble et non les profits des géants de la tech ». 

Les algorithmes ne sont pas programmés pour prédire n’importe quels résultats. Les  plateformes de médias sociaux, par exemple, collectent d’énormes quantités de données utilisateur pour prédire quelles publicités maximisent les clics, et donc les profits attendus. En quête d’engagement, les algorithmes ont appris que l’indignation, l’insécurité et l’envie incitent les utilisateurs à faire défiler les publications. D’où l’envolée de la polarisation, des troubles anxieux et la dégradation du débat… « Les outils prédictifs utilisés dans le domaine de l’aide sociale ou du recrutement produisent des effets similaires. Les systèmes conçus pour identifier les candidats « à risque » s’appuient sur des données historiques biaisées, automatisant de fait la discrimination en privant de prestations ou d’entretiens d’embauche des groupes déjà marginalisés. Même lorsque l’IA semble promouvoir la diversité, c’est généralement parce que l’inclusion améliore la rentabilité, par exemple en optimisant les performances d’une équipe ou la réputation d’une marque. Dans ce cas, il existe un niveau de diversité « optimal » : celui qui maximise les profits escomptés »

Les systèmes d’IA reflètent en fin de compte les priorités de ceux qui contrôlent les « moyens de prédiction ». Si les travailleurs et les usagers, plutôt que les propriétaires d’entreprises, orientaient le développement technologique, suggère Kasy, les algorithmes pourraient privilégier des salaires équitables, la sécurité de l’emploi et le bien-être public au détriment du profit. Mais comment parvenir à un contrôle démocratique des moyens de prédiction ? Kasy préconise un ensemble d’actions complémentaires comme la taxation des entreprises d’IA pour couvrir les coûts sociaux, la réglementation pour interdire les pratiques néfastes en matière de données et la création de fiducies de données, c’est-à-dire la création d’institutions collectives pour gérer les données pour le compte des communautés à des fins d’intérêt public. 

Ces algorithmes décident qui est embauché, qui reçoit des soins médicaux ou qui a accès à l’information, privilégiant souvent le profit au détriment du bien-être social. Il compare la privatisation des données à l’accaparement historique des biens communs, arguant que le contrôle exercé par les géants de la tech sur les moyens de prédiction concentre le pouvoir, sape la démocratie et creuse les inégalités. Des algorithmes utilisés dans les tribunaux aux flux des réseaux sociaux, les systèmes d’IA façonnent de plus en plus nos vies selon les priorités privées de leurs créateurs. Pour Kasy, il ne faut pas les considérer comme de simples merveilles technologiques neutres, mais comme des systèmes façonnés par des forces sociales et économiques. L’avenir de l’IA ne dépend pas de la technologie elle-même, mais de notre capacité collective à bâtir des institutions telles que des fiducies de données pour gouverner démocratiquement les systèmes. Kasy nous rappelle que l’IA n’est pas une force autonome, mais une relation sociale, un instrument de pouvoir de classe qui peut être réorienté à des fins collectives. La question est de savoir si nous avons la volonté politique de nous en emparer.

Dans une tribune pour le New York Times, Maximilian Kasy explique que la protection des données personnelles n’est plus opérante dans un monde où l’IA est partout. « Car l’IA n’a pas besoin de savoir ce que vous avez fait ; elle a seulement besoin de savoir ce que des personnes comme vous ont fait auparavant ». Confier à l’IA la tâche de prendre des décisions à partir de ces données transforme la société. 

« Pour nous prémunir contre ce préjudice collectif, nous devons créer des institutions et adopter des lois qui donnent aux personnes concernées par les algorithmes d’IA la possibilité de s’exprimer sur leur conception et leurs objectifs. Pour y parvenir, la première étape est la transparence. À l’instar des obligations de transparence financière des entreprises, les sociétés et les organismes qui utilisent l’IA devraient être tenus de divulguer leurs objectifs et ce que leurs algorithmes cherchent à maximiser : clics publicitaires sur les réseaux sociaux, embauche de travailleurs non syndiqués ou nombre total d’expulsions », explique Kasy. Pas sûr pourtant que cette transparence des objectifs suffise, si nous n’imposons pas aux entreprises de publier des données sur leurs orientations. 

« La deuxième étape est la participation. Les personnes dont les données servent à entraîner les algorithmes – et dont la vie est influencée par ces derniers – doivent être consultées. Il faudrait que des citoyens contribuent à définir les objectifs des algorithmes. À l’instar d’un jury composé de pairs qui instruisent une affaire civile ou pénale et rendent un verdict collectivement, nous pourrions créer des assemblées citoyennes où un groupe représentatif de personnes choisies au hasard délibère et décide des objectifs appropriés pour les algorithmes. Cela pourrait se traduire par des employés d’une entreprise délibérant sur l’utilisation de l’IA sur leur lieu de travail, ou par une assemblée citoyenne examinant les objectifs des outils de police prédictive avant leur déploiement par les agences gouvernementales. Ce sont ces types de contre-pouvoirs démocratiques qui permettraient d’aligner l’IA sur le bien commun, et non sur le seul intérêt privé. L’avenir de l’IA ne dépendra pas d’algorithmes plus intelligents ou de puces plus rapides. Il dépendra de qui contrôle les données et de quelles valeurs et intérêts guident les machines. Si nous voulons une IA au service du public, c’est au public de décider de ce qu’elle doit servir ».

  •  

Slop : « On est cuits ! » 

Le slop est déjà partout, constate, à nouveau, désabusé, Charlie Warzel dans The Atlantic. Nous sommes en train de disparaître sous la distorsion des déchets de l’IA générative. Le nombre d’articles créés par l’IA serait même passé devant celui des articles créés par des humains. Le designer Angelos Arnis parle même d’« infrastructure du non-sens ». Dans la Harvard Business Review, les chercheurs estiment que le travail de remplissage (workslop) généré par l’IA et en train de coloniser le monde du travail sans produire grand chose d’utile. 

« L’IA a créé une véritable infrastructure d’absurdité et de désorientation », explique Warzel. Pire, la perte de sens « rend l’acte même de créer quelque chose de significatif presque insignifiant ». Et perdre l’envie de créer, « je le crains, revient à capituler sur notre humanité même ».

  •  

La Californie interdit la fixation algorithmique des prix

En Californie, quatrième économie mondiale, le gouverneur Newsom vient de promulguer la loi AB325, interdisant les cabinets de conseil en tarification, permettant de surveiller les tarifs et plus encore de les augmenter, nous apprend Cory Doctorow. La loi interdit « l’utilisation ou la diffusion d’un algorithme de tarification commun si cette personne contraint une autre personne à fixer ou à adopter un prix ou une condition commerciale recommandés par l’algorithme pour des produits ou services identiques ou similaires » (voir notre dossier “Du marketing à l’économie numérique : une boucle de prédation”). Pour Matt Stoller, cette législation peut paraître insignifiante, mais il s’agit d’une immense victoire interdisant la coercition des prix. La loi AB325 dit qu’il est désormais illégal de contraindre quelqu’un à utiliser un algorithme de tarification basé sur des données non publiques.

  •  

Slop : « On est cuits ! » 

Le slop est déjà partout, constate, à nouveau, désabusé, Charlie Warzel dans The Atlantic. Nous sommes en train de disparaître sous la distorsion des déchets de l’IA générative. Le nombre d’articles créés par l’IA serait même passé devant celui des articles créés par des humains. Le designer Angelos Arnis parle même d’« infrastructure du non-sens ». Dans la Harvard Business Review, les chercheurs estiment que le travail de remplissage (workslop) généré par l’IA et en train de coloniser le monde du travail sans produire grand chose d’utile. 

« L’IA a créé une véritable infrastructure d’absurdité et de désorientation », explique Warzel. Pire, la perte de sens « rend l’acte même de créer quelque chose de significatif presque insignifiant ». Et perdre l’envie de créer, « je le crains, revient à capituler sur notre humanité même ».

  •  

La Californie interdit la fixation algorithmique des prix

En Californie, quatrième économie mondiale, le gouverneur Newsom vient de promulguer la loi AB325, interdisant les cabinets de conseil en tarification, permettant de surveiller les tarifs et plus encore de les augmenter, nous apprend Cory Doctorow. La loi interdit « l’utilisation ou la diffusion d’un algorithme de tarification commun si cette personne contraint une autre personne à fixer ou à adopter un prix ou une condition commerciale recommandés par l’algorithme pour des produits ou services identiques ou similaires » (voir notre dossier “Du marketing à l’économie numérique : une boucle de prédation”). Pour Matt Stoller, cette législation peut paraître insignifiante, mais il s’agit d’une immense victoire interdisant la coercition des prix. La loi AB325 dit qu’il est désormais illégal de contraindre quelqu’un à utiliser un algorithme de tarification basé sur des données non publiques.

  •  

Tensions domestiques

Passionnant article de recherche qui montre que le développement de l’internet des objets dans l’espace domestique n’est pas sans créer des tensions entre les habitants. Les chercheurs parlent de « résistance banale » pour montrer que ces outils, comme les dispositifs vocaux de type Alexa ou domotiques, finissent par être peu à peu rejetés du fait des tensions familiales que leur usage génère. Le capitalisme de surveillance est moins panoptique que myope, ironisent les chercheurs Murray Goulden et Lewis Cameron. Via Algorithm Watch.

  •  

Tensions domestiques

Passionnant article de recherche qui montre que le développement de l’internet des objets dans l’espace domestique n’est pas sans créer des tensions entre les habitants. Les chercheurs parlent de « résistance banale » pour montrer que ces outils, comme les dispositifs vocaux de type Alexa ou domotiques, finissent par être peu à peu rejetés du fait des tensions familiales que leur usage génère. Le capitalisme de surveillance est moins panoptique que myope, ironisent les chercheurs Murray Goulden et Lewis Cameron. Via Algorithm Watch.

  •  

Saisir le monde des objets autour de nous

On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous invitent à nous intéresser aux objets techniques qui nous entourent, à les observer pour nous libérer de leur autorité. Ces 11 nouveaux exercices d’observation active nous montrent que comprendre la technique nécessite, plus que jamais, de chercher à l’observer autrement que la manière dont elle nous est présentée. 

A contre-emploi commence par un moulin à café qui tombe en panne et continue en explorant des machines qui dysfonctionnent… Dans ce monde à réparer, nous avons « à remettre du je » dans le lien que nous entretenons avec les machines. Que ce soit en explorant les controverses situées des trottinettes en libre accès ou les rapports difficiles que nous avons à nos imprimantes, les deux artistes nous invitent au glanage pour ré-armer notre sensibilité technique. Ils nous invitent à ré-observer notre rapport aux objets techniques, pour mieux le caractériser, en s’inspirant des travaux d’observations typologiques réalisés par Bernd et Hilla Becher ou par Marianne Wex par exemple. Pour Raffard et Roussel, à la suite des travaux du psychologue James Gibson dans Approche écologique de la perception visuelle (1979, éditions du Dehors, 2014), c’est en se déplaçant dans notre environnement visuel qu’on peut voir émerger d’autres catégories. C’est le mouvement qui nous permet de voir autrement, rappellent-ils Pour les deux artistes : « c’est la fixité de notre position d’observateur qui rend notre lecture des environnements technologiques compliquée »

Pour changer de regard sur la technologie, nous avons besoin d’une « nouvelle écologie de la perception ». Pour cela, ils nous invitent donc à démonter nos objets pour mieux les comprendre, pour mieux les cartographier, pour mieux saisir les choix socio-économiques qui y sont inscrits et déplacer ainsi leur cadre symbolique. Ils nous invitent également à lire ce qu’on y trouve, comme les inscriptions écrites sur les circuits électroniques, d’une manière quasi-automatique, comme quand Kenneth Goldsmith avait recopié un exemplaire du New York Times pour mieux se sentir concerné par tout ce qui y était inscrit – voir notre lecture de L’écriture sans écriture (Jean Boîte éditions, 2018). Raffard et Roussel rappellent que jusqu’en 1970, jusqu’à ce qu’Intel mette au point le processeur 4004, tout le monde pouvait réencoder une puce électronique, comme l’explique le théoricien des médias Friedrich Kittler dans Mode protégé (Presses du réel, 2015). Cet accès a été refermé depuis, nous plongeant dans le « paradoxe de l’accessibilité » qui veut que « plus un objet devient universel et limpide en surface, plus il devient opaque et hermétique en profondeur. Autrement dit, ce que l’on gagne en confort d’expérience, on le perd en capacité de compréhension – et d’action ». Pour le géographe Nigel Thrift, nos objets technologiques nous empêchent d’avoir pleinement conscience de leur réalité. Et c’est dans cet « inconscient technologique », comme il l’appelait, que les forces économiques prennent l’ascendant sur nos choix. « Dans les sociétés technocapitalistes, nous sommes lus davantage que nous ne pouvons lire ».

Ils nous invitent à extraire les mécanismes que les objets assemblent, comme nous y invitait déjà le philosophe Gilbert Simondon quand il évoquait l’assemblage de « schèmes techniques », c’est-à-dire l’assemblage de mécanismes existants permettant de produire des machines toujours plus complexes. Ils nous invitent bien sûr à représenter et schématiser les artefacts à l’image des vues éclatées, diffractées que proposent les dessins techniques, tout en constatant que la complexité technologique les a fait disparaître. On pense bien sûr au travail de Kate Crawford  (Anatomy of AI, Calculating Empires) et son « geste stratégique », ou établir une carte permet de se réapproprier le monde. On pense également au Handbook of Tyranny (Lars Müller Publishers,  2018) de l’architecte Theo Deutinger ou les topographies de pouvoir de l’artiste Mark Lombardi ou encore au Stack (UGA éditions, 2019) du designer Benjamin Bratton qui nous aident à visualiser et donc à comprendre la complexité à laquelle nous sommes confrontés. La cartographie aide à produire des représentations qui permettent de comprendre les points faibles des technologies, plaident les artistes. Elle nous aide à comprendre comment les technologies peuvent être neutralisées, comme quand Extinction Rébellion a proposé de neutraliser les trottinettes électriques urbaines en barrant à l’aide d’un marqueur indélébile, les QR codes pour les rendre inutilisables. Ces formes de neutralisations, comme on les trouve dans le travail de Simon Weckert et son hack de Google Maps en 2020, permettent de faire dérailler la machine, de trouver ses faiblesses, de contourner leur emprise, de « s’immiscer dans l’espace que contrôlent les technologies », de contourner ou détourner leurs assignations, de détourner leurs usages, c’est-à-dire de nous extraire nous-mêmes des scénarios d’usages dans lesquels les objets technologiques nous enferment, c’est-à-dire de réécrire les « scripts normatifs » que les technologies, par leur pouvoir, nous assignent, de comprendre leur « toxicité relationnelle »

Ils nous invitent enfin à construire nos machines, bien plus modestement qu’elles n’existent, bien sûr. Les machines que nous sommes capables de refaçonner, seuls, ne peuvent répondre à la toute-puissance des technologies modernes, rappellent-ils en évoquant leur tentative de reconstruire une imprimante à jet d’encre. Raffard et Roussel ont reconstruit une imprimante encombrante et peu performante, tout comme Thomas Thwaites avait reconstruit un grille-pain défaillant (The Toaster Project, Princeton, 2011). Cette bricologie a néanmoins des vertus, rappellent les artistes. Elle nous rappelle qu’à la toute puissance répond la vulnérabilité, à la high tech, la low tech. Et que ce changement même de regard, cette réappropriation, permet au moins de modifier le système cognitif des utilisateurs. Comme quand les manifestes cyberféministes nous invitent à regarder le monde autrement (souvenez-vous de Data Feminism). Pour Raffard et Roussel, créer des situations de vulnérabilité permet de changer la relation que nous avons avec les objets techniques. De nous réinterroger, pour savoir si nous sommes satisfaits de la direction dans laquelle les objets technologiques et nous-mêmes évoluons. En nous invitant à décider de ce que nous voulons faire de nos technologies et de ce que nous acceptons qu’elles nous fassent, ils militent pour une éducation à l’expérimentation technologique, qui fait peut-être la part un peu trop belle à notre rapport aux technologies, plutôt qu’à notre liberté à ne pas s’y intéresser. 

Le manuel pour réveiller notre curiosité technologique oublie peut-être que nous aurions aussi envie de les éteindre, de nous en détourner, de nous y opposer. Car le constat qu’ils dressent, à savoir celui que nous ne sommes pas capables de reproduire la puissance des machines contemporaines par nous-mêmes, risque d’être perçu comme un aveu d’impuissance. C’est peut-être là, la grande limite au démontage qu’ils proposent. Renforcer notre impuissance, plutôt que de nous aider à prendre le contrôle des systèmes, à peser de nos moyens d’actions collectifs contre eux, comme le peuvent la démocratie technique et la législation. Nous pouvons aussi parfois vouloir que la technologie ne nous saisisse pas… Et prendre le contrôle des systèmes pour que cela n’arrive pas, les réguler, nous y opposer, refuser de les comprendre, de les faire entrer là où nous ne voulons pas qu’ils interviennent est aussi un levier pour nous saisir des objets qui s’imposent autour de nous.

Hubert Guillaud

La couverture du livre de Matthieu Raffard et Mathilde Roussel, A contre-emploi.

MAJ du 7/11/2025 : Signalons que Matthieu Raffard et Mathilde Roussel publient un autre livre, directement issu de leur thèse, Bourrage papier : leçons politiques d’une imprimante (Les liens qui libèrent, 2025).

  •  

Saisir le monde des objets autour de nous

On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous invitent à nous intéresser aux objets techniques qui nous entourent, à les observer pour nous libérer de leur autorité. Ces 11 nouveaux exercices d’observation active nous montrent que comprendre la technique nécessite, plus que jamais, de chercher à l’observer autrement que la manière dont elle nous est présentée. 

A contre-emploi commence par un moulin à café qui tombe en panne et continue en explorant des machines qui dysfonctionnent… Dans ce monde à réparer, nous avons « à remettre du je » dans le lien que nous entretenons avec les machines. Que ce soit en explorant les controverses situées des trottinettes en libre accès ou les rapports difficiles que nous avons à nos imprimantes, les deux artistes nous invitent au glanage pour ré-armer notre sensibilité technique. Ils nous invitent à ré-observer notre rapport aux objets techniques, pour mieux le caractériser, en s’inspirant des travaux d’observations typologiques réalisés par Bernd et Hilla Becher ou par Marianne Wex par exemple. Pour Raffard et Roussel, à la suite des travaux du psychologue James Gibson dans Approche écologique de la perception visuelle (1979, éditions du Dehors, 2014), c’est en se déplaçant dans notre environnement visuel qu’on peut voir émerger d’autres catégories. C’est le mouvement qui nous permet de voir autrement, rappellent-ils Pour les deux artistes : « c’est la fixité de notre position d’observateur qui rend notre lecture des environnements technologiques compliquée »

Pour changer de regard sur la technologie, nous avons besoin d’une « nouvelle écologie de la perception ». Pour cela, ils nous invitent donc à démonter nos objets pour mieux les comprendre, pour mieux les cartographier, pour mieux saisir les choix socio-économiques qui y sont inscrits et déplacer ainsi leur cadre symbolique. Ils nous invitent également à lire ce qu’on y trouve, comme les inscriptions écrites sur les circuits électroniques, d’une manière quasi-automatique, comme quand Kenneth Goldsmith avait recopié un exemplaire du New York Times pour mieux se sentir concerné par tout ce qui y était inscrit – voir notre lecture de L’écriture sans écriture (Jean Boîte éditions, 2018). Raffard et Roussel rappellent que jusqu’en 1970, jusqu’à ce qu’Intel mette au point le processeur 4004, tout le monde pouvait réencoder une puce électronique, comme l’explique le théoricien des médias Friedrich Kittler dans Mode protégé (Presses du réel, 2015). Cet accès a été refermé depuis, nous plongeant dans le « paradoxe de l’accessibilité » qui veut que « plus un objet devient universel et limpide en surface, plus il devient opaque et hermétique en profondeur. Autrement dit, ce que l’on gagne en confort d’expérience, on le perd en capacité de compréhension – et d’action ». Pour le géographe Nigel Thrift, nos objets technologiques nous empêchent d’avoir pleinement conscience de leur réalité. Et c’est dans cet « inconscient technologique », comme il l’appelait, que les forces économiques prennent l’ascendant sur nos choix. « Dans les sociétés technocapitalistes, nous sommes lus davantage que nous ne pouvons lire ».

Ils nous invitent à extraire les mécanismes que les objets assemblent, comme nous y invitait déjà le philosophe Gilbert Simondon quand il évoquait l’assemblage de « schèmes techniques », c’est-à-dire l’assemblage de mécanismes existants permettant de produire des machines toujours plus complexes. Ils nous invitent bien sûr à représenter et schématiser les artefacts à l’image des vues éclatées, diffractées que proposent les dessins techniques, tout en constatant que la complexité technologique les a fait disparaître. On pense bien sûr au travail de Kate Crawford  (Anatomy of AI, Calculating Empires) et son « geste stratégique », ou établir une carte permet de se réapproprier le monde. On pense également au Handbook of Tyranny (Lars Müller Publishers,  2018) de l’architecte Theo Deutinger ou les topographies de pouvoir de l’artiste Mark Lombardi ou encore au Stack (UGA éditions, 2019) du designer Benjamin Bratton qui nous aident à visualiser et donc à comprendre la complexité à laquelle nous sommes confrontés. La cartographie aide à produire des représentations qui permettent de comprendre les points faibles des technologies, plaident les artistes. Elle nous aide à comprendre comment les technologies peuvent être neutralisées, comme quand Extinction Rébellion a proposé de neutraliser les trottinettes électriques urbaines en barrant à l’aide d’un marqueur indélébile, les QR codes pour les rendre inutilisables. Ces formes de neutralisations, comme on les trouve dans le travail de Simon Weckert et son hack de Google Maps en 2020, permettent de faire dérailler la machine, de trouver ses faiblesses, de contourner leur emprise, de « s’immiscer dans l’espace que contrôlent les technologies », de contourner ou détourner leurs assignations, de détourner leurs usages, c’est-à-dire de nous extraire nous-mêmes des scénarios d’usages dans lesquels les objets technologiques nous enferment, c’est-à-dire de réécrire les « scripts normatifs » que les technologies, par leur pouvoir, nous assignent, de comprendre leur « toxicité relationnelle »

Ils nous invitent enfin à construire nos machines, bien plus modestement qu’elles n’existent, bien sûr. Les machines que nous sommes capables de refaçonner, seuls, ne peuvent répondre à la toute-puissance des technologies modernes, rappellent-ils en évoquant leur tentative de reconstruire une imprimante à jet d’encre. Raffard et Roussel ont reconstruit une imprimante encombrante et peu performante, tout comme Thomas Thwaites avait reconstruit un grille-pain défaillant (The Toaster Project, Princeton, 2011). Cette bricologie a néanmoins des vertus, rappellent les artistes. Elle nous rappelle qu’à la toute puissance répond la vulnérabilité, à la high tech, la low tech. Et que ce changement même de regard, cette réappropriation, permet au moins de modifier le système cognitif des utilisateurs. Comme quand les manifestes cyberféministes nous invitent à regarder le monde autrement (souvenez-vous de Data Feminism). Pour Raffard et Roussel, créer des situations de vulnérabilité permet de changer la relation que nous avons avec les objets techniques. De nous réinterroger, pour savoir si nous sommes satisfaits de la direction dans laquelle les objets technologiques et nous-mêmes évoluons. En nous invitant à décider de ce que nous voulons faire de nos technologies et de ce que nous acceptons qu’elles nous fassent, ils militent pour une éducation à l’expérimentation technologique, qui fait peut-être la part un peu trop belle à notre rapport aux technologies, plutôt qu’à notre liberté à ne pas s’y intéresser. 

Le manuel pour réveiller notre curiosité technologique oublie peut-être que nous aurions aussi envie de les éteindre, de nous en détourner, de nous y opposer. Car le constat qu’ils dressent, à savoir celui que nous ne sommes pas capables de reproduire la puissance des machines contemporaines par nous-mêmes, risque d’être perçu comme un aveu d’impuissance. C’est peut-être là, la grande limite au démontage qu’ils proposent. Renforcer notre impuissance, plutôt que de nous aider à prendre le contrôle des systèmes, à peser de nos moyens d’actions collectifs contre eux, comme le peuvent la démocratie technique et la législation. Nous pouvons aussi parfois vouloir que la technologie ne nous saisisse pas… Et prendre le contrôle des systèmes pour que cela n’arrive pas, les réguler, nous y opposer, refuser de les comprendre, de les faire entrer là où nous ne voulons pas qu’ils interviennent est aussi un levier pour nous saisir des objets qui s’imposent autour de nous.

Hubert Guillaud

La couverture du livre de Matthieu Raffard et Mathilde Roussel, A contre-emploi.

MAJ du 7/11/2025 : Signalons que Matthieu Raffard et Mathilde Roussel publient un autre livre, directement issu de leur thèse, Bourrage papier : leçons politiques d’une imprimante (Les liens qui libèrent, 2025).

  •  

Le piège de la loyauté : la fidélité des clients joue à leur détriment

Les cartes de fidélité ne sont plus ce qu’elles étaient, explique le Washington Post. « Les entreprises prétendent récompenser votre fidélité par des points, des réductions et des avantages. Mais en coulisses, elles utilisent de plus en plus ces programmes pour surveiller votre comportement et créer un profil, puis vous facturer le prix qu’elles pensent que vous paierez ». Le journaliste tech Geoffrey Fowler a demandé à Starbuck les données relatives à son profil lié à sa carte de fidélité. En les analysant, il a constaté que plus il achetait de café, moins il recevait de promotions : « plus j’étais fidèle, moins je bénéficiais de réductions ». Pour les commissaires du bureau de la protection des consommateurs à la Federal Trade Commission, Samuel Levine et Stephanie Nguyen, les programmes de fidélité se sont transformé en moteurs de « tarification de surveillance » : les entreprises utilisent l’IA et les données personnelles pour fixer des prix individualisés, autrement dit des marges personnalisées. Dans un rapport publié avec le Vanderbilt Policy Accelerator consacré au « piège de la loyauté », ils affirment que les programmes de fidélité ont inversé le concept de fidélité : au lieu de récompenser les clients réguliers, les entreprises pourraient en réalité facturer davantage à leurs clients fidèles. En fait, les clients réguliers bénéficient de moins de réduction que les clients occasionnels et finissent donc par payer plus cher du fait de leur loyauté. Les entreprises utilisent les données de consommation pour déterminer votre sensibilité au prix et votre capacité à payer. Starbuck n’est pas la seule entreprise à utiliser ses programmes de fidélité pour optimiser ses profits. 

Une enquête menée par Consumer Reports a révélé que Kroger, l’une des grandes enseignes de la grande distribution aux Etats-Unis, utilise des données clients détaillées, notamment des estimations de revenus, pour personnaliser les remises via son programme de fidélité. Pour Levine et Nguyen, les programmes de fidélité sont devenus une mauvaise affaire pour les consommateurs.

Via ces programmes, les entreprises attirent les clients avec des remises importantes, puis réduisent discrètement ces avantages au fil du temps. Les compagnies aériennes en sont l’exemple le plus flagrant : obtenir un vol gratuit nécessite de collecter de plus en plus de points avec le temps. Les points se déprécient, les dates d’effets se réduisent… bref, l’utilisation du programme de fidélité se complexifie. Désormais, toutes les entreprises vous poussent à passer par leur application pour surveiller vos achats. Même les programmes gratuits s’y mettent. « Les entreprises ne disent pas la vérité sur la quantité de données qu’elles collectent et sur ce qu’elles en font », explique Samuel Levine. Reste qu’abandonner les programmes de fidélité n’est pas si simple, car sans eux, impossible d’obtenir les premières réductions alléchantes qu’ils proposent. « Nous ne devrions pas être obligés de choisir entre payer nos courses et protéger notre vie privée », conclut Levine. 

Les lois des États sur la protection de la vie privée obligent déjà les entreprises à minimiser la quantité de données qu’elles collectent, mais ces lois ne sont pas appliquées aux programmes de fidélité, affirment Levine et Nguyen, qui militent également pour améliorer la surveillance des prix, comme le proposait leur rapport pour la FTC. Ils invitent les consommateurs à être moins fidèles, à supprimer régulièrement leurs applications, à s’inscrire sous différents mails. « J’entends souvent des lecteurs me demander pourquoi ils devraient se soucier de la surveillance. Voici une réponse : ce n’est pas seulement votre vie privée qui est en jeu. C’est votre portefeuille », conclut le journaliste.

  •  

Le piège de la loyauté : la fidélité des clients joue à leur détriment

Les cartes de fidélité ne sont plus ce qu’elles étaient, explique le Washington Post. « Les entreprises prétendent récompenser votre fidélité par des points, des réductions et des avantages. Mais en coulisses, elles utilisent de plus en plus ces programmes pour surveiller votre comportement et créer un profil, puis vous facturer le prix qu’elles pensent que vous paierez ». Le journaliste tech Geoffrey Fowler a demandé à Starbuck les données relatives à son profil lié à sa carte de fidélité. En les analysant, il a constaté que plus il achetait de café, moins il recevait de promotions : « plus j’étais fidèle, moins je bénéficiais de réductions ». Pour les commissaires du bureau de la protection des consommateurs à la Federal Trade Commission, Samuel Levine et Stephanie Nguyen, les programmes de fidélité se sont transformé en moteurs de « tarification de surveillance » : les entreprises utilisent l’IA et les données personnelles pour fixer des prix individualisés, autrement dit des marges personnalisées. Dans un rapport publié avec le Vanderbilt Policy Accelerator consacré au « piège de la loyauté », ils affirment que les programmes de fidélité ont inversé le concept de fidélité : au lieu de récompenser les clients réguliers, les entreprises pourraient en réalité facturer davantage à leurs clients fidèles. En fait, les clients réguliers bénéficient de moins de réduction que les clients occasionnels et finissent donc par payer plus cher du fait de leur loyauté. Les entreprises utilisent les données de consommation pour déterminer votre sensibilité au prix et votre capacité à payer. Starbuck n’est pas la seule entreprise à utiliser ses programmes de fidélité pour optimiser ses profits. 

Une enquête menée par Consumer Reports a révélé que Kroger, l’une des grandes enseignes de la grande distribution aux Etats-Unis, utilise des données clients détaillées, notamment des estimations de revenus, pour personnaliser les remises via son programme de fidélité. Pour Levine et Nguyen, les programmes de fidélité sont devenus une mauvaise affaire pour les consommateurs.

Via ces programmes, les entreprises attirent les clients avec des remises importantes, puis réduisent discrètement ces avantages au fil du temps. Les compagnies aériennes en sont l’exemple le plus flagrant : obtenir un vol gratuit nécessite de collecter de plus en plus de points avec le temps. Les points se déprécient, les dates d’effets se réduisent… bref, l’utilisation du programme de fidélité se complexifie. Désormais, toutes les entreprises vous poussent à passer par leur application pour surveiller vos achats. Même les programmes gratuits s’y mettent. « Les entreprises ne disent pas la vérité sur la quantité de données qu’elles collectent et sur ce qu’elles en font », explique Samuel Levine. Reste qu’abandonner les programmes de fidélité n’est pas si simple, car sans eux, impossible d’obtenir les premières réductions alléchantes qu’ils proposent. « Nous ne devrions pas être obligés de choisir entre payer nos courses et protéger notre vie privée », conclut Levine. 

Les lois des États sur la protection de la vie privée obligent déjà les entreprises à minimiser la quantité de données qu’elles collectent, mais ces lois ne sont pas appliquées aux programmes de fidélité, affirment Levine et Nguyen, qui militent également pour améliorer la surveillance des prix, comme le proposait leur rapport pour la FTC. Ils invitent les consommateurs à être moins fidèles, à supprimer régulièrement leurs applications, à s’inscrire sous différents mails. « J’entends souvent des lecteurs me demander pourquoi ils devraient se soucier de la surveillance. Voici une réponse : ce n’est pas seulement votre vie privée qui est en jeu. C’est votre portefeuille », conclut le journaliste.

  •  

Une brève histoire de la Silicon Valley

Sur Fake Tech, en 4 billets fleuves, Christophe Le Boucher dresse une histoire de la Silicon Valley qui vaut vraiment le déplacement. S’inspirant de la somme de Malcolm Harris, Palo Alto : A History of California, Capitalism, and the World (Little Brown and company, 2023, non traduit) Le Boucher rappelle combien la Valley relève du colonialisme et d’une privatisation par le capitalisme. Et montre que la conquête du monde repose sur une radicalisation du modèle économique et politique des ingénieurs et entrepreneurs qui la façonnent. Les articles sont longs et riches, mais vous ne regretterez pas votre lecture. Ca commence par là.

  •  

L’ogre Airbnb

Très belle série du Monde en 6 articles sur l’ogre Airbnb, la solution de rentabilisation immédiate et maximale de l’immobilier privé. La série commence par décrire son emprise en quelques années et termine en montrant comment la ville de New York a réussi à endiguer le fléau en créant de la complexité administrative, plus encore en obligeant les propriétaires à être présents pendant le séjour des locataires et en renforçant les contrôles.

  •  

Une brève histoire de la Silicon Valley

Sur Fake Tech, en 4 billets fleuves, Christophe Le Boucher dresse une histoire de la Silicon Valley qui vaut vraiment le déplacement. S’inspirant de la somme de Malcolm Harris, Palo Alto : A History of California, Capitalism, and the World (Little Brown and company, 2023, non traduit) Le Boucher rappelle combien la Valley relève du colonialisme et d’une privatisation par le capitalisme. Et montre que la conquête du monde repose sur une radicalisation du modèle économique et politique des ingénieurs et entrepreneurs qui la façonnent. Les articles sont longs et riches, mais vous ne regretterez pas votre lecture. Ca commence par là.

  •  

L’ogre Airbnb

Très belle série du Monde en 6 articles sur l’ogre Airbnb, la solution de rentabilisation immédiate et maximale de l’immobilier privé. La série commence par décrire son emprise en quelques années et termine en montrant comment la ville de New York a réussi à endiguer le fléau en créant de la complexité administrative, plus encore en obligeant les propriétaires à être présents pendant le séjour des locataires et en renforçant les contrôles.

  •  

« Nous sommes le slop »

« On dit que ma génération gâche sa vie à regarder des divertissements insensés. Mais je pense que c’est pire que ça. Nous transformons désormais nos vies en divertissements insensés. Nous ne nous contentons pas de consommer des bêtises, nous les devenons »

« Je vois des gens se transformer en personnages de télévision, leurs souvenirs en épisodes, eux-mêmes en divertissement. Nous sommes devenus un contenu dénué de sens, que l’on feuillette et que l’on parcourt. (…) Vieillir est devenu une succession d’épisodes à diffuser. (…) Nous existons pour nous divertir les uns les autres. Pour les influenceurs, bien sûr, c’est leur métier. Ils transforment leur vie en séries télé. Nous avons des bandes-annonces et des teasers. On a des cliffhangers, des fins de saison, des rappels – À la semaine prochaine ! On a des personnages pré-enregistrés et des apparitions surprises. Des cultes et des conventions. Des gags récurrents et des ouvertures spontanées. Des génériques et des génériques de fin. (…) C’est la carrière que tout le monde rêve ; celle qui ne finit jamais. (…) Vendez-vous comme un produit et soyez traité comme tel. (…) Ta douleur est ma distraction ; tes sentiments sont mes épisodes de remplissage. (…) Je voterai contre ton divorce s’il n’est pas assez divertissant. Ta vie est ce qui me sert à nettoyer ma cuisine, ce qui me permet de tuer le temps. Et si tu ne me divertis pas, tant pis, je ferai défiler la page pour une autre vie à consommer. (…) Les influenceurs nous invitent à entrer, puis ne peuvent plus nous faire sortir. » 

« Que ressentiraient ces familles si Internet était coupé, si elles devaient faire des compliments, des compromis et des sacrifices sans la validation d’inconnus ? Sauraient-elles comment faire ? Sans commentaires ni émojis d’applaudissements ? (…) Tout semble inutile, inutile tant que ce n’est pas publié. Pourquoi être beau sans un selfie ; pourquoi sortir sans publier une story ? Pourquoi s’engager. »
« On sait comment cette émission se termine, cependant. Comme toutes les autres. Un jour, cette génération, ces influenceurs, découvrira avec effroi ce que toutes les célébrités, tous les candidats et tous les acteurs ont compris avant eux. Qu’après avoir tout offert, chaque centimètre de leur vie, chaque instant limité sur cette Terre, peu importe combien ils mettent en scène, combien ils répètent, combien ils échangent, combien de temps ils laissent les caméras tourner, nous nous demanderons toujours, finalement, ce qu’il y a d’autre à l’affiche ?»  – Freya IndiaGirls.

MAJ du 4/11/2025 : « Nous avons gaspillé bien trop de temps sur nos téléphones », constatent les promoteurs de l’appel, Time to refuse (Il est temps de refuser). Le manifeste de ce collectif est porté par l’influenceuse américaine Freya India, par Gabriela Nguyen qui est à l’origine d’Appstinence, de Sean Killingsworth qui a lancé le Reconnect Movement et Nicholas Plante responsable de campagne du collectif Design it for us – et est soutenu par la Young People Alliance ainsi que par le psychologue Jonathan Haidt, l’auteur de Génération anxieuse (Les arènes, 2025 – voir également le site dédié) et animateur du blog After Babel, sur lequel ces jeunes chercheurs et activistes ont tous publié. Le collectif en appelle à une journée d’action le 10 octobre en invitant les jeunes à effacer une des applications de leurs téléphones. Leur manifeste (« un appel à l’action pour la génération Z, par la génération Z ») rappelle que c’est à cette génération de faire quelque chose pour se protéger de l’envahissement numérique. 

« Nous souffrons. Près de la moitié de la génération Z regrette l’existence de plateformes comme X et TikTok. Nous trouvons enfin les mots pour décrire ce qui nous est arrivé : l’impact du porno hardcore sur notre cerveau enfant, l’impact des applications et des algorithmes sur notre capacité de concentration, et le fait que nous ne pouvons même plus distinguer correctement notre propre visage dans nos images. Nous réalisons que ce n’était pas normal ; ce n’était pas une enfance. Nous sommes arrivés dans ce monde sans limite d’âge, sans barrières, avec si peu de protection. Et la plupart des jeunes adultes à qui nous parlons – hommes, femmes, de tous horizons – réagissent avec une horreur totale à l’idée que leurs futurs enfants vivent ce qu’ils ont vécu »

« Il est temps de se demander ce qui peut être fait. Il est temps de construire quelque chose de nouveau. Il est temps de reprendre ce que nous valons ». Et les porteurs de l’initiative de profiter de la Journée mondiale de la santé mentale, pour inviter leur génération à agir. « Refusez. Refusez d’être un produit. Refusez d’exposer votre vie privée au jugement public. Refusez de perdre encore des années de votre vie à parcourir des contenus vides et sans fin qui vous dégradent, vous rendent amer, envieux et égocentriques, de publier pour des personnes qui se moquent complètement de vous. Refusez de donner un centimètre de plus à des entreprises qui font fortune en vous volant votre attention et en vous servant des informations insignifiantes. Et refusez que cela se reproduise » pour la génération suivante. « Nous devons être les adultes dont la prochaine génération aura besoin », c’est-à-dire refuser que les prochaines générations subissent la même chose que la génération Z a vécu. 

Et le manifeste d’appeler à « supprimez vos comptes », « libérez-vous de la pression de publier ». « Nous pouvons refuser d’être la génération anxieuse. Nous pouvons être la génération dont l’enfance a été volée par les entreprises, mais qui a récupéré cette liberté pour ceux qui sont venus après »
Dans un reportage pour le New York Times, la journaliste Christina Caron rappelle pourtant que ce mouvement n’est pas un mouvement particulièrement techno-critique. Il n’incite pas les élèves à modifier leur rapport à la technologie, juste à créer des moments de déconnexion, sans téléphones, et de socialisation IRL.

  •  

« Nous sommes le slop »

« On dit que ma génération gâche sa vie à regarder des divertissements insensés. Mais je pense que c’est pire que ça. Nous transformons désormais nos vies en divertissements insensés. Nous ne nous contentons pas de consommer des bêtises, nous les devenons »

« Je vois des gens se transformer en personnages de télévision, leurs souvenirs en épisodes, eux-mêmes en divertissement. Nous sommes devenus un contenu dénué de sens, que l’on feuillette et que l’on parcourt. (…) Vieillir est devenu une succession d’épisodes à diffuser. (…) Nous existons pour nous divertir les uns les autres. Pour les influenceurs, bien sûr, c’est leur métier. Ils transforment leur vie en séries télé. Nous avons des bandes-annonces et des teasers. On a des cliffhangers, des fins de saison, des rappels – À la semaine prochaine ! On a des personnages pré-enregistrés et des apparitions surprises. Des cultes et des conventions. Des gags récurrents et des ouvertures spontanées. Des génériques et des génériques de fin. (…) C’est la carrière que tout le monde rêve ; celle qui ne finit jamais. (…) Vendez-vous comme un produit et soyez traité comme tel. (…) Ta douleur est ma distraction ; tes sentiments sont mes épisodes de remplissage. (…) Je voterai contre ton divorce s’il n’est pas assez divertissant. Ta vie est ce qui me sert à nettoyer ma cuisine, ce qui me permet de tuer le temps. Et si tu ne me divertis pas, tant pis, je ferai défiler la page pour une autre vie à consommer. (…) Les influenceurs nous invitent à entrer, puis ne peuvent plus nous faire sortir. » 

« Que ressentiraient ces familles si Internet était coupé, si elles devaient faire des compliments, des compromis et des sacrifices sans la validation d’inconnus ? Sauraient-elles comment faire ? Sans commentaires ni émojis d’applaudissements ? (…) Tout semble inutile, inutile tant que ce n’est pas publié. Pourquoi être beau sans un selfie ; pourquoi sortir sans publier une story ? Pourquoi s’engager. »
« On sait comment cette émission se termine, cependant. Comme toutes les autres. Un jour, cette génération, ces influenceurs, découvrira avec effroi ce que toutes les célébrités, tous les candidats et tous les acteurs ont compris avant eux. Qu’après avoir tout offert, chaque centimètre de leur vie, chaque instant limité sur cette Terre, peu importe combien ils mettent en scène, combien ils répètent, combien ils échangent, combien de temps ils laissent les caméras tourner, nous nous demanderons toujours, finalement, ce qu’il y a d’autre à l’affiche ?»  – Freya IndiaGirls.

MAJ du 4/11/2025 : « Nous avons gaspillé bien trop de temps sur nos téléphones », constatent les promoteurs de l’appel, Time to refuse (Il est temps de refuser). Le manifeste de ce collectif est porté par l’influenceuse américaine Freya India, par Gabriela Nguyen qui est à l’origine d’Appstinence, de Sean Killingsworth qui a lancé le Reconnect Movement et Nicholas Plante responsable de campagne du collectif Design it for us – et est soutenu par la Young People Alliance ainsi que par le psychologue Jonathan Haidt, l’auteur de Génération anxieuse (Les arènes, 2025 – voir également le site dédié) et animateur du blog After Babel, sur lequel ces jeunes chercheurs et activistes ont tous publié. Le collectif en appelle à une journée d’action le 10 octobre en invitant les jeunes à effacer une des applications de leurs téléphones. Leur manifeste (« un appel à l’action pour la génération Z, par la génération Z ») rappelle que c’est à cette génération de faire quelque chose pour se protéger de l’envahissement numérique. 

« Nous souffrons. Près de la moitié de la génération Z regrette l’existence de plateformes comme X et TikTok. Nous trouvons enfin les mots pour décrire ce qui nous est arrivé : l’impact du porno hardcore sur notre cerveau enfant, l’impact des applications et des algorithmes sur notre capacité de concentration, et le fait que nous ne pouvons même plus distinguer correctement notre propre visage dans nos images. Nous réalisons que ce n’était pas normal ; ce n’était pas une enfance. Nous sommes arrivés dans ce monde sans limite d’âge, sans barrières, avec si peu de protection. Et la plupart des jeunes adultes à qui nous parlons – hommes, femmes, de tous horizons – réagissent avec une horreur totale à l’idée que leurs futurs enfants vivent ce qu’ils ont vécu »

« Il est temps de se demander ce qui peut être fait. Il est temps de construire quelque chose de nouveau. Il est temps de reprendre ce que nous valons ». Et les porteurs de l’initiative de profiter de la Journée mondiale de la santé mentale, pour inviter leur génération à agir. « Refusez. Refusez d’être un produit. Refusez d’exposer votre vie privée au jugement public. Refusez de perdre encore des années de votre vie à parcourir des contenus vides et sans fin qui vous dégradent, vous rendent amer, envieux et égocentriques, de publier pour des personnes qui se moquent complètement de vous. Refusez de donner un centimètre de plus à des entreprises qui font fortune en vous volant votre attention et en vous servant des informations insignifiantes. Et refusez que cela se reproduise » pour la génération suivante. « Nous devons être les adultes dont la prochaine génération aura besoin », c’est-à-dire refuser que les prochaines générations subissent la même chose que la génération Z a vécu. 

Et le manifeste d’appeler à « supprimez vos comptes », « libérez-vous de la pression de publier ». « Nous pouvons refuser d’être la génération anxieuse. Nous pouvons être la génération dont l’enfance a été volée par les entreprises, mais qui a récupéré cette liberté pour ceux qui sont venus après »
Dans un reportage pour le New York Times, la journaliste Christina Caron rappelle pourtant que ce mouvement n’est pas un mouvement particulièrement techno-critique. Il n’incite pas les élèves à modifier leur rapport à la technologie, juste à créer des moments de déconnexion, sans téléphones, et de socialisation IRL.

  •  

Privacy Trap : sortir du piège de la seule protection des données

« Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exerçant sur leurs employés un contrôle qui devrait susciter de vives inquiétudes ». « Sans contrôle ni intervention proactive, ces technologies seront déployées de manière à obscurcir encore davantage la responsabilité, à approfondir les inégalités et à priver les travailleurs de leur voix et de leur pouvoir d’action ».

Les chercheurs et chercheuses – Minsu Longiaru, Wilneida Negrón, Brian J. Chen, Aiha Nguyen, Seema N. Patel, et Dana Calacci – attirent l’attention sur deux mythes fondamentaux sur la confidentialité des données, à savoir : croire que la protection des données sur le marché de la consommation fonctionne de manière similaire sur le lieu de travail et croire que renforcer la protection des informations personnelles suffit à remédier aux préjudices subis par les travailleurs suite à l’extraction de données. En fait, rappellent les chercheurs, les réglementations sur la protection des données personnelles reposent sur un cadre d’action fondé sur les droits individuels d’accès, de rectification et de suppression, et ne s’appliquent qu’aux données dites personnelles : les données anonymisées, dépersonnalisées ou agrégées ne bénéficient que de peu voire d’aucune protection juridique. Mais ces approches individualisées sont « cruellement » insuffisantes sur le lieu de travail, notamment parce que les travailleurs évoluent dans des conditions de pouvoir de négociations extrêmement inégales où l’exercice de leurs droits peut-être impossible et ils n’ont bien souvent pas le pouvoir de contrôler, voire même de percevoir, l’étendue de la surveillance dont ils sont l’objet. « Par conséquent, on observe une expansion sans précédent de la capacité des employeurs à collecter les données des travailleurs sans leur consentement explicite et à les utiliser à des fins de surveillance, de sanction et d’intensification de l’exploitation », comme par exemple quand les employeurs revendent ou transmettent les données des travailleurs à des tiers – comme l’expliquait par exemple la sociologue Karen Levy dans son livre sur la surveillance des routiers

De l’instrumentalisation de la protection de la vie privée

Les technologies d’IA préservant la confidentialité (par exemple des techniques de chiffrement permettant de masquer les données lors de leur collecte, de leur traitement ou de leur utilisation), le développement des données synthétiques (qui servent à remplacer ou compléter des données réelles) et le calcul multipartite (des technologies permettant d’analyser les données de différents appareils ou parties, sans divulguer les données des uns aux autres), permettent désormais aux entreprises de se conformer aux cadres réglementaires, tout en accentuant la surveillance

Les entreprises utilisent les données de leurs employés pour générer des profils détaillés, des indicateurs de performance… et manipulent ces informations à leur profit grâce à l’asymétrie d’information, comme le montrait le rapport de Power Switch Action sur Uber. Le développement du chiffrement ou de la confidentialité différentielle (ce que l’on appelle le marché des technologies qui augmentent la confidentialité, les Privacy-Enhancing Technologies (PET) est en explosion, passant de 2,4 milliards de dollars en 2023 à 25,8 milliards en 2033 selon des prévisions du Forum économique mondial) risquent d’ailleurs à terme de renforcer l’opacité et l’asymétrie d’information sur les lieux de travail, s’inquiètent les chercheurs, en permettant aux entreprises d’analyser des ensembles de données sans identifier les éléments individuels (ce qui leur permet de ne pas consulter les données des individus, tout en continuant à extraire des informations individuelles toujours plus précises). Le déploiement de ces technologies permettent aux entreprises de se dégager de leurs responsabilités, de masquer, voire d’obfusquer les discriminations, comme le disait la chercheuse Ifeoma Ajunwa ou comme l’explique la chercheuse Elizabeth Renieris dans son livre Beyond Data (MIT Press, 2023, non traduit et disponible en libre accès). Elle y rappelle que les données ne sont pas une vérité objective et, de plus, leur statut « entièrement contextuel et dynamique » en fait un fondement instable pour toute organisation. Mais surtout, que ces technologies encouragent un partage accru des données. 

Uber par exemple est l’un des grands utilisateurs des PETs, sans que cela n’ait jamais bénéficié aux chauffeurs, bien au contraire, puisque ces technologies permettent à l’entreprise (et à toutes celles qui abusent de la discrimination salariale algorithmique, comme l’expliquait Veena Dubal) de réviser les rémunérations à la baisse. 

Les chercheurs donnent d’autres exemples encore, notamment le développement du recours à des données synthétiques pour produire des conclusions statistiques similaires aux données réelles. Elles peuvent ainsi prédire ou simuler le comportement des employés sans utiliser ou en masquant les données personnelles. C’est ce que fait Amazon dans les entrepôts où il déploie des robots automatiques par exemple. Or, depuis 2019, des rapports d’enquêtes, comme celui du syndicat Strategic Organizing Center, ont montré une corrélation entre l’adoption de robots chez Amazon et l’augmentation des problèmes de santé des travailleurs dû à l’augmentation des cadencements. 

Le problème, c’est que les lois régissant les données personnelles peuvent ne pas s’appliquer aux données synthétiques, comme l’expliquent les professeures de droit Michal S. Gal et Orla Lynskey dans un article consacré aux implications légales des données synthétiques. Et même lorsque ces lois s’appliquent, l’autorité chargée de l’application peut ne pas être en mesure de déterminer si des données synthétiques ou personnelles ont été utilisées, ce qui incite les entreprises à prétendre faussement se conformer en masquant l’utilisation réelle des données derrière la génération synthétique. Enfin, le recours aux données synthétiques peuvent compromettre les exigences légales d’explicabilité et d’interprétabilité. En général, plus le générateur de données synthétiques est sophistiqué, plus il devient difficile d’expliquer les corrélations et, plus fortement encore, la causalité dans les données générées. Enfin, avec les données synthétiques, le profilage pourrait au final être plus invasif encore, comme l’exprimaient par exemple les professeurs de droit Daniel Susser et Jeremy Seeman. Enfin, leur utilisation pourrait suggérer au régulateur de diminuer les contrôles, sans voir de recul du profilage et des mesures disciplinaires sans recours. 

D’autres techniques encore sont mobilisés, comme le calcul multipartite et l’apprentissage fédéré qui permettent aux entreprises d’analyser des données en améliorant leur confidentialité. Le calcul multipartite permet à plusieurs parties de calculer conjointement des résultats tout en conservant leurs données chiffrées. L’apprentissage fédéré permet à plusieurs appareils d’entraîner conjointement un modèle d’apprentissage automatique en traitant les données localement, évitant ainsi leur transfert vers un serveur central : ce qui permet qu’une entreprise peut analyser les données personnelles d’une autre entreprise sans en être réellement propriétaire et sans accéder au détail. Sur le papier, la technologie du calcul multipartite semble améliorer la confidentialité, mais en pratique, les entreprises peuvent l’utiliser pour coordonner la consolidation et la surveillance des données tout en échappant à toute responsabilité. Ces technologies sont par exemple très utilisées pour la détection des émotions en assurant d’une confidentialité accrue…  sans assurer que les préjudices ne soient réduits et ce, alors que, l’intégration des IA émotionnelles dans le champ du travail est complexifié par le règlement européen sur l’IA, comme l’expliquait un récent article du Monde

Comment réguler alors ?

« Sans garanties proactives pour réguler les conditions de travail, l’innovation continuera d’être utilisée comme un outil d’exploitation », rappellent les chercheurs. « Pour inverser cette tendance, nous avons besoin de politiques qui placent la dignité, l’autonomie et le pouvoir collectif des travailleurs au cœur de nos préoccupations ». Et les chercheurs de proposer 3 principes de conception pour améliorer la réglementation en la matière. 

Tout d’abord, supprimer le droit de surveillance des employeurs en limitant la surveillance abusive. Les chercheurs estiment que nous devons établir de meilleures règles concernant la datafication du monde du travail, la collecte comme la génération de données. Ils rappellent que le problème ne repose pas seulement dans l’utilisation des données, mais également lors de la collecte et après : « une fois créées, elles peuvent être anonymisées, agrégées, synthétisées, dépersonnalisées, traitées de manière confidentielle, stockées, vendues, partagées, etc. » Pour les chercheurs, il faut d’abord « fermer le robinet » et fermer « la surveillance illimitée », comme nous y invitaient déjà en 2017 Ifeoma Ajunwa, Kate Crawford et Jason Schultz. 

Bien souvent, l’interdiction de la collecte de données est très limitée. Elle est strictement interdite dans les salles de pause et les toilettes, mais la collecte est souvent autorisée partout ailleurs. Il faut briser la « prérogative de surveillance de l’employeur », et notamment la surveillance massive et continue. « Lorsque la surveillance électronique intermittente du lieu de travail est autorisée, elle doit respecter des principes stricts de minimisation » (d’objectif et de proportionnalité pourrait-on ajouter pour rappeler d’autres principes essentiels de la protection des données). « Plus précisément, elle ne devrait être autorisée que lorsqu’elle est strictement nécessaire (par exemple, pour des raisons de conformité légale), lorsqu’elle affecte le plus petit nombre de travailleurs, qu’elle collecte le moins de données nécessaires et qu’elle est strictement adaptée à l’utilisation des moyens les moins invasifs ». Les chercheurs recommandent également d’informer les travailleurs de ces surveillance et de leur objectif et signalent l’existence de propositions de loi interdisant aux entreprises d’exiger de leurs employés des dispositifs de localisation ou le port permanent d’appareils de surveillance. Des propositions qui reconnaissent que la protection des données des travailleurs ne saurait se substituer à la protection de leur espace, de leur temps et de leur autonomie.

Enfin, ils recommandent de réduire voire d’interdire la vente de données et leurs exploitation à des tiers (sans développer cette proposition, hélas).  

Le deuxième angle des propositions appelle à se concentrer sur les objectifs des systèmes, en soulignant, très pertinemment que « les cadres juridiques qui se concentrent sur les détails techniques ont tendance à désavantager les travailleurs, car ils exacerbent les asymétries de pouvoir » et surtout se concentrent sur des propositions qui peuvent être vite mises à mal et contournées par le déploiement de nouvelles technologies

Les chercheurs recommandent de ne pas tant regarder regarder les intrants (la collecte de données ou leur anonymisation) et de se concentrer plutôt sur les « conséquences concrètes, intentionnelles comme imprévues, que ces systèmes produisent pour les travailleurs », comme l’instabilité des horaires, les mesures disciplinaires injustes, le stress, les cadences, ou la précarité de l’emploi… indépendamment des technologies utilisées ou du respect des normes de confidentialité. Par exemple, en interdisant la prise de décision automatisée dans certaines situations, comme le proposait déjà l’AI Now Institute en 2023 en demandant à établir des lignes rouges interdisant la surveillance émotionnelle ou la discrimination salariale algorithmique. Une loi fédérale pour la protection des travailleurs de la logistique par exemple interdit les quotas de cadencement inférieurs à la journée (88, 89) et charge l’administration de la sécurité et de la santé au travail (OSHA) de créer une norme dédiée suggérant l’intérêt à autoriser les organismes de réglementation existants à actualiser et améliorer les protections depuis les données. Un projet de loi sur la sécurité des emplois de la ville de New York interdit par exemple expressément aux employeurs de licencier des travailleurs sur la base de données issues de technologies biométriques, de technologies de géolocalisation, d’applications installées sur les appareils personnels et d’enregistrements effectués au domicile des employés. « L’un des avantages des approches politiques qui restreignent clairement certaines pratiques des employeurs est leur lisibilité : elles n’obligent pas les travailleurs ou les autorités de réglementation à déchiffrer des systèmes de boîte noire. Ces lois permettent aux travailleurs de mieux reconnaître les violations de leurs droits », comme les lois sur la semaine de travail équitable qui protègent les travailleurs contre les modifications d’horaires sans préavis ni rémunération (voir ce que nous en disions déjà en 2020). « Plusieurs États et localités ont adopté ces lois en réponse à l’essor des pratiques de planification à flux tendu, où les employeurs, souvent à l’aide de logiciels basés sur les données, tentent d’optimiser les coûts de main-d’œuvre par le biais de modifications d’horaires très imprévisibles. Les protections liées à la semaine de travail équitable ne réglementent pas les détails techniques, comme les données intégrées à l’algorithme ; elles désamorcent plutôt le problème en obligeant les employeurs à indemniser financièrement les travailleurs pour les modifications d’horaires de dernière minute. Les lois sur les horaires équitables et les limites de cadencement illustrent la manière dont les régulateurs peuvent créer de nouveaux droits substantiels pour les travailleurs en élaborant de nouvelles réglementations sur le lieu de travail pour les préjudices induits par les nouvelles technologies, qui n’étaient auparavant pas reconnus par la loi. Ces types de politiques sont facilement applicables et ont un impact concret et direct sur les conditions de travail ». Mettre des limites aux cadences, était d’ailleurs une des propositions que nous avions mises en avant dans notre article sur la surveillance au travail.

Enfin, les chercheurs évoquent un troisième faisceau de règles visant à privilégier les politiques qui renforcent l’autonomie des travailleurs et limitent le pouvoir des entreprises en rééquilibrant les asymétries de pouvoir. « Pour renforcer le pouvoir des travailleurs à l’ère de l’IA, les décideurs politiques doivent reconnaître que le problème fondamental ne réside pas dans la protection de données spécifiques, mais dans la manière dont les nouvelles technologies en milieu de travail peuvent exacerber les asymétries de pouvoir et l’exploitation structurelle », comme l’expliquait le Roosevelt Institute. Ils invitent à ce que les décideurs politiques soutiennent des mécanismes qui renforcent la participation collective des travailleurs à toutes les étapes du développement et du déploiement des technologies en milieu de travail : comme ceux favorisant la négociation collective et ceux favorisant la participation des travailleurs à toutes les étapes du développement, du déploiement et des ajustements des systèmes d’IA. Ensuite, ils recommandent, notamment face à la sophistication des déploiements technologiques, de renforcer les pouvoir d’enquêtes et les capacités des agences du travail et des procureurs et d’imposer plus activement des mesures de transparence en proposant des sanctions proportionnées pour dissuader les abus (et notamment en sanctionnant les dirigeants et pas seulement les entreprises, comme le suggérait le rapport 2025 de l’AI Now Institute). Les chercheurs proposent d’établir un droit privé d’action permettant à une personne ou une organisation de poursuivre une entreprise ou un employeur individuellement comme dans le cadre d’un recours collectif. Ils recommandent également que dans les cas de surveillance ou de décision algorithmique, la charge de la preuve incombe aux employeurs et de renforcer la protection des lanceurs d’alerte comme le proposait la juriste Hannah Bloch-Wehba pour contrer le silence autour du fonctionnement des technologies par ceux qui les déploient. Les révélations éclairent le débat public et incitent à agir. Il faut donc les encourager plus efficacement. 

Et les chercheurs de conclure en rappelant que les entreprises privilégient de plus en plus les profits aux personnes. Pour défaire cette tendance, « nous avons besoin de garanties ancrées dans des droits collectifs », renforcés. Nous devons traiter les travailleurs non pas comme des données, mais leur permettre de peser sur les décisions. 

Ces propositions peuvent paraître radicales, notamment parce que le déploiement des technologies de surveillance au travail est déjà partout très avancé et nécessite d’exiger de faire marche arrière pour faire reculer la surveillance au travail. De réfléchir activement à une dénumérisation voire une rematérialisation… Ils nous montrent néanmoins que nous avons un lourd travail à réaliser pour humaniser à nouveau la relation de travail et qu’elle ne se brise pas sur des indicateurs abscons et défaillants laissant partout les travailleurs sans pouvoir sur le travail. 

Hubert Guillaud

Le 18 novembre, les chercheurs de Data & Society responsables du rapport proposent un webinaire sur le sujet. Son titre : « mettre fin au pipeline de la surveillance via l’IA »

  •  

Privacy Trap : sortir du piège de la seule protection des données

« Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exerçant sur leurs employés un contrôle qui devrait susciter de vives inquiétudes ». « Sans contrôle ni intervention proactive, ces technologies seront déployées de manière à obscurcir encore davantage la responsabilité, à approfondir les inégalités et à priver les travailleurs de leur voix et de leur pouvoir d’action ».

Les chercheurs et chercheuses – Minsu Longiaru, Wilneida Negrón, Brian J. Chen, Aiha Nguyen, Seema N. Patel, et Dana Calacci – attirent l’attention sur deux mythes fondamentaux sur la confidentialité des données, à savoir : croire que la protection des données sur le marché de la consommation fonctionne de manière similaire sur le lieu de travail et croire que renforcer la protection des informations personnelles suffit à remédier aux préjudices subis par les travailleurs suite à l’extraction de données. En fait, rappellent les chercheurs, les réglementations sur la protection des données personnelles reposent sur un cadre d’action fondé sur les droits individuels d’accès, de rectification et de suppression, et ne s’appliquent qu’aux données dites personnelles : les données anonymisées, dépersonnalisées ou agrégées ne bénéficient que de peu voire d’aucune protection juridique. Mais ces approches individualisées sont « cruellement » insuffisantes sur le lieu de travail, notamment parce que les travailleurs évoluent dans des conditions de pouvoir de négociations extrêmement inégales où l’exercice de leurs droits peut-être impossible et ils n’ont bien souvent pas le pouvoir de contrôler, voire même de percevoir, l’étendue de la surveillance dont ils sont l’objet. « Par conséquent, on observe une expansion sans précédent de la capacité des employeurs à collecter les données des travailleurs sans leur consentement explicite et à les utiliser à des fins de surveillance, de sanction et d’intensification de l’exploitation », comme par exemple quand les employeurs revendent ou transmettent les données des travailleurs à des tiers – comme l’expliquait par exemple la sociologue Karen Levy dans son livre sur la surveillance des routiers

De l’instrumentalisation de la protection de la vie privée

Les technologies d’IA préservant la confidentialité (par exemple des techniques de chiffrement permettant de masquer les données lors de leur collecte, de leur traitement ou de leur utilisation), le développement des données synthétiques (qui servent à remplacer ou compléter des données réelles) et le calcul multipartite (des technologies permettant d’analyser les données de différents appareils ou parties, sans divulguer les données des uns aux autres), permettent désormais aux entreprises de se conformer aux cadres réglementaires, tout en accentuant la surveillance

Les entreprises utilisent les données de leurs employés pour générer des profils détaillés, des indicateurs de performance… et manipulent ces informations à leur profit grâce à l’asymétrie d’information, comme le montrait le rapport de Power Switch Action sur Uber. Le développement du chiffrement ou de la confidentialité différentielle (ce que l’on appelle le marché des technologies qui augmentent la confidentialité, les Privacy-Enhancing Technologies (PET) est en explosion, passant de 2,4 milliards de dollars en 2023 à 25,8 milliards en 2033 selon des prévisions du Forum économique mondial) risquent d’ailleurs à terme de renforcer l’opacité et l’asymétrie d’information sur les lieux de travail, s’inquiètent les chercheurs, en permettant aux entreprises d’analyser des ensembles de données sans identifier les éléments individuels (ce qui leur permet de ne pas consulter les données des individus, tout en continuant à extraire des informations individuelles toujours plus précises). Le déploiement de ces technologies permettent aux entreprises de se dégager de leurs responsabilités, de masquer, voire d’obfusquer les discriminations, comme le disait la chercheuse Ifeoma Ajunwa ou comme l’explique la chercheuse Elizabeth Renieris dans son livre Beyond Data (MIT Press, 2023, non traduit et disponible en libre accès). Elle y rappelle que les données ne sont pas une vérité objective et, de plus, leur statut « entièrement contextuel et dynamique » en fait un fondement instable pour toute organisation. Mais surtout, que ces technologies encouragent un partage accru des données. 

Uber par exemple est l’un des grands utilisateurs des PETs, sans que cela n’ait jamais bénéficié aux chauffeurs, bien au contraire, puisque ces technologies permettent à l’entreprise (et à toutes celles qui abusent de la discrimination salariale algorithmique, comme l’expliquait Veena Dubal) de réviser les rémunérations à la baisse. 

Les chercheurs donnent d’autres exemples encore, notamment le développement du recours à des données synthétiques pour produire des conclusions statistiques similaires aux données réelles. Elles peuvent ainsi prédire ou simuler le comportement des employés sans utiliser ou en masquant les données personnelles. C’est ce que fait Amazon dans les entrepôts où il déploie des robots automatiques par exemple. Or, depuis 2019, des rapports d’enquêtes, comme celui du syndicat Strategic Organizing Center, ont montré une corrélation entre l’adoption de robots chez Amazon et l’augmentation des problèmes de santé des travailleurs dû à l’augmentation des cadencements. 

Le problème, c’est que les lois régissant les données personnelles peuvent ne pas s’appliquer aux données synthétiques, comme l’expliquent les professeures de droit Michal S. Gal et Orla Lynskey dans un article consacré aux implications légales des données synthétiques. Et même lorsque ces lois s’appliquent, l’autorité chargée de l’application peut ne pas être en mesure de déterminer si des données synthétiques ou personnelles ont été utilisées, ce qui incite les entreprises à prétendre faussement se conformer en masquant l’utilisation réelle des données derrière la génération synthétique. Enfin, le recours aux données synthétiques peuvent compromettre les exigences légales d’explicabilité et d’interprétabilité. En général, plus le générateur de données synthétiques est sophistiqué, plus il devient difficile d’expliquer les corrélations et, plus fortement encore, la causalité dans les données générées. Enfin, avec les données synthétiques, le profilage pourrait au final être plus invasif encore, comme l’exprimaient par exemple les professeurs de droit Daniel Susser et Jeremy Seeman. Enfin, leur utilisation pourrait suggérer au régulateur de diminuer les contrôles, sans voir de recul du profilage et des mesures disciplinaires sans recours. 

D’autres techniques encore sont mobilisés, comme le calcul multipartite et l’apprentissage fédéré qui permettent aux entreprises d’analyser des données en améliorant leur confidentialité. Le calcul multipartite permet à plusieurs parties de calculer conjointement des résultats tout en conservant leurs données chiffrées. L’apprentissage fédéré permet à plusieurs appareils d’entraîner conjointement un modèle d’apprentissage automatique en traitant les données localement, évitant ainsi leur transfert vers un serveur central : ce qui permet qu’une entreprise peut analyser les données personnelles d’une autre entreprise sans en être réellement propriétaire et sans accéder au détail. Sur le papier, la technologie du calcul multipartite semble améliorer la confidentialité, mais en pratique, les entreprises peuvent l’utiliser pour coordonner la consolidation et la surveillance des données tout en échappant à toute responsabilité. Ces technologies sont par exemple très utilisées pour la détection des émotions en assurant d’une confidentialité accrue…  sans assurer que les préjudices ne soient réduits et ce, alors que, l’intégration des IA émotionnelles dans le champ du travail est complexifié par le règlement européen sur l’IA, comme l’expliquait un récent article du Monde

Comment réguler alors ?

« Sans garanties proactives pour réguler les conditions de travail, l’innovation continuera d’être utilisée comme un outil d’exploitation », rappellent les chercheurs. « Pour inverser cette tendance, nous avons besoin de politiques qui placent la dignité, l’autonomie et le pouvoir collectif des travailleurs au cœur de nos préoccupations ». Et les chercheurs de proposer 3 principes de conception pour améliorer la réglementation en la matière. 

Tout d’abord, supprimer le droit de surveillance des employeurs en limitant la surveillance abusive. Les chercheurs estiment que nous devons établir de meilleures règles concernant la datafication du monde du travail, la collecte comme la génération de données. Ils rappellent que le problème ne repose pas seulement dans l’utilisation des données, mais également lors de la collecte et après : « une fois créées, elles peuvent être anonymisées, agrégées, synthétisées, dépersonnalisées, traitées de manière confidentielle, stockées, vendues, partagées, etc. » Pour les chercheurs, il faut d’abord « fermer le robinet » et fermer « la surveillance illimitée », comme nous y invitaient déjà en 2017 Ifeoma Ajunwa, Kate Crawford et Jason Schultz. 

Bien souvent, l’interdiction de la collecte de données est très limitée. Elle est strictement interdite dans les salles de pause et les toilettes, mais la collecte est souvent autorisée partout ailleurs. Il faut briser la « prérogative de surveillance de l’employeur », et notamment la surveillance massive et continue. « Lorsque la surveillance électronique intermittente du lieu de travail est autorisée, elle doit respecter des principes stricts de minimisation » (d’objectif et de proportionnalité pourrait-on ajouter pour rappeler d’autres principes essentiels de la protection des données). « Plus précisément, elle ne devrait être autorisée que lorsqu’elle est strictement nécessaire (par exemple, pour des raisons de conformité légale), lorsqu’elle affecte le plus petit nombre de travailleurs, qu’elle collecte le moins de données nécessaires et qu’elle est strictement adaptée à l’utilisation des moyens les moins invasifs ». Les chercheurs recommandent également d’informer les travailleurs de ces surveillance et de leur objectif et signalent l’existence de propositions de loi interdisant aux entreprises d’exiger de leurs employés des dispositifs de localisation ou le port permanent d’appareils de surveillance. Des propositions qui reconnaissent que la protection des données des travailleurs ne saurait se substituer à la protection de leur espace, de leur temps et de leur autonomie.

Enfin, ils recommandent de réduire voire d’interdire la vente de données et leurs exploitation à des tiers (sans développer cette proposition, hélas).  

Le deuxième angle des propositions appelle à se concentrer sur les objectifs des systèmes, en soulignant, très pertinemment que « les cadres juridiques qui se concentrent sur les détails techniques ont tendance à désavantager les travailleurs, car ils exacerbent les asymétries de pouvoir » et surtout se concentrent sur des propositions qui peuvent être vite mises à mal et contournées par le déploiement de nouvelles technologies

Les chercheurs recommandent de ne pas tant regarder regarder les intrants (la collecte de données ou leur anonymisation) et de se concentrer plutôt sur les « conséquences concrètes, intentionnelles comme imprévues, que ces systèmes produisent pour les travailleurs », comme l’instabilité des horaires, les mesures disciplinaires injustes, le stress, les cadences, ou la précarité de l’emploi… indépendamment des technologies utilisées ou du respect des normes de confidentialité. Par exemple, en interdisant la prise de décision automatisée dans certaines situations, comme le proposait déjà l’AI Now Institute en 2023 en demandant à établir des lignes rouges interdisant la surveillance émotionnelle ou la discrimination salariale algorithmique. Une loi fédérale pour la protection des travailleurs de la logistique par exemple interdit les quotas de cadencement inférieurs à la journée (88, 89) et charge l’administration de la sécurité et de la santé au travail (OSHA) de créer une norme dédiée suggérant l’intérêt à autoriser les organismes de réglementation existants à actualiser et améliorer les protections depuis les données. Un projet de loi sur la sécurité des emplois de la ville de New York interdit par exemple expressément aux employeurs de licencier des travailleurs sur la base de données issues de technologies biométriques, de technologies de géolocalisation, d’applications installées sur les appareils personnels et d’enregistrements effectués au domicile des employés. « L’un des avantages des approches politiques qui restreignent clairement certaines pratiques des employeurs est leur lisibilité : elles n’obligent pas les travailleurs ou les autorités de réglementation à déchiffrer des systèmes de boîte noire. Ces lois permettent aux travailleurs de mieux reconnaître les violations de leurs droits », comme les lois sur la semaine de travail équitable qui protègent les travailleurs contre les modifications d’horaires sans préavis ni rémunération (voir ce que nous en disions déjà en 2020). « Plusieurs États et localités ont adopté ces lois en réponse à l’essor des pratiques de planification à flux tendu, où les employeurs, souvent à l’aide de logiciels basés sur les données, tentent d’optimiser les coûts de main-d’œuvre par le biais de modifications d’horaires très imprévisibles. Les protections liées à la semaine de travail équitable ne réglementent pas les détails techniques, comme les données intégrées à l’algorithme ; elles désamorcent plutôt le problème en obligeant les employeurs à indemniser financièrement les travailleurs pour les modifications d’horaires de dernière minute. Les lois sur les horaires équitables et les limites de cadencement illustrent la manière dont les régulateurs peuvent créer de nouveaux droits substantiels pour les travailleurs en élaborant de nouvelles réglementations sur le lieu de travail pour les préjudices induits par les nouvelles technologies, qui n’étaient auparavant pas reconnus par la loi. Ces types de politiques sont facilement applicables et ont un impact concret et direct sur les conditions de travail ». Mettre des limites aux cadences, était d’ailleurs une des propositions que nous avions mises en avant dans notre article sur la surveillance au travail.

Enfin, les chercheurs évoquent un troisième faisceau de règles visant à privilégier les politiques qui renforcent l’autonomie des travailleurs et limitent le pouvoir des entreprises en rééquilibrant les asymétries de pouvoir. « Pour renforcer le pouvoir des travailleurs à l’ère de l’IA, les décideurs politiques doivent reconnaître que le problème fondamental ne réside pas dans la protection de données spécifiques, mais dans la manière dont les nouvelles technologies en milieu de travail peuvent exacerber les asymétries de pouvoir et l’exploitation structurelle », comme l’expliquait le Roosevelt Institute. Ils invitent à ce que les décideurs politiques soutiennent des mécanismes qui renforcent la participation collective des travailleurs à toutes les étapes du développement et du déploiement des technologies en milieu de travail : comme ceux favorisant la négociation collective et ceux favorisant la participation des travailleurs à toutes les étapes du développement, du déploiement et des ajustements des systèmes d’IA. Ensuite, ils recommandent, notamment face à la sophistication des déploiements technologiques, de renforcer les pouvoir d’enquêtes et les capacités des agences du travail et des procureurs et d’imposer plus activement des mesures de transparence en proposant des sanctions proportionnées pour dissuader les abus (et notamment en sanctionnant les dirigeants et pas seulement les entreprises, comme le suggérait le rapport 2025 de l’AI Now Institute). Les chercheurs proposent d’établir un droit privé d’action permettant à une personne ou une organisation de poursuivre une entreprise ou un employeur individuellement comme dans le cadre d’un recours collectif. Ils recommandent également que dans les cas de surveillance ou de décision algorithmique, la charge de la preuve incombe aux employeurs et de renforcer la protection des lanceurs d’alerte comme le proposait la juriste Hannah Bloch-Wehba pour contrer le silence autour du fonctionnement des technologies par ceux qui les déploient. Les révélations éclairent le débat public et incitent à agir. Il faut donc les encourager plus efficacement. 

Et les chercheurs de conclure en rappelant que les entreprises privilégient de plus en plus les profits aux personnes. Pour défaire cette tendance, « nous avons besoin de garanties ancrées dans des droits collectifs », renforcés. Nous devons traiter les travailleurs non pas comme des données, mais leur permettre de peser sur les décisions. 

Ces propositions peuvent paraître radicales, notamment parce que le déploiement des technologies de surveillance au travail est déjà partout très avancé et nécessite d’exiger de faire marche arrière pour faire reculer la surveillance au travail. De réfléchir activement à une dénumérisation voire une rematérialisation… Ils nous montrent néanmoins que nous avons un lourd travail à réaliser pour humaniser à nouveau la relation de travail et qu’elle ne se brise pas sur des indicateurs abscons et défaillants laissant partout les travailleurs sans pouvoir sur le travail. 

Hubert Guillaud

Le 18 novembre, les chercheurs de Data & Society responsables du rapport proposent un webinaire sur le sujet. Son titre : « mettre fin au pipeline de la surveillance via l’IA »

  •  

Après le Doge, les Doges !

Si le département de l’Efficacité Gouvernementale (DOGE) a disparu de l’actualité, ce n’est pas le cas de ses actions ni du modèle initié, au contraire. Aux États-Unis, des dizaines de d’État ont mis en place des « missions d’efficacité », inspirées du Doge. Un point commun à nombre de ces initiatives est « l’objectif affiché d’identifier et d’éliminer les inefficacités des administrations publiques grâce à l’intelligence artificielle (IA) » et de promouvoir « un accès élargi aux systèmes de données étatiques existants », selon une analyse récente de Maddy Dwyer, analyste politique au Centre pour la démocratie et la technologie.

Sur Tech Policy Press, Justin Hendrix en discute justement avec Maddy Dwyer et l’ingénieur Ben Green, dont on a souvent évoqué le travail sur InternetActu et dont on avait lu The smart enough city (MIT Press, 2019, non traduit, voir notre article “Vers des villes politiquement intelligentes”) et qui travaille à un nouveau livre, Algorithmic Realism: Data Science Practices to Promote Social Justice.

Dans son analyse, Maddy Dwyer parle d’une « dogification des administrations américaines » et des gouvernements d’Etats. 29 États américains ont mis en place des initiatives en ce sens, avec des succès pour l’instant mitigés, et un certain nombre (11) ont particulièrement mobilisé les données et l’IA pour se faire. Certains l’ont mobilisé pour simplifier les processus réglementaires, réduire les effectifs et évaluer les financements. Dwyer a établi 5 signaux d’alertes permettant de montrer que ces dogifications pouvaient être problématiques. 

La première concerne le manque de transparence. Du Doge fédéral à ses déclinaisons locales, dans beaucoup de situations nous ne savons pas qui compose la structure, quel est son rôle, quelles sont ses attributions légales, de quels accès aux systèmes dispose-t-il ? 

Le second point d’alerte concerne les violations des règles sur la protection de la vie privée, notamment lorsque le Doge a eu accès à des données sensibles et protégées. Cela rappelle aux Etats qu’ils ont l’obligation de veiller à ce que leurs initiatives d’efficacité soient conformes aux lois sur la confidentialité et la cybersécurité.

Le troisième point d’alerte concerne les failles de sécurité et notamment l’absence de contrôle d’accès, voir l’usurpation d’identité. L’efficacité ne peut se faire au détriment de la sécurité des systèmes. 

Le quatrième signal d’alarme concerne l’instrumentalisation des données gouvernementales, notamment en accélérant les échanges de données entre agences, à des fins non prévues initialement et au risque de saper la confiance des administrés. 

Enfin, un ultime signal d’alarme consiste à utiliser des outils IA sans avoir démontré leur efficacité pour prendre des décisions à haut risque. Les administrations et États locaux devraient donc s’assurer que les outils utilisés sont bien adaptés aux tâches à accomplir. 

Pour Ben Green, ces programmes sont d’abord des programmes austéritaires. Le Doge nous a surtout montré qu’intégrer la technologie dans l’administration peut considérablement échouer. Certes l’IA peut produire du code, mais une grande partie du travail d’ingénieur logiciel ne consiste pas à l’écrire, il consiste à l’intégrer dans un système logiciel complexe, de suivre des protocoles de sécurité appropriés, de concevoir un logiciel capable d’être maintenu dans le temps. Autant de choses que les outils de codage automatisés savent peu faire, rappelle l’ingénieur. Ensuite, ce n’est pas parce qu’un outil d’IA a des capacités ou semble utile qu’il est réellement utile aux travailleurs d’un domaine très spécifique. Déployer un chatbot pour les agents fédéraux ne leur est pas très utile, comme l’expliquait Wired. Un outil d’IA ne sait pas s’intégrer dans un contexte de règles, de réglementations, de processus ni vraiment avec d’autres équipes avec lesquelles les administrations se coordonnent. En vérité, rappelle Green, « il est extrêmement difficile de faire collaborer efficacement les gens et l’IA ». Pour lui, le succès de l’IA s’explique parce qu’elle « rend la mise en œuvre des mesures d’austérité plus rapides ». L’IA est un prétexte, comme le disait Eryk Salvaggio. Elle n’améliore pas l’efficacité du gouvernement. Quand l’IA a été mobilisée au sein de l’Agence des anciens combattants pour réduire les contrats, le code pour distinguer les contrats acceptables des autres a été écrit en une seule journée. Pour Green, le Doge ne s’est jamais soucié de bien faire les choses, ni de garantir le bon fonctionnement des systèmes, mais simplement de rapidité. Sans compter, rappelle Maddy Dwyer, que les administrations subissent désormais une forte pression à avoir recours à l’IA. 

Pour Justin Hendrix, nous sommes aujourd’hui dans un cycle technologique et politique d’expansion de l’IA. Mais ce cycle risque demain de passer. Pourra-t-on utiliser l’IA autrement ? Il est probable que administrations fédérales, étatiques ou locales, se rendent compte que l’IA ne leur apporte pas grande chose et génère surtout des erreurs et de l’opacité, tout comme les entreprises elles-mêmes commencent à déchanter. C’était d’ailleurs l’un des constats du rapport sur l’état du business des l’IA générative publiée par le MIT, qu’évoquait Fortune fin août : « 95% des projets pilotes d’IA générative dans les entreprises échouent ». L’intégration d’outils IA dans les entreprises se révèle particulièrement ardue, et les projets sont souvent peu pertinents, bien moins que les outils des grands acteurs de l’IA. Le rapport soulignait également un décalage dans l’allocation des ressources : plus de la moitié des budgets dédiés à l’IA génératives sont orientés vers le marketing et la vente plutôt que vers l’automatisation des processus métiers. Dans le New York Times, Steve Lohr résumait autrement la situation. « Selon une étude récente de McKinsey & Company, près de huit entreprises sur dix déclarent utiliser l’IA générative, mais tout aussi nombreuses sont celles qui n’ont signalé aucun impact significatif sur leurs résultats financiers. » Malgré l’espoir d’une révolution dans tous les domaines, de la comptabilité back-office au service client, les bénéfices des entreprises à adopter l’IA peinent à émerger. C’est « le paradoxe de l’IA générative », comme dit McKinsey. Et il ressemble furieusement au paradoxe de la productivité de l’introduction des premiers ordinateurs personnels dans les entreprises : malgré les investissements massifs des entreprises dans l’équipement et les nouvelles technologies, les économistes voyaient peu de gains de productivité chez les employés. Selon une enquête de S&P Global, 42% des entreprises qui avaient un projet pilote d’AI l’ont abandonné en 2024, contre 17% l’année précédente. Pour le Gartner, qui analyse depuis des années les cycles de battage médiatique technologiques, l’IA est en train de glisser vers le creux de la désillusion, tout en promettant que c’est l’étape avant qu’une technologie ne devienne un outil à la productivité éprouvé (oubliant de rappeler pourtant, que nombre de technologies mise en avant par cette étude annuelle controversée et fort peu sérieuse, ne sont jamais revenues du creux de la désillusion). Pour l’instant, rappelle Lohr, les seuls gagnants de la course à l’IA ont été les fournisseurs de technologies et de conseils en IA, même si le journaliste tente de nous convaincre du contraire en nous parlant du déploiement de systèmes d’IA chez deux acteurs mondiaux, sans qu’ils soient encore capables de mesurer leurs effets. « Il n’est pas surprenant que les premiers efforts en matière d’IA échouent », clamait Andrew McAfee, codirecteur de l’Initiative sur l’économie numérique du Massachusetts Institute of Technology et fondateur de Workhelix, une société de conseil en IA : « L’innovation est un processus d’échec assez régulier. » 

Reste qu’il est difficile de changer de cap pour ceux qui l’adoptent, rappelle Green, alors que ces bascules favorisent une approche très solutionniste de la technologie. Dans les technologies liées à la ville intelligente, l’adoption rapide de technologies a été déceptive et a conduit à l’abandon de nombre de projets, parce que les équipes, face aux critiques, sont souvent désarmées. Pour lui, l’idée d’une IA indispensable risque surtout de rendre le réveil difficile. « Pour beaucoup de personnes travaillant dans le domaine de la technologie et du gouvernement, la technologie devient la finalité, et on perd de vue ce que nous cherchons réellement à accomplir. On se laisse alors happer par des idées très étroites d’efficacité », au détriment de l’amélioration du gouvernement. Notre navigation à courte vue entre des programmes très pro-techno et leur reflux, conduit à bien plus de stagnation que d’avancées.

Pour Maddy Dwyer tout l’enjeu vise à évaluer s’il existe des alternatives à l’IA plus adaptées pour résoudre nos problèmes, en favorisant la transparence des solutions. Pour Ben Green, nous devrions chercher à mieux comprendre pourquoi l’IA suscite un tel engouement et comment il se propage.

L’engouement pour les solutions technologiques ne date pas de l’IA, comme le montre les nombreuses vagues que nous avons connues. Pour Green, l’enjeu ne consiste pas seulement à expliquer pourquoi l’IA est défaillante, mais à comprendre pourquoi « notre façon de concevoir la technologie est défaillante ». Nous devrions réfléchir à « la façon dont l’information sur la technologie est transmise et partagée à des personnes qui souhaitent simplement améliorer le gouvernement et croient que toutes ces technologies sont efficaces pour y parvenir ». Enfin, dans les discours actuels sur l’efficacité, il faut prendre en compte l’austérité bien sûr, mais plus encore mieux mesurer la profonde méfiance qui s’exprime à l’égard des fonctionnaires. Pourquoi « ne fait-on pas confiance aux bureaucrates pour prendre des décisions à notre place » ? Si l’efficacité est importante, la gauche devrait aussi porter un discours sur l’intérêt général, la dignité, le bien être. L’efficacité est un piège qu’il faut à la fois répondre et dépasser. 

  •  

Après le Doge, les Doges !

Si le département de l’Efficacité Gouvernementale (DOGE) a disparu de l’actualité, ce n’est pas le cas de ses actions ni du modèle initié, au contraire. Aux États-Unis, des dizaines de d’État ont mis en place des « missions d’efficacité », inspirées du Doge. Un point commun à nombre de ces initiatives est « l’objectif affiché d’identifier et d’éliminer les inefficacités des administrations publiques grâce à l’intelligence artificielle (IA) » et de promouvoir « un accès élargi aux systèmes de données étatiques existants », selon une analyse récente de Maddy Dwyer, analyste politique au Centre pour la démocratie et la technologie.

Sur Tech Policy Press, Justin Hendrix en discute justement avec Maddy Dwyer et l’ingénieur Ben Green, dont on a souvent évoqué le travail sur InternetActu et dont on avait lu The smart enough city (MIT Press, 2019, non traduit, voir notre article “Vers des villes politiquement intelligentes”) et qui travaille à un nouveau livre, Algorithmic Realism: Data Science Practices to Promote Social Justice.

Dans son analyse, Maddy Dwyer parle d’une « dogification des administrations américaines » et des gouvernements d’Etats. 29 États américains ont mis en place des initiatives en ce sens, avec des succès pour l’instant mitigés, et un certain nombre (11) ont particulièrement mobilisé les données et l’IA pour se faire. Certains l’ont mobilisé pour simplifier les processus réglementaires, réduire les effectifs et évaluer les financements. Dwyer a établi 5 signaux d’alertes permettant de montrer que ces dogifications pouvaient être problématiques. 

La première concerne le manque de transparence. Du Doge fédéral à ses déclinaisons locales, dans beaucoup de situations nous ne savons pas qui compose la structure, quel est son rôle, quelles sont ses attributions légales, de quels accès aux systèmes dispose-t-il ? 

Le second point d’alerte concerne les violations des règles sur la protection de la vie privée, notamment lorsque le Doge a eu accès à des données sensibles et protégées. Cela rappelle aux Etats qu’ils ont l’obligation de veiller à ce que leurs initiatives d’efficacité soient conformes aux lois sur la confidentialité et la cybersécurité.

Le troisième point d’alerte concerne les failles de sécurité et notamment l’absence de contrôle d’accès, voir l’usurpation d’identité. L’efficacité ne peut se faire au détriment de la sécurité des systèmes. 

Le quatrième signal d’alarme concerne l’instrumentalisation des données gouvernementales, notamment en accélérant les échanges de données entre agences, à des fins non prévues initialement et au risque de saper la confiance des administrés. 

Enfin, un ultime signal d’alarme consiste à utiliser des outils IA sans avoir démontré leur efficacité pour prendre des décisions à haut risque. Les administrations et États locaux devraient donc s’assurer que les outils utilisés sont bien adaptés aux tâches à accomplir. 

Pour Ben Green, ces programmes sont d’abord des programmes austéritaires. Le Doge nous a surtout montré qu’intégrer la technologie dans l’administration peut considérablement échouer. Certes l’IA peut produire du code, mais une grande partie du travail d’ingénieur logiciel ne consiste pas à l’écrire, il consiste à l’intégrer dans un système logiciel complexe, de suivre des protocoles de sécurité appropriés, de concevoir un logiciel capable d’être maintenu dans le temps. Autant de choses que les outils de codage automatisés savent peu faire, rappelle l’ingénieur. Ensuite, ce n’est pas parce qu’un outil d’IA a des capacités ou semble utile qu’il est réellement utile aux travailleurs d’un domaine très spécifique. Déployer un chatbot pour les agents fédéraux ne leur est pas très utile, comme l’expliquait Wired. Un outil d’IA ne sait pas s’intégrer dans un contexte de règles, de réglementations, de processus ni vraiment avec d’autres équipes avec lesquelles les administrations se coordonnent. En vérité, rappelle Green, « il est extrêmement difficile de faire collaborer efficacement les gens et l’IA ». Pour lui, le succès de l’IA s’explique parce qu’elle « rend la mise en œuvre des mesures d’austérité plus rapides ». L’IA est un prétexte, comme le disait Eryk Salvaggio. Elle n’améliore pas l’efficacité du gouvernement. Quand l’IA a été mobilisée au sein de l’Agence des anciens combattants pour réduire les contrats, le code pour distinguer les contrats acceptables des autres a été écrit en une seule journée. Pour Green, le Doge ne s’est jamais soucié de bien faire les choses, ni de garantir le bon fonctionnement des systèmes, mais simplement de rapidité. Sans compter, rappelle Maddy Dwyer, que les administrations subissent désormais une forte pression à avoir recours à l’IA. 

Pour Justin Hendrix, nous sommes aujourd’hui dans un cycle technologique et politique d’expansion de l’IA. Mais ce cycle risque demain de passer. Pourra-t-on utiliser l’IA autrement ? Il est probable que administrations fédérales, étatiques ou locales, se rendent compte que l’IA ne leur apporte pas grande chose et génère surtout des erreurs et de l’opacité, tout comme les entreprises elles-mêmes commencent à déchanter. C’était d’ailleurs l’un des constats du rapport sur l’état du business des l’IA générative publiée par le MIT, qu’évoquait Fortune fin août : « 95% des projets pilotes d’IA générative dans les entreprises échouent ». L’intégration d’outils IA dans les entreprises se révèle particulièrement ardue, et les projets sont souvent peu pertinents, bien moins que les outils des grands acteurs de l’IA. Le rapport soulignait également un décalage dans l’allocation des ressources : plus de la moitié des budgets dédiés à l’IA génératives sont orientés vers le marketing et la vente plutôt que vers l’automatisation des processus métiers. Dans le New York Times, Steve Lohr résumait autrement la situation. « Selon une étude récente de McKinsey & Company, près de huit entreprises sur dix déclarent utiliser l’IA générative, mais tout aussi nombreuses sont celles qui n’ont signalé aucun impact significatif sur leurs résultats financiers. » Malgré l’espoir d’une révolution dans tous les domaines, de la comptabilité back-office au service client, les bénéfices des entreprises à adopter l’IA peinent à émerger. C’est « le paradoxe de l’IA générative », comme dit McKinsey. Et il ressemble furieusement au paradoxe de la productivité de l’introduction des premiers ordinateurs personnels dans les entreprises : malgré les investissements massifs des entreprises dans l’équipement et les nouvelles technologies, les économistes voyaient peu de gains de productivité chez les employés. Selon une enquête de S&P Global, 42% des entreprises qui avaient un projet pilote d’AI l’ont abandonné en 2024, contre 17% l’année précédente. Pour le Gartner, qui analyse depuis des années les cycles de battage médiatique technologiques, l’IA est en train de glisser vers le creux de la désillusion, tout en promettant que c’est l’étape avant qu’une technologie ne devienne un outil à la productivité éprouvé (oubliant de rappeler pourtant, que nombre de technologies mise en avant par cette étude annuelle controversée et fort peu sérieuse, ne sont jamais revenues du creux de la désillusion). Pour l’instant, rappelle Lohr, les seuls gagnants de la course à l’IA ont été les fournisseurs de technologies et de conseils en IA, même si le journaliste tente de nous convaincre du contraire en nous parlant du déploiement de systèmes d’IA chez deux acteurs mondiaux, sans qu’ils soient encore capables de mesurer leurs effets. « Il n’est pas surprenant que les premiers efforts en matière d’IA échouent », clamait Andrew McAfee, codirecteur de l’Initiative sur l’économie numérique du Massachusetts Institute of Technology et fondateur de Workhelix, une société de conseil en IA : « L’innovation est un processus d’échec assez régulier. » 

Reste qu’il est difficile de changer de cap pour ceux qui l’adoptent, rappelle Green, alors que ces bascules favorisent une approche très solutionniste de la technologie. Dans les technologies liées à la ville intelligente, l’adoption rapide de technologies a été déceptive et a conduit à l’abandon de nombre de projets, parce que les équipes, face aux critiques, sont souvent désarmées. Pour lui, l’idée d’une IA indispensable risque surtout de rendre le réveil difficile. « Pour beaucoup de personnes travaillant dans le domaine de la technologie et du gouvernement, la technologie devient la finalité, et on perd de vue ce que nous cherchons réellement à accomplir. On se laisse alors happer par des idées très étroites d’efficacité », au détriment de l’amélioration du gouvernement. Notre navigation à courte vue entre des programmes très pro-techno et leur reflux, conduit à bien plus de stagnation que d’avancées.

Pour Maddy Dwyer tout l’enjeu vise à évaluer s’il existe des alternatives à l’IA plus adaptées pour résoudre nos problèmes, en favorisant la transparence des solutions. Pour Ben Green, nous devrions chercher à mieux comprendre pourquoi l’IA suscite un tel engouement et comment il se propage.

L’engouement pour les solutions technologiques ne date pas de l’IA, comme le montre les nombreuses vagues que nous avons connues. Pour Green, l’enjeu ne consiste pas seulement à expliquer pourquoi l’IA est défaillante, mais à comprendre pourquoi « notre façon de concevoir la technologie est défaillante ». Nous devrions réfléchir à « la façon dont l’information sur la technologie est transmise et partagée à des personnes qui souhaitent simplement améliorer le gouvernement et croient que toutes ces technologies sont efficaces pour y parvenir ». Enfin, dans les discours actuels sur l’efficacité, il faut prendre en compte l’austérité bien sûr, mais plus encore mieux mesurer la profonde méfiance qui s’exprime à l’égard des fonctionnaires. Pourquoi « ne fait-on pas confiance aux bureaucrates pour prendre des décisions à notre place » ? Si l’efficacité est importante, la gauche devrait aussi porter un discours sur l’intérêt général, la dignité, le bien être. L’efficacité est un piège qu’il faut à la fois répondre et dépasser. 

  •  

De la violence algorithmique… et retour

Saint Luigi, comment répondre à la violence du capitalisme (Frustration, Les liens qui libèrent, 2025), le petit livre du journaliste Nicolas Framont pose une question de fond qui explique son succès. Comment répondre à la violence du capitalisme ?

Le rédacteur en chef du très vivifiant Frustration Magazine part de l’assassinat de Brian Thompson, le PDG d’United HealthCare en décembre 2024 par Luigi Mangione, pour reposer la question qui anime depuis longtemps les mouvements contestataires, à savoir celle de la violence. Le PDG d’United HealthCare n’a pas été une cible prise au hasard. L’assureur privé américain était largement connu pour sa politique de refus de remboursement de soins de santé, avec un taux de rejet des demandes atteignant 29% en 2024. Thompson a été particulièrement célébré par les milieux économiques pour ses succès économiques à la tête d’United HealthCare, et notamment pour avoir fait s’envoler ce taux de refus, qui n’était que de 10,9% en 2020. Pour cela, comme l’avait révélé ProPublica en novembre 2024, l’assureur a utilisé des algorithmes pour réduire la prise en charge. Même lorsque la prise en charge était acceptée, les employés des centres d’appels de l’assureur étaient formés à retarder les paiements, comme l’expliquaient certains d’entre eux dans un reportage d’Envoyé Spécial (mai 2025). En mai, The Guardian révélait que des pratiques tout aussi problématiques avaient cours pour faire signer aux pensionnaires de maisons de retraites des clauses de non-réanimation en cas de prises en charge hospitalières… Ces politiques ont permis à l’assureur de multiplier ses profits : 12 milliards en 2021, 16 milliards en 2023. Les profits records que le PDG a réalisés ont directement été réalisés « sur les invalidités à vie, les pertes de chance de survie et les décès de milliers de patients à qui des soins postopératoires ont été refusés ». Sur les douilles que Mangione a tiré étaient inscrit les termes Delay, Deny, Defend, une référence à un court essai signé d’un expert en assurance, Jay Feinman (Delay, Deny, Defend : why insurance companies don’t pay claims and what you can do about it, Portfolio Hardcover, 2010, non traduit – Retarder, refuser, défendre : pourquoi les compagnies d’assurances ne remboursent pas les demandes et que pouvez-vous faire pour y remédier).

Pour beaucoup d’Américains, Luigi Mangione est apparu comme le Robin des bois, le vengeur masqué des victimes de la rapacité des assurances de santé, comme le constatait récemment Le Monde. Par son geste, Mangione rappelait que derrière l’abstraction des profits de United HealthCare, il y avait des vies en jeu. Aux Etats-Unis, des centaines de milliers d’Américains sont déclarés en faillite à cause du coût des soins de santé quand ils ne meurent pas faute de soins. Or, rappelle Framont, des Etats-Unis à chez nous, la dégradation du système de soin est un choix politique et économique. Le sort des malades, là-bas, comme ici, est recouvert de discussions chiffrées, technicisées dans des décisions budgétaires, des règles qui définissent ce qui est pris en charge et ce qui ne l’est pas en fonction de l’intérêt des assureurs et du budget de la santé. On y évoque rarement les impacts bien réels que ces décisions entraînent. Derrière l’augmentation de la rentabilité des assurances de santé privées, c’est la qualité de l’aide publique qui est dégradée. C’est au nom du profit que Purdue Pharma a libéré ses antidouleurs à base d’opioïdes causant la mort par overdose de près d’un million d’Américains. La famille Sackler, propriétaire de Purdue Pharma et qui a commercialisé de manière très agressive l’oxycodone, a pour l’instant évité toute condamnation personnelle malgré le désastre humain provoqué, comme le montrait le documentaire de Laura Poitras, Toute la beauté et le sang versé (2022). 

Cette violence, très concrète, très réelle de la classe dominante est laissée sans réponse, rappelle très justement Framont. Derrière les chiffres, les réalités sociales sont invisibilisées. Des médias aux élections, l’accès à l’expression reste très socialement distribué et d’une manière toujours plus inéquitable, comme le montre le baromètre de la représentativité dans les médias de l’Arcom en France. On comprend alors que l’action radicale ou violente devienne le seul moyen d’expression des classes sociales qui n’ont plus leur mot à dire. Des gilets jaunes à Mangione, les milieux populaires tentent de rappeler aux possédants les dégradations sociales et les morts que leurs décisions ont causés.

« Make capitalists afraid again »

Dans les rapports de classe, la violence a toujours été présente, rappelle Nicolas Framont. Les violences, les séquestrations, les menaces, les intimidations permettent bien souvent d’attirer l’attention médiatique. Dans le monde du travail, le conflit paye, rappelle Framont qui soulignait d’ailleurs l’année dernière que les grèves et les conflits sociaux conduisent majoritairement à une amélioration des conditions de travail (en s’appuyant sur des études de la Dares, la Direction de l’Animation de la recherche, des Études et des Statistiques du ministère du travail). Elle a toujours été un levier pour rétablir un rapport de force. L’activiste anarchiste américain Peter Gelderloos a montré dans son livre, Comment la non-violence protège l’État : essai sur l’inefficacité des mouvements sociaux (Editions libre, 2021) que la violence des mouvements sociaux victorieux a toujours été gommée par l’histoire. Le mouvement des droits civiques aux Etats-Unis est aujourd’hui souvent assimilé aux marches pacifiques de Martin Luther King ou à l’opposition silencieuse de Rosa Parks. Or, pour Gelderloos, ce sont les émeutes violentes qui permettent les victoires populaires. Et Framont de rappeler que les congés payés n’ont pas été obtenus par la victoire du Front populaire, mais bien suite à un intense mouvement social de grèves et d’occupation d’usines. Les saccages, les sabotages, l’émeute, les occupations violentes ont rythmé toutes les contestations sociales du XIXe siècle à la veille de la Seconde Guerre mondiale. 

Mais ces actions violentes n’ont plus le vent en poupe. Elles ont été marginalisées dans les contestations ouvrières comme écologistes. Elles sont souvent devenues des actions symboliques, désarmées, à l’image de la manifestation qui a depuis longtemps remplacé les émeutes. Des manifestations « indolores pour la classe dominante ». Tant et si bien qu’elles finissent par décrédibiliser le mode d’action lui-même qui ne porte même plus ses fruits, à l’image des grèves contre les lois travail ou la réforme des retraites, massives, soutenues par la population… et qui n’ont rien renversé quand l’essentiel de la population était contre ces réformes. Framont dénonce les organisations syndicales et politiques qui obtiennent « l’oreille de la classe dominante en échange de la canalisation de la violence ». Les rendez-vous aux ministères, les Etats généraux et les Ségur se succèdent… sans plus rien obtenir. « Dans le monde du travail, le dialogue social aboutit surtout à des reculs pour les salariés, sauf s’ils installent un conflit ». « Ceux à qui l’on sous-traite la contestation sociale » ont renoncé à toute forme de violence, permettant « à celle de la bourgeoisie de se déployer de façon décomplexée ».

La violence n’est ni un moyen ni une fin

Framont ne fait pas l’apologie de Mangione ni du meurtre. Mais il pose la question de la violence dans nos sociétés, rappelant d’où elle vient, contre qui elle s’exerce d’abord. Et soulignant que les dominants, violents à l’encontre des autres, en appellent toujours à la non-violence des dominés. 

Nous avons longtemps vécu dans une société se présentant comme ouverte, démocratique, méritocratique, où le dépassement des inégalités serait possible, au moins pour quelques individus, rappelle le journaliste. Tenter sa chance au jeu de l’ascension sociale permet d’être moins occupé à se battre collectivement pour changer les règles du jeu. Mais, quand les règles du jeu sont figées, qu’il devient impossible de les faire bouger, on comprend que pour certains, il ne reste que l’action sacrificielle, telle qu’elle se déchaîne aux Etats-Unis, quelles que soient ses motivations. La violence permet alors de s’émanciper de l’inaction politique et sociale, comme le revendiquaient les Brigades rouges ou Action directe dans les années 80. Désormais, l’hyperviolence est l’action de loups solitaires. La solitude de Luigi Mangione, son action politique sans politique, inclassable (Mangione semble être plus à droite qu’à gauche de l’échiquier politique en tout cas, il a semble-t-il exprimé des opinions plus conservatrices qu’autre chose) est devenue une marque de sincérité. Sa violence est celle des hors-la-loi. Elle est une réponse à l’anesthésie de la violence collective. Le risque, prévient Framont, c’est que « la violence s’impose à nous comme moyen parce que la société est violente ». Pourtant, conclut Framont, la violence n’est ni un moyen ni une fin. Aujourd’hui, la violence économique des entreprises et des politiques, les violences répressives, les violences étatiques, les violences des dominants (de celles des malfaiteurs à celle des entreprises) ont anesthésié les violences populaires. Les systèmes oppressifs se renforcent au risque de laisser comme seule réponse une escalade délétère. 

Framont rappelle pourtant que les régimes politiques ne peuvent légaliser leur propre contestation. Le droit à l’insurrection inscrit dans l’article 35 de la Déclaration des droits de l’homme de 1793 a rapidement été abrogé. Toute action radicale qui viserait à s’en prendre à la propriété lucrative, toute action radicalement transformatrice est condamnée à être illégale. Mais Framont de poser une question dérangeante : « pensez-vous sincèrement qu’il va être possible de survivre aux décennies à venir sans recourir à la désobéissance civile et à une réévaluation à la hausse de la radicalité de nos réponses individuelles et collectives ? » Quand l’écoute est devenue impossible, quand le déni est la seule réponse, quand la contestation d’une mesure comme l’allongement de la durée du travail aussi massivement soutenue pour être aussitôt déniée… quelle option reste-t-il aux gens ?

La violence est toujours effrayante. Nul n’en veut. Mais quand des contestations fondamentalement pacifistes sont réprimées violemment… et ne permettent plus d’avancées (rappelons-nous les constats que dressaient la politologue Erica Chenoweth qui pointait que la contestation pacifique ne fonctionnait plus), le risque est fort qu’à la radicalité des uns réponde la radicalité des autres. La radicalité du capitalisme actuel et la terreur algorithmique qu’il mobilise, ne nous mènent vers aucun apaisement.

Hubert Guillaud

La couverture du livre Saint Luigi.
  •  

De la violence algorithmique… et retour

Saint Luigi, comment répondre à la violence du capitalisme (Frustration, Les liens qui libèrent, 2025), le petit livre du journaliste Nicolas Framont pose une question de fond qui explique son succès. Comment répondre à la violence du capitalisme ?

Le rédacteur en chef du très vivifiant Frustration Magazine part de l’assassinat de Brian Thompson, le PDG d’United HealthCare en décembre 2024 par Luigi Mangione, pour reposer la question qui anime depuis longtemps les mouvements contestataires, à savoir celle de la violence. Le PDG d’United HealthCare n’a pas été une cible prise au hasard. L’assureur privé américain était largement connu pour sa politique de refus de remboursement de soins de santé, avec un taux de rejet des demandes atteignant 29% en 2024. Thompson a été particulièrement célébré par les milieux économiques pour ses succès économiques à la tête d’United HealthCare, et notamment pour avoir fait s’envoler ce taux de refus, qui n’était que de 10,9% en 2020. Pour cela, comme l’avait révélé ProPublica en novembre 2024, l’assureur a utilisé des algorithmes pour réduire la prise en charge. Même lorsque la prise en charge était acceptée, les employés des centres d’appels de l’assureur étaient formés à retarder les paiements, comme l’expliquaient certains d’entre eux dans un reportage d’Envoyé Spécial (mai 2025). En mai, The Guardian révélait que des pratiques tout aussi problématiques avaient cours pour faire signer aux pensionnaires de maisons de retraites des clauses de non-réanimation en cas de prises en charge hospitalières… Ces politiques ont permis à l’assureur de multiplier ses profits : 12 milliards en 2021, 16 milliards en 2023. Les profits records que le PDG a réalisés ont directement été réalisés « sur les invalidités à vie, les pertes de chance de survie et les décès de milliers de patients à qui des soins postopératoires ont été refusés ». Sur les douilles que Mangione a tiré étaient inscrit les termes Delay, Deny, Defend, une référence à un court essai signé d’un expert en assurance, Jay Feinman (Delay, Deny, Defend : why insurance companies don’t pay claims and what you can do about it, Portfolio Hardcover, 2010, non traduit – Retarder, refuser, défendre : pourquoi les compagnies d’assurances ne remboursent pas les demandes et que pouvez-vous faire pour y remédier).

Pour beaucoup d’Américains, Luigi Mangione est apparu comme le Robin des bois, le vengeur masqué des victimes de la rapacité des assurances de santé, comme le constatait récemment Le Monde. Par son geste, Mangione rappelait que derrière l’abstraction des profits de United HealthCare, il y avait des vies en jeu. Aux Etats-Unis, des centaines de milliers d’Américains sont déclarés en faillite à cause du coût des soins de santé quand ils ne meurent pas faute de soins. Or, rappelle Framont, des Etats-Unis à chez nous, la dégradation du système de soin est un choix politique et économique. Le sort des malades, là-bas, comme ici, est recouvert de discussions chiffrées, technicisées dans des décisions budgétaires, des règles qui définissent ce qui est pris en charge et ce qui ne l’est pas en fonction de l’intérêt des assureurs et du budget de la santé. On y évoque rarement les impacts bien réels que ces décisions entraînent. Derrière l’augmentation de la rentabilité des assurances de santé privées, c’est la qualité de l’aide publique qui est dégradée. C’est au nom du profit que Purdue Pharma a libéré ses antidouleurs à base d’opioïdes causant la mort par overdose de près d’un million d’Américains. La famille Sackler, propriétaire de Purdue Pharma et qui a commercialisé de manière très agressive l’oxycodone, a pour l’instant évité toute condamnation personnelle malgré le désastre humain provoqué, comme le montrait le documentaire de Laura Poitras, Toute la beauté et le sang versé (2022). 

Cette violence, très concrète, très réelle de la classe dominante est laissée sans réponse, rappelle très justement Framont. Derrière les chiffres, les réalités sociales sont invisibilisées. Des médias aux élections, l’accès à l’expression reste très socialement distribué et d’une manière toujours plus inéquitable, comme le montre le baromètre de la représentativité dans les médias de l’Arcom en France. On comprend alors que l’action radicale ou violente devienne le seul moyen d’expression des classes sociales qui n’ont plus leur mot à dire. Des gilets jaunes à Mangione, les milieux populaires tentent de rappeler aux possédants les dégradations sociales et les morts que leurs décisions ont causés.

« Make capitalists afraid again »

Dans les rapports de classe, la violence a toujours été présente, rappelle Nicolas Framont. Les violences, les séquestrations, les menaces, les intimidations permettent bien souvent d’attirer l’attention médiatique. Dans le monde du travail, le conflit paye, rappelle Framont qui soulignait d’ailleurs l’année dernière que les grèves et les conflits sociaux conduisent majoritairement à une amélioration des conditions de travail (en s’appuyant sur des études de la Dares, la Direction de l’Animation de la recherche, des Études et des Statistiques du ministère du travail). Elle a toujours été un levier pour rétablir un rapport de force. L’activiste anarchiste américain Peter Gelderloos a montré dans son livre, Comment la non-violence protège l’État : essai sur l’inefficacité des mouvements sociaux (Editions libre, 2021) que la violence des mouvements sociaux victorieux a toujours été gommée par l’histoire. Le mouvement des droits civiques aux Etats-Unis est aujourd’hui souvent assimilé aux marches pacifiques de Martin Luther King ou à l’opposition silencieuse de Rosa Parks. Or, pour Gelderloos, ce sont les émeutes violentes qui permettent les victoires populaires. Et Framont de rappeler que les congés payés n’ont pas été obtenus par la victoire du Front populaire, mais bien suite à un intense mouvement social de grèves et d’occupation d’usines. Les saccages, les sabotages, l’émeute, les occupations violentes ont rythmé toutes les contestations sociales du XIXe siècle à la veille de la Seconde Guerre mondiale. 

Mais ces actions violentes n’ont plus le vent en poupe. Elles ont été marginalisées dans les contestations ouvrières comme écologistes. Elles sont souvent devenues des actions symboliques, désarmées, à l’image de la manifestation qui a depuis longtemps remplacé les émeutes. Des manifestations « indolores pour la classe dominante ». Tant et si bien qu’elles finissent par décrédibiliser le mode d’action lui-même qui ne porte même plus ses fruits, à l’image des grèves contre les lois travail ou la réforme des retraites, massives, soutenues par la population… et qui n’ont rien renversé quand l’essentiel de la population était contre ces réformes. Framont dénonce les organisations syndicales et politiques qui obtiennent « l’oreille de la classe dominante en échange de la canalisation de la violence ». Les rendez-vous aux ministères, les Etats généraux et les Ségur se succèdent… sans plus rien obtenir. « Dans le monde du travail, le dialogue social aboutit surtout à des reculs pour les salariés, sauf s’ils installent un conflit ». « Ceux à qui l’on sous-traite la contestation sociale » ont renoncé à toute forme de violence, permettant « à celle de la bourgeoisie de se déployer de façon décomplexée ».

La violence n’est ni un moyen ni une fin

Framont ne fait pas l’apologie de Mangione ni du meurtre. Mais il pose la question de la violence dans nos sociétés, rappelant d’où elle vient, contre qui elle s’exerce d’abord. Et soulignant que les dominants, violents à l’encontre des autres, en appellent toujours à la non-violence des dominés. 

Nous avons longtemps vécu dans une société se présentant comme ouverte, démocratique, méritocratique, où le dépassement des inégalités serait possible, au moins pour quelques individus, rappelle le journaliste. Tenter sa chance au jeu de l’ascension sociale permet d’être moins occupé à se battre collectivement pour changer les règles du jeu. Mais, quand les règles du jeu sont figées, qu’il devient impossible de les faire bouger, on comprend que pour certains, il ne reste que l’action sacrificielle, telle qu’elle se déchaîne aux Etats-Unis, quelles que soient ses motivations. La violence permet alors de s’émanciper de l’inaction politique et sociale, comme le revendiquaient les Brigades rouges ou Action directe dans les années 80. Désormais, l’hyperviolence est l’action de loups solitaires. La solitude de Luigi Mangione, son action politique sans politique, inclassable (Mangione semble être plus à droite qu’à gauche de l’échiquier politique en tout cas, il a semble-t-il exprimé des opinions plus conservatrices qu’autre chose) est devenue une marque de sincérité. Sa violence est celle des hors-la-loi. Elle est une réponse à l’anesthésie de la violence collective. Le risque, prévient Framont, c’est que « la violence s’impose à nous comme moyen parce que la société est violente ». Pourtant, conclut Framont, la violence n’est ni un moyen ni une fin. Aujourd’hui, la violence économique des entreprises et des politiques, les violences répressives, les violences étatiques, les violences des dominants (de celles des malfaiteurs à celle des entreprises) ont anesthésié les violences populaires. Les systèmes oppressifs se renforcent au risque de laisser comme seule réponse une escalade délétère. 

Framont rappelle pourtant que les régimes politiques ne peuvent légaliser leur propre contestation. Le droit à l’insurrection inscrit dans l’article 35 de la Déclaration des droits de l’homme de 1793 a rapidement été abrogé. Toute action radicale qui viserait à s’en prendre à la propriété lucrative, toute action radicalement transformatrice est condamnée à être illégale. Mais Framont de poser une question dérangeante : « pensez-vous sincèrement qu’il va être possible de survivre aux décennies à venir sans recourir à la désobéissance civile et à une réévaluation à la hausse de la radicalité de nos réponses individuelles et collectives ? » Quand l’écoute est devenue impossible, quand le déni est la seule réponse, quand la contestation d’une mesure comme l’allongement de la durée du travail aussi massivement soutenue pour être aussitôt déniée… quelle option reste-t-il aux gens ?

La violence est toujours effrayante. Nul n’en veut. Mais quand des contestations fondamentalement pacifistes sont réprimées violemment… et ne permettent plus d’avancées (rappelons-nous les constats que dressaient la politologue Erica Chenoweth qui pointait que la contestation pacifique ne fonctionnait plus), le risque est fort qu’à la radicalité des uns réponde la radicalité des autres. La radicalité du capitalisme actuel et la terreur algorithmique qu’il mobilise, ne nous mènent vers aucun apaisement.

Hubert Guillaud

La couverture du livre Saint Luigi.
  •  

De l’apocalypse économique de l’IA

« L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre à 100 % votre patron de vous licencier et de vous remplacer par une IA incapable de le faire ».

« L’IA est l’amiante que nous injectons dans les murs de notre société et que nos descendants déterreront pendant des générations ». 

« Chaque génération d’IA a été considérablement plus coûteuse que la précédente, et chaque nouveau client IA a été plus cher », explique Cory Doctorow sur son blog. Qui rappelle que, même pour Wall Street Journal, la bulle de l’IA est « plus importante que toute autre bulle de l’histoire récente ». Pour Doctorow, la comptabilité est devenue « rocambolesque ». Nvidia investit des milliards dans un acteur de l’IA qui investit dans les puces de Nvidia, comme s’en moque un mème récent. Pour Bain & Co, pour rentabiliser les investissements actuels dans l’IA, le secteur doit générer 2000 milliards de dollars d’ici 2030, soit un chiffre d’affaire supérieur à celui combiné d’Amazon, Google, Microsoft, Apple, Nvidia et Meta – et ce alors que Morgan Stanley estime que le secteur ne génère que 45 milliards de dollars par an. « L’IA ne va pas se réveiller, devenir super-intelligente et vous transformer en trombones ; en revanche, les riches, animés par la psychose de l’investissement en IA, vont très certainement vous appauvrir considérablement ».

  •  

De l’apocalypse économique de l’IA

« L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre à 100 % votre patron de vous licencier et de vous remplacer par une IA incapable de le faire ».

« L’IA est l’amiante que nous injectons dans les murs de notre société et que nos descendants déterreront pendant des générations ». 

« Chaque génération d’IA a été considérablement plus coûteuse que la précédente, et chaque nouveau client IA a été plus cher », explique Cory Doctorow sur son blog. Qui rappelle que, même pour Wall Street Journal, la bulle de l’IA est « plus importante que toute autre bulle de l’histoire récente ». Pour Doctorow, la comptabilité est devenue « rocambolesque ». Nvidia investit des milliards dans un acteur de l’IA qui investit dans les puces de Nvidia, comme s’en moque un mème récent. Pour Bain & Co, pour rentabiliser les investissements actuels dans l’IA, le secteur doit générer 2000 milliards de dollars d’ici 2030, soit un chiffre d’affaire supérieur à celui combiné d’Amazon, Google, Microsoft, Apple, Nvidia et Meta – et ce alors que Morgan Stanley estime que le secteur ne génère que 45 milliards de dollars par an. « L’IA ne va pas se réveiller, devenir super-intelligente et vous transformer en trombones ; en revanche, les riches, animés par la psychose de l’investissement en IA, vont très certainement vous appauvrir considérablement ».

  •  

Automagique

« Le vibe coding et les assistants ne sont pas des technologies automagiques. Ils font des erreurs en permanence et n’ont pas de vision d’ensemble. »Thomas Gerbaud sur le vibe coding en ses limites.

  •  

Automagique

« Le vibe coding et les assistants ne sont pas des technologies automagiques. Ils font des erreurs en permanence et n’ont pas de vision d’ensemble. »Thomas Gerbaud sur le vibe coding en ses limites.

  •  

… A l’IA pour faire régner la terreur


Dans sa newsletter Blood in the Machine, l’historien Brian Merchant s’entretient avec le chercheur en sciences cognitives Hagen Blix qui vient de publier avec la spécialiste de l’IA, Ingeborg Glimmer, Pourquoi nous avons peur de l’IA (Why We Fear AI, Common Notions, 2025, non traduit). Dans leur livre, Blix et Glimmer passent en revue les craintes que génère l’IA, des peurs apocalyptiques à celles qui annoncent la destruction des emplois, même si personne ne croit vraiment ni aux unes ni aux autres. Or, ce qui est bien moins interrogé, parce que personne ne le voit comme un risque, c’est le fait que la technologie soit un moyen de produire des gains de productivité. C’est-à-dire le fait que de nombreuses technologies soient développées pour accroître le contrôle de la direction sur les lieux de travail et pour déqualifier les employés (comme le suggère le sociologue Juan Sebastian Carbonell dans son livre), c’est-à-dire en rémunérant des travailleurs auparavant qualifiés comme des travailleurs non qualifiés. « Il faut considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité »

De nombreuses études indiquent que les augmentations de productivité ne sont pas au rendez-vous, malgré l’empressement de beaucoup à ânonner l’idée que l’IA leur ferait gagner du temps. Par contre, on constate dans de nombreux secteurs, que les emplois se dégradent, comme c’est le cas des traducteurs. Les machines savent produire des traductions de mauvaises qualités, mais pas au point d’être inutiles. Et « l’offre de cette version médiocre est si importante qu’elle fait baisser les prix et les salaires »

Pour Blix, nous devrions considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité. Et si c’est le cas, il faut comprendre que la fin de l’essor de l’IA n’est pas pour demain, quand bien même la productivité n’augmente pas. C’est en cela qu’il faut entendre la peur sourde de l’IA. Elle est « un vecteur omnidirectionnel et omniprésent de déqualification ». Jusqu’à présent, dans tous les secteurs où l’on maniait le langage notamment, l’industrialisation était peu poussée. Or, la promesse de l’IA est bien celle d’une prolétarisation partout où elle s’infiltre. Pour Blix, l’IA permet de créer une « bifurcation » selon la valeur. Si vous êtes avocat spécialisé en fusion d’entreprises, vous avez peu de chance d’être remplacé par une IA, car la moindre erreur pourrait coûter des millions de dollars. Mais si vous êtes avocat commis d’office, l’IA va vous aider à traiter bien plus de dossiers, même si vous ne les gagnez pas tous. Pour Blix, les services coûteux vont l’être de plus en plus, alors que les services les moins coûteux seront peut-être moins chers encore, mais avec de moins en moins de garanties de qualité. « L’IA fabrique des produits tellement moins chers qu’ils surpassent la concurrence non pas en qualité, mais en prix ». Pour lui, c’est « une attaque d’en haut contre les salaires ». 

Mais ce n’est pas une attaque à l’encontre de n’importe quels secteurs. Les secteurs que l’IA s’apprête à déstabiliser regroupent des emplois où les gens étaient relativement privilégiés et éduqués. Ils étaient ceux de gens qui « constituaient un rempart contre le système d’exploitation dans lequel nous vivons », même si beaucoup de ces personnes n’étaient jusqu’à présent pas forcément les plus syndiquées parce que pas nécessairement les plus hostiles au développement du capitalisme. C’est là quelque chose qui risque de bouger, esquisse Blix, comme quand les scénaristes et les acteurs se sont mis en grève l’année dernière, alors que ce n’était pas jusqu’alors un secteur très politisé. Brian Merchant dresse le même constat en évoquant des discussions avec des designers inquiets face à la précarisation qui les menace. Peut-être effectivement que ces perspectives vont faire réagir ceux dont les intérêts collectifs sont mis en danger. 

« L’IA est un moyen de s’attaquer aux salaires et à la qualité du travail ». Sans compter que ces outils sont excellents à discipliner les travailleurs par les scripts qu’ils imposent. « Pourquoi vivons-nous dans une société où la technologie est conçue comme un outil permettant aux gens d’avoir moins de contrôle sur leur travail ? La technologie devrait être développée de manière à rendre le travail plus agréable. Mais les intérêts de ceux qui financent la technologie, les entreprises et les patrons, sont souvent hostiles à ceux des travailleurs, car ces derniers souhaitent faire les choses différemment. On veut que son travail soit confortable, intéressant et peut-être convivial, mais l’entreprise cherche à exercer un contrôle », une pression, notamment pour que le travail lui coûte le moins possible. Par nature, il y a une forme d’hostilité intrinsèque à l’égard de ceux qu’elle emploie. « Les Luddites n’étaient pas opposés à la technologie. Ils étaient opposés à la technologie comme outil d’écrasement de la classe ouvrière ». Et il est probable que nous ayons à nous opposer à l’IA comme outil d’écrasement de toutes les autres. 

Le but d’un système est ce qu’il fait

Dans un article pour le site Liberal Currents, Blix et Glimmer vont plus loin encore. Ils estiment que dénoncer la hype de l’IA ne nous mène nulle part. Qualifier l’IA de bulle, d’escroquerie ou de poudre de perlimpimpin ne nous aide à comprendre ni à agir. Même si le battage médiatique de l’intelligence artificielle était moins fort, les problèmes qu’elle cause persisteraient. Pour les deux auteurs, il nous faut mieux qualifier son utilité pour saisir ce qu’elle accomplit réellement. 

Elle est d’abord massivement utilisée pour produire de la désinformation et de la propagande, c’est-à-dire manipuler nos émotions et amplifier nos résonances affectives. Elle est d’abord le moyen « d’innonder la zone de merde », comme le recommande le stratège extrêmiste Steve Bannon. Elle sert d’abord « à attiser sans relâche le scandale et l’indignation jusqu’à ce que personne ne puisse plus suivre les attaques contre la démocratie, la science, les immigrants, les Noirs, les personnes queer, les femmes, les anciens combattants ou les travailleurs. L’objectif : faire perdre aux gens le sens de ce qui se passe, de la réalité, afin qu’ils soient politiquement paralysés et incapables d’agir. » Les productions de l’IA générative n’y arrivent certainement pas toutes seules, mais reconnaissons qu’elles ont largement participé de la confusion ambiante ces dernières années. « Le fascisme, quant à lui, est engagé dans un jeu de pouvoir et d’esthétique qui considère le désir de vérité comme un aveu de faiblesse. Il adore les générateurs de conneries, car il ne peut concevoir un débat que comme une lutte de pouvoir, un moyen de gagner un public et des adeptes, mais jamais comme un processus social visant à la délibération, à l’émancipation ou au progrès vers la vérité. Les fascistes tentent, bien sûr, d’exploiter les conditions mêmes du discours (la volonté de présumer la bonne foi, de considérer l’égalité sinon comme une condition, du moins comme un objectif louable de progrès social, etc.). Prenons, par exemple, les débats sur la liberté d’expression comme un moyen pour retourner l’ennemi (c’est-à-dire nous). Les fascistes proclament sans cesse leur défense et leur amour de la liberté d’expression. Ils arrêtent également des personnes pour avoir proféré des discours, interdisent des livres » et s’en prennent à tous ceux qui n’expriment pas les mêmes idées qu’eux. « Considérer cela comme une incohérence, ou une erreur intellectuelle, revient à mal comprendre le projet lui-même : les fascistes ne cherchent pas la cohérence, ni à créer un monde rationnel et raisonnable, régi par des règles que des personnes libres et égales se donnent. Cette contradiction apparente s’inscrit plutôt dans la même logique stratégique que l’inondation de la zone de merde : utiliser tous les outils nécessaires pour accroître son pouvoir, renforcer les hiérarchies et consolider ses privilèges.»

« Cette attaque politique contre la possibilité d’un discours de bonne foi est-elle favorisée par le battage médiatique ? La situation serait-elle meilleure si les modèles étaient améliorés ou si la publicité était atténuée ? Ou est-ce plutôt l’incapacité des modèles à distinguer les mots du monde qui les rend si utiles aux visées fascistes ? Si tel est le cas, qualifier l’IA de battage médiatique revient à penser que les fascistes sont simplement stupides ou qu’ils commettent une erreur en étant incohérents. Mais les fascistes ne se trompent ni sur la nature de la liberté d’expression, ni sur la nature du « discours » produit par un LLM. Ils savent ce qu’ils veulent, ce qu’ils font et où cela mène. »

Ensuite, l’IA est un outil de terreur politique. Outil de la surveillance et du contrôle, le développement de l’IA tout azimut impose peu à peu sa terreur. Actuellement, le gouvernement américain utilise l’IA pour analyser les publications sur les réseaux sociaux à un niveau sans précédent et recueillir des « renseignements » à grande échelle. L’initiative « Catch and Revoke » du département d’État, par exemple, utilise l’IA pour annuler les visas des étrangers dont les propos ne sont pas suffisamment alignés avec les objectifs de politique étrangère du gouvernement. « S’agit-il d’un problème de battage médiatique ? Non  ! »

« Qualifier l’IA de « battage médiatique » met en évidence un écart entre un argument de vente et les performances réelles du modèle. Lorsqu’un modèle à succès est mis en pratique, il commet des « erreurs » (ou en commet à une fréquence déraisonnable). Qu’en est-il des outils d’IA du département d’État ? Leur IA de surveillance des étudiants commettra certainement des « erreurs » : elle signalera des personnes qui ne sont pas titulaires de visas étudiants ou des personnes pour des propos sans rapport avec le sujet », sans que ces erreurs ne soient décisives, au contraire. L’expulsion de gens qui n’avaient pas à l’être n’est qu’un dommage collatéral sans importance. Alors peut-être que quelqu’un au département d’État s’est laissé prendre et a réellement cru que ces modèles surveillaient mieux qu’ils ne le font en réalité. Nous n’en savons rien. Mais le sujet n’est pas là ! 

La journaliste et chercheuse Sophia Goodfriend qualifie toute cette affaire de « rafle de l’IA » et observe avec perspicacité : « Là où l’IA échoue techniquement, elle tient ses promesses idéologiques ». Indubitablement, des personnes sont faussement classées comme ayant tenu des propos non autorisés par les défenseurs autoproclamés de la liberté d’expression. Mais ces erreurs de classification ne sont des erreurs qu’au sens strict du terme. Le but du département d’Etat de Marco Rubio est d’augmenter les expulsions et de supprimer certains types de discours, pas d’être précis. En fait, ce programme politique vise surtout l’échelle, le traitement de masse, c’est-à-dire atteindre le plus grand nombre de personnes. Et pour cela, l’IA est particulièrement efficace

« Dans notre livre, nous affirmons que c’est précisément leur nature, sujette aux erreurs, leurs fragilités, qui rend l’IA si efficace pour la répression politique. C’est l’imprévisibilité des personnes qui seront prises dans ses filets, et l’insondabilité de la boîte noire de l’IA qui rendent ces outils si efficaces pour générer de l’anxiété, et qui les rendent si utiles pour la suppression de la parole ». Et les deux auteurs de comparer cela à la reconnaissance faciale. « Certes, les dommages causés par les erreurs d’identification des personnes causées par les systèmes de reconnaissances faciales sont bien réels. Reconnaissons d’abord que même si les algorithmes étaient parfaits et ne se trompaient jamais, ils favoriseraient tout de même un système raciste qui vise souvent à produire une déshumanisation violente… Mais aujourd’hui, les algorithmes de la reconnaissance faciale  commettent bel et bien des erreurs d’identification, malgré leurs prétentions. Qualifier cela de « bêtise » nous aide-t-il à comprendre le problème ?»

Les « erreurs d’identification de la reconnaissance faciale ne sont pas distribuées aléatoirement, bien au contraire. Lorsque les erreurs de l’IA sont si clairement réparties de manière inégale et qu’elles sont source de préjudices – de fausses arrestations et de possibles violences policières –, il est évidemment inutile de les qualifier simplement d’« erreurs », de « bêtise » ou de théoriser cela à travers le prisme du « battage médiatique ». Ce que ce système produit, ce ne sont pas des erreurs, c’est de la terreur. Et cette terreur a une histoire et des liens évidents avec la pseudoscience et les structures politiques racistes : de la phrénologie à la reconnaissance faciale, de l’esclavage aux lois Jim Crow – jusqu’aux nouveaux Jim Crow qu’évoquaient Michelle Alexander ou Ruha Benjamin. Une fois ces liens établis, le caractère semi-aléatoire, les « erreurs », les « fausses » arrestations apparaissent non pas comme des accidents, mais comme faisant partie intégrante de l’IA en tant que projet politique. »

Ces erreurs non-aléatoires se situent précisément dans l’écart entre le discours commercial et la réalité. C’est cet écart qui offre un déni plausible aux entreprises comme aux politiques. « C’est l’algorithme qui a foiré », nous diront-ils sans doute, et que, par conséquent, personne n’est réellement responsable des fausses arrestations racistes. « Mais le fait même que les erreurs d’identification soient prévisibles au niveau des populations (on sait quels groupes seront le plus souvent mal identifiés), et imprévisibles au niveau individuel (personne ne sait à l’avance qui sera identifié de manière erronée) renforce également son utilité pour le projet politique de production de terreur politique : il s’agit, là encore, de susciter le sentiment généralisé que « cela pourrait arriver à n’importe lequel d’entre nous ». Cela est aussi vrai pour l’IA que pour d’autres outils plus anciens de terreur politique et d’intimidation policière. Pourtant, personne n’a jamais suggéré que les arguments de vente pour les armes « non létales » comme les balles en caoutchouc étaient du battage médiatique. Une balle en caoutchouc peut parfois aveugler, voire tuer, et il s’agit là aussi d’une « erreur » distribuée de manière semi-aléatoire, un écart entre l’argumentaire et la réalité. Les balles en caoutchouc, comme l’IA de surveillance et le système de reconnaissance faciale, fonctionnent comme des outils de contrôle politique, précisément parce que cet écart est fonctionnel, et non accessoire, au système ». Pour reprendre les termes du cybernéticien Stafford Beer, « il est inutile de prétendre que la finalité d’un système est de faire ce qu’il échoue constamment à faire ». «  Le but d’un système est ce qu’il fait », disait-il.  Et se concentrer principalement sur ce que le système ne peut pas réellement faire (comme le fait le battage médiatique) risque de détourner l’attention de ce qu’il fait réellement.

Enfin, l’IA est un outil pour écraser les salaires, défendent les deux auteurs. Des critiques comme celles d’Emily Bender et Alex Hanna ont, à juste titre, souligné que l’affirmation de notre remplacement par les machines – et leur répétition incessante par des médias peu critiques – sont essentiellement des formes de publicité pour ces outils. Pour Blix et Glimmer, « ce discours s’adresse avant tout aux investisseurs et aux entreprises clientes pour qui remplacer les travailleurs par des outils pourrait être bénéfique pour leurs résultats. Pour les travailleurs, ces mots ne sonnent certainement pas comme de la publicité, mais comme une menace ». A ces derniers on conseille de se mettre à l’IA avant que la concurrence ne les écrase et que leur emploi ne se délocalise dans cette nouvelle machinerie. Plutôt que de se défendre, on leur conseille par avance d’accepter l’inéluctable. « Taisez-vous et réduisez vos attentes, car vous êtes remplaçables !», tel est le refrain ambiant. 

« C’est le suffixe « -able » dans « remplaçable » qui est crucial ici. Pour la menace, c’est l’évocation de la possibilité d’un remplacement qui compte. C’est ce que la loi de l’offre et de la demande implique en matière d’offre de personnes (dotées de compétences particulières) : une offre accrue d’un substitut potentiel (l’IA) entraînera une baisse du prix d’une marchandise (le salaire des travailleurs). »

Le discours de l’inéluctabilité de l’IA, de la formation comme seule réponse, porte également une teneur fortement antisyndicale, qui « trahit le véritable objectif économique de l’IA : c’est un outil pour faire baisser les salaires ». « Et pour atteindre cet objectif, la capacité réelle de l’outil à remplacer le travail effectué par des personnes à qualité égale est souvent sans importance. Après tout, la remplaçabilité ne se résume pas à une simple équivalence, mais le plus souvent à un compromis qualité-prix. Les gens aiment acheter ce qu’ils estiment être le meilleur rapport qualité-prix. Les entreprises font de même, substituant souvent des intrants moins chers (compétences, matériel, etc.) pour réduire leurs coûts, même si cela nuit à la qualité. C’est l’horizon évident de l’IA : non pas l’automatisation complète, mais le modèle de la fast fashion ou d’Ikea : proposer une qualité inférieure à des prix nettement inférieurs ». D’ailleurs, rappellent Blix et Glimmer, les arguments de vente d’Ikea ou de la fast fashion exagèrent eux aussi souvent la qualité de leurs produits. 

« Des codeurs aux assistants juridiques, des tuteurs aux thérapeutes, les investissements pour produire des versions bon marché assistées par IA sont en bonne voie, et ils vont probablement faire baisser les salaires ». Les stratégies seront certainement différentes selon les métiers. Reste que L’attaque contre les travailleurs, la qualité des emplois et la qualité des produits que nous produisons et consommons est le problème que produit l’IA, et ce problème existe indépendamment du battage médiatique. « À moins d’être un investisseur en capital-risque, vous n’êtes pas la cible de la publicité pour l’IA, vous êtes la cible de la menace. Nous n’avons que faire de termes comme la hype qui avertissent les investisseurs qu’ils pourraient faire de mauvais investissements ; nous avons besoin de termes utiles pour riposter.»

L’éclatement à venir de la bulle de l’IA n’explique par pourquoi l’information est inondée de merde, n’explique pas pourquoi les erreurs des systèmes du social vont continuer. La dénonciation de la bulle et de la hype est finalement « étroitement technique, trop axée sur l’identification des mensonges, plutôt que sur l’identification des projets politiques ». Il ne faut pas commettre l’erreur de penser que le simple fait qu’une déclaration soit mensongère suffit à la négliger. Nous devrions prendre les mensonges bien plus au sérieux, car ils sont souvent révélateurs d’autre chose, même s’ils ne sont pas vrais. 

Pour Blix et Glimmer nous devons nous concentrer sur les projets politiques. « Nous devons appeler l’IA pour ce qu’elle est : une arme entre les mains des puissants. Prenons le projet de dépression salariale au sérieux : appelons-le une guerre des classes par l’emmerdification, la lutte antisyndicale automatisée, une machine à conneries pour des boulots à la con, ou encore le techno-taylorisme…» « Désemmerdifions le monde ! »

La couverture de Why we fear AI.
  •  

… A l’IA pour faire régner la terreur


Dans sa newsletter Blood in the Machine, l’historien Brian Merchant s’entretient avec le chercheur en sciences cognitives Hagen Blix qui vient de publier avec la spécialiste de l’IA, Ingeborg Glimmer, Pourquoi nous avons peur de l’IA (Why We Fear AI, Common Notions, 2025, non traduit). Dans leur livre, Blix et Glimmer passent en revue les craintes que génère l’IA, des peurs apocalyptiques à celles qui annoncent la destruction des emplois, même si personne ne croit vraiment ni aux unes ni aux autres. Or, ce qui est bien moins interrogé, parce que personne ne le voit comme un risque, c’est le fait que la technologie soit un moyen de produire des gains de productivité. C’est-à-dire le fait que de nombreuses technologies soient développées pour accroître le contrôle de la direction sur les lieux de travail et pour déqualifier les employés (comme le suggère le sociologue Juan Sebastian Carbonell dans son livre), c’est-à-dire en rémunérant des travailleurs auparavant qualifiés comme des travailleurs non qualifiés. « Il faut considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité »

De nombreuses études indiquent que les augmentations de productivité ne sont pas au rendez-vous, malgré l’empressement de beaucoup à ânonner l’idée que l’IA leur ferait gagner du temps. Par contre, on constate dans de nombreux secteurs, que les emplois se dégradent, comme c’est le cas des traducteurs. Les machines savent produire des traductions de mauvaises qualités, mais pas au point d’être inutiles. Et « l’offre de cette version médiocre est si importante qu’elle fait baisser les prix et les salaires »

Pour Blix, nous devrions considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité. Et si c’est le cas, il faut comprendre que la fin de l’essor de l’IA n’est pas pour demain, quand bien même la productivité n’augmente pas. C’est en cela qu’il faut entendre la peur sourde de l’IA. Elle est « un vecteur omnidirectionnel et omniprésent de déqualification ». Jusqu’à présent, dans tous les secteurs où l’on maniait le langage notamment, l’industrialisation était peu poussée. Or, la promesse de l’IA est bien celle d’une prolétarisation partout où elle s’infiltre. Pour Blix, l’IA permet de créer une « bifurcation » selon la valeur. Si vous êtes avocat spécialisé en fusion d’entreprises, vous avez peu de chance d’être remplacé par une IA, car la moindre erreur pourrait coûter des millions de dollars. Mais si vous êtes avocat commis d’office, l’IA va vous aider à traiter bien plus de dossiers, même si vous ne les gagnez pas tous. Pour Blix, les services coûteux vont l’être de plus en plus, alors que les services les moins coûteux seront peut-être moins chers encore, mais avec de moins en moins de garanties de qualité. « L’IA fabrique des produits tellement moins chers qu’ils surpassent la concurrence non pas en qualité, mais en prix ». Pour lui, c’est « une attaque d’en haut contre les salaires ». 

Mais ce n’est pas une attaque à l’encontre de n’importe quels secteurs. Les secteurs que l’IA s’apprête à déstabiliser regroupent des emplois où les gens étaient relativement privilégiés et éduqués. Ils étaient ceux de gens qui « constituaient un rempart contre le système d’exploitation dans lequel nous vivons », même si beaucoup de ces personnes n’étaient jusqu’à présent pas forcément les plus syndiquées parce que pas nécessairement les plus hostiles au développement du capitalisme. C’est là quelque chose qui risque de bouger, esquisse Blix, comme quand les scénaristes et les acteurs se sont mis en grève l’année dernière, alors que ce n’était pas jusqu’alors un secteur très politisé. Brian Merchant dresse le même constat en évoquant des discussions avec des designers inquiets face à la précarisation qui les menace. Peut-être effectivement que ces perspectives vont faire réagir ceux dont les intérêts collectifs sont mis en danger. 

« L’IA est un moyen de s’attaquer aux salaires et à la qualité du travail ». Sans compter que ces outils sont excellents à discipliner les travailleurs par les scripts qu’ils imposent. « Pourquoi vivons-nous dans une société où la technologie est conçue comme un outil permettant aux gens d’avoir moins de contrôle sur leur travail ? La technologie devrait être développée de manière à rendre le travail plus agréable. Mais les intérêts de ceux qui financent la technologie, les entreprises et les patrons, sont souvent hostiles à ceux des travailleurs, car ces derniers souhaitent faire les choses différemment. On veut que son travail soit confortable, intéressant et peut-être convivial, mais l’entreprise cherche à exercer un contrôle », une pression, notamment pour que le travail lui coûte le moins possible. Par nature, il y a une forme d’hostilité intrinsèque à l’égard de ceux qu’elle emploie. « Les Luddites n’étaient pas opposés à la technologie. Ils étaient opposés à la technologie comme outil d’écrasement de la classe ouvrière ». Et il est probable que nous ayons à nous opposer à l’IA comme outil d’écrasement de toutes les autres. 

Le but d’un système est ce qu’il fait

Dans un article pour le site Liberal Currents, Blix et Glimmer vont plus loin encore. Ils estiment que dénoncer la hype de l’IA ne nous mène nulle part. Qualifier l’IA de bulle, d’escroquerie ou de poudre de perlimpimpin ne nous aide à comprendre ni à agir. Même si le battage médiatique de l’intelligence artificielle était moins fort, les problèmes qu’elle cause persisteraient. Pour les deux auteurs, il nous faut mieux qualifier son utilité pour saisir ce qu’elle accomplit réellement. 

Elle est d’abord massivement utilisée pour produire de la désinformation et de la propagande, c’est-à-dire manipuler nos émotions et amplifier nos résonances affectives. Elle est d’abord le moyen « d’innonder la zone de merde », comme le recommande le stratège extrêmiste Steve Bannon. Elle sert d’abord « à attiser sans relâche le scandale et l’indignation jusqu’à ce que personne ne puisse plus suivre les attaques contre la démocratie, la science, les immigrants, les Noirs, les personnes queer, les femmes, les anciens combattants ou les travailleurs. L’objectif : faire perdre aux gens le sens de ce qui se passe, de la réalité, afin qu’ils soient politiquement paralysés et incapables d’agir. » Les productions de l’IA générative n’y arrivent certainement pas toutes seules, mais reconnaissons qu’elles ont largement participé de la confusion ambiante ces dernières années. « Le fascisme, quant à lui, est engagé dans un jeu de pouvoir et d’esthétique qui considère le désir de vérité comme un aveu de faiblesse. Il adore les générateurs de conneries, car il ne peut concevoir un débat que comme une lutte de pouvoir, un moyen de gagner un public et des adeptes, mais jamais comme un processus social visant à la délibération, à l’émancipation ou au progrès vers la vérité. Les fascistes tentent, bien sûr, d’exploiter les conditions mêmes du discours (la volonté de présumer la bonne foi, de considérer l’égalité sinon comme une condition, du moins comme un objectif louable de progrès social, etc.). Prenons, par exemple, les débats sur la liberté d’expression comme un moyen pour retourner l’ennemi (c’est-à-dire nous). Les fascistes proclament sans cesse leur défense et leur amour de la liberté d’expression. Ils arrêtent également des personnes pour avoir proféré des discours, interdisent des livres » et s’en prennent à tous ceux qui n’expriment pas les mêmes idées qu’eux. « Considérer cela comme une incohérence, ou une erreur intellectuelle, revient à mal comprendre le projet lui-même : les fascistes ne cherchent pas la cohérence, ni à créer un monde rationnel et raisonnable, régi par des règles que des personnes libres et égales se donnent. Cette contradiction apparente s’inscrit plutôt dans la même logique stratégique que l’inondation de la zone de merde : utiliser tous les outils nécessaires pour accroître son pouvoir, renforcer les hiérarchies et consolider ses privilèges.»

« Cette attaque politique contre la possibilité d’un discours de bonne foi est-elle favorisée par le battage médiatique ? La situation serait-elle meilleure si les modèles étaient améliorés ou si la publicité était atténuée ? Ou est-ce plutôt l’incapacité des modèles à distinguer les mots du monde qui les rend si utiles aux visées fascistes ? Si tel est le cas, qualifier l’IA de battage médiatique revient à penser que les fascistes sont simplement stupides ou qu’ils commettent une erreur en étant incohérents. Mais les fascistes ne se trompent ni sur la nature de la liberté d’expression, ni sur la nature du « discours » produit par un LLM. Ils savent ce qu’ils veulent, ce qu’ils font et où cela mène. »

Ensuite, l’IA est un outil de terreur politique. Outil de la surveillance et du contrôle, le développement de l’IA tout azimut impose peu à peu sa terreur. Actuellement, le gouvernement américain utilise l’IA pour analyser les publications sur les réseaux sociaux à un niveau sans précédent et recueillir des « renseignements » à grande échelle. L’initiative « Catch and Revoke » du département d’État, par exemple, utilise l’IA pour annuler les visas des étrangers dont les propos ne sont pas suffisamment alignés avec les objectifs de politique étrangère du gouvernement. « S’agit-il d’un problème de battage médiatique ? Non  ! »

« Qualifier l’IA de « battage médiatique » met en évidence un écart entre un argument de vente et les performances réelles du modèle. Lorsqu’un modèle à succès est mis en pratique, il commet des « erreurs » (ou en commet à une fréquence déraisonnable). Qu’en est-il des outils d’IA du département d’État ? Leur IA de surveillance des étudiants commettra certainement des « erreurs » : elle signalera des personnes qui ne sont pas titulaires de visas étudiants ou des personnes pour des propos sans rapport avec le sujet », sans que ces erreurs ne soient décisives, au contraire. L’expulsion de gens qui n’avaient pas à l’être n’est qu’un dommage collatéral sans importance. Alors peut-être que quelqu’un au département d’État s’est laissé prendre et a réellement cru que ces modèles surveillaient mieux qu’ils ne le font en réalité. Nous n’en savons rien. Mais le sujet n’est pas là ! 

La journaliste et chercheuse Sophia Goodfriend qualifie toute cette affaire de « rafle de l’IA » et observe avec perspicacité : « Là où l’IA échoue techniquement, elle tient ses promesses idéologiques ». Indubitablement, des personnes sont faussement classées comme ayant tenu des propos non autorisés par les défenseurs autoproclamés de la liberté d’expression. Mais ces erreurs de classification ne sont des erreurs qu’au sens strict du terme. Le but du département d’Etat de Marco Rubio est d’augmenter les expulsions et de supprimer certains types de discours, pas d’être précis. En fait, ce programme politique vise surtout l’échelle, le traitement de masse, c’est-à-dire atteindre le plus grand nombre de personnes. Et pour cela, l’IA est particulièrement efficace

« Dans notre livre, nous affirmons que c’est précisément leur nature, sujette aux erreurs, leurs fragilités, qui rend l’IA si efficace pour la répression politique. C’est l’imprévisibilité des personnes qui seront prises dans ses filets, et l’insondabilité de la boîte noire de l’IA qui rendent ces outils si efficaces pour générer de l’anxiété, et qui les rendent si utiles pour la suppression de la parole ». Et les deux auteurs de comparer cela à la reconnaissance faciale. « Certes, les dommages causés par les erreurs d’identification des personnes causées par les systèmes de reconnaissances faciales sont bien réels. Reconnaissons d’abord que même si les algorithmes étaient parfaits et ne se trompaient jamais, ils favoriseraient tout de même un système raciste qui vise souvent à produire une déshumanisation violente… Mais aujourd’hui, les algorithmes de la reconnaissance faciale  commettent bel et bien des erreurs d’identification, malgré leurs prétentions. Qualifier cela de « bêtise » nous aide-t-il à comprendre le problème ?»

Les « erreurs d’identification de la reconnaissance faciale ne sont pas distribuées aléatoirement, bien au contraire. Lorsque les erreurs de l’IA sont si clairement réparties de manière inégale et qu’elles sont source de préjudices – de fausses arrestations et de possibles violences policières –, il est évidemment inutile de les qualifier simplement d’« erreurs », de « bêtise » ou de théoriser cela à travers le prisme du « battage médiatique ». Ce que ce système produit, ce ne sont pas des erreurs, c’est de la terreur. Et cette terreur a une histoire et des liens évidents avec la pseudoscience et les structures politiques racistes : de la phrénologie à la reconnaissance faciale, de l’esclavage aux lois Jim Crow – jusqu’aux nouveaux Jim Crow qu’évoquaient Michelle Alexander ou Ruha Benjamin. Une fois ces liens établis, le caractère semi-aléatoire, les « erreurs », les « fausses » arrestations apparaissent non pas comme des accidents, mais comme faisant partie intégrante de l’IA en tant que projet politique. »

Ces erreurs non-aléatoires se situent précisément dans l’écart entre le discours commercial et la réalité. C’est cet écart qui offre un déni plausible aux entreprises comme aux politiques. « C’est l’algorithme qui a foiré », nous diront-ils sans doute, et que, par conséquent, personne n’est réellement responsable des fausses arrestations racistes. « Mais le fait même que les erreurs d’identification soient prévisibles au niveau des populations (on sait quels groupes seront le plus souvent mal identifiés), et imprévisibles au niveau individuel (personne ne sait à l’avance qui sera identifié de manière erronée) renforce également son utilité pour le projet politique de production de terreur politique : il s’agit, là encore, de susciter le sentiment généralisé que « cela pourrait arriver à n’importe lequel d’entre nous ». Cela est aussi vrai pour l’IA que pour d’autres outils plus anciens de terreur politique et d’intimidation policière. Pourtant, personne n’a jamais suggéré que les arguments de vente pour les armes « non létales » comme les balles en caoutchouc étaient du battage médiatique. Une balle en caoutchouc peut parfois aveugler, voire tuer, et il s’agit là aussi d’une « erreur » distribuée de manière semi-aléatoire, un écart entre l’argumentaire et la réalité. Les balles en caoutchouc, comme l’IA de surveillance et le système de reconnaissance faciale, fonctionnent comme des outils de contrôle politique, précisément parce que cet écart est fonctionnel, et non accessoire, au système ». Pour reprendre les termes du cybernéticien Stafford Beer, « il est inutile de prétendre que la finalité d’un système est de faire ce qu’il échoue constamment à faire ». «  Le but d’un système est ce qu’il fait », disait-il.  Et se concentrer principalement sur ce que le système ne peut pas réellement faire (comme le fait le battage médiatique) risque de détourner l’attention de ce qu’il fait réellement.

Enfin, l’IA est un outil pour écraser les salaires, défendent les deux auteurs. Des critiques comme celles d’Emily Bender et Alex Hanna ont, à juste titre, souligné que l’affirmation de notre remplacement par les machines – et leur répétition incessante par des médias peu critiques – sont essentiellement des formes de publicité pour ces outils. Pour Blix et Glimmer, « ce discours s’adresse avant tout aux investisseurs et aux entreprises clientes pour qui remplacer les travailleurs par des outils pourrait être bénéfique pour leurs résultats. Pour les travailleurs, ces mots ne sonnent certainement pas comme de la publicité, mais comme une menace ». A ces derniers on conseille de se mettre à l’IA avant que la concurrence ne les écrase et que leur emploi ne se délocalise dans cette nouvelle machinerie. Plutôt que de se défendre, on leur conseille par avance d’accepter l’inéluctable. « Taisez-vous et réduisez vos attentes, car vous êtes remplaçables !», tel est le refrain ambiant. 

« C’est le suffixe « -able » dans « remplaçable » qui est crucial ici. Pour la menace, c’est l’évocation de la possibilité d’un remplacement qui compte. C’est ce que la loi de l’offre et de la demande implique en matière d’offre de personnes (dotées de compétences particulières) : une offre accrue d’un substitut potentiel (l’IA) entraînera une baisse du prix d’une marchandise (le salaire des travailleurs). »

Le discours de l’inéluctabilité de l’IA, de la formation comme seule réponse, porte également une teneur fortement antisyndicale, qui « trahit le véritable objectif économique de l’IA : c’est un outil pour faire baisser les salaires ». « Et pour atteindre cet objectif, la capacité réelle de l’outil à remplacer le travail effectué par des personnes à qualité égale est souvent sans importance. Après tout, la remplaçabilité ne se résume pas à une simple équivalence, mais le plus souvent à un compromis qualité-prix. Les gens aiment acheter ce qu’ils estiment être le meilleur rapport qualité-prix. Les entreprises font de même, substituant souvent des intrants moins chers (compétences, matériel, etc.) pour réduire leurs coûts, même si cela nuit à la qualité. C’est l’horizon évident de l’IA : non pas l’automatisation complète, mais le modèle de la fast fashion ou d’Ikea : proposer une qualité inférieure à des prix nettement inférieurs ». D’ailleurs, rappellent Blix et Glimmer, les arguments de vente d’Ikea ou de la fast fashion exagèrent eux aussi souvent la qualité de leurs produits. 

« Des codeurs aux assistants juridiques, des tuteurs aux thérapeutes, les investissements pour produire des versions bon marché assistées par IA sont en bonne voie, et ils vont probablement faire baisser les salaires ». Les stratégies seront certainement différentes selon les métiers. Reste que L’attaque contre les travailleurs, la qualité des emplois et la qualité des produits que nous produisons et consommons est le problème que produit l’IA, et ce problème existe indépendamment du battage médiatique. « À moins d’être un investisseur en capital-risque, vous n’êtes pas la cible de la publicité pour l’IA, vous êtes la cible de la menace. Nous n’avons que faire de termes comme la hype qui avertissent les investisseurs qu’ils pourraient faire de mauvais investissements ; nous avons besoin de termes utiles pour riposter.»

L’éclatement à venir de la bulle de l’IA n’explique par pourquoi l’information est inondée de merde, n’explique pas pourquoi les erreurs des systèmes du social vont continuer. La dénonciation de la bulle et de la hype est finalement « étroitement technique, trop axée sur l’identification des mensonges, plutôt que sur l’identification des projets politiques ». Il ne faut pas commettre l’erreur de penser que le simple fait qu’une déclaration soit mensongère suffit à la négliger. Nous devrions prendre les mensonges bien plus au sérieux, car ils sont souvent révélateurs d’autre chose, même s’ils ne sont pas vrais. 

Pour Blix et Glimmer nous devons nous concentrer sur les projets politiques. « Nous devons appeler l’IA pour ce qu’elle est : une arme entre les mains des puissants. Prenons le projet de dépression salariale au sérieux : appelons-le une guerre des classes par l’emmerdification, la lutte antisyndicale automatisée, une machine à conneries pour des boulots à la con, ou encore le techno-taylorisme…» « Désemmerdifions le monde ! »

La couverture de Why we fear AI.
  •  

De l’internet de la répression…

A New York, l’Assemblée générale des Nations Unies a ouvert sa quatre-vingtième session. « Le podium de marbre, les drapeaux, les discours solennels, tout cela vous semblera familier : des présidents invoquant la démocratie, des Premiers ministres promettant de protéger les droits humains, des ministres des Affaires étrangères mettant en garde contre les dangers de l’autoritarisme. Le langage est toujours noble, le symbolisme toujours lourd ». 

Mais, pendant que les délégués s’affairent à se féliciter de défendre la liberté, un coup d’État silencieux se déroule au cœur des infrastructures même d’internet, explique Konstantinos Komaitis dans une vibrante tribune pour Tech Policy Press. Pour le chercheur au Digital Forensics Research Lab (DFRLab) de l’Atlantic Council, un think tank américain, internet est largement devenu un outil de répression. Les rapports « le coup d’Etat d’internet » d’InterSecLab et celui de Follow the Money sur l’exportation par la Chine de ses technologies de censure sont « comme des dépêches venues des premières lignes de cette prise de contrôle ». Inspection des échanges, surveillance en temps réel, limitation du trafic, blocage des VPN… Les gouvernements sont les premiers à adhérer et acheter ces solutions, notamment en Asie et en Afrique, expliquait Wired. Mais ce n’est plus seulement le cas des autocraties… La professeure de droit Elizabeth Daniel Vasquez expliquait dans une longue enquête pour le New York Times, comment la police de New York a mis les New-Yorkais sous surveillance continue au nom de la lutte contre la criminalité. La police a mis en place d’innombrables dispositifs pour capter les données des habitants, qu’elle conserve sans mandat, lui permettant de reconstituer les parcours de nombre d’habitants, de connaître leurs échanges en ligne. Joseph Cox pour 404media vient de révéler que l’ICE, l’agence fédérale de l’immigration et des douanes américaines, venait d’acquérir un outil lui permettant de collecter d’innombrables données des téléphones des Américains et notamment de suivre leurs déplacements. Sous couvert de sécurité des réseaux, les messages sont surveillés, leur distribution empêchée, l’accès aux VPN désactivé. Et ces systèmes ne sont pas uniquement les créations de régimes paranoïaques, mais « des produits commerciaux vendus à l’international, accompagnés de manuels de formation, de contrats de maintenance et de supports techniques ». La censure est désormais une industrie qui repose bien souvent sur des technologies occidentales. « Les démocraties condamnent le contrôle autoritaire tandis que leurs entreprises contribuent à en fournir les rouages ». « L’hypocrisie est stupéfiante et corrosive ». 

Les régimes autoritaires ont toujours cherché à museler la dissidence et à monopoliser les discours. Ce qui a changé, c’est l’industrialisation de ce contrôle. Il ne s’agit plus du pare-feu d’un seul pays ; il s’agit d’un modèle d’autoritarisme numérique mondial, dénonce Konstantinos Komaitis. La tragédie est que ce coup d’État progresse au moment même où les démocraties vacillent. Partout dans le monde, les institutions sont assiégées, la société civile s’affaiblit, la désinformation est omniprésente et la confiance en chute libre

Dans ce contexte, la tentation d’adopter des outils de contrôle numérique est immense. Pourquoi ne pas bloquer des plateformes au nom de la « sécurité » ? Pourquoi ne pas surveiller les militants pour préserver la « stabilité » ?… Ce qui n’était au départ qu’une pratique autoritaire à l’étranger devient accessible, voire séduisante, aux démocraties en difficulté en Occident. Les normes évoluent en silence. Ce qui semblait autrefois impensable devient la norme. Et pendant ce temps, la promesse originelle d’Internet – comme espace de dissidence, de connexion et d’imagination – s’érode.

« La censure est désormais un bien d’exportation ». Et une fois ces infrastructures bien installées, elles sont extrêmement difficiles à démanteler. « Le coup d’État n’est pas métaphorique. Il s’agit d’une capture structurelle, d’une réécriture des règles, d’une prise de pouvoir – sauf qu’il se déroule au ralenti, presque invisiblement, jusqu’au jour où l’Internet ouvert disparaît »

Les gouvernements démocratiques continueront-ils à faire de belles déclarations tandis que leurs propres entreprises aident à doter les régimes autoritaires d’outils de répression, comme c’est le cas en Chine ? L’ONU adoptera-t-elle à nouveau des résolutions qui paraissent nobles, mais qui resteront sans effet ? La société civile sera-t-elle laissée seule à lutter, sous-financée et dépassée ? Ou la communauté internationale reconnaîtra-t-elle enfin que la défense de l’Internet ouvert est aussi urgente que la défense de la souveraineté territoriale ou de la sécurité climatique. La réponse déterminera la réussite du coup d’État. 

Contrôles à l’exportation des technologies de censure, exigences de transparence contraignantes pour les fournisseurs, sanctions en cas de complicité, soutien aux outils de contournement, investissement dans les organisations de défense des droits numériques : tout cela n’est pas un luxe, rappelle Komaitis. Ces mesures constituent le strict minimum si nous voulons préserver ne serait-ce qu’un semblant de l’esprit fondateur d’Internet. À la 80e session de l’Assemblée générale des Nations Unies, les dirigeants mondiaux ont l’occasion de prouver qu’ils comprennent les enjeux, non seulement de l’architecture technique d’un réseau, mais aussi de l’architecture morale de la liberté mondiale. « S’ils échouent, s’ils détournent le regard, s’ils laissent ce coup d’État se poursuivre sans être contesté, alors l’Internet ouvert ne s’éteindra pas d’un coup. Il disparaîtra clic après clic, pare-feu après pare-feu, jusqu’au jour où nous nous réveillerons et découvrirons que l’espace autrefois annoncé comme la plus grande expérience d’ouverture de l’humanité n’est plus qu’un instrument de contrôle parmi d’autres. Et là, il sera trop tard pour riposter. »

Bon, il n’y a pas que les démocraties qui démantèlent l’internet libre et ouvert, bien sûr. Global Voices par exemple revient sur la manière dont le gouvernement russe restreint considérablement l’internet russe, notamment en créant une longue liste de sites à bloquer. Mais depuis peu, les autorités russes sont passés de la liste noire à la liste blanche, une liste de sites à ne pas bloquer, alors que les coupures du réseau sont de plus en plus fréquentes en Russie. Mais surtout, explique l’article, la Russie ne cible plus des plateformes ou des services individuels : « elle démantèle systématiquement l’infrastructure technique qui permet les communications internet gratuites, y compris les appels vocaux » ou l’accès aux VPN. Les censeurs russes identifient par exemple les protocoles VoIP (voix sur IP) quelle que soit l’application utilisée, pour les dégrader au niveau du protocole et non plus seulement seulement bloquer telle ou telle application (afin que même les nouvelles applications soient dégradées). « Toutes les messageries, qu’il s’agisse de WhatsApp, Telegram, Signal ou Viber, reposent sur les mêmes technologies sous-jacentes pour les appels vocaux : protocoles VoIP, WebRTC pour les appels via navigateur et flux de données UDP/TCP pour la transmission audio. Les censeurs russes peuvent désormais utiliser le DPI pour analyser les signatures de paquets et identifier les schémas de trafic VoIP en temps réel. Ils n’ont pas besoin de savoir si vous utilisez WhatsApp ou Telegram ; il leur suffit de reconnaître que vous passez un appel Internet et de le bloquer au niveau du protocole. C’est comme couper toutes les lignes téléphoniques au lieu de déconnecter chaque téléphone individuellement. » Ce contrôle au niveau des infrastructures est bien sûr regardé avec attention par bien d’autres autocraties, pour s’en inspirer.

Après avoir fait l’édifiante histoire de la censure de l’internet russe, la chercheuse Daria Dergacheva, qui signe l’article de Global Voices, explique que la Russie se dirige vers un réseau internet interne. Le risque à terme, c’est que l’internet russe se coupe totalement du reste de l’internet et se referme sur lui-même, sur le modèle de la Corée du Nord. 

  •  

De l’internet de la répression…

A New York, l’Assemblée générale des Nations Unies a ouvert sa quatre-vingtième session. « Le podium de marbre, les drapeaux, les discours solennels, tout cela vous semblera familier : des présidents invoquant la démocratie, des Premiers ministres promettant de protéger les droits humains, des ministres des Affaires étrangères mettant en garde contre les dangers de l’autoritarisme. Le langage est toujours noble, le symbolisme toujours lourd ». 

Mais, pendant que les délégués s’affairent à se féliciter de défendre la liberté, un coup d’État silencieux se déroule au cœur des infrastructures même d’internet, explique Konstantinos Komaitis dans une vibrante tribune pour Tech Policy Press. Pour le chercheur au Digital Forensics Research Lab (DFRLab) de l’Atlantic Council, un think tank américain, internet est largement devenu un outil de répression. Les rapports « le coup d’Etat d’internet » d’InterSecLab et celui de Follow the Money sur l’exportation par la Chine de ses technologies de censure sont « comme des dépêches venues des premières lignes de cette prise de contrôle ». Inspection des échanges, surveillance en temps réel, limitation du trafic, blocage des VPN… Les gouvernements sont les premiers à adhérer et acheter ces solutions, notamment en Asie et en Afrique, expliquait Wired. Mais ce n’est plus seulement le cas des autocraties… La professeure de droit Elizabeth Daniel Vasquez expliquait dans une longue enquête pour le New York Times, comment la police de New York a mis les New-Yorkais sous surveillance continue au nom de la lutte contre la criminalité. La police a mis en place d’innombrables dispositifs pour capter les données des habitants, qu’elle conserve sans mandat, lui permettant de reconstituer les parcours de nombre d’habitants, de connaître leurs échanges en ligne. Joseph Cox pour 404media vient de révéler que l’ICE, l’agence fédérale de l’immigration et des douanes américaines, venait d’acquérir un outil lui permettant de collecter d’innombrables données des téléphones des Américains et notamment de suivre leurs déplacements. Sous couvert de sécurité des réseaux, les messages sont surveillés, leur distribution empêchée, l’accès aux VPN désactivé. Et ces systèmes ne sont pas uniquement les créations de régimes paranoïaques, mais « des produits commerciaux vendus à l’international, accompagnés de manuels de formation, de contrats de maintenance et de supports techniques ». La censure est désormais une industrie qui repose bien souvent sur des technologies occidentales. « Les démocraties condamnent le contrôle autoritaire tandis que leurs entreprises contribuent à en fournir les rouages ». « L’hypocrisie est stupéfiante et corrosive ». 

Les régimes autoritaires ont toujours cherché à museler la dissidence et à monopoliser les discours. Ce qui a changé, c’est l’industrialisation de ce contrôle. Il ne s’agit plus du pare-feu d’un seul pays ; il s’agit d’un modèle d’autoritarisme numérique mondial, dénonce Konstantinos Komaitis. La tragédie est que ce coup d’État progresse au moment même où les démocraties vacillent. Partout dans le monde, les institutions sont assiégées, la société civile s’affaiblit, la désinformation est omniprésente et la confiance en chute libre

Dans ce contexte, la tentation d’adopter des outils de contrôle numérique est immense. Pourquoi ne pas bloquer des plateformes au nom de la « sécurité » ? Pourquoi ne pas surveiller les militants pour préserver la « stabilité » ?… Ce qui n’était au départ qu’une pratique autoritaire à l’étranger devient accessible, voire séduisante, aux démocraties en difficulté en Occident. Les normes évoluent en silence. Ce qui semblait autrefois impensable devient la norme. Et pendant ce temps, la promesse originelle d’Internet – comme espace de dissidence, de connexion et d’imagination – s’érode.

« La censure est désormais un bien d’exportation ». Et une fois ces infrastructures bien installées, elles sont extrêmement difficiles à démanteler. « Le coup d’État n’est pas métaphorique. Il s’agit d’une capture structurelle, d’une réécriture des règles, d’une prise de pouvoir – sauf qu’il se déroule au ralenti, presque invisiblement, jusqu’au jour où l’Internet ouvert disparaît »

Les gouvernements démocratiques continueront-ils à faire de belles déclarations tandis que leurs propres entreprises aident à doter les régimes autoritaires d’outils de répression, comme c’est le cas en Chine ? L’ONU adoptera-t-elle à nouveau des résolutions qui paraissent nobles, mais qui resteront sans effet ? La société civile sera-t-elle laissée seule à lutter, sous-financée et dépassée ? Ou la communauté internationale reconnaîtra-t-elle enfin que la défense de l’Internet ouvert est aussi urgente que la défense de la souveraineté territoriale ou de la sécurité climatique. La réponse déterminera la réussite du coup d’État. 

Contrôles à l’exportation des technologies de censure, exigences de transparence contraignantes pour les fournisseurs, sanctions en cas de complicité, soutien aux outils de contournement, investissement dans les organisations de défense des droits numériques : tout cela n’est pas un luxe, rappelle Komaitis. Ces mesures constituent le strict minimum si nous voulons préserver ne serait-ce qu’un semblant de l’esprit fondateur d’Internet. À la 80e session de l’Assemblée générale des Nations Unies, les dirigeants mondiaux ont l’occasion de prouver qu’ils comprennent les enjeux, non seulement de l’architecture technique d’un réseau, mais aussi de l’architecture morale de la liberté mondiale. « S’ils échouent, s’ils détournent le regard, s’ils laissent ce coup d’État se poursuivre sans être contesté, alors l’Internet ouvert ne s’éteindra pas d’un coup. Il disparaîtra clic après clic, pare-feu après pare-feu, jusqu’au jour où nous nous réveillerons et découvrirons que l’espace autrefois annoncé comme la plus grande expérience d’ouverture de l’humanité n’est plus qu’un instrument de contrôle parmi d’autres. Et là, il sera trop tard pour riposter. »

Bon, il n’y a pas que les démocraties qui démantèlent l’internet libre et ouvert, bien sûr. Global Voices par exemple revient sur la manière dont le gouvernement russe restreint considérablement l’internet russe, notamment en créant une longue liste de sites à bloquer. Mais depuis peu, les autorités russes sont passés de la liste noire à la liste blanche, une liste de sites à ne pas bloquer, alors que les coupures du réseau sont de plus en plus fréquentes en Russie. Mais surtout, explique l’article, la Russie ne cible plus des plateformes ou des services individuels : « elle démantèle systématiquement l’infrastructure technique qui permet les communications internet gratuites, y compris les appels vocaux » ou l’accès aux VPN. Les censeurs russes identifient par exemple les protocoles VoIP (voix sur IP) quelle que soit l’application utilisée, pour les dégrader au niveau du protocole et non plus seulement seulement bloquer telle ou telle application (afin que même les nouvelles applications soient dégradées). « Toutes les messageries, qu’il s’agisse de WhatsApp, Telegram, Signal ou Viber, reposent sur les mêmes technologies sous-jacentes pour les appels vocaux : protocoles VoIP, WebRTC pour les appels via navigateur et flux de données UDP/TCP pour la transmission audio. Les censeurs russes peuvent désormais utiliser le DPI pour analyser les signatures de paquets et identifier les schémas de trafic VoIP en temps réel. Ils n’ont pas besoin de savoir si vous utilisez WhatsApp ou Telegram ; il leur suffit de reconnaître que vous passez un appel Internet et de le bloquer au niveau du protocole. C’est comme couper toutes les lignes téléphoniques au lieu de déconnecter chaque téléphone individuellement. » Ce contrôle au niveau des infrastructures est bien sûr regardé avec attention par bien d’autres autocraties, pour s’en inspirer.

Après avoir fait l’édifiante histoire de la censure de l’internet russe, la chercheuse Daria Dergacheva, qui signe l’article de Global Voices, explique que la Russie se dirige vers un réseau internet interne. Le risque à terme, c’est que l’internet russe se coupe totalement du reste de l’internet et se referme sur lui-même, sur le modèle de la Corée du Nord. 

  •