Vue normale

Reçu hier — 13 novembre 2025
  • ✇Dans les algorithmes
  • Syndicats : négociez les algorithmes !
    Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisab
     

Syndicats : négociez les algorithmes !

13 novembre 2025 à 01:00

Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisables par les travailleurs en lien notamment avec la nouvelle législation européenne des travailleurs des plateformes. La gestion algorithmique confère aux employeurs des avantages informationnels considérables sur les travailleurs, leur permet de contourner les conventions collectives et de modifier les conditions de travail et les salaires de chaque travailleur voire de chaque poste. Elle leur permet d’espionner les travailleurs même en dehors de leurs heures de travail et leur offre de nombreuses possibilités de représailles. 

En regard, les travailleurs piégés par la gestion algorithmique sont privés de leur pouvoir d’action et de leurs possibilités de résolution de problèmes, et bien souvent de leurs droits de recours, tant la gestion algorithmique se déploie avec de nombreuses autres mesures autoritaires, comme le fait de ne pouvoir joindre le service RH. 

Il est donc crucial que les syndicats élaborent une stratégie pour lutter contre la gestion algorithmique. C’est là qu’intervient la directive sur le travail de plateforme qui prévoit des dispositions assez riches, mais qui ne sont pas auto-exécutoires… C’est-à-dire que les travailleurs doivent revendiquer les droits que la directive propose, au travail comme devant les tribunaux. Or, elle permet aux travailleurs et à leurs représentants d’exiger des employeurs des données exhaustives sur les décisions algorithmiques, du licenciement au calcul du salaire. 

Bien souvent ces données ne sont pas rendues dans des formats faciles à exploiter, constate Wray : le rapport encourage donc les syndicats à constituer leurs propres groupes d’analyses de données. Le rapport plaide également pour que les syndicats développent des applications capables de surveiller les applications patronales, comme l’application UberCheats, qui permettait de comparer le kilométrage payé par Uber à ses livreurs par rapport aux distances réellement parcourues (l’application a été retirée en 2021 au prétexte de son nom à la demande de la firme Uber). En investissant dans la technologie, les syndicats peuvent combler le déficit d’information des travailleurs sur les employeurs. Wray décrit comment les travailleurs indépendants ont créé des « applications de contre-mesure » ​​qui ont documenté les vols de salaires et de pourboires (voir notre article “Réguler la surveillance au travail”), permis le refus massif d’offres au rabais et aidé les travailleurs à faire valoir leurs droits devant les tribunaux. Cette capacité technologique peut également aider les organisateurs syndicaux, en fournissant une plateforme numérique unifiée pour les campagnes syndicales dans tous les types d’établissements. Wray propose que les syndicats unissent leurs forces pour créer « un atelier technologique commun » aux travailleurs, qui développerait et soutiendrait des outils pour tous les types de syndicats à travers l’Europe. 

Le RGPD confère aux travailleurs de larges pouvoirs pour lutter contre les abus liés aux logiciels de gestion, estime encore le rapport. Il leur permet d’exiger le système de notation utilisé pour évaluer leur travail et d’exiger la correction de leurs notes, et interdit les « évaluations internes cachées ». Il leur donne également le droit d’exiger une intervention humaine dans les prises de décision automatisées. Lorsque les travailleurs sont « désactivés » (éjectés de l’application), le RGPD leur permet de déposer une « demande d’accès aux données » obligeant l’entreprise à divulguer « toutes les informations personnelles relatives à cette décision », les travailleurs ayant le droit d’exiger la correction des « informations inexactes ou incomplètes ». Malgré l’étendue de ces pouvoirs, ils ont rarement été utilisés, en grande partie en raison de failles importantes du RGPD. Par exemple, les employeurs peuvent invoquer l’excuse selon laquelle la divulgation d’informations révélerait leurs secrets commerciaux et exposerait leur propriété intellectuelle. Le RGPD limite la portée de ces excuses, mais les employeurs les ignorent systématiquement. Il en va de même pour l’excuse générique selon laquelle la gestion algorithmique est assurée par un outil tiers. Cette excuse est illégale au regard du RGPD, mais les employeurs l’utilisent régulièrement (et s’en tirent impunément). 

La directive sur le travail de plateforme corrige de nombreuses failles du RGPD. Elle interdit le traitement des « données personnelles d’un travailleur relatives à : son état émotionnel ou psychologique ; l’utilisation de ses échanges privés ; la captation de données lorsqu’il n’utilise pas l’application ; concernant l’exercice de ses droits fondamentaux, y compris la syndicalisation ; les données personnelles du travailleur, y compris son orientation sexuelle et son statut migratoire ; et ses données biométriques lorsqu’elles sont utilisées pour établir son identité. » Elle étend le droit d’examiner le fonctionnement et les résultats des « systèmes décisionnels automatisés » et d’exiger que ces résultats soient exportés vers un format pouvant être envoyé au travailleur, et interdit les transferts à des tiers. Les travailleurs peuvent exiger que leurs données soient utilisées, par exemple, pour obtenir un autre emploi, et leurs employeurs doivent prendre en charge les frais associés. La directive sur le travail de plateforme exige une surveillance humaine stricte des systèmes automatisés, notamment pour des opérations telles que les désactivations. 

Le fonctionnement de leurs systèmes d’information est également soumis à l’obligation pour les employeurs d’informer les travailleurs et de les consulter sur les « modifications apportées aux systèmes automatisés de surveillance ou de prise de décision ». La directive exige également que les employeurs rémunèrent des experts (choisis par les travailleurs) pour évaluer ces changements. Ces nouvelles règles sont prometteuses, mais elles n’entreront en vigueur que si quelqu’un s’y oppose lorsqu’elles sont enfreintes. C’est là que les syndicats entrent en jeu. Si des employeurs sont pris en flagrant délit de fraude, la directive les oblige à rembourser les experts engagés par les syndicats pour lutter contre les escroqueries. 

Wray propose une série de recommandations détaillées aux syndicats concernant les éléments qu’ils devraient exiger dans leurs contrats afin de maximiser leurs chances de tirer parti des opportunités offertes par la directive sur le travail de plateforme, comme la création d’un « organe de gouvernance » au sein de l’entreprise « pour gérer la formation, le stockage, le traitement et la sécurité des données. Cet organe devrait inclure des délégués syndicaux et tous ses membres devraient recevoir une formation sur les données. » 

Il présente également des tactiques technologiques que les syndicats peuvent financer et exploiter pour optimiser l’utilisation de la directive, comme le piratage d’applications permettant aux travailleurs indépendants d’augmenter leurs revenus. Il décrit avec enthousiasme la « méthode des marionnettes à chaussettes », où de nombreux comptes tests sont utilisés pour placer et réserver du travail via des plateformes afin de surveiller leurs systèmes de tarification et de détecter les collusions et les manipulations de prix. Cette méthode a été utilisée avec succès en Espagne pour jeter les bases d’une action en justice en cours pour collusion sur les prix. 

Le nouveau monde de la gestion algorithmique et la nouvelle directive sur le travail de plateforme offrent de nombreuses opportunités aux syndicats. Cependant, il existe toujours un risque qu’un employeur refuse tout simplement de respecter la loi, comme Uber, reconnu coupable de violation des règles de divulgation de données et condamné à une amende de 6 000 € par jour jusqu’à sa mise en conformité. Uber a maintenant payé 500 000 € d’amende et n’a pas divulgué les données exigées par la loi et les tribunaux. 

Grâce à la gestion algorithmique, les patrons ont trouvé de nouveaux moyens de contourner la loi et de voler les travailleurs. La directive sur le travail de plateforme offre aux travailleurs et aux syndicats toute une série de nouveaux outils pour contraindre les patrons à jouer franc jeu. « Ce ne sera pas facile, mais les capacités technologiques développées par les travailleurs et les syndicats ici peuvent être réutilisées pour mener une guerre de classes numérique totale », s’enthousiasme Cory Doctorow.

  • ✇Dans les algorithmes
  • Syndicats : négociez les algorithmes !
    Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisab
     

Syndicats : négociez les algorithmes !

13 novembre 2025 à 01:00

Comment répondre à la gestion algorithmique du travail ? Tel est l’ambition du rapport « Negotiating the Algorithm » publié par la Confédération européenne des syndicats sous la direction du journaliste indépendant Ben Wray, responsable du Gig Economy Project de Brave New Europe. Le rapport décrit la prédominance des logiciels managériaux au travail (qui seraient utilisés par plus de 79% des entreprises de l’Union européenne) et les abus qui en découlent et décrit les moyens de riposte mobilisables par les travailleurs en lien notamment avec la nouvelle législation européenne des travailleurs des plateformes. La gestion algorithmique confère aux employeurs des avantages informationnels considérables sur les travailleurs, leur permet de contourner les conventions collectives et de modifier les conditions de travail et les salaires de chaque travailleur voire de chaque poste. Elle leur permet d’espionner les travailleurs même en dehors de leurs heures de travail et leur offre de nombreuses possibilités de représailles. 

En regard, les travailleurs piégés par la gestion algorithmique sont privés de leur pouvoir d’action et de leurs possibilités de résolution de problèmes, et bien souvent de leurs droits de recours, tant la gestion algorithmique se déploie avec de nombreuses autres mesures autoritaires, comme le fait de ne pouvoir joindre le service RH. 

Il est donc crucial que les syndicats élaborent une stratégie pour lutter contre la gestion algorithmique. C’est là qu’intervient la directive sur le travail de plateforme qui prévoit des dispositions assez riches, mais qui ne sont pas auto-exécutoires… C’est-à-dire que les travailleurs doivent revendiquer les droits que la directive propose, au travail comme devant les tribunaux. Or, elle permet aux travailleurs et à leurs représentants d’exiger des employeurs des données exhaustives sur les décisions algorithmiques, du licenciement au calcul du salaire. 

Bien souvent ces données ne sont pas rendues dans des formats faciles à exploiter, constate Wray : le rapport encourage donc les syndicats à constituer leurs propres groupes d’analyses de données. Le rapport plaide également pour que les syndicats développent des applications capables de surveiller les applications patronales, comme l’application UberCheats, qui permettait de comparer le kilométrage payé par Uber à ses livreurs par rapport aux distances réellement parcourues (l’application a été retirée en 2021 au prétexte de son nom à la demande de la firme Uber). En investissant dans la technologie, les syndicats peuvent combler le déficit d’information des travailleurs sur les employeurs. Wray décrit comment les travailleurs indépendants ont créé des « applications de contre-mesure » ​​qui ont documenté les vols de salaires et de pourboires (voir notre article “Réguler la surveillance au travail”), permis le refus massif d’offres au rabais et aidé les travailleurs à faire valoir leurs droits devant les tribunaux. Cette capacité technologique peut également aider les organisateurs syndicaux, en fournissant une plateforme numérique unifiée pour les campagnes syndicales dans tous les types d’établissements. Wray propose que les syndicats unissent leurs forces pour créer « un atelier technologique commun » aux travailleurs, qui développerait et soutiendrait des outils pour tous les types de syndicats à travers l’Europe. 

Le RGPD confère aux travailleurs de larges pouvoirs pour lutter contre les abus liés aux logiciels de gestion, estime encore le rapport. Il leur permet d’exiger le système de notation utilisé pour évaluer leur travail et d’exiger la correction de leurs notes, et interdit les « évaluations internes cachées ». Il leur donne également le droit d’exiger une intervention humaine dans les prises de décision automatisées. Lorsque les travailleurs sont « désactivés » (éjectés de l’application), le RGPD leur permet de déposer une « demande d’accès aux données » obligeant l’entreprise à divulguer « toutes les informations personnelles relatives à cette décision », les travailleurs ayant le droit d’exiger la correction des « informations inexactes ou incomplètes ». Malgré l’étendue de ces pouvoirs, ils ont rarement été utilisés, en grande partie en raison de failles importantes du RGPD. Par exemple, les employeurs peuvent invoquer l’excuse selon laquelle la divulgation d’informations révélerait leurs secrets commerciaux et exposerait leur propriété intellectuelle. Le RGPD limite la portée de ces excuses, mais les employeurs les ignorent systématiquement. Il en va de même pour l’excuse générique selon laquelle la gestion algorithmique est assurée par un outil tiers. Cette excuse est illégale au regard du RGPD, mais les employeurs l’utilisent régulièrement (et s’en tirent impunément). 

La directive sur le travail de plateforme corrige de nombreuses failles du RGPD. Elle interdit le traitement des « données personnelles d’un travailleur relatives à : son état émotionnel ou psychologique ; l’utilisation de ses échanges privés ; la captation de données lorsqu’il n’utilise pas l’application ; concernant l’exercice de ses droits fondamentaux, y compris la syndicalisation ; les données personnelles du travailleur, y compris son orientation sexuelle et son statut migratoire ; et ses données biométriques lorsqu’elles sont utilisées pour établir son identité. » Elle étend le droit d’examiner le fonctionnement et les résultats des « systèmes décisionnels automatisés » et d’exiger que ces résultats soient exportés vers un format pouvant être envoyé au travailleur, et interdit les transferts à des tiers. Les travailleurs peuvent exiger que leurs données soient utilisées, par exemple, pour obtenir un autre emploi, et leurs employeurs doivent prendre en charge les frais associés. La directive sur le travail de plateforme exige une surveillance humaine stricte des systèmes automatisés, notamment pour des opérations telles que les désactivations. 

Le fonctionnement de leurs systèmes d’information est également soumis à l’obligation pour les employeurs d’informer les travailleurs et de les consulter sur les « modifications apportées aux systèmes automatisés de surveillance ou de prise de décision ». La directive exige également que les employeurs rémunèrent des experts (choisis par les travailleurs) pour évaluer ces changements. Ces nouvelles règles sont prometteuses, mais elles n’entreront en vigueur que si quelqu’un s’y oppose lorsqu’elles sont enfreintes. C’est là que les syndicats entrent en jeu. Si des employeurs sont pris en flagrant délit de fraude, la directive les oblige à rembourser les experts engagés par les syndicats pour lutter contre les escroqueries. 

Wray propose une série de recommandations détaillées aux syndicats concernant les éléments qu’ils devraient exiger dans leurs contrats afin de maximiser leurs chances de tirer parti des opportunités offertes par la directive sur le travail de plateforme, comme la création d’un « organe de gouvernance » au sein de l’entreprise « pour gérer la formation, le stockage, le traitement et la sécurité des données. Cet organe devrait inclure des délégués syndicaux et tous ses membres devraient recevoir une formation sur les données. » 

Il présente également des tactiques technologiques que les syndicats peuvent financer et exploiter pour optimiser l’utilisation de la directive, comme le piratage d’applications permettant aux travailleurs indépendants d’augmenter leurs revenus. Il décrit avec enthousiasme la « méthode des marionnettes à chaussettes », où de nombreux comptes tests sont utilisés pour placer et réserver du travail via des plateformes afin de surveiller leurs systèmes de tarification et de détecter les collusions et les manipulations de prix. Cette méthode a été utilisée avec succès en Espagne pour jeter les bases d’une action en justice en cours pour collusion sur les prix. 

Le nouveau monde de la gestion algorithmique et la nouvelle directive sur le travail de plateforme offrent de nombreuses opportunités aux syndicats. Cependant, il existe toujours un risque qu’un employeur refuse tout simplement de respecter la loi, comme Uber, reconnu coupable de violation des règles de divulgation de données et condamné à une amende de 6 000 € par jour jusqu’à sa mise en conformité. Uber a maintenant payé 500 000 € d’amende et n’a pas divulgué les données exigées par la loi et les tribunaux. 

Grâce à la gestion algorithmique, les patrons ont trouvé de nouveaux moyens de contourner la loi et de voler les travailleurs. La directive sur le travail de plateforme offre aux travailleurs et aux syndicats toute une série de nouveaux outils pour contraindre les patrons à jouer franc jeu. « Ce ne sera pas facile, mais les capacités technologiques développées par les travailleurs et les syndicats ici peuvent être réutilisées pour mener une guerre de classes numérique totale », s’enthousiasme Cory Doctorow.

Reçu avant avant-hier

Malgré la fin de la grève à la STM, le gouvernement a déposé son projet de loi

12 novembre 2025 à 20:37

Le ministre du travail Jean Boulet a salué la suspension de la grève annoncée par le syndicat des employés d’entretien de la Société de transport de Montréal.

Le ministre a toutefois déposé un projet de loi pour devancer l’application d’une autre loi, déjà adoptée, qui limitera le droit de grève.

Boulet soutient que le gouvernement doit «disposer des outils nécessaires pour offrir un niveau de service acceptable à la population».

Le Tribunal administratif du travail a autorisé les chauffeurs et opérateurs de la Société de transport de Montréal à faire grève samedi et dimanche.

[L'article Malgré la fin de la grève à la STM, le gouvernement a déposé son projet de loi a d'abord été publié dans InfoBref.]

Québec pourrait devancer l’entrée en vigueur de sa loi qui limite le droit de grève 

5 novembre 2025 à 21:27

La loi sur les conflits de travail doit entrer en vigueur le 30 novembre, soit deux jours après la fin actuellement prévue de la grève des employés de la Société de transport de Montréal. 

Cette loi permettra au gouvernement d’intervenir pour limiter la durée des grèves lorsque la population est affectée «de façon disproportionnée».

Le ministre du travail Jean Boulet n’exclut «aucune option» pour régler le conflit à la STM, pas même d’appliquer la loi plus tôt que prévu, comme le demandent des représentants du milieu des affaires. 

[L'article Québec pourrait devancer l’entrée en vigueur de sa loi qui limite le droit de grève  a d'abord été publié dans InfoBref.]

Le gouvernement Legault va déposer un autre projet controversé

29 octobre 2025 à 21:49

Le ministre du travail Jean Boulet doit déposer aujourd’hui à l’Assemblée nationale un projet de loi sur «la gouvernance et la transparence» des syndicats. 

Cette réforme du régime syndical prévoit que des travailleurs syndiqués pourraient voter pour refuser de payer une partie de la cotisation demandée par leur syndicat [détails (16 oct.)]. 

Les neuf principaux syndicats s’étaient fermement opposés à cette idée le mois dernier lorsqu’une ébauche du texte avait fuité du ministère du travail. 

[L'article Le gouvernement Legault va déposer un autre projet controversé a d'abord été publié dans InfoBref.]

Plusieurs organisations d’affaires s’unissent contre les politiques du gouvernement Legault en matière d’immigration 

28 octobre 2025 à 20:43

La Chambre de commerce et d’industrie de Québec, la Chambre de commerce du Montréal métropolitain, et les agences de promotion économique Québec International et Montréal International ont exprimé ensemble leurs préoccupations. 

  • Elles dénoncent «l’imprévisibilité engendrée» par des règles qui «changent constamment, sans préavis» et rendent «impossible toute planification».

Les quatre organisations soutiennent qu’à cause de cette imprévisibilité, les entreprises doivent:

  • refuser des contrats;
  • mettre en veille des projets d’expansion; 
  • rediriger des projets vers une filiale à l’extérieur du Québec.

[L'article Plusieurs organisations d’affaires s’unissent contre les politiques du gouvernement Legault en matière d’immigration  a d'abord été publié dans InfoBref.]

  • ✇Dans les algorithmes
  • Privacy Trap : sortir du piège de la seule protection des données
    « Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exe
     

Privacy Trap : sortir du piège de la seule protection des données

16 octobre 2025 à 01:00

« Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exerçant sur leurs employés un contrôle qui devrait susciter de vives inquiétudes ». « Sans contrôle ni intervention proactive, ces technologies seront déployées de manière à obscurcir encore davantage la responsabilité, à approfondir les inégalités et à priver les travailleurs de leur voix et de leur pouvoir d’action ».

Les chercheurs et chercheuses – Minsu Longiaru, Wilneida Negrón, Brian J. Chen, Aiha Nguyen, Seema N. Patel, et Dana Calacci – attirent l’attention sur deux mythes fondamentaux sur la confidentialité des données, à savoir : croire que la protection des données sur le marché de la consommation fonctionne de manière similaire sur le lieu de travail et croire que renforcer la protection des informations personnelles suffit à remédier aux préjudices subis par les travailleurs suite à l’extraction de données. En fait, rappellent les chercheurs, les réglementations sur la protection des données personnelles reposent sur un cadre d’action fondé sur les droits individuels d’accès, de rectification et de suppression, et ne s’appliquent qu’aux données dites personnelles : les données anonymisées, dépersonnalisées ou agrégées ne bénéficient que de peu voire d’aucune protection juridique. Mais ces approches individualisées sont « cruellement » insuffisantes sur le lieu de travail, notamment parce que les travailleurs évoluent dans des conditions de pouvoir de négociations extrêmement inégales où l’exercice de leurs droits peut-être impossible et ils n’ont bien souvent pas le pouvoir de contrôler, voire même de percevoir, l’étendue de la surveillance dont ils sont l’objet. « Par conséquent, on observe une expansion sans précédent de la capacité des employeurs à collecter les données des travailleurs sans leur consentement explicite et à les utiliser à des fins de surveillance, de sanction et d’intensification de l’exploitation », comme par exemple quand les employeurs revendent ou transmettent les données des travailleurs à des tiers – comme l’expliquait par exemple la sociologue Karen Levy dans son livre sur la surveillance des routiers

De l’instrumentalisation de la protection de la vie privée

Les technologies d’IA préservant la confidentialité (par exemple des techniques de chiffrement permettant de masquer les données lors de leur collecte, de leur traitement ou de leur utilisation), le développement des données synthétiques (qui servent à remplacer ou compléter des données réelles) et le calcul multipartite (des technologies permettant d’analyser les données de différents appareils ou parties, sans divulguer les données des uns aux autres), permettent désormais aux entreprises de se conformer aux cadres réglementaires, tout en accentuant la surveillance

Les entreprises utilisent les données de leurs employés pour générer des profils détaillés, des indicateurs de performance… et manipulent ces informations à leur profit grâce à l’asymétrie d’information, comme le montrait le rapport de Power Switch Action sur Uber. Le développement du chiffrement ou de la confidentialité différentielle (ce que l’on appelle le marché des technologies qui augmentent la confidentialité, les Privacy-Enhancing Technologies (PET) est en explosion, passant de 2,4 milliards de dollars en 2023 à 25,8 milliards en 2033 selon des prévisions du Forum économique mondial) risquent d’ailleurs à terme de renforcer l’opacité et l’asymétrie d’information sur les lieux de travail, s’inquiètent les chercheurs, en permettant aux entreprises d’analyser des ensembles de données sans identifier les éléments individuels (ce qui leur permet de ne pas consulter les données des individus, tout en continuant à extraire des informations individuelles toujours plus précises). Le déploiement de ces technologies permettent aux entreprises de se dégager de leurs responsabilités, de masquer, voire d’obfusquer les discriminations, comme le disait la chercheuse Ifeoma Ajunwa ou comme l’explique la chercheuse Elizabeth Renieris dans son livre Beyond Data (MIT Press, 2023, non traduit et disponible en libre accès). Elle y rappelle que les données ne sont pas une vérité objective et, de plus, leur statut « entièrement contextuel et dynamique » en fait un fondement instable pour toute organisation. Mais surtout, que ces technologies encouragent un partage accru des données. 

Uber par exemple est l’un des grands utilisateurs des PETs, sans que cela n’ait jamais bénéficié aux chauffeurs, bien au contraire, puisque ces technologies permettent à l’entreprise (et à toutes celles qui abusent de la discrimination salariale algorithmique, comme l’expliquait Veena Dubal) de réviser les rémunérations à la baisse. 

Les chercheurs donnent d’autres exemples encore, notamment le développement du recours à des données synthétiques pour produire des conclusions statistiques similaires aux données réelles. Elles peuvent ainsi prédire ou simuler le comportement des employés sans utiliser ou en masquant les données personnelles. C’est ce que fait Amazon dans les entrepôts où il déploie des robots automatiques par exemple. Or, depuis 2019, des rapports d’enquêtes, comme celui du syndicat Strategic Organizing Center, ont montré une corrélation entre l’adoption de robots chez Amazon et l’augmentation des problèmes de santé des travailleurs dû à l’augmentation des cadencements. 

Le problème, c’est que les lois régissant les données personnelles peuvent ne pas s’appliquer aux données synthétiques, comme l’expliquent les professeures de droit Michal S. Gal et Orla Lynskey dans un article consacré aux implications légales des données synthétiques. Et même lorsque ces lois s’appliquent, l’autorité chargée de l’application peut ne pas être en mesure de déterminer si des données synthétiques ou personnelles ont été utilisées, ce qui incite les entreprises à prétendre faussement se conformer en masquant l’utilisation réelle des données derrière la génération synthétique. Enfin, le recours aux données synthétiques peuvent compromettre les exigences légales d’explicabilité et d’interprétabilité. En général, plus le générateur de données synthétiques est sophistiqué, plus il devient difficile d’expliquer les corrélations et, plus fortement encore, la causalité dans les données générées. Enfin, avec les données synthétiques, le profilage pourrait au final être plus invasif encore, comme l’exprimaient par exemple les professeurs de droit Daniel Susser et Jeremy Seeman. Enfin, leur utilisation pourrait suggérer au régulateur de diminuer les contrôles, sans voir de recul du profilage et des mesures disciplinaires sans recours. 

D’autres techniques encore sont mobilisés, comme le calcul multipartite et l’apprentissage fédéré qui permettent aux entreprises d’analyser des données en améliorant leur confidentialité. Le calcul multipartite permet à plusieurs parties de calculer conjointement des résultats tout en conservant leurs données chiffrées. L’apprentissage fédéré permet à plusieurs appareils d’entraîner conjointement un modèle d’apprentissage automatique en traitant les données localement, évitant ainsi leur transfert vers un serveur central : ce qui permet qu’une entreprise peut analyser les données personnelles d’une autre entreprise sans en être réellement propriétaire et sans accéder au détail. Sur le papier, la technologie du calcul multipartite semble améliorer la confidentialité, mais en pratique, les entreprises peuvent l’utiliser pour coordonner la consolidation et la surveillance des données tout en échappant à toute responsabilité. Ces technologies sont par exemple très utilisées pour la détection des émotions en assurant d’une confidentialité accrue…  sans assurer que les préjudices ne soient réduits et ce, alors que, l’intégration des IA émotionnelles dans le champ du travail est complexifié par le règlement européen sur l’IA, comme l’expliquait un récent article du Monde

Comment réguler alors ?

« Sans garanties proactives pour réguler les conditions de travail, l’innovation continuera d’être utilisée comme un outil d’exploitation », rappellent les chercheurs. « Pour inverser cette tendance, nous avons besoin de politiques qui placent la dignité, l’autonomie et le pouvoir collectif des travailleurs au cœur de nos préoccupations ». Et les chercheurs de proposer 3 principes de conception pour améliorer la réglementation en la matière. 

Tout d’abord, supprimer le droit de surveillance des employeurs en limitant la surveillance abusive. Les chercheurs estiment que nous devons établir de meilleures règles concernant la datafication du monde du travail, la collecte comme la génération de données. Ils rappellent que le problème ne repose pas seulement dans l’utilisation des données, mais également lors de la collecte et après : « une fois créées, elles peuvent être anonymisées, agrégées, synthétisées, dépersonnalisées, traitées de manière confidentielle, stockées, vendues, partagées, etc. » Pour les chercheurs, il faut d’abord « fermer le robinet » et fermer « la surveillance illimitée », comme nous y invitaient déjà en 2017 Ifeoma Ajunwa, Kate Crawford et Jason Schultz. 

Bien souvent, l’interdiction de la collecte de données est très limitée. Elle est strictement interdite dans les salles de pause et les toilettes, mais la collecte est souvent autorisée partout ailleurs. Il faut briser la « prérogative de surveillance de l’employeur », et notamment la surveillance massive et continue. « Lorsque la surveillance électronique intermittente du lieu de travail est autorisée, elle doit respecter des principes stricts de minimisation » (d’objectif et de proportionnalité pourrait-on ajouter pour rappeler d’autres principes essentiels de la protection des données). « Plus précisément, elle ne devrait être autorisée que lorsqu’elle est strictement nécessaire (par exemple, pour des raisons de conformité légale), lorsqu’elle affecte le plus petit nombre de travailleurs, qu’elle collecte le moins de données nécessaires et qu’elle est strictement adaptée à l’utilisation des moyens les moins invasifs ». Les chercheurs recommandent également d’informer les travailleurs de ces surveillance et de leur objectif et signalent l’existence de propositions de loi interdisant aux entreprises d’exiger de leurs employés des dispositifs de localisation ou le port permanent d’appareils de surveillance. Des propositions qui reconnaissent que la protection des données des travailleurs ne saurait se substituer à la protection de leur espace, de leur temps et de leur autonomie.

Enfin, ils recommandent de réduire voire d’interdire la vente de données et leurs exploitation à des tiers (sans développer cette proposition, hélas).  

Le deuxième angle des propositions appelle à se concentrer sur les objectifs des systèmes, en soulignant, très pertinemment que « les cadres juridiques qui se concentrent sur les détails techniques ont tendance à désavantager les travailleurs, car ils exacerbent les asymétries de pouvoir » et surtout se concentrent sur des propositions qui peuvent être vite mises à mal et contournées par le déploiement de nouvelles technologies

Les chercheurs recommandent de ne pas tant regarder regarder les intrants (la collecte de données ou leur anonymisation) et de se concentrer plutôt sur les « conséquences concrètes, intentionnelles comme imprévues, que ces systèmes produisent pour les travailleurs », comme l’instabilité des horaires, les mesures disciplinaires injustes, le stress, les cadences, ou la précarité de l’emploi… indépendamment des technologies utilisées ou du respect des normes de confidentialité. Par exemple, en interdisant la prise de décision automatisée dans certaines situations, comme le proposait déjà l’AI Now Institute en 2023 en demandant à établir des lignes rouges interdisant la surveillance émotionnelle ou la discrimination salariale algorithmique. Une loi fédérale pour la protection des travailleurs de la logistique par exemple interdit les quotas de cadencement inférieurs à la journée (88, 89) et charge l’administration de la sécurité et de la santé au travail (OSHA) de créer une norme dédiée suggérant l’intérêt à autoriser les organismes de réglementation existants à actualiser et améliorer les protections depuis les données. Un projet de loi sur la sécurité des emplois de la ville de New York interdit par exemple expressément aux employeurs de licencier des travailleurs sur la base de données issues de technologies biométriques, de technologies de géolocalisation, d’applications installées sur les appareils personnels et d’enregistrements effectués au domicile des employés. « L’un des avantages des approches politiques qui restreignent clairement certaines pratiques des employeurs est leur lisibilité : elles n’obligent pas les travailleurs ou les autorités de réglementation à déchiffrer des systèmes de boîte noire. Ces lois permettent aux travailleurs de mieux reconnaître les violations de leurs droits », comme les lois sur la semaine de travail équitable qui protègent les travailleurs contre les modifications d’horaires sans préavis ni rémunération (voir ce que nous en disions déjà en 2020). « Plusieurs États et localités ont adopté ces lois en réponse à l’essor des pratiques de planification à flux tendu, où les employeurs, souvent à l’aide de logiciels basés sur les données, tentent d’optimiser les coûts de main-d’œuvre par le biais de modifications d’horaires très imprévisibles. Les protections liées à la semaine de travail équitable ne réglementent pas les détails techniques, comme les données intégrées à l’algorithme ; elles désamorcent plutôt le problème en obligeant les employeurs à indemniser financièrement les travailleurs pour les modifications d’horaires de dernière minute. Les lois sur les horaires équitables et les limites de cadencement illustrent la manière dont les régulateurs peuvent créer de nouveaux droits substantiels pour les travailleurs en élaborant de nouvelles réglementations sur le lieu de travail pour les préjudices induits par les nouvelles technologies, qui n’étaient auparavant pas reconnus par la loi. Ces types de politiques sont facilement applicables et ont un impact concret et direct sur les conditions de travail ». Mettre des limites aux cadences, était d’ailleurs une des propositions que nous avions mises en avant dans notre article sur la surveillance au travail.

Enfin, les chercheurs évoquent un troisième faisceau de règles visant à privilégier les politiques qui renforcent l’autonomie des travailleurs et limitent le pouvoir des entreprises en rééquilibrant les asymétries de pouvoir. « Pour renforcer le pouvoir des travailleurs à l’ère de l’IA, les décideurs politiques doivent reconnaître que le problème fondamental ne réside pas dans la protection de données spécifiques, mais dans la manière dont les nouvelles technologies en milieu de travail peuvent exacerber les asymétries de pouvoir et l’exploitation structurelle », comme l’expliquait le Roosevelt Institute. Ils invitent à ce que les décideurs politiques soutiennent des mécanismes qui renforcent la participation collective des travailleurs à toutes les étapes du développement et du déploiement des technologies en milieu de travail : comme ceux favorisant la négociation collective et ceux favorisant la participation des travailleurs à toutes les étapes du développement, du déploiement et des ajustements des systèmes d’IA. Ensuite, ils recommandent, notamment face à la sophistication des déploiements technologiques, de renforcer les pouvoir d’enquêtes et les capacités des agences du travail et des procureurs et d’imposer plus activement des mesures de transparence en proposant des sanctions proportionnées pour dissuader les abus (et notamment en sanctionnant les dirigeants et pas seulement les entreprises, comme le suggérait le rapport 2025 de l’AI Now Institute). Les chercheurs proposent d’établir un droit privé d’action permettant à une personne ou une organisation de poursuivre une entreprise ou un employeur individuellement comme dans le cadre d’un recours collectif. Ils recommandent également que dans les cas de surveillance ou de décision algorithmique, la charge de la preuve incombe aux employeurs et de renforcer la protection des lanceurs d’alerte comme le proposait la juriste Hannah Bloch-Wehba pour contrer le silence autour du fonctionnement des technologies par ceux qui les déploient. Les révélations éclairent le débat public et incitent à agir. Il faut donc les encourager plus efficacement. 

Et les chercheurs de conclure en rappelant que les entreprises privilégient de plus en plus les profits aux personnes. Pour défaire cette tendance, « nous avons besoin de garanties ancrées dans des droits collectifs », renforcés. Nous devons traiter les travailleurs non pas comme des données, mais leur permettre de peser sur les décisions. 

Ces propositions peuvent paraître radicales, notamment parce que le déploiement des technologies de surveillance au travail est déjà partout très avancé et nécessite d’exiger de faire marche arrière pour faire reculer la surveillance au travail. De réfléchir activement à une dénumérisation voire une rematérialisation… Ils nous montrent néanmoins que nous avons un lourd travail à réaliser pour humaniser à nouveau la relation de travail et qu’elle ne se brise pas sur des indicateurs abscons et défaillants laissant partout les travailleurs sans pouvoir sur le travail. 

Hubert Guillaud

Le 18 novembre, les chercheurs de Data & Society responsables du rapport proposent un webinaire sur le sujet. Son titre : « mettre fin au pipeline de la surveillance via l’IA »

  • ✇Dans les algorithmes
  • Privacy Trap : sortir du piège de la seule protection des données
    « Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exe
     

Privacy Trap : sortir du piège de la seule protection des données

16 octobre 2025 à 01:00

« Protéger les données personnelles des travailleurs ne signifie pas nécessairement protéger les travailleurs ». Alors que les entreprises parlent de plus en plus d’IA respectueuses de la vie privée, ces solutions sont bien souvent un moyen de contournement, dénoncent les chercheurs de Data & Society, Power Switch Action et Coworker, auteurs du rapport Privacy Trap. Ces technologies peuvent leur permettre « de se conformer techniquement aux lois sur la confidentialité des données tout en exerçant sur leurs employés un contrôle qui devrait susciter de vives inquiétudes ». « Sans contrôle ni intervention proactive, ces technologies seront déployées de manière à obscurcir encore davantage la responsabilité, à approfondir les inégalités et à priver les travailleurs de leur voix et de leur pouvoir d’action ».

Les chercheurs et chercheuses – Minsu Longiaru, Wilneida Negrón, Brian J. Chen, Aiha Nguyen, Seema N. Patel, et Dana Calacci – attirent l’attention sur deux mythes fondamentaux sur la confidentialité des données, à savoir : croire que la protection des données sur le marché de la consommation fonctionne de manière similaire sur le lieu de travail et croire que renforcer la protection des informations personnelles suffit à remédier aux préjudices subis par les travailleurs suite à l’extraction de données. En fait, rappellent les chercheurs, les réglementations sur la protection des données personnelles reposent sur un cadre d’action fondé sur les droits individuels d’accès, de rectification et de suppression, et ne s’appliquent qu’aux données dites personnelles : les données anonymisées, dépersonnalisées ou agrégées ne bénéficient que de peu voire d’aucune protection juridique. Mais ces approches individualisées sont « cruellement » insuffisantes sur le lieu de travail, notamment parce que les travailleurs évoluent dans des conditions de pouvoir de négociations extrêmement inégales où l’exercice de leurs droits peut-être impossible et ils n’ont bien souvent pas le pouvoir de contrôler, voire même de percevoir, l’étendue de la surveillance dont ils sont l’objet. « Par conséquent, on observe une expansion sans précédent de la capacité des employeurs à collecter les données des travailleurs sans leur consentement explicite et à les utiliser à des fins de surveillance, de sanction et d’intensification de l’exploitation », comme par exemple quand les employeurs revendent ou transmettent les données des travailleurs à des tiers – comme l’expliquait par exemple la sociologue Karen Levy dans son livre sur la surveillance des routiers

De l’instrumentalisation de la protection de la vie privée

Les technologies d’IA préservant la confidentialité (par exemple des techniques de chiffrement permettant de masquer les données lors de leur collecte, de leur traitement ou de leur utilisation), le développement des données synthétiques (qui servent à remplacer ou compléter des données réelles) et le calcul multipartite (des technologies permettant d’analyser les données de différents appareils ou parties, sans divulguer les données des uns aux autres), permettent désormais aux entreprises de se conformer aux cadres réglementaires, tout en accentuant la surveillance

Les entreprises utilisent les données de leurs employés pour générer des profils détaillés, des indicateurs de performance… et manipulent ces informations à leur profit grâce à l’asymétrie d’information, comme le montrait le rapport de Power Switch Action sur Uber. Le développement du chiffrement ou de la confidentialité différentielle (ce que l’on appelle le marché des technologies qui augmentent la confidentialité, les Privacy-Enhancing Technologies (PET) est en explosion, passant de 2,4 milliards de dollars en 2023 à 25,8 milliards en 2033 selon des prévisions du Forum économique mondial) risquent d’ailleurs à terme de renforcer l’opacité et l’asymétrie d’information sur les lieux de travail, s’inquiètent les chercheurs, en permettant aux entreprises d’analyser des ensembles de données sans identifier les éléments individuels (ce qui leur permet de ne pas consulter les données des individus, tout en continuant à extraire des informations individuelles toujours plus précises). Le déploiement de ces technologies permettent aux entreprises de se dégager de leurs responsabilités, de masquer, voire d’obfusquer les discriminations, comme le disait la chercheuse Ifeoma Ajunwa ou comme l’explique la chercheuse Elizabeth Renieris dans son livre Beyond Data (MIT Press, 2023, non traduit et disponible en libre accès). Elle y rappelle que les données ne sont pas une vérité objective et, de plus, leur statut « entièrement contextuel et dynamique » en fait un fondement instable pour toute organisation. Mais surtout, que ces technologies encouragent un partage accru des données. 

Uber par exemple est l’un des grands utilisateurs des PETs, sans que cela n’ait jamais bénéficié aux chauffeurs, bien au contraire, puisque ces technologies permettent à l’entreprise (et à toutes celles qui abusent de la discrimination salariale algorithmique, comme l’expliquait Veena Dubal) de réviser les rémunérations à la baisse. 

Les chercheurs donnent d’autres exemples encore, notamment le développement du recours à des données synthétiques pour produire des conclusions statistiques similaires aux données réelles. Elles peuvent ainsi prédire ou simuler le comportement des employés sans utiliser ou en masquant les données personnelles. C’est ce que fait Amazon dans les entrepôts où il déploie des robots automatiques par exemple. Or, depuis 2019, des rapports d’enquêtes, comme celui du syndicat Strategic Organizing Center, ont montré une corrélation entre l’adoption de robots chez Amazon et l’augmentation des problèmes de santé des travailleurs dû à l’augmentation des cadencements. 

Le problème, c’est que les lois régissant les données personnelles peuvent ne pas s’appliquer aux données synthétiques, comme l’expliquent les professeures de droit Michal S. Gal et Orla Lynskey dans un article consacré aux implications légales des données synthétiques. Et même lorsque ces lois s’appliquent, l’autorité chargée de l’application peut ne pas être en mesure de déterminer si des données synthétiques ou personnelles ont été utilisées, ce qui incite les entreprises à prétendre faussement se conformer en masquant l’utilisation réelle des données derrière la génération synthétique. Enfin, le recours aux données synthétiques peuvent compromettre les exigences légales d’explicabilité et d’interprétabilité. En général, plus le générateur de données synthétiques est sophistiqué, plus il devient difficile d’expliquer les corrélations et, plus fortement encore, la causalité dans les données générées. Enfin, avec les données synthétiques, le profilage pourrait au final être plus invasif encore, comme l’exprimaient par exemple les professeurs de droit Daniel Susser et Jeremy Seeman. Enfin, leur utilisation pourrait suggérer au régulateur de diminuer les contrôles, sans voir de recul du profilage et des mesures disciplinaires sans recours. 

D’autres techniques encore sont mobilisés, comme le calcul multipartite et l’apprentissage fédéré qui permettent aux entreprises d’analyser des données en améliorant leur confidentialité. Le calcul multipartite permet à plusieurs parties de calculer conjointement des résultats tout en conservant leurs données chiffrées. L’apprentissage fédéré permet à plusieurs appareils d’entraîner conjointement un modèle d’apprentissage automatique en traitant les données localement, évitant ainsi leur transfert vers un serveur central : ce qui permet qu’une entreprise peut analyser les données personnelles d’une autre entreprise sans en être réellement propriétaire et sans accéder au détail. Sur le papier, la technologie du calcul multipartite semble améliorer la confidentialité, mais en pratique, les entreprises peuvent l’utiliser pour coordonner la consolidation et la surveillance des données tout en échappant à toute responsabilité. Ces technologies sont par exemple très utilisées pour la détection des émotions en assurant d’une confidentialité accrue…  sans assurer que les préjudices ne soient réduits et ce, alors que, l’intégration des IA émotionnelles dans le champ du travail est complexifié par le règlement européen sur l’IA, comme l’expliquait un récent article du Monde

Comment réguler alors ?

« Sans garanties proactives pour réguler les conditions de travail, l’innovation continuera d’être utilisée comme un outil d’exploitation », rappellent les chercheurs. « Pour inverser cette tendance, nous avons besoin de politiques qui placent la dignité, l’autonomie et le pouvoir collectif des travailleurs au cœur de nos préoccupations ». Et les chercheurs de proposer 3 principes de conception pour améliorer la réglementation en la matière. 

Tout d’abord, supprimer le droit de surveillance des employeurs en limitant la surveillance abusive. Les chercheurs estiment que nous devons établir de meilleures règles concernant la datafication du monde du travail, la collecte comme la génération de données. Ils rappellent que le problème ne repose pas seulement dans l’utilisation des données, mais également lors de la collecte et après : « une fois créées, elles peuvent être anonymisées, agrégées, synthétisées, dépersonnalisées, traitées de manière confidentielle, stockées, vendues, partagées, etc. » Pour les chercheurs, il faut d’abord « fermer le robinet » et fermer « la surveillance illimitée », comme nous y invitaient déjà en 2017 Ifeoma Ajunwa, Kate Crawford et Jason Schultz. 

Bien souvent, l’interdiction de la collecte de données est très limitée. Elle est strictement interdite dans les salles de pause et les toilettes, mais la collecte est souvent autorisée partout ailleurs. Il faut briser la « prérogative de surveillance de l’employeur », et notamment la surveillance massive et continue. « Lorsque la surveillance électronique intermittente du lieu de travail est autorisée, elle doit respecter des principes stricts de minimisation » (d’objectif et de proportionnalité pourrait-on ajouter pour rappeler d’autres principes essentiels de la protection des données). « Plus précisément, elle ne devrait être autorisée que lorsqu’elle est strictement nécessaire (par exemple, pour des raisons de conformité légale), lorsqu’elle affecte le plus petit nombre de travailleurs, qu’elle collecte le moins de données nécessaires et qu’elle est strictement adaptée à l’utilisation des moyens les moins invasifs ». Les chercheurs recommandent également d’informer les travailleurs de ces surveillance et de leur objectif et signalent l’existence de propositions de loi interdisant aux entreprises d’exiger de leurs employés des dispositifs de localisation ou le port permanent d’appareils de surveillance. Des propositions qui reconnaissent que la protection des données des travailleurs ne saurait se substituer à la protection de leur espace, de leur temps et de leur autonomie.

Enfin, ils recommandent de réduire voire d’interdire la vente de données et leurs exploitation à des tiers (sans développer cette proposition, hélas).  

Le deuxième angle des propositions appelle à se concentrer sur les objectifs des systèmes, en soulignant, très pertinemment que « les cadres juridiques qui se concentrent sur les détails techniques ont tendance à désavantager les travailleurs, car ils exacerbent les asymétries de pouvoir » et surtout se concentrent sur des propositions qui peuvent être vite mises à mal et contournées par le déploiement de nouvelles technologies

Les chercheurs recommandent de ne pas tant regarder regarder les intrants (la collecte de données ou leur anonymisation) et de se concentrer plutôt sur les « conséquences concrètes, intentionnelles comme imprévues, que ces systèmes produisent pour les travailleurs », comme l’instabilité des horaires, les mesures disciplinaires injustes, le stress, les cadences, ou la précarité de l’emploi… indépendamment des technologies utilisées ou du respect des normes de confidentialité. Par exemple, en interdisant la prise de décision automatisée dans certaines situations, comme le proposait déjà l’AI Now Institute en 2023 en demandant à établir des lignes rouges interdisant la surveillance émotionnelle ou la discrimination salariale algorithmique. Une loi fédérale pour la protection des travailleurs de la logistique par exemple interdit les quotas de cadencement inférieurs à la journée (88, 89) et charge l’administration de la sécurité et de la santé au travail (OSHA) de créer une norme dédiée suggérant l’intérêt à autoriser les organismes de réglementation existants à actualiser et améliorer les protections depuis les données. Un projet de loi sur la sécurité des emplois de la ville de New York interdit par exemple expressément aux employeurs de licencier des travailleurs sur la base de données issues de technologies biométriques, de technologies de géolocalisation, d’applications installées sur les appareils personnels et d’enregistrements effectués au domicile des employés. « L’un des avantages des approches politiques qui restreignent clairement certaines pratiques des employeurs est leur lisibilité : elles n’obligent pas les travailleurs ou les autorités de réglementation à déchiffrer des systèmes de boîte noire. Ces lois permettent aux travailleurs de mieux reconnaître les violations de leurs droits », comme les lois sur la semaine de travail équitable qui protègent les travailleurs contre les modifications d’horaires sans préavis ni rémunération (voir ce que nous en disions déjà en 2020). « Plusieurs États et localités ont adopté ces lois en réponse à l’essor des pratiques de planification à flux tendu, où les employeurs, souvent à l’aide de logiciels basés sur les données, tentent d’optimiser les coûts de main-d’œuvre par le biais de modifications d’horaires très imprévisibles. Les protections liées à la semaine de travail équitable ne réglementent pas les détails techniques, comme les données intégrées à l’algorithme ; elles désamorcent plutôt le problème en obligeant les employeurs à indemniser financièrement les travailleurs pour les modifications d’horaires de dernière minute. Les lois sur les horaires équitables et les limites de cadencement illustrent la manière dont les régulateurs peuvent créer de nouveaux droits substantiels pour les travailleurs en élaborant de nouvelles réglementations sur le lieu de travail pour les préjudices induits par les nouvelles technologies, qui n’étaient auparavant pas reconnus par la loi. Ces types de politiques sont facilement applicables et ont un impact concret et direct sur les conditions de travail ». Mettre des limites aux cadences, était d’ailleurs une des propositions que nous avions mises en avant dans notre article sur la surveillance au travail.

Enfin, les chercheurs évoquent un troisième faisceau de règles visant à privilégier les politiques qui renforcent l’autonomie des travailleurs et limitent le pouvoir des entreprises en rééquilibrant les asymétries de pouvoir. « Pour renforcer le pouvoir des travailleurs à l’ère de l’IA, les décideurs politiques doivent reconnaître que le problème fondamental ne réside pas dans la protection de données spécifiques, mais dans la manière dont les nouvelles technologies en milieu de travail peuvent exacerber les asymétries de pouvoir et l’exploitation structurelle », comme l’expliquait le Roosevelt Institute. Ils invitent à ce que les décideurs politiques soutiennent des mécanismes qui renforcent la participation collective des travailleurs à toutes les étapes du développement et du déploiement des technologies en milieu de travail : comme ceux favorisant la négociation collective et ceux favorisant la participation des travailleurs à toutes les étapes du développement, du déploiement et des ajustements des systèmes d’IA. Ensuite, ils recommandent, notamment face à la sophistication des déploiements technologiques, de renforcer les pouvoir d’enquêtes et les capacités des agences du travail et des procureurs et d’imposer plus activement des mesures de transparence en proposant des sanctions proportionnées pour dissuader les abus (et notamment en sanctionnant les dirigeants et pas seulement les entreprises, comme le suggérait le rapport 2025 de l’AI Now Institute). Les chercheurs proposent d’établir un droit privé d’action permettant à une personne ou une organisation de poursuivre une entreprise ou un employeur individuellement comme dans le cadre d’un recours collectif. Ils recommandent également que dans les cas de surveillance ou de décision algorithmique, la charge de la preuve incombe aux employeurs et de renforcer la protection des lanceurs d’alerte comme le proposait la juriste Hannah Bloch-Wehba pour contrer le silence autour du fonctionnement des technologies par ceux qui les déploient. Les révélations éclairent le débat public et incitent à agir. Il faut donc les encourager plus efficacement. 

Et les chercheurs de conclure en rappelant que les entreprises privilégient de plus en plus les profits aux personnes. Pour défaire cette tendance, « nous avons besoin de garanties ancrées dans des droits collectifs », renforcés. Nous devons traiter les travailleurs non pas comme des données, mais leur permettre de peser sur les décisions. 

Ces propositions peuvent paraître radicales, notamment parce que le déploiement des technologies de surveillance au travail est déjà partout très avancé et nécessite d’exiger de faire marche arrière pour faire reculer la surveillance au travail. De réfléchir activement à une dénumérisation voire une rematérialisation… Ils nous montrent néanmoins que nous avons un lourd travail à réaliser pour humaniser à nouveau la relation de travail et qu’elle ne se brise pas sur des indicateurs abscons et défaillants laissant partout les travailleurs sans pouvoir sur le travail. 

Hubert Guillaud

Le 18 novembre, les chercheurs de Data & Society responsables du rapport proposent un webinaire sur le sujet. Son titre : « mettre fin au pipeline de la surveillance via l’IA »

Les médecins de famille vont cesser d’enseigner aujourd’hui

15 octobre 2025 à 21:07

La Fédération des médecins omnipraticiens du Québec a annoncé hier l’«échec» de sa médiation avec le gouvernement Legault.

Elle soutient que le gouvernement: 

  • reste «inflexible»; 
  • refuse de garantir les ressources promises aux équipes de médecine familiale; 
  • «s’accroche à son approche coercitive» – son projet de loi qui vise à réviser la rémunération des médecins. 

Le syndicat demande le recours à un arbitrage indépendant et met en place un nouveau moyen de pression:

  • ses membres cesseront à partir d’aujourd’hui d’enseigner aux étudiants en médecine. 

[L'article Les médecins de famille vont cesser d’enseigner aujourd’hui a d'abord été publié dans InfoBref.]

  • ✇InfoBref ACTUALITES | L’essentiel de l’actualité politique et générale
  • La SAAQ va supprimer une centaine de postes
    Plusieurs médias ont rapporté que la Société de l’assurance automobile du Québec avait informé une centaine de ses employés qu’ils allaient perdre leur emploi.  La SAAQ applique les consignes du gouvernement Legault qui a appelé les ministères et les sociétés d’État à diminuer leurs effectifs.   Parmi les postes coupés figurent des agents de soutien à la clientèle et des évaluateurs de compétence de conduite.  Le Syndicat de la fonction publique et parapublique du Québec soutient q
     

La SAAQ va supprimer une centaine de postes

14 octobre 2025 à 20:52

Plusieurs médias ont rapporté que la Société de l’assurance automobile du Québec avait informé une centaine de ses employés qu’ils allaient perdre leur emploi. 

La SAAQ applique les consignes du gouvernement Legault qui a appelé les ministères et les sociétés d’État à diminuer leurs effectifs.  

Parmi les postes coupés figurent des agents de soutien à la clientèle et des évaluateurs de compétence de conduite. 

Le Syndicat de la fonction publique et parapublique du Québec soutient que la suppression de ces postes aura un impact sur les services aux citoyens. 

[L'article La SAAQ va supprimer une centaine de postes a d'abord été publié dans InfoBref.]

Les travailleurs «de longue date» ont plus de temps pour trouver un emploi

13 octobre 2025 à 20:56

Une bonification temporaire de l’assurance-emploi vient d’entrer en vigueur. 

Elle concerne les travailleurs qui ont: 

  • reçu moins de 36 semaines de prestations d’assurance-emploi dans les 3 années précédant leur demande;
  • payé au moins 30% des cotisations maximales annuelles à l’assurance-emploi pendant au moins 7 des 10 années précédant leur demande.

Ces travailleurs dits «de longue date» peuvent désormais bénéficier de 20 semaines supplémentaires de prestations – jusqu’à un maximum de 65 semaines.

Le gouvernement fédéral estime que cette mesure devrait aider environ 190 000 travailleurs. 

[L'article Les travailleurs «de longue date» ont plus de temps pour trouver un emploi a d'abord été publié dans InfoBref.]

Grève des postes: votre avis d’élection pourrait être livré par un huissier

8 octobre 2025 à 21:36

Le Directeur général des élections avait appelé la semaine dernière les municipalités à trouver d’autres moyens pour acheminer leurs avis aux électeurs en vue du scrutin municipal du 2 novembre.   

Élections Montréal a indiqué que dans la métropole la livraison des 800 000 avis ne pourra pas être effectuée en raison de la grève des employés de Postes Canada. 

  • L’organisme a invité les électeurs à vérifier sur son site leur inscription sur la liste électorale.  

La Ville de Gatineau a elle demandé à un cabinet d’huissiers de livrer les avis à domicile. 

[L'article Grève des postes: votre avis d’élection pourrait être livré par un huissier a d'abord été publié dans InfoBref.]

  • ✇Dans les algorithmes
  • IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés
    Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkeha
     

IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés

2 octobre 2025 à 01:00

Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkehard Ernst, qui dirige l’observatoire sur l’IA et le travail dans l’économie numérique de l’OIT, qui rappelait combien le chômage technologique a toujours été rare. Cela n’empêche pas les inquiétudes d’être au plus haut, d’abord et avant tout, disions-nous, parce que la discussion sur le partage des fruits du déploiement de l’IA n’a pas lieu.

Dans son précédent livre, Le Futur du travail (éditions Amsterdam, 2022), le sociologue Juan Sebastian Carbonell nous expliquait déjà que le futur du travail n’était pas notre « grand remplacement » par les machines, mais notre prolétarisation. Il y décrivait déjà une « taylorisation assistée par ordinateurs » qui vise bien plus à « intensifier le travail, déqualifier les salariés, les discipliner et les surveiller ». Les robots ne travaillent pas à notre place mais nous imposent une intensification nouvelle, à l’image des employés de la logistique soumis aux rythmes de la commande vocale.

Un taylorisme sous stéroïdes…

Son nouveau livre, Un taylorisme augmenté : critique de l’intelligence artificielle (éditions Amsterdam, 2025) nous explique que l’IA n’est « ni une solution miracle aux problèmes de la société, ni Prométhée déchaîné », elle n’est qu’un taylorisme augmenté qui élude les questions de fonds que sont les conditions de travail, son organisation et la distribution du pouvoir. Le chercheur rappelle qu’il n’y a pas de consensus quant aux effets de l’IA sur le travail. Pour les uns, elle augmente les besoins de qualifications de ceux qui vont les utiliser, pour les autres, l’IA produit surtout une polarisation des emplois. Pour Carbonell, l’IA n’est ni l’un ni l’autre. Elle est d’abord un outil de dégradation du travail. 

Pour le chercheur, il n’y a pas de polarisation homogène des emplois, c’est-à-dire le fait que les métiers intermédiaires et routiniers auraient tendance à disparaître au profit de métiers très qualifiés d’un côté et des métiers peu qualifiés et non routiniers de l’autre. Si ce phénomène s’observe parfois, les profils des emplois changent surtout au sein de mêmes métiers. Cela signifie qu’il faut non seulement prendre en compte les tâches, mais également l’organisation du travail. La distinction entre tâches routinières et non routinières est souvent caricaturée dans un discours qui dit que l’IA ferait disparaître les tâches répétitives pour nous en libérer. Ce n’est pas ce que constatent les employés de la logistique ou de la traduction, au contraire. Ce n’est plus ce que constatent également les codeurs, victimes désormais de la « Prompt fatigue », épuisés par l’usage de l’IA générative, rapporte Le Monde informatique… Certains qualifiant déjà le recours à ces outils « d’illusion de rapidité ».

« Le degré de routine ne fait pas tout », rappelle le sociologue. Il est nécessaire de prendre en compte, les « stratégies de profit » des entreprises et leur volonté à automatiser le travail. Enfin, la variété des produits, des composants et processus déterminent également la possibilité d’automatiser ou pas une production. « Une même technologie peut donc avoir des effets très différents sur le travail ». Des métiers hautement qualifiés, peu routiniers et hautement cognitifs peuvent ainsi être déstabilisés par l’IA, comme s’en inquiétait l’artiste Aurélie Crop sur son compte Instagram, en observant les possibilités du nouveau service d’IA de Google, Nano Banana, ou encore les scénaristes de cinéma associés face aux annonces d’OpenAI de produire un film d’animation entièrement génératif. Ces métiers ne vont pas disparaître, mais vont être taylorisés, c’est-à-dire « simplifiés, standardisés ou parcellisés ». C’est-à-dire précarisés pour en réduire le coût et augmenter les profits. Car ce qui demeure déterminant dans le choix technologique au travail, c’est le contrôle, « c’est-à-dire le pouvoir de décider comment on travaille et avec quels outils ».

… non pas guidé par l’efficacité technique mais par la prise de contrôle du management

Carbonell revient bien sûr sur l’émergence du taylorisme à la fin du XIXe siècle, rappelant combien il est lié à la vague d’immigration américaine, à l’entrée à l’usine d’ouvriers sans qualification, venant remplacer le long apprentissage des ouvriers spécialisés. L’objectif premier de Taylor était de « briser l’ouvrier de métier » pour y imposer la norme patronale c’est-à-dire contrôler le rythme et la façon de travailler. Le taylorisme a souvent été réduit à la chaîne de montage que Taylor n’a pourtant pas connu. Pour l’économiste Harry Braverman, le taylorisme consiste à dissocier le processus de travail en le décomposant, à séparer la conception de l’exécution et enfin à utiliser le monopole de l’organisation du travail pour contrôler chaque étape du processus et de son exécution. Parcelliser chaque métier abaisse le coût de chaque tâche, expliquait l’économiste américain. Ce taylorisme-là n’est pas mort avec Taylor, explique Carbonell, il se confond désormais avec l’organisation du travail elle-même. L’informatique, le numérique, puis l’IA aujourd’hui, sont surtout venus le renforcer. 

Les machines rythment et contrôlent les décisions venues de la direction afin d’améliorer la productivité du travail. L’introduction des machines-outils à commande numérique après la Seconde Guerre mondiale va permettre de transférer les compétences des ouvriers à la direction en pilotant toujours plus finement et en standardisant l’usinage. Mais leur adoption ne repose pas sur le seul critère de l’efficacité technique, rappelle le sociologue, elle est d’abord le résultat de choix politiques, « notamment la volonté de retirer le contrôle du processus de travail aux tourneurs-fraiseurs ». « Une technologie s’impose surtout en raison de la supériorité des acteurs qui la promeuvent ». Pour Juan Sebastian Carbonell, le progrès technique ne s’impose pas de lui-même, sous couvert d’une efficacité immanente, mais répond d’abord d’enjeux politiques au profit de ceux qui le déploient. Le taylorisme augmenté n’a cessé de s’imposer depuis, par exemple avec les centres d’appels, avec l’invention de systèmes capables de distribuer les appels, complétés de scripts et de procédures extrêmement standardisées et des modalités capables de surveiller les échanges. Et l’IA ne fait rien pour arranger cela, au contraire. Ils sont désormais confrontés à « la tornade de l’intelligence artificielle », rappelait Alternatives Economiques, plongeant les services clients à un stade d’embolie terminal (voir notre article sur le sujet). 

Le service client a ainsi pu être externalisé et les statuts des personnels dégradés. La standardisation et l’intensification vont toujours de pair, rappelle le sociologue. « Les tâches non automatisées par les outils ne sont pas celles qui ont un contenu peu routinier, mais plutôt celles qui, tout en étant routinières, sont trop coûteuses pour être automatisées ». A l’image de la logistique : on n’a pas remplacé les employés par des robots, mais on a transformé les employés en robots devant suivre les ordres des machine, comme l’expliquait très bien le sociologue David Gaborieau : « On n’est pas du tout en train d’automatiser les entrepôts, au contraire. Il y a de plus en plus d’ouvriers dans le secteur de la logistique. En fait, ce discours sur l’automatisation produit seulement des effets politiques et des effets d’invisibilisation du travail. On ne cesse de répéter que ces emplois vont disparaître ce qui permet surtout de les dévaluer. » 

Si le taylorisme numérique est particulièrement frappant sur les plateformes, il s’applique également aux métiers très qualifiés, comme les musiciens, les artistes, les journalistes ou les traducteurs, à mesure qu’ils sont intégrés à des chaînes de valeur mondiales. Carbonell donne d’autres exemples de capture des connaissances et de confiscation des savoir-faire. Notamment avec les premiers systèmes experts d’IA symbolique, comme les systèmes pour diagnostiquer les maladies infectieuses ou gérer les protocoles de chimiothérapie ou encore les outil-test de maintenance de la RATP, mais qui, pour beaucoup, a surtout consisté à valider les protocoles organisés par ces logiciels qui proposaient surtout beaucoup d’alertes, nécessitant de passer du temps pour distinguer les alertes graves de celles qui ne le sont pas. Tous ces développements contribuent à « une déqualification des métiers, même les plus qualifiés ». L’IA connexionniste d’aujourd’hui, elle, est capable de faire fi des règles explicites pour formuler ses propres règles. La capture de connaissance devient un processus implicite, lié aux données disponibles. L’IA générative qui en est le prolongement, dépend très fortement du travail humain : d’abord du travail gratuit de ceux qui ont produit les données d’entraînement des modèles, celui des salariés et d’une multitude de micro-travailleurs qui viennent nettoyer, vérifier, annoter et corriger. Pour Carbonell, l’IA générative s’inscrit donc dans cette longue histoire de la « dépossession machinique ». « Elle n’est pas au service des travailleurs et ne les libère pas des tâches monotones et peu intéressantes ; ce sont les travailleurs qui sont mis à son service ». Dans le journalisme, comme le montrait un rapport d’Associated Press, l’usage de l’IA accroît la charge de travail et les dépossède du geste créatif : la rédaction d’articles. Ils doivent de plus en plus éditer les contenus générés par IA, comme de corriger les systèmes transformant les articles en posts de réseaux sociaux. Même constat dans le domaine de la traduction, où les traducteurs doivent de plus en plus corriger des contenus générés. Dans un cas comme dans l’autre, cependant, le développement de l’IA relève d’abord des choix économiques, sociaux, politiques et éditoriaux des entreprises. 

Carbonell rappelle qu’il faut aussi saisir les limites technologiques et nuancer leurs performances. La qualité de la traduction automatique par exemple reste assez pauvre comme le constatent et le dénoncent les syndicats et collectifs de traducteurs, la Société française des traducteurs ou le collectif en Chair et en Os. En musclant leurs revendications (rémunération, transparence, signalement des traductions automatisées, fin des aides publiques à ceux qui ont recours à l’automatisation…), ils montrent que le changement technologique n’est pas une fatalité. C’est l’absence de critique radicale qui le rend inéluctable, défend Juan Sebastian Carbonell. Et le sociologue de battre en brèche l’inéluctabilité de l’IA ou le discours qui répète qu’il faut s’adapter pour survivre et se former. La formation ne remet pas en cause le pouvoir et l’organisation du travail. Elle ne reconnaît pas le droit des salariés à décider comment travailler. La formation ne propose rien d’autre que l’acceptation. Elle tient bien plus du catéchisme, comme le pointait pertinemment Ambroise Garel dans la newsletter du Pavé numérique. 

La division du travail est un moyen pour rendre le management indispensable 

Dans l’entreprise, le contrôle relève de plus en plus du seul monopole de l’employeur sur l’organisation du travail et sert à obtenir des salariés certains comportements, gestes et attitudes. Le contrôle a longtemps été l’apanage du contremaître, qui devint l’agent de la direction. A ce contrôle direct s’est ajouté un contrôle technique propre aux milieux industriels où les employés doivent répondre de la formulation des tâches avec des machines qui dirigent le processus de travail et imposent leur rythme. Après la Seconde Guerre mondiale s’ajoute encore un contrôle bureaucratique où la norme et les dispositifs de gestion remplacent le pouvoir personnel du contremaître. Le management algorithmique s’inscrit dans la continuité du commandement à distance et des dispositifs de gestion qui renforcent le taylorisme numérique. L’IA n’est qu’un outil de contrôle de plus, comme l’expliquaient Aiha Nguyen et Alexandra Mateescu de Data & Society

Face à ces constats, le sociologue rappelle une question de fond : pourquoi le travail est-il divisé entre ceux qui commandent et ceux qui exécutent ? Pour l’économiste Stephen Marglin, la division du travail entre commandement et exécution n’est pas liée à l’efficacité économique ou technologique, mais serait purement politique, expliquait-il en 1974. « La division du travail et l’entreprise hiérarchisée ne résultent pas de la recherche d’une organisation du travail plus efficace, ni d’un progrès technologique, mais de la volonté des employeurs de se rendre indispensables en s’interposant entre le travailleur et le marché ». Le système de la fabrique comme le taylorisme visent à faire disparaître le contrôle ouvrier sur le travail au profit d’un contrôle managérial qui renforce la subordination. « C’est en approfondissant la division du travail que le capitaliste peut s’assurer de demeurer indispensable dans le processus de production, comme unificateur d’opérations séparées et comme accès au marché ». Contrairement à la vulgate, « les algorithmes ne sont pas des outils numériques permettant une coordination plus efficace », explique Carbonell, mais « des dispositifs de mise au travail traversés par des rapports de pouvoir ». La plateforme agit sur le marché, à l’image des algorithmes d’Uber. « En se plaçant entre le travailleur et le marché, il agit comme un employeur cherchant à exercer un contrôle numérique sur sa main d’œuvre ». Le management algorithmique produit et renforce le commandement. Il dirige, évalue et discipline et ces trois fonctions se renforcent l’une l’autre. Dans le cas des applications de livraisons de repas, ils interviennent à chaque étape, de la commande à la livraison en exploitant à chaque étape l’asymétrie de l’information qu’ils permettent et mettent en œuvre. Même chose avec les applications qui équipent les employés de la logistique ou ceux de la réparation, contrôlés en continue, les laissant avec de moins en moins de marge de manœuvre. Dans la restauration ou le commerce, le management algorithmique est d’abord utilisé pour pallier au très fort turnover des employés, comme le disait Madison Van Oort. L’évaluation y est permanente, que ce soit depuis les clients qui notent les travailleurs ou depuis les calculs de productivité qui comparent la productivité des travailleurs les uns avec les autres. Les systèmes disciplinent les travailleurs, comme l’expliquait la sociologue Karen Levy ou le chercheur Wolfie Christl. Elle produit les cadences. Licenciements, récompenses, promotions et pénalités sont désormais alignés aux performances. L’évaluation sert à produire les comportements attendus, comme le montrait Sophie Bernard dans UberUsés : le capitalisme racial de plateforme (Puf, 2023). 

Mais il n’y a pas que les employés du bas de l’échelle qui sont ubérisés par ces contrôles automatisés, rappelle Carbonell. Les managers eux-mêmes sont désormais les exécutants de ce que leur disent les données. « Ils ne gèrent pas les travailleurs, ils appliquent ce que le système informatique leur dicte ». Et Carbonell de conclure en rappelant que notre patron n’est pas un algorithme. Dans le taylorisme augmenté, « l’asymétrie d’information devient une asymétrie de pouvoir ». L’asymétrie de l’information est le produit de la division du travail et celle-ci s’accentue avec des outils qui permettent d’atomiser le collectif et de mettre en concurrence les employés entre eux en les évaluant les uns par rapport aux autres. 

Cette asymétrie n’est pas accidentelle, au contraire. Elle permet d’empêcher les collectifs de travail de contester les décisions prises. Sans droit de regard sur les données collectées et sur les modalités d’organisation des calculs, sans possibilité de réappropriation et donc sans discussion sur l’accès aux données des entreprises par les collectifs, rien n’évoluera. Comme le rappelle Carbonell, en Allemagne, l’introduction de nouvelles technologies qui surveillent la performance des travailleurs doit être validée par les comités d’entreprise où siègent les représentants du personnel. En France aussi, la négociation collective s’est timidement emparée du sujet. Le Centre d’études de l’emploi et du travail avait d’ailleurs livré une analyse des accords d’entreprise français signés entre 2017 et 2024 qui mentionnent l’IA. Depuis 2017, un peu moins d’un accord sur mille fait référence à l’IA, ceux-ci insistent particulièrement sur la préservation de l’emploi.

L’IA, moteur de déresponsabilisation

Pour l’instant, explique Juan Sebastian Carbonell, l’IA est surtout un moteur de déresponsabilisation des patrons. Les entreprises ont recours à des systèmes tiers pour établir ces surveillances et contrôles. Ce qui permet une forme de dispersion de la responsabilité, comme l’évoquait le professeur de droit d’Oxford, Jeremias Adams-Prassl, tout en « concentrant le contrôle » (voir également son livre, L’ubérisation du travail, Dalloz, 2021).

« De la même façon que, dans les configurations de l’emploi précaire, avec leurs schémas de sous-traitance en cascade, il est difficile d’établir qui est l’employeur responsable, l’usage d’IA dans la gestion de la main-d’œuvre brouille les frontières de la responsabilité », rappelle le sociologue. « Si les systèmes de contrôle (direct, technique, bureaucratique et algorithmique) se succèdent, c’est parce qu’ils rencontrent toujours des limites, correspondant aux résistances des travailleurs et de leurs organisations ». Pourtant, à mesure que le panoptique se referme, les résistances deviennent de plus en plus difficiles, faute de marge de manœuvre. 

Pour Carbonell, un renouveau luddite aurait toute sa place aujourd’hui, pour donner aux individus et aux collectifs les moyens de garder un contrôle sur l’organisation du travail, pour réouvrir des marges de manœuvre. Reste que le « luddisme diffus » qui émerge à l’égard de l’IA ne s’incarne pas dans un mouvement de masse ancré dans les mondes du travail, mais au mieux « dans un rejet individuel et une approche morale de l’IA », voire dans une vision technique et éthique qui consiste à améliorer les calculs plus qu’à les rendre redevables. Les travailleurs ont pourtant de bonnes raisons de s’opposer au changement technologique au travail, conclut le sociologue, surtout quand il ne vient plus accompagné de progrès sociaux mais au contraire de leurs délitements, comme une solution de remplacement bon marché de l’Etat Providence, disaient la linguiste Emily Bender et la sociologue Alex Hanna dans leur récent livre, The AI Con (HarperCollins, 2025). Avec l’IA et l’ubérisation s’impose un monde où les statuts protecteurs du travail reculent. 

L’appropriation collective des moyens de production n’est plus une promesse pour transformer le monde. Il ne peut y avoir de chaîne de montage socialiste, car « il n’y a rien de potentiellement émancipateur dans la dissociation entre la conception et l’exécution ». Peut-on imaginer une IA qui nous aide à sortir de Taylor plutôt que de nous y enfermer ?, questionne le sociologue en conclusion. Une IA qui rende du pouvoir aux travailleurs, qui leur permette de concevoir et d’exécuter, qui leur rende du métier plutôt qu’elle ne les en dépossède. 

Pour l’instant, on ne l’a pas encore aperçu ! 

Hubert Guillaud

Couverture du livre de Juan Sebastian Carbonell, Un taylorisme augmenté.

  • ✇Dans les algorithmes
  • IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés
    Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkeha
     

IA et travail : on ne sait pas qui sera remplacé, mais on sait que tous seront dégradés

2 octobre 2025 à 01:00

Derrière le déploiement de l’IA dans les entreprises, une bataille des places est en cours. Dans le New York Times, le journaliste Noam Scheiber avait posé la question : « quels salariés vont être pénalisés par l’IA, les plus inexpérimentés ou les plus expérimentés ? » Sa conclusion montrait que c’était peut-être les travailleurs intermédiaires qui seraient les plus menacés. En réalité, pour l’instant, « l’alarme sur la destruction de l’emploi liée à l’IA n’a pas lieu d’être », expliquait Ekkehard Ernst, qui dirige l’observatoire sur l’IA et le travail dans l’économie numérique de l’OIT, qui rappelait combien le chômage technologique a toujours été rare. Cela n’empêche pas les inquiétudes d’être au plus haut, d’abord et avant tout, disions-nous, parce que la discussion sur le partage des fruits du déploiement de l’IA n’a pas lieu.

Dans son précédent livre, Le Futur du travail (éditions Amsterdam, 2022), le sociologue Juan Sebastian Carbonell nous expliquait déjà que le futur du travail n’était pas notre « grand remplacement » par les machines, mais notre prolétarisation. Il y décrivait déjà une « taylorisation assistée par ordinateurs » qui vise bien plus à « intensifier le travail, déqualifier les salariés, les discipliner et les surveiller ». Les robots ne travaillent pas à notre place mais nous imposent une intensification nouvelle, à l’image des employés de la logistique soumis aux rythmes de la commande vocale.

Un taylorisme sous stéroïdes…

Son nouveau livre, Un taylorisme augmenté : critique de l’intelligence artificielle (éditions Amsterdam, 2025) nous explique que l’IA n’est « ni une solution miracle aux problèmes de la société, ni Prométhée déchaîné », elle n’est qu’un taylorisme augmenté qui élude les questions de fonds que sont les conditions de travail, son organisation et la distribution du pouvoir. Le chercheur rappelle qu’il n’y a pas de consensus quant aux effets de l’IA sur le travail. Pour les uns, elle augmente les besoins de qualifications de ceux qui vont les utiliser, pour les autres, l’IA produit surtout une polarisation des emplois. Pour Carbonell, l’IA n’est ni l’un ni l’autre. Elle est d’abord un outil de dégradation du travail. 

Pour le chercheur, il n’y a pas de polarisation homogène des emplois, c’est-à-dire le fait que les métiers intermédiaires et routiniers auraient tendance à disparaître au profit de métiers très qualifiés d’un côté et des métiers peu qualifiés et non routiniers de l’autre. Si ce phénomène s’observe parfois, les profils des emplois changent surtout au sein de mêmes métiers. Cela signifie qu’il faut non seulement prendre en compte les tâches, mais également l’organisation du travail. La distinction entre tâches routinières et non routinières est souvent caricaturée dans un discours qui dit que l’IA ferait disparaître les tâches répétitives pour nous en libérer. Ce n’est pas ce que constatent les employés de la logistique ou de la traduction, au contraire. Ce n’est plus ce que constatent également les codeurs, victimes désormais de la « Prompt fatigue », épuisés par l’usage de l’IA générative, rapporte Le Monde informatique… Certains qualifiant déjà le recours à ces outils « d’illusion de rapidité ».

« Le degré de routine ne fait pas tout », rappelle le sociologue. Il est nécessaire de prendre en compte, les « stratégies de profit » des entreprises et leur volonté à automatiser le travail. Enfin, la variété des produits, des composants et processus déterminent également la possibilité d’automatiser ou pas une production. « Une même technologie peut donc avoir des effets très différents sur le travail ». Des métiers hautement qualifiés, peu routiniers et hautement cognitifs peuvent ainsi être déstabilisés par l’IA, comme s’en inquiétait l’artiste Aurélie Crop sur son compte Instagram, en observant les possibilités du nouveau service d’IA de Google, Nano Banana, ou encore les scénaristes de cinéma associés face aux annonces d’OpenAI de produire un film d’animation entièrement génératif. Ces métiers ne vont pas disparaître, mais vont être taylorisés, c’est-à-dire « simplifiés, standardisés ou parcellisés ». C’est-à-dire précarisés pour en réduire le coût et augmenter les profits. Car ce qui demeure déterminant dans le choix technologique au travail, c’est le contrôle, « c’est-à-dire le pouvoir de décider comment on travaille et avec quels outils ».

… non pas guidé par l’efficacité technique mais par la prise de contrôle du management

Carbonell revient bien sûr sur l’émergence du taylorisme à la fin du XIXe siècle, rappelant combien il est lié à la vague d’immigration américaine, à l’entrée à l’usine d’ouvriers sans qualification, venant remplacer le long apprentissage des ouvriers spécialisés. L’objectif premier de Taylor était de « briser l’ouvrier de métier » pour y imposer la norme patronale c’est-à-dire contrôler le rythme et la façon de travailler. Le taylorisme a souvent été réduit à la chaîne de montage que Taylor n’a pourtant pas connu. Pour l’économiste Harry Braverman, le taylorisme consiste à dissocier le processus de travail en le décomposant, à séparer la conception de l’exécution et enfin à utiliser le monopole de l’organisation du travail pour contrôler chaque étape du processus et de son exécution. Parcelliser chaque métier abaisse le coût de chaque tâche, expliquait l’économiste américain. Ce taylorisme-là n’est pas mort avec Taylor, explique Carbonell, il se confond désormais avec l’organisation du travail elle-même. L’informatique, le numérique, puis l’IA aujourd’hui, sont surtout venus le renforcer. 

Les machines rythment et contrôlent les décisions venues de la direction afin d’améliorer la productivité du travail. L’introduction des machines-outils à commande numérique après la Seconde Guerre mondiale va permettre de transférer les compétences des ouvriers à la direction en pilotant toujours plus finement et en standardisant l’usinage. Mais leur adoption ne repose pas sur le seul critère de l’efficacité technique, rappelle le sociologue, elle est d’abord le résultat de choix politiques, « notamment la volonté de retirer le contrôle du processus de travail aux tourneurs-fraiseurs ». « Une technologie s’impose surtout en raison de la supériorité des acteurs qui la promeuvent ». Pour Juan Sebastian Carbonell, le progrès technique ne s’impose pas de lui-même, sous couvert d’une efficacité immanente, mais répond d’abord d’enjeux politiques au profit de ceux qui le déploient. Le taylorisme augmenté n’a cessé de s’imposer depuis, par exemple avec les centres d’appels, avec l’invention de systèmes capables de distribuer les appels, complétés de scripts et de procédures extrêmement standardisées et des modalités capables de surveiller les échanges. Et l’IA ne fait rien pour arranger cela, au contraire. Ils sont désormais confrontés à « la tornade de l’intelligence artificielle », rappelait Alternatives Economiques, plongeant les services clients à un stade d’embolie terminal (voir notre article sur le sujet). 

Le service client a ainsi pu être externalisé et les statuts des personnels dégradés. La standardisation et l’intensification vont toujours de pair, rappelle le sociologue. « Les tâches non automatisées par les outils ne sont pas celles qui ont un contenu peu routinier, mais plutôt celles qui, tout en étant routinières, sont trop coûteuses pour être automatisées ». A l’image de la logistique : on n’a pas remplacé les employés par des robots, mais on a transformé les employés en robots devant suivre les ordres des machine, comme l’expliquait très bien le sociologue David Gaborieau : « On n’est pas du tout en train d’automatiser les entrepôts, au contraire. Il y a de plus en plus d’ouvriers dans le secteur de la logistique. En fait, ce discours sur l’automatisation produit seulement des effets politiques et des effets d’invisibilisation du travail. On ne cesse de répéter que ces emplois vont disparaître ce qui permet surtout de les dévaluer. » 

Si le taylorisme numérique est particulièrement frappant sur les plateformes, il s’applique également aux métiers très qualifiés, comme les musiciens, les artistes, les journalistes ou les traducteurs, à mesure qu’ils sont intégrés à des chaînes de valeur mondiales. Carbonell donne d’autres exemples de capture des connaissances et de confiscation des savoir-faire. Notamment avec les premiers systèmes experts d’IA symbolique, comme les systèmes pour diagnostiquer les maladies infectieuses ou gérer les protocoles de chimiothérapie ou encore les outil-test de maintenance de la RATP, mais qui, pour beaucoup, a surtout consisté à valider les protocoles organisés par ces logiciels qui proposaient surtout beaucoup d’alertes, nécessitant de passer du temps pour distinguer les alertes graves de celles qui ne le sont pas. Tous ces développements contribuent à « une déqualification des métiers, même les plus qualifiés ». L’IA connexionniste d’aujourd’hui, elle, est capable de faire fi des règles explicites pour formuler ses propres règles. La capture de connaissance devient un processus implicite, lié aux données disponibles. L’IA générative qui en est le prolongement, dépend très fortement du travail humain : d’abord du travail gratuit de ceux qui ont produit les données d’entraînement des modèles, celui des salariés et d’une multitude de micro-travailleurs qui viennent nettoyer, vérifier, annoter et corriger. Pour Carbonell, l’IA générative s’inscrit donc dans cette longue histoire de la « dépossession machinique ». « Elle n’est pas au service des travailleurs et ne les libère pas des tâches monotones et peu intéressantes ; ce sont les travailleurs qui sont mis à son service ». Dans le journalisme, comme le montrait un rapport d’Associated Press, l’usage de l’IA accroît la charge de travail et les dépossède du geste créatif : la rédaction d’articles. Ils doivent de plus en plus éditer les contenus générés par IA, comme de corriger les systèmes transformant les articles en posts de réseaux sociaux. Même constat dans le domaine de la traduction, où les traducteurs doivent de plus en plus corriger des contenus générés. Dans un cas comme dans l’autre, cependant, le développement de l’IA relève d’abord des choix économiques, sociaux, politiques et éditoriaux des entreprises. 

Carbonell rappelle qu’il faut aussi saisir les limites technologiques et nuancer leurs performances. La qualité de la traduction automatique par exemple reste assez pauvre comme le constatent et le dénoncent les syndicats et collectifs de traducteurs, la Société française des traducteurs ou le collectif en Chair et en Os. En musclant leurs revendications (rémunération, transparence, signalement des traductions automatisées, fin des aides publiques à ceux qui ont recours à l’automatisation…), ils montrent que le changement technologique n’est pas une fatalité. C’est l’absence de critique radicale qui le rend inéluctable, défend Juan Sebastian Carbonell. Et le sociologue de battre en brèche l’inéluctabilité de l’IA ou le discours qui répète qu’il faut s’adapter pour survivre et se former. La formation ne remet pas en cause le pouvoir et l’organisation du travail. Elle ne reconnaît pas le droit des salariés à décider comment travailler. La formation ne propose rien d’autre que l’acceptation. Elle tient bien plus du catéchisme, comme le pointait pertinemment Ambroise Garel dans la newsletter du Pavé numérique. 

La division du travail est un moyen pour rendre le management indispensable 

Dans l’entreprise, le contrôle relève de plus en plus du seul monopole de l’employeur sur l’organisation du travail et sert à obtenir des salariés certains comportements, gestes et attitudes. Le contrôle a longtemps été l’apanage du contremaître, qui devint l’agent de la direction. A ce contrôle direct s’est ajouté un contrôle technique propre aux milieux industriels où les employés doivent répondre de la formulation des tâches avec des machines qui dirigent le processus de travail et imposent leur rythme. Après la Seconde Guerre mondiale s’ajoute encore un contrôle bureaucratique où la norme et les dispositifs de gestion remplacent le pouvoir personnel du contremaître. Le management algorithmique s’inscrit dans la continuité du commandement à distance et des dispositifs de gestion qui renforcent le taylorisme numérique. L’IA n’est qu’un outil de contrôle de plus, comme l’expliquaient Aiha Nguyen et Alexandra Mateescu de Data & Society

Face à ces constats, le sociologue rappelle une question de fond : pourquoi le travail est-il divisé entre ceux qui commandent et ceux qui exécutent ? Pour l’économiste Stephen Marglin, la division du travail entre commandement et exécution n’est pas liée à l’efficacité économique ou technologique, mais serait purement politique, expliquait-il en 1974. « La division du travail et l’entreprise hiérarchisée ne résultent pas de la recherche d’une organisation du travail plus efficace, ni d’un progrès technologique, mais de la volonté des employeurs de se rendre indispensables en s’interposant entre le travailleur et le marché ». Le système de la fabrique comme le taylorisme visent à faire disparaître le contrôle ouvrier sur le travail au profit d’un contrôle managérial qui renforce la subordination. « C’est en approfondissant la division du travail que le capitaliste peut s’assurer de demeurer indispensable dans le processus de production, comme unificateur d’opérations séparées et comme accès au marché ». Contrairement à la vulgate, « les algorithmes ne sont pas des outils numériques permettant une coordination plus efficace », explique Carbonell, mais « des dispositifs de mise au travail traversés par des rapports de pouvoir ». La plateforme agit sur le marché, à l’image des algorithmes d’Uber. « En se plaçant entre le travailleur et le marché, il agit comme un employeur cherchant à exercer un contrôle numérique sur sa main d’œuvre ». Le management algorithmique produit et renforce le commandement. Il dirige, évalue et discipline et ces trois fonctions se renforcent l’une l’autre. Dans le cas des applications de livraisons de repas, ils interviennent à chaque étape, de la commande à la livraison en exploitant à chaque étape l’asymétrie de l’information qu’ils permettent et mettent en œuvre. Même chose avec les applications qui équipent les employés de la logistique ou ceux de la réparation, contrôlés en continue, les laissant avec de moins en moins de marge de manœuvre. Dans la restauration ou le commerce, le management algorithmique est d’abord utilisé pour pallier au très fort turnover des employés, comme le disait Madison Van Oort. L’évaluation y est permanente, que ce soit depuis les clients qui notent les travailleurs ou depuis les calculs de productivité qui comparent la productivité des travailleurs les uns avec les autres. Les systèmes disciplinent les travailleurs, comme l’expliquait la sociologue Karen Levy ou le chercheur Wolfie Christl. Elle produit les cadences. Licenciements, récompenses, promotions et pénalités sont désormais alignés aux performances. L’évaluation sert à produire les comportements attendus, comme le montrait Sophie Bernard dans UberUsés : le capitalisme racial de plateforme (Puf, 2023). 

Mais il n’y a pas que les employés du bas de l’échelle qui sont ubérisés par ces contrôles automatisés, rappelle Carbonell. Les managers eux-mêmes sont désormais les exécutants de ce que leur disent les données. « Ils ne gèrent pas les travailleurs, ils appliquent ce que le système informatique leur dicte ». Et Carbonell de conclure en rappelant que notre patron n’est pas un algorithme. Dans le taylorisme augmenté, « l’asymétrie d’information devient une asymétrie de pouvoir ». L’asymétrie de l’information est le produit de la division du travail et celle-ci s’accentue avec des outils qui permettent d’atomiser le collectif et de mettre en concurrence les employés entre eux en les évaluant les uns par rapport aux autres. 

Cette asymétrie n’est pas accidentelle, au contraire. Elle permet d’empêcher les collectifs de travail de contester les décisions prises. Sans droit de regard sur les données collectées et sur les modalités d’organisation des calculs, sans possibilité de réappropriation et donc sans discussion sur l’accès aux données des entreprises par les collectifs, rien n’évoluera. Comme le rappelle Carbonell, en Allemagne, l’introduction de nouvelles technologies qui surveillent la performance des travailleurs doit être validée par les comités d’entreprise où siègent les représentants du personnel. En France aussi, la négociation collective s’est timidement emparée du sujet. Le Centre d’études de l’emploi et du travail avait d’ailleurs livré une analyse des accords d’entreprise français signés entre 2017 et 2024 qui mentionnent l’IA. Depuis 2017, un peu moins d’un accord sur mille fait référence à l’IA, ceux-ci insistent particulièrement sur la préservation de l’emploi.

L’IA, moteur de déresponsabilisation

Pour l’instant, explique Juan Sebastian Carbonell, l’IA est surtout un moteur de déresponsabilisation des patrons. Les entreprises ont recours à des systèmes tiers pour établir ces surveillances et contrôles. Ce qui permet une forme de dispersion de la responsabilité, comme l’évoquait le professeur de droit d’Oxford, Jeremias Adams-Prassl, tout en « concentrant le contrôle » (voir également son livre, L’ubérisation du travail, Dalloz, 2021).

« De la même façon que, dans les configurations de l’emploi précaire, avec leurs schémas de sous-traitance en cascade, il est difficile d’établir qui est l’employeur responsable, l’usage d’IA dans la gestion de la main-d’œuvre brouille les frontières de la responsabilité », rappelle le sociologue. « Si les systèmes de contrôle (direct, technique, bureaucratique et algorithmique) se succèdent, c’est parce qu’ils rencontrent toujours des limites, correspondant aux résistances des travailleurs et de leurs organisations ». Pourtant, à mesure que le panoptique se referme, les résistances deviennent de plus en plus difficiles, faute de marge de manœuvre. 

Pour Carbonell, un renouveau luddite aurait toute sa place aujourd’hui, pour donner aux individus et aux collectifs les moyens de garder un contrôle sur l’organisation du travail, pour réouvrir des marges de manœuvre. Reste que le « luddisme diffus » qui émerge à l’égard de l’IA ne s’incarne pas dans un mouvement de masse ancré dans les mondes du travail, mais au mieux « dans un rejet individuel et une approche morale de l’IA », voire dans une vision technique et éthique qui consiste à améliorer les calculs plus qu’à les rendre redevables. Les travailleurs ont pourtant de bonnes raisons de s’opposer au changement technologique au travail, conclut le sociologue, surtout quand il ne vient plus accompagné de progrès sociaux mais au contraire de leurs délitements, comme une solution de remplacement bon marché de l’Etat Providence, disaient la linguiste Emily Bender et la sociologue Alex Hanna dans leur récent livre, The AI Con (HarperCollins, 2025). Avec l’IA et l’ubérisation s’impose un monde où les statuts protecteurs du travail reculent. 

L’appropriation collective des moyens de production n’est plus une promesse pour transformer le monde. Il ne peut y avoir de chaîne de montage socialiste, car « il n’y a rien de potentiellement émancipateur dans la dissociation entre la conception et l’exécution ». Peut-on imaginer une IA qui nous aide à sortir de Taylor plutôt que de nous y enfermer ?, questionne le sociologue en conclusion. Une IA qui rende du pouvoir aux travailleurs, qui leur permette de concevoir et d’exécuter, qui leur rende du métier plutôt qu’elle ne les en dépossède. 

Pour l’instant, on ne l’a pas encore aperçu ! 

Hubert Guillaud

Couverture du livre de Juan Sebastian Carbonell, Un taylorisme augmenté.

❌