Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en évoquant l’essor des entretiens avec des systèmes d’IA. L’expérience avec ces robots intervieweurs, comme ceux développés par Ribbon AI, Talently ou Apriora, se révèle très déshumanisante, témoignent ceux qui y sont confrontés. Les questions sont souvent un peu creuses et les chatbots ne savent pas répondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces éléments n’étaient finalement pas importants).
Le loueur de voiture Hertz a commencé à déployer des scanneurs de voitures développées par UVeye pour inspecter les véhicules après leur location afin de vérifier leur état, explique The Drive (voir également cet article). Problème : le système est trop précis et surcharge les clients de frais pour des accrocs microscopiques qu’un être humain n’aurait pas remarqué.
Les tensions n’ont pas manqué d’éclater, et elles sont d’autant plus nombreuses qu’il est très difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de véhicule automatisé, et que cela est impossible via le portail applicatif où les clients peuvent consulter et régler les dommages attribués à leurs locations. Des incidents d’usure mineurs ou indépendants des conducteurs, comme un éclat lié à un gravillon, sont désormais parfaitement détectés et facturés. Le problème, c’est le niveau de granularité et de précision qui a tendance a surdiagnostiquer les éraflures. Décidément, adapter les faux positifs à la réalité est partout une gageure ou un moyen pour générer des profits inédits.
Tous les grands acteurs des technologies ont entamé leur mue. Tous se mettent à intégrer l’IA à leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche à sa fin, prédit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthétique, le web artificiel où tous les contenus sont appelés à être générés en permanence, à la volée, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir… avec le risque de faire disparaître le web que nous avons connu, construit, façonné.
Jusqu’à présent, le web reposait sur un marché simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web référencés. « On estime que 68 % de l’activité Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs ».
Ce système a été celui que nous avons connu depuis les origines du web. L’intégration de l’IA, pour le meilleur ou pour le pire, promet néanmoins de transformer radicalement cette expérience. Confronté à une nette dégradation des résultats de la recherche, notamment due à l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « réinvention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à présent, le mode IA va remplacer complètement les résultats de recherche traditionnels. Désormais, un chatbot va créer un article pour répondre aux questions. En cours de déploiement et facultatif pour l’instant, à terme, il sera « l’avenir de la recherche Google ».
Un détournement massif de trafic
Les critiques ont montré que, les aperçus IA généraient déjà beaucoup moins de trafic vers le reste d’internet (de 30 % à 70 %, selon le type de recherche. Des analyses ont également révélé qu’environ 60 % des recherches Google depuis le lancement des aperçus sont désormais « zéro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les études respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrétise, cela pourrait anéantir le modèle économique du web tel que nous le connaissons. Google estime que ces inquiétudes sont exagérées, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversité de sites web » et le trafic serait de « meilleure qualité » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnée pour étayer ces affirmations.
Google et ses détracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe même du web qui est menacé, celui où chacun peut créer un site librement accessible et référencé.
L’article de la BBC remarque, très pertinemment, que cette menace de la mort du web a déjà été faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des réseaux sociaux avaient déjà suscité des prédictions apocalyptiques qui ne se sont pas réalisées. Cela n’empêche pas les experts d’être soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la réponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre à un bibliothécaire et qu’il vous en parle plutôt que de vous le fournir, compare un expert.
La chute du nombre de visiteurs annoncée pourrait faire la différence entre une entreprise d’édition viable… et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliqués. Selon le cabinet d’analyse de données BrightEdge, les aperçus IA ont entraîné une augmentation de 49 % des impressions sur le web, mais les clics ont chuté de 30 %, car les utilisateurs obtiennent leurs réponses directement de l’IA. « Google a écrit les règles, créé le jeu et récompensé les joueurs », explique l’une des expertes interrogée par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans ». »
Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a déclaré qu’il pensait que demain, les éditeurs alimenteraient directement les modèles d’IA avec leurs contenus, sans plus avoir à se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur général de Cloudflare, le problème dans ce web automatisé, c’est que « les robots ne cliquent pas sur les publicités ». « Si l’IA devient l’audience, comment les créateurs seront-ils rémunérés ? » La rémunération directe existe déjà, comme le montrent les licences de contenus que les plus grands éditeurs de presse négocient avec des systèmes d’IA pour qu’elles s’entraînent et exploitent leurs contenus, mais ces revenus là ne compenseront pas la chute d’audience à venir. Et ce modèle ne passera certainement pas l’échelle d’une rétribution généralisée.
Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les réseaux sociaux pour tenter de compenser les pertes de revenus. Mais là aussi, les caprices algorithmiques et le développement de l’IA générative risquent de ne pas suffire à compenser les pertes.
Un nouvel internet sans condition
Pour Google, les réactions aux aperçus IA laissent présager que le mode IA sera extrêmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs résultats et effectuent des recherches plus souvent », a déclaré Pichai lors de la conférence des développeurs de Google. Autrement dit, Google affirme que cela améliore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, présidente de News/Media Alliance, un groupement professionnel représentant plus de 2 200 journalistes et médias, les réponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grâce à notre contenu et nous ne recevons rien en retour ». Le problème, c’est que Google n’a pas laissé beaucoup de choix aux éditeurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous êtes désindexé des deux. La recherche est bien souvent l’une des premières utilisations de outils d’IA. Les inquiétudes sur les hallucinations, sur le renforcement des chambres d’échos dans les réponses que vont produire ces outils sont fortes (on parle même de «chambre de chat » pour évoquer la réverbération des mêmes idées et liens dans ces outils). Pour Cory Doctorow, « Google s’apprête à faire quelque chose qui va vraiment mettre les gens en colère »… et appelle les acteurs à capitaliser sur cette colère à venir. Matthew Prince de Cloudflare prône, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, à moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley à négocier. « Ma version très optimiste », explique Prince, « est celle où les humains obtiennent du contenu gratuitement et où les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposé l’année dernière quelque chose d’assez similaire : expliquant que les droits dérivés liés à l’exploitation des contenus par l’IA devraient donner lieu à rétribution – mais à nouveau, une rétribution qui restera par nature insuffisante, comme l’expliquait Frédéric Fillioux.
Même constat pour le Washington Post, qui s’inquiète de l’effondrement de l’audience des sites d’actualité avec le déploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminué de 55 % entre avril 2022 et avril 2025, selon les données de Similarweb ». Dans la presse américaine, l’audience est en berne et les licenciements continuent.
Les erreurs seront dans la réponse
Pour la Technology Review, c’est la fin de la recherche par mots-clés et du tri des liens proposés. « Nous entrons dans l’ère de la recherche conversationnelle » dont la fonction même vise à « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposé des améliorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessé de s’améliorer pour fournir de meilleures réponses. Mais ce qui s’apprête à changer avec l’intégration de l’IA, c’est que les sources ne sont plus nécessairement accessibles et que les réponses sont générées à la volée, aucune n’étant identique à une autre.
L’intégration de l’IA pose également la question de la fiabilité des réponses. L’IA de Google a par exemple expliqué que la Technology Review avait été mise en ligne en 2022… ce qui est bien sûr totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir génératif promet avant tout de fabriquer des réponses à la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidéo expliquant comment réparer un élément de mon vélo. La vidéo n’existe pas, mais l’information, elle, existe. La recherche générative assistée par l’IA pourrait théoriquement trouver cette information en ligne – dans un manuel d’utilisation caché sur le site web d’une entreprise, par exemple – et créer une vidéo pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire très mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet génératif pourrait se composer à la demande, quelque soit ses défaillances.
Mêmes constats pour Matteo Wrong dans The Atlantic : avec la généralisation de l’IA, nous retournons dans un internet en mode bêta. Les services et produits numériques n’ont jamais été parfaits, rappelle-t-il, mais la généralisation de l’IA risque surtout d’amplifier les problèmes. Les chatbots sont très efficaces pour produire des textes convaincants, mais ils ne prennent pas de décisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractéristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dérailler de manière inattendue, de s’effondrer à la moindre tâche et d’être mal utilisée avec un minimum de frictions ». Les quelques réussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. Plutôt que des utilisations ciblées et prudentes, nombreux sont ceux qui utilisent l’IA générative pour toutes les tâches imaginables, encouragés par les géants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est là que réside le problème : l’IA générative est une technologie suffisamment performante pour que les utilisateurs en deviennent dépendants, mais pas suffisamment fiable pour être véritablement fiable ». Nous allons vers un internet où chaque recherche, itinéraire, recommandation de restaurant, résumé d’événement, résumé de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vérifier ses fonctionnements. Bienvenue dans « l’âge de la paranoïa », clame Wired.
Vers la publicité générative et au-delà !
Mais il n’y a pas que les« contenus » qui vont se recomposer, la publicité également. C’est ainsi qu’il faut entendre les déclarations de Mark Zuckerberg pour automatiser la création publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose déjà des outils d’IA capables de générer des variantes de publicités existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite désormais aider les marques à créer des concepts publicitaires de A à Z ». La publicité représente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élève en 2024 à 164 milliards de dollars). Chez Meta les contenus génératifs produisent déjà ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes de Meta sont déjà générées automatiquement. « Grâce aux outils publicitaires développés par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnée d’un objectif budgétaire. L’IA créerait alors l’intégralité de la publicité, y compris les images, la vidéo et le texte. Le système déciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la géolocalisation des utilisateurs, la publicité pourrait s’adapter en contexte, créant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », a déclaré Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise.
Nilay Patel, le rédac chef de The Verge, parle de « créativité infinie». C’est d’ailleurs la même idée que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines à IA » qui généreront le web demain. Si toutes les grandes entreprises et les agences de publicité ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent déjà, à l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grâce à son partenariat avec Nvidia. « Unilever a déclaré avoir réalisé jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir réduit les délais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps ».
L’idée finalement très partagée par tous les géants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaît par un autre. Une sous-couche générative qu’il maîtriseraient, capable de produire un web à leur profit, qu’ils auraient avalé et digéré.
Vers des revenus génératifs ?
Nilay Patel était l’année dernière l’invité du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le détruire ou le sauver. Dans cette discussion parfois un peu décousue, Klein rappelle que l’IA se développe d’abord là où les produits n’ont pas besoin d’être très performants. Des tâches de codage de bas niveau aux devoirs des étudiants, il est également très utilisé pour la diffusion de contenus médiocres sur l’internet. Beaucoup des contenus d’internet ne sont pas très performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des réseaux sociaux, internet est surtout un ensemble de contenus à indexer pour délivrer de la publicité elle-même bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont désormais inondées de contenus sans intérêts, de spams, de slops, de contenus de remplissage à la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amélioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un à l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, où n’aurons nous accès plus qu’à des contenus génératifs ?
Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le détruisent. En augmentant à l’infini l’offre de contenu, le système s’apprête à s’effondrer sur lui-même : « Les algorithmes de recommandation s’effondrent, notre capacité à distinguer le vrai du faux s’effondre également, et, plus important encore, les modèles économiques d’Internet s’effondrent complètement ». Les contenus n’arrivent plus à trouver leurs publics, et inversement. L’exemple éclairant pour illustrer cela, c’est celui d’Amazon. Face à l’afflux de livres générés par l’IA, la seule réponse d’Amazon a été de limiter le nombre de livres déposables sur la plateforme à trois par jour. C’est une réponse parfaitement absurde qui montre que nos systèmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est à peine s’ils savent restreindre le flot
Avec l’IA générative, l’offre ne va pas cesser d’augmenter. Elle dépasse déjà ce que nous sommes capables d’absorber individuellement. Pas étonnant alors que toutes les plateformes se transforment de la même manière en devenant des plateformes de téléachats ne proposant plus rien d’autre que de courtes vidéos.
« Toutes les plateformes tendent vers le même objectif, puisqu’elles sont soumises aux mêmes pressions économiques ». Le produit des plateformes c’est la pub. Elles mêmes ne vendent rien. Ce sont des régies publicitaires que l’IA promet d’optimiser depuis les données personnelles collectées. Et demain, nos boîtes mails seront submergées de propositions marketing générées par l’IA… Pour Patel, les géants du net ont arrêté de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicités. Google Actualités référence des articles écrits par des IA sans que cela ne soit un critère discriminant pour les référenceurs de Google, expliquait 404 média (voir également l’enquête de Next sur ce sujet qui montre que les sites générés par IA se démultiplient, « pour faire du fric »). Pour toute la chaîne, les revenus semblent être devenus le seul objectif.
Et Klein de suggérer que ces contenus vont certainement s’améliorer, comme la génération d’image et de texte n’a cessé de s’améliorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment répondre à la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour répondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit généré par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? »
Il y en a certainement, répond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un œuf, l’IA de Google peut vous le dire… Mais, c’est oublier que cette IA générative ne sera pas plus neutre que les résultats de Google aujourd’hui. Elle sera elle aussi façonnée par la publicité. L’enjeu demain ne sera plus d’être dans les 3 premiers résultats d’une page de recherche, mais d’être citée par les réponses construites par les modèles de langages. « Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont déjà nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez à un chatbot de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques plus cheap.
L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Le marketing a assurément trouvé un nouveau produit à vendre ! Les entreprises vont adorer !
Pour Klein, l’internet actuel est certes très affaibli, pollué de spams et de contenus sans intérêts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprécient, mais bien plus un internet que les gens utilisent à leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprécier, bien au contraire, mais un internet qui profite aux grands acteurs plutôt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne à se financer.
Pourra-t-on encore défendre le web que nous voulons ?
Les acteurs oligopolistiques du numérique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web à leur seul profit, et c’est assurément la puissance (et surtout la puissance financière) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurément la conséquence de « notre longue dépossession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.
La promesse du web synthétique est là pour rester. Et la perspective qui se dessine, c’est que nous avons à nous y adapter, sans discussion. Ce n’est pas une situation très stimulante, bien au contraire. A mesure que les géants de l’IA conquièrent le numérique, c’est nos marges de manœuvres qui se réduisent. Ce sont elles que la régulation devrait chercher à réouvrir, dès à présent. Par exemple en mobilisant très tôt le droit à la concurrence et à l’interopérabilité, pour forcer les acteurs à proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, très facilement, de refuser leur implémentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit à la concurrence et à l’interopérabilité au plus tôt. Afin que défendre le web que nous voulons ne s’avère pas plus difficile demain qu’il n’était aujourd’hui.
Dans les dernières années, j’ai souvent entendu dire que le gouvernement Trudeau était le pire de l’histoire du Canada. Une affirmation qui m’a toujours fait lever les yeux au ciel. Parce que je sais que dans 99.9% des cas, si je demande de comparer Justin Trudeau à Arthur Meighen ou à R. B. Bennett, je n’aurai aucune réponse.
J’ai aussi souvent entendu dire que le gouvernement Legault était le pire de l’histoire du Québec. Là, je l’avoue, j’ai plus de difficulté à répondre. Pas parce que je crois que les gens répétant cette affirmation pourraient comparer François Legault à John Jones Ross ou à Simon-Napoléon Parent, mais parce que j’aurais de la difficulté à relativiser.
Depuis 2018, on a souvent comparé la CAQ de François Legault à l’Union nationale de Maurice Duplessis. Effectivement, les points de comparaison n’ont jamais arrêté de se multiplier: la prétention d’incarner la « nation », la posture farouchement anti-syndicale, la méfiance face à l’immigration, le discours alarmiste (vous vous souvenez de la menace de la « louisianisation » du Québec?), le favoritisme éhonté, le gaspillage de fonds publics au profit des amis du régime, le nationalisme défenseur et réactionnaire, la résistance à toute forme de changement…
Pourtant, je considère la comparaison injuste. Pour l’Union nationale. Malgré toutes les critiques (très justifiées) qu’on peut adresser au gouvernement de Maurice Duplessis, c’est aussi un gouvernement qui a bâti. Le Crédit agricole et l’électrification des campagnes ont permis la modernisation de l’agriculture québécoise, qui en avait bien besoin. Le réseau d’Hydro-Québec a triplé sa taille entre 1944 et 1960. L’Université Laval s’est développée, l’Université de Sherbrooke a été fondée et les bases de l’Université du Québec à Trois-Rivières ont été posées.
L’Union nationale a créé l’impôt provincial, une mesure déterminante au niveau des relations fédéral – provincial. À lui seul, le gouvernement du Québec venait mettre un frein à l’offensive centralisatrice du gouvernement d’Ottawa. Soudainement, les provinces retrouvaient (partiellement) le contrôle de leurs revenus, cédés au gouvernement fédéral depuis la Seconde Guerre mondiale. Encore plus remarquable: ce n’était pas une mesure populaire. Malgré toutes les tentatives de l’Union nationale de présenter l’impôt provincial comme une mesure patriotique, le discours public adhérait à l’argument de l’opposition libérale: un nouvel impôt. Un nouvel impôt, c’est un suicide électoral. Ce n’est que grâce à une corruption historique que l’Union nationale a survécu aux élections de 1956. Il faudrait avoir l’esprit particulièrement tordu pour présenter l’impôt provincial comme une mesure électoraliste.
Finalement, rappelons que Duplessis a laissé le Québec dans une santé financière exceptionnelle. Si la Révolution tranquille a été possible, c’est beaucoup grâce à la gestion de l’Union nationale. À moins d’un miracle, on se doute que le gouvernement qui succédera à la CAQ n’héritera pas d’une situation budgétaire enviable. Le surplus du gouvernement Couillard (obtenu grâce à quatre années d’austérité, rappelons-le) s’est transformé en déficit historique et ce n’est pas parce que la CAQ a réinvesti dans les services.
Quel héritage la Coalition Avenir Québec laissera-t-elle à l’histoire?
On retiendra peut-être la gestion de la pandémie de COVID-19, bien que le plus grand succès soit celui des relations publiques.
Les partisans d’une laïcité hostile à toute manifestation religieuse retiendront la loi 21 et les mesures subséquentes.
Les entreprises et les personnes assez riches pour utiliser le système de santé privée et envoyer leurs enfants à l’école privée peuvent honnêtement dire que les politiques fiscales de la CAQ leur ont profité. En revanche, le CAQ lègue des déficits historiques qui vont plomber l’État québécois pour plusieurs années.
Certaines initiatives sont appréciables, comme la création du Tribunal spécialisé en matière de violence sexuelle et de violence conjugale ou le cours de Citoyenneté et culture québécoise. Il est toutefois trop tôt pour juger s’ils atteindront leurs objectifs.
En revanche, on retiendra certainement :
La sourde oreille aux revendications des enseignants, des infirmières et des éducatrices, qui désertent leur profession.
Les déficits et la décote du Québec par les agences de notation.
Le gaspillage de fonds publics dans SAAQClic, Northvolt, le mythique 3e lien et autres fantaisies.
L’abandon de la promesse de réforme du mode de scrutin, un bidon d’essence versé sur les flammes du cynisme.
La mise en place des Centres de services scolaires, dont l’inefficacité a été démontrée par la crise de l’école Bedford.
Le sacrifice de l’intérêt collectif au profit des intérêts privés, en particulier au niveau environnemental (pensons à la fonderie Horne et à Stablex).
L’amplification de la crise du logement par des mesures qui favorisent les propriétaires au détriment des locataires.
La loi 89 pour limiter le droit de grève, ce qui couronne le bilan d’un gouvernement férocement anti-syndical.
L’utilisation éhontée de l’immigration, des musulmans et des minorités de genre comme paravents et comme bouc émissaires pour grappiller des votes et faire oublier les conséquences de la mauvaise gestion gouvernementale.
Le rejet de la science au profit de l’électoralisme (gestion de la pandémie, 3e lien, comité de sages sur l’identité de genre, etc.)
Le prochain gouvernement mettra des années (s’il le souhaite) à simplement réparer les dommages infligés à l’État québécois et à rebâtir le lien de confiance avec la population. François Legault n’a aucune raison d’être fier de « son legs ». Ses réalisations suffoquent sous les décombres de tout ce que son gouvernement a détruit.
La gestion de la COVID-19
Positif : Quand je demande aux gens de me citer un succès de la CAQ, c’est celui qui revient le plus souvent. Il est vrai que certains dossiers ont été bien menés, en particulier celui de la vaccination. Le plus grand succès a probablement été celui des relations publiques. François Legault, Christian Dubé et Horacio Arruda ont fait du bon travail pour nous rassurer dans une période de grande inquiétude et d’incertitude.
Négatif : Tout le reste. La gestion de la pandémie par le gouvernement caquiste a été un grand numéro d’improvisation guidé par l’électoralisme et les intérêts du milieu des affaires. La négligence du gouvernement a conduit à l’hécatombe dans les CHSLD. Des mesures sorties de nulle part comme le couvre-feu et un refus borné de mesures recommandées par la science comme les échangeurs d’air dans les écoles. Pour une liste détaillée des échecs et des ratés sur ce plan, on lira l’ouvrage collectif Traitements-chocs et tartelettes : Bilan critique de la gestion de la COVID-19 au Québec de Josiane Cossette et Julien Simard.
La loi 21
Positif : C’est le deuxième point qui revient le plus souvent. Pour bien des nationalistes et plusieurs militants en faveur d’une laïcité stricte, la Loi sur la laïcité de l’État (adoptée sur division, sous bâillon et après avoir entendu un minimum d’intervenants, rappelons-le) est devenue un symbole de notre affirmation nationale. Les personnes qui me connaissent savent que je n’en fais pas partie.
Négatif : Qu’on soit d’accord ou non avec le principe, je pense qu’on peut s’entendre que la loi n’a pas atteint ses objectifs. La CAQ prétendait mettre fin au débat sur la laïcité. Six ans plus tard, la discussion est toujours aussi acrimonieuse. La saga de l’école Bedford a bien montré qu’interdire le port de signes religieux ostentatoires n’assurait pas une éducation laïque, loin s’en faut. L’interdiction du port de signes religieux par les enseignants continue à diviser. C’était à prévoir, surtout quand on se souvient la façon dont le premier ministre Legault nous avait présenté la mesure : « Au Québec, c’est comme ça qu’on vit. » Quel meilleur moyen de tracer la ligne entre le « nous » et le « eux » ?
Famille
Positif : C’est le domaine sur lequel le gouvernement semble avoir réalisé le meilleur bilan.
Retour du tarif unique pour les garderies en 2019 (le gouvernement libéral de Philippe Couillard avais mis en place des tarifs modulables en fonction du revenu des parents).
Mesures encourageant le partage du congé parental (4 semaines supplémentaires au total si les deux parents prennent au moins 10 semaines chacun).
Réforme du droit de la famille.
Création du patrimoine familial pour les conjoints de fait avec enfants. Création du régime d’union parentale.
Création du Supplément pour enfant handicapé nécessité des soins (SEHNSE).
Négatif : Le gouvernement se fait tirer l’oreille pour améliorer les salaires dérisoires et les conditions de travail des éducatrices en garderie alors qu’elles désertent leur profession et qu’il n’y a pas de relève.
Finances
Positif : Avec les baisses d’impôts, le « bouclier anti-inflation » (les fameux chèques de 400$ à 600$ envoyés en 2022, année électorale) et la baisse de la taxe scolaire, on peut objectivement dire que les Québécois ont « plus d’argent dans leurs poches ».
Négatif : Déficits historiques. Décote du Québec par les agences de notation. La réduction de la taxe scolaire a considérablement diminué l’autonomie financière des écoles. Gaspillage de quelques 700 millions de dollars dans les dépassements de coûts de SAAQClic. Le prochain gouvernement va hériter d’un triste contexte budgétaire.
Racisme
Positif : La CAQ est le premier gouvernement à avoir confié à un ministre la responsabilité de la lutte contre le racisme.
Négatif : Le gouvernement rejette le concept de racisme systémique pourtant mis en lumière par la Commission d’enquête sur les relations entre les Autochtones et certains services publics au Québec (commission Viens). Il est prêt à aller jusqu’en Cour suprême pour défendre les interpellations « aléatoires » par les policiers bien qu’il ait été démontré à maintes reprises que celles-ci visent les minorités visibles de façon disproportionnée.
Refus de reconnaître le principe de Joyce (autrement dit de reconnaître les particularités des nations et cultures autochtones). Refus de reconnaître la souveraineté politique des nations autochtones (démontré de manière éloquente avec le nouveau régime forestier).
Loin de lutter contre le racisme, le gouvernement le nourrit en pointant du doigt l’immigration pour pratiquement tous les problèmes du Québec, que ceux-ci aient des causes plus profondes ou qu’ils aient carrément été causés par l’inaction de nos dirigeants. On relèvera également la fâcheuse tendance à utiliser les enjeux de laïcité comme paravent, au risque de stigmatisé des communautés déjà marginalisées.
Immigration
Positif : Pour les employeurs, le bilan du premier mandat Legault a été très positif. Pour les personnes qui voulaient travailler ou migrer au Québec également. Après une diminution temporaire de 20% de l’immigration permanente en 2019, le gouvernement est revenu aux chiffres du gouvernement Couillard pour les dépasser en 2022. L’ironie, c’est que ce gouvernement qui a battu des records en matière d’immigration lors de son premier mandat nous dit aujourd’hui que tous nos problèmes sont causés par une trop forte immigration.
Négatif : Restriction des critères d’admission au Programme de l’Expérience québécoise (programme qui facilite l’obtention de la résidence permanente pour les étudiants étrangers). Les démarches pour les regroupements familiaux sont labyrinthiques et les délais sont de 36 mois (en comparaison de 10 mois dans d’autres provinces canadiennes). Fermeture des classes de francisation.
Santé
Positif : Retour du programme d’accès à la fécondation in vitro. Stratégie pour éliminer progressivement le recours aux agences de placement.
Négatif : C’était la crise en 2018 et c’est toujours la crise en 2025. On réalisera peut-être dans 20 ans que la création de l’agence Santé Québec était la meilleure décision des dernières décennies, mais pour l’instant, les résultats se font attendre. Bras de fer avec les médecins. Sourde oreille aux demandes des infirmières à qui on exige toujours davantage de « mobilité » et de « flexibilité » malgré le fait qu’elles désertent leur profession.
Éducation
Positif : Pour les gens qui détestaient le cours d’éthique et culture religieuse, sa disparition est évidemment considérer comme un pas dans la bonne direction. Le cours de Culture et citoyenneté québécoise (CCQ) peut être considéré comme une bonne innovation malgré ses critiques qui le considèrent « woke ».
Négatif : On ne peut pas dire que remplacer les commissions scolaires francophones par les centres de services scolaires ait été bénéfique. La CAQ prétendait vouloir décentraliser la gouvernance scolaire, mais on n’a jamais eu un ministre de l’Éducation aussi omniprésent dans la prise de décisions que Bernard Drainville. Ce qui est arrivé à Bedford a illustré les nombreuses failles de notre modèle de gestion des écoles. Et rien n’indique qu’on se dirige vers une solution à la pénurie d’enseignants, malgré les critères qui sont sans cesse revus à la baisse (on se souvient de la promesse du « un adulte dans chaque classe »).
Enseignement supérieur
Positif : La loi sur la liberté académique.
Négatif : Ironiquement, ingérences de la ministre de l’Enseignement supérieur pour défendre les intérêts de l’État d’Israël et empêcher les discussions sur le génocide à Gaza.
Diversité de genre et sexuelle
Positif : Le nouveau cours Culture et citoyenneté québécoise présente la diversité de genre aux élèves, s’attaque aux préjugés et distingue les notions de sexe et de genre.
Négatif : Le comité de sages sur l’identité de genre qui ne contenait aucune personne trans et dont le rapport ne peut que nourrir le discours défavorable aux femmes trans.
Le développement économique
Le fiasco Northvolt risque d’éclipser tout le positif, s’il y en a. 240 millions de dollars pour l’achat du terrain à Luc Poirier et à ses amis (terrain acheté 20 millions en 2015, rappelons-le). 270 millions pour le financement des activités préliminaires.
Transports
Positif : Le budget pour l’entretien des infrastructures routières est un des rares domaines qui n’a pas eu à se plaindre de coupures. Les deux tiers des investissements en transport au Québec sont dirigés vers le réseau routier (à l’inverse de l’Ontario, où les deux tiers sont consacrés au transport en commun).
Négatif : Politique entièrement dévouée à l’auto solo. Réduction du financement des sociétés de transport en commun. Sous-financement des programmes d’entretien des infrastructures de transport collectif. Les chantiers du REM de l’Est et du tramway de Québec sont retardés depuis des années. La ministre Geneviève Guilbault promet de faire en sorte que le prochain gouvernement ne puisse pas annuler le projet pharaonique du troisième lien Québec – Lévis, dont le coût est évalué à une dizaine de milliards par les évaluations les plus conservatrices, et dont personne n’a jamais su démontrer la nécessité.
Environnement
Positif : Interdiction des voitures à essence à partir de 2035 (d’abord annoncée pour 2030). Depuis 2022, il est interdit sur tout le territoire québécois de rechercher et de produire des hydrocarbures. Un grand pas vers la transition énergétique et pour la protection de notre territoire. Depuis, François Legault s’est dit ouvert à la construction d’un oléoduc sur la Côte-Nord. Ce point positif pourrait donc possiblement disparaître.
Politique nationale d’architecture et d’aménagement du territoire : Modernisation bien nécessaire des pratiques (la dernière loi datait de 1990). On tient compte ici des zones inondables, de la densification des quartiers, de la protection des milieux humides, de la mise en valeur des milieux naturels et des terres agricoles et on prend en compte les changements climatiques.
Négatif : Le ministère de l’Environnement devrait être rebaptisé ministère de la Pollution, parce que c’est ce à quoi il a été réduit: distribuer des permis de polluer. Donner aux entreprises la permission de ne pas respecter les lois environnementales. Glencore et Stablex sont particulièrement satisfaites du bon travail de Benoît Charette. La première a convaincu le gouvernement d’élever le seuil acceptable d’émissions d’arsenic pour la fonderie Horne et de nickel pour le port de Québec. La deuxième a reçu le droit de détruire des milieux naturels sur le territoire de Blainville pour permettre l’enfouissement de déchets dangereux. De manière générale, le ministère de l’Environnement a montré à chaque occasion que les intérêts de l’entreprise privée primaient sur tout.
Politique
Positif : Abolition du serment à la couronne pour la députation.
Négatif : Abandon de la promesse de réformer le mode de scrutin.
Justice
Positif : Le tribunal spécialisé en matière de violence conjugale et sexuelle.
Négatif : Poursuites abandonnées à cause du sous-financement de la Justice (349 dossiers abandonnés entre septembre 2023 et avril 2025). Procès annulés parce que les victimes abandonnent le processus ou parce que les délais sont dépassés. Peines bonbon pour éviter l’annulation de procès.
Culture et patrimoine
Positif : Augmentation du financement annuel du Conseil des arts et des lettres du Québec. Création du Musée national de l’histoire du Québec. Projet né dans la controverse, mais qui est porteur d’espoir pour certains.
Négatif : Les espaces bleus, projet mort né. Les Conseils régionaux de la culture crient famine. Coupure des fonds pour la préservation des églises.
Habitation
Positif : Le programme d’Allocation-logement, aide financière accordée aux personnes dont une trop grande part du revenu est consacrée au logement, est passée de 80$ (montant qui n’avait jamais augmenté depuis sa création dans les années 1990) à 150$. Très bien. Mais soyons honnêtes, cette augmentation de 70$ par mois n’a rien à voir avec les hausses de loyer depuis 2018. Bonification de la loi Françoise David pour protéger les locataires aînés contre les évictions. Certaines régions ont été ENFIN connectées à internet haute vitesse grâce au soutien financier du gouvernement.
Négatif : La crise du logement était déjà en cours à l’arrivée au pouvoir de la CAQ et rien n’a été fait pour y mettre un terme. Au contraire, ce gouvernement a tout fait pour favoriser les intérêts des propriétaires au détriment des locataires. Réforme des mécanismes de cession de bail. Nouveau calcul pour le taux d’augmentation des loyers qui encourage des augmentations encore plus élevées. Coupure dans le programme RénoRégion (subvention à la rénovation pour les propriétaires à faible revenu). Coupure dans les programmes pour adapter les résidences aux situations de handicap.
Travail
Positif : Loi sur le travail des enfants (interdiction avant 14 ans et limitation des heures pendant la période scolaire).
Négatif : François Legault n’a jamais caché son biais anti-syndicats. Les syndicats de la fonction publique doivent se battre continuellement pour obtenir des augmentations proportionnelles à l’inflation. Le fait que les éducatrices, les infirmières et les enseignants quittent leur profession n’affecte aucunement la volonté du gouvernement d’améliorer les conditions de travail. Quant au secteur privé, la CAQ a fait tout son possible pour réduire le pouvoir de négociation des syndicats. La loi 89, qui vient limiter le droit de grève, rejoindra probablement les lois Duplessis parmi les lois les plus anti-syndicales de l’histoire du Québec.
Dans les dernières années, j’ai souvent entendu dire que le gouvernement Trudeau était le pire de l’histoire du Canada. Une affirmation qui m’a toujours fait lever les yeux au ciel. Parce que je sais que dans 99.9% des cas, si je demande de comparer Justin Trudeau à Arthur Meighen ou à R. B. Bennett, je n’aurai aucune réponse.
J’ai aussi souvent entendu dire que le gouvernement Legault était le pire de l’histoire du Québec. Là, je l’avoue, j’ai plus de difficulté à répondre. Pas parce que je crois que les gens répétant cette affirmation pourraient comparer François Legault à John Jones Ross ou à Simon-Napoléon Parent, mais parce que j’aurais de la difficulté à relativiser.
Depuis 2018, on a souvent comparé la CAQ de François Legault à l’Union nationale de Maurice Duplessis. Effectivement, les points de comparaison n’ont jamais arrêté de se multiplier: la prétention d’incarner la “nation”, la posture farouchement anti-syndicale, la méfiance face à l’immigration, le discours alarmiste (vous vous souvenez de la menace de la « louisianisation » du Québec?), le favoritisme éhonté, le gaspillage de fonds publics au profit des amis du régime, le nationalisme défenseur et réactionnaire, la résistance à toute forme de changement…
Pourtant, je considère la comparaison injuste. Pour l’Union nationale. Malgré toutes les critiques (très justifiées) qu’on peut adresser au gouvernement de Maurice Duplessis, c’est aussi un gouvernement qui a bâti. Le Crédit agricole et l’électrification des campagnes ont permis la modernisation de l’agriculture québécoise, qui en avait bien besoin. Le réseau d’Hydro-Québec a triplé sa taille entre 1944 et 1960. L’Université Laval s’est développée, l’Université de Sherbrooke a été fondée et les bases de l’Université du Québec à Trois-Rivières ont été posées.
L’Union nationale a créé l’impôt provincial, une mesure déterminante au niveau des relations fédéral – provincial. À lui seul, le gouvernement du Québec venait mettre un frein à l’offensive centralisatrice du gouvernement d’Ottawa. Soudainement, les provinces retrouvaient (partiellement) le contrôle de leurs revenus, cédés au gouvernement fédéral depuis la Seconde Guerre mondiale. Encore plus remarquable: ce n’était pas une mesure populaire. Malgré toutes les tentatives de l’Union nationale de présenter l’impôt provincial comme une mesure patriotique, le discours public adhérait à l’argument de l’opposition libérale: un nouvel impôt. Un nouvel impôt, c’est un suicide électoral. Ce n’est que grâce à une corruption historique que l’Union nationale a survécu aux élections de 1956. Il faudrait avoir l’esprit particulièrement tordu pour présenter l’impôt provincial comme une mesure électoraliste.
Finalement, rappelons que Duplessis a laissé le Québec dans une santé financière exceptionnelle. Si la Révolution tranquille a été possible, c’est beaucoup grâce à la gestion de l’Union nationale. À moins d’un miracle, on se doute que le gouvernement qui succédera à la CAQ n’héritera pas d’une situation budgétaire enviable. Le surplus du gouvernement Couillard (obtenu grâce à quatre années d’austérité, rappelons-le) s’est transformé en déficit historique et ce n’est pas parce que la CAQ a réinvesti dans les services.
Quel héritage la Coalition Avenir Québec laissera-t-elle à l’histoire?
On retiendra peut-être la gestion de la pandémie de COVID-19, bien que le plus grand succès soit celui des relations publiques.
Les partisans d’une laïcité hostile à toute manifestation religieuse retiendront la loi 21 et les mesures subséquentes.
Les entreprises et les personnes assez riches pour utiliser le système de santé privée et envoyer leurs enfants à l’école privée peuvent honnêtement dire que les politiques fiscales de la CAQ leur ont profité. En revanche, le CAQ lègue des déficits historiques qui vont plomber l’État québécois pour plusieurs années.
Certaines initiatives sont appréciables, comme la création du Tribunal spécialisé en matière de violence sexuelle et de violence conjugale ou le cours de Citoyenneté et culture québécoise. Il est toutefois trop tôt pour juger s’ils atteindront leurs objectifs.
En revanche, on retiendra certainement :
La sourde oreille aux revendications des enseignants, des infirmières et des éducatrices, qui désertent leur profession.
Les déficits et la décote du Québec par les agences de notation.
Le gaspillage de fonds publics dans SAAQClic, Northvolt, le mythique 3e lien et autres fantaisies.
L’abandon de la promesse de réforme du mode de scrutin, un bidon d’essence versé sur les flammes du cynisme.
La mise en place des Centres de services scolaires, dont l’inefficacité a été démontrée par la crise de l’école Bedford.
Le sacrifice de l’intérêt collectif au profit des intérêts privés, en particulier au niveau environnemental (pensons à la fonderie Horne et à Stablex).
L’amplification de la crise du logement par des mesures qui favorisent les propriétaires au détriment des locataires.
La loi 89 pour limiter le droit de grève, ce qui couronne le bilan d’un gouvernement férocement anti-syndical.
L’utilisation éhontée de l’immigration, des musulmans et des minorités de genre comme paravents et comme bouc émissaires pour grappiller des votes et faire oublier les conséquences de la mauvaise gestion gouvernementale.
Le rejet de la science au profit de l’électoralisme (gestion de la pandémie, 3e lien, comité de sages sur l’identité de genre, etc.)
Le prochain gouvernement mettra des années (s’il le souhaite) à simplement réparer les dommages infligés à l’État québécois et à rebâtir le lien de confiance avec la population. François Legault n’a aucune raison d’être fier de « son legs ». Ses réalisations suffoquent sous les décombres de tout ce que son gouvernement a détruit.
La gestion de la COVID-19
Positif : Quand je demande aux gens de me citer un succès de la CAQ, c’est celui qui revient le plus souvent. Il est vrai que certains dossiers ont été bien menés, en particulier celui de la vaccination. Le plus grand succès a probablement été celui des relations publiques. François Legault, Christian Dubé et Horacio Arruda ont fait du bon travail pour nous rassurer dans une période de grande inquiétude et d’incertitude.
Négatif : Tout le reste. La gestion de la pandémie par le gouvernement caquiste a été un grand numéro d’improvisation guidé par l’électoralisme et les intérêts du milieu des affaires. La négligence du gouvernement a conduit à l’hécatombe dans les CHSLD. Des mesures sorties de nulle part comme le couvre-feu et un refus borné de mesures recommandées par la science comme les échangeurs d’air dans les écoles. Pour une liste détaillée des échecs et des ratés sur ce plan, on lira l’ouvrage collectif Traitements-chocs et tartelettes : Bilan critique de la gestion de la COVID-19 au Québec de Josiane Cossette et Julien Simard.
La loi 21
Positif : C’est le deuxième point qui revient le plus souvent. Pour bien des nationalistes et plusieurs militants en faveur d’une laïcité stricte, la Loi sur la laïcité de l’État (adoptée sur division, sous bâillon et après avoir entendu un minimum d’intervenants, rappelons-le) est devenue un symbole de notre affirmation nationale. Les personnes qui me connaissent savent que je n’en fais pas partie.
Négatif : Qu’on soit d’accord ou non avec le principe, je pense qu’on peut s’entendre que la loi n’a pas atteint ses objectifs. La CAQ prétendait mettre fin au débat sur la laïcité. Six ans plus tard, la discussion est toujours aussi acrimonieuse. La saga de l’école Bedford a bien montré qu’interdire le port de signes religieux ostentatoires n’assurait pas une éducation laïque, loin s’en faut. L’interdiction du port de signes religieux par les enseignants continue à diviser. C’était à prévoir, surtout quand on se souvient la façon dont le premier ministre Legault nous avait présenté la mesure : « Au Québec, c’est comme ça qu’on vit. » Quel meilleur moyen de tracer la ligne entre le « nous » et le « eux » ?
Famille
Positif : C’est le domaine sur lequel le gouvernement semble avoir réalisé le meilleur bilan.
Retour du tarif unique pour les garderies en 2019 (le gouvernement libéral de Philippe Couillard avais mis en place des tarifs modulables en fonction du revenu des parents).
Mesures encourageant le partage du congé parental (4 semaines supplémentaires au total si les deux parents prennent au moins 10 semaines chacun).
Réforme du droit de la famille.
Création du patrimoine familial pour les conjoints de fait avec enfants. Création du régime d’union parentale.
Création du Supplément pour enfant handicapé nécessité des soins (SEHNSE).
Négatif : Le gouvernement se fait tirer l’oreille pour améliorer les salaires dérisoires et les conditions de travail des éducatrices en garderie alors qu’elles désertent leur profession et qu’il n’y a pas de relève.
Finances
Positif : Avec les baisses d’impôts, le « bouclier anti-inflation » (les fameux chèques de 400$ à 600$ envoyés en 2022, année électorale) et la baisse de la taxe scolaire, on peut objectivement dire que les Québécois ont « plus d’argent dans leurs poches ».
Négatif : Déficits historiques. Décote du Québec par les agences de notation. La réduction de la taxe scolaire a considérablement diminué l’autonomie financière des écoles. Gaspillage de quelques 700 millions de dollars dans les dépassements de coûts de SAAQClic. Le prochain gouvernement va hériter d’un triste contexte budgétaire.
Racisme
Positif : La CAQ est le premier gouvernement à avoir confié à un ministre la responsabilité de la lutte contre le racisme.
Négatif : Le gouvernement rejette le concept de racisme systémique pourtant mis en lumière par la Commission d’enquête sur les relations entre les Autochtones et certains services publics au Québec (commission Viens). Il est prêt à aller jusqu’en Cour suprême pour défendre les interpellations « aléatoires » par les policiers bien qu’il ait été démontré à maintes reprises que celles-ci visent les minorités visibles de façon disproportionnée.
Refus de reconnaître le principe de Joyce (autrement dit de reconnaître les particularités des nations et cultures autochtones). Refus de reconnaître la souveraineté politique des nations autochtones (démontré de manière éloquente avec le nouveau régime forestier).
Loin de lutter contre le racisme, le gouvernement le nourrit en pointant du doigt l’immigration pour pratiquement tous les problèmes du Québec, que ceux-ci aient des causes plus profondes ou qu’ils aient carrément été causés par l’inaction de nos dirigeants. On relèvera également la fâcheuse tendance à utiliser les enjeux de laïcité comme paravent, au risque de stigmatisé des communautés déjà marginalisées.
Immigration
Positif : Pour les employeurs, le bilan du premier mandat Legault a été très positif. Pour les personnes qui voulaient travailler ou migrer au Québec également. Après une diminution temporaire de 20% de l’immigration permanente en 2019, le gouvernement est revenu aux chiffres du gouvernement Couillard pour les dépasser en 2022. L’ironie, c’est que ce gouvernement qui a battu des records en matière d’immigration lors de son premier mandat nous dit aujourd’hui que tous nos problèmes sont causés par une trop forte immigration.
Négatif : Restriction des critères d’admission au Programme de l’Expérience québécoise (programme qui facilite l’obtention de la résidence permanente pour les étudiants étrangers). Les démarches pour les regroupements familiaux sont labyrinthiques et les délais sont de 36 mois (en comparaison de 10 mois dans d’autres provinces canadiennes). Fermeture des classes de francisation.
Santé
Positif : Retour du programme d’accès à la fécondation in vitro. Stratégie pour éliminer progressivement le recours aux agences de placement.
Négatif : C’était la crise en 2018 et c’est toujours la crise en 2025. On réalisera peut-être dans 20 ans que la création de l’agence Santé Québec était la meilleure décision des dernières décennies, mais pour l’instant, les résultats se font attendre. Bras de fer avec les médecins. Sourde oreille aux demandes des infirmières à qui on exige toujours davantage de « mobilité » et de « flexibilité » malgré le fait qu’elles désertent leur profession.
Éducation
Positif : Pour les gens qui détestaient le cours d’éthique et culture religieuse, sa disparition est évidemment considérer comme un pas dans la bonne direction. Le cours de Culture et citoyenneté québécoise (CCQ) peut être considéré comme une bonne innovation malgré ses critiques qui le considèrent « woke ».
Négatif : On ne peut pas dire que remplacer les commissions scolaires francophones par les centres de services scolaires ait été bénéfique. La CAQ prétendait vouloir décentraliser la gouvernance scolaire, mais on n’a jamais eu un ministre de l’Éducation aussi omniprésent dans la prise de décisions que Bernard Drainville. Ce qui est arrivé à Bedford a illustré les nombreuses failles de notre modèle de gestion des écoles. Et rien n’indique qu’on se dirige vers une solution à la pénurie d’enseignants, malgré les critères qui sont sans cesse revus à la baisse (on se souvient de la promesse du « un adulte dans chaque classe »).
Enseignement supérieur
Positif : La loi sur la liberté académique.
Négatif : Ironiquement, ingérences de la ministre de l’Enseignement supérieur pour défendre les intérêts de l’État d’Israël et empêcher les discussions sur le génocide à Gaza.
Diversité de genre et sexuelle
Positif : Le nouveau cours Culture et citoyenneté québécoise présente la diversité de genre aux élèves, s’attaque aux préjugés et distingue les notions de sexe et de genre.
Négatif : Le comité de sages sur l’identité de genre qui ne contenait aucune personne trans et dont le rapport ne peut que nourrir le discours défavorable aux femmes trans.
Le développement économique
Le fiasco Northvolt risque d’éclipser tout le positif, s’il y en a. 240 millions de dollars pour l’achat du terrain à Luc Poirier et à ses amis (terrain acheté 20 millions en 2015, rappelons-le). 270 millions pour le financement des activités préliminaires.
Transports
Positif : Le budget pour l’entretien des infrastructures routières est un des rares domaines qui n’a pas eu à se plaindre de coupures. Les deux tiers des investissements en transport au Québec sont dirigés vers le réseau routier (à l’inverse de l’Ontario, où les deux tiers sont consacrés au transport en commun).
Négatif : Politique entièrement dévouée à l’auto solo. Réduction du financement des sociétés de transport en commun. Sous-financement des programmes d’entretien des infrastructures de transport collectif. Les chantiers du REM de l’Est et du tramway de Québec sont retardés depuis des années. La ministre Geneviève Guilbault promet de faire en sorte que le prochain gouvernement ne puisse pas annuler le projet pharaonique du troisième lien Québec – Lévis, dont le coût est évalué à une dizaine de milliards par les évaluations les plus conservatrices, et dont personne n’a jamais su démontrer la nécessité.
Environnement
Positif : Interdiction des voitures à essence à partir de 2035 (d’abord annoncée pour 2030). Depuis 2022, il est interdit sur tout le territoire québécois de rechercher et de produire des hydrocarbures. Un grand pas vers la transition énergétique et pour la protection de notre territoire. Depuis, François Legault s’est dit ouvert à la construction d’un oléoduc sur la Côte-Nord. Ce point positif pourrait donc possiblement disparaître.
Politique nationale d’architecture et d’aménagement du territoire : Modernisation bien nécessaire des pratiques (la dernière loi datait de 1990). On tient compte ici des zones inondables, de la densification des quartiers, de la protection des milieux humides, de la mise en valeur des milieux naturels et des terres agricoles et on prend en compte les changements climatiques.
Négatif : Le ministère de l’Environnement devrait être rebaptisé ministère de la Pollution, parce que c’est ce à quoi il a été réduit: distribuer des permis de polluer. Donner aux entreprises la permission de ne pas respecter les lois environnementales. Glencore et Stablex sont particulièrement satisfaites du bon travail de Benoît Charette. La première a convaincu le gouvernement d’élever le seuil acceptable d’émissions d’arsenic pour la fonderie Horne et de nickel pour le port de Québec. La deuxième a reçu le droit de détruire des milieux naturels sur le territoire de Blainville pour permettre l’enfouissement de déchets dangereux. De manière générale, le ministère de l’Environnement a montré à chaque occasion que les intérêts de l’entreprise privée primaient sur tout.
Politique
Positif : Abolition du serment à la couronne pour la députation.
Négatif : Abandon de la promesse de réformer le mode de scrutin.
Justice
Positif : Le tribunal spécialisé en matière de violence conjugale et sexuelle.
Négatif : Poursuites abandonnées à cause du sous-financement de la Justice (349 dossiers abandonnés entre septembre 2023 et avril 2025). Procès annulés parce que les victimes abandonnent le processus ou parce que les délais sont dépassés. Peines bonbon pour éviter l’annulation de procès.
Culture et patrimoine
Positif : Augmentation du financement annuel du Conseil des arts et des lettres du Québec. Création du Musée national de l’histoire du Québec. Projet né dans la controverse, mais qui est porteur d’espoir pour certains.
Négatif : Les espaces bleus, projet mort né. Les Conseils régionaux de la culture crient famine. Coupure des fonds pour la préservation des églises.
Habitation
Positif : Le programme d’Allocation-logement, aide financière accordée aux personnes dont une trop grande part du revenu est consacrée au logement, est passée de 80$ (montant qui n’avait jamais augmenté depuis sa création dans les années 1990) à 150$. Très bien. Mais soyons honnêtes, cette augmentation de 70$ par mois n’a rien à voir avec les hausses de loyer depuis 2018. Bonification de la loi Françoise David pour protéger les locataires aînés contre les évictions. Certaines régions ont été ENFIN connectées à internet haute vitesse grâce au soutien financier du gouvernement.
Négatif : La crise du logement était déjà en cours à l’arrivée au pouvoir de la CAQ et rien n’a été fait pour y mettre un terme. Au contraire, ce gouvernement a tout fait pour favoriser les intérêts des propriétaires au détriment des locataires. Réforme des mécanismes de cession de bail. Nouveau calcul pour le taux d’augmentation des loyers qui encourage des augmentations encore plus élevées. Coupure dans le programme RénoRégion (subvention à la rénovation pour les propriétaires à faible revenu). Coupure dans les programmes pour adapter les résidences aux situations de handicap.
Travail
Positif : Loi sur le travail des enfants (interdiction avant 14 ans et limitation des heures pendant la période scolaire).
Négatif : François Legault n’a jamais caché son biais anti-syndicats. Les syndicats de la fonction publique doivent se battre continuellement pour obtenir des augmentations proportionnelles à l’inflation. Le fait que les éducatrices, les infirmières et les enseignants quittent leur profession n’affecte aucunement la volonté du gouvernement d’améliorer les conditions de travail. Quant au secteur privé, la CAQ a fait tout son possible pour réduire le pouvoir de négociation des syndicats. La loi 89, qui vient limiter le droit de grève, rejoindra probablement les lois Duplessis parmi les lois les plus anti-syndicales de l’histoire du Québec.
L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie à un avenir économique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre savoir-faire, compromet notre sécurité et restreint nos perspectives d’innovation”.
La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre à nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA défendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques géants.“La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irréfléchi d’OpenAI, lié au monopole de Microsoft et au modèle économique de l’économie technologique, est bénéfique à la société”.
“L’avènement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutôt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancré dans la perpétuation des intérêts des entreprises qui ont bénéficié du laxisme réglementaire et des faibles taux d’intérêt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du démantèlement des gouvernements au pillage des données, de la dévalorisation du travail pour le rendre compatible à l’IA, à la réorientation des infrastructures énergétiques en passant par le saccage de l’information et de la démocratie… l’avènement de l’IA exige le démantèlement de nos infrastructures sociales, politiques et économiques au profit des entreprises de l’IA. L’IA remet au goût du jour des stratégies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du développement de leurs empires.
Mais pourquoi la société accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut être perturbé, notamment parce qu’il est plus fragile qu’il n’y paraît. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coût de l’IA à grande échelle va être très élevé au risque qu’une bulle d’investissement ne finisse par éclater. L’affirmation de la révolution de l’IA générative, elle, contraste avec la grande banalité de ses intégrations et les difficultés qu’elle engendre : de la publicité automatisée chez Meta, à la production de code via Copilot (au détriment des compétences des développeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intégration automatique de fonctionnalités IA… tout en laissant les clients se débrouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliqués en contexte réel les systèmes d’IA échouent profondément même sur des tâches élémentaires, rappellent les auteurs du rapport : les fonctionnalités de l’IA relèvent souvent d’illusions sur leur efficacité, masquant bien plus leurs défaillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est déployée par ceux qui ont le pouvoir contre ceux qui n’en ont pas”sans possibilité de se retirer ou de demander réparation en cas d’erreur.
L’IA : un outil défaillant au service de ceux qui la déploie
Pour l’AI Now Institute, les avantages de l’IA sont à la fois surestimés et sous-estimés, des traitements contre le cancer à une hypothétique croissance économique, tandis que certains de ses défauts sont réels, immédiats et se répandent. Le solutionnisme de l’IA occulte les problèmes systémiques auxquels nos économies sont confrontées, occultant la concentration économique à l’oeuvre et servant de canal pour le déploiement de mesures d’austérité sous prétexte d’efficacité, à l’image du très problématique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont été investis dans des solutions d’IA défaillantes. “Le mythe de la productivité occulte une vérité fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillés, réduisant l’autonomie au lieu de l’accroître”.
“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procédures régulières à l’image de l’essor débridé de l’utilisation de l’IA dans le contrôle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des données ainsi que celui sur l’IA générative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux défaillances de l’IA. Pour les thuriféraires de l’IA, celle-ci est appelée à guérir tous nos maux, permettant à la fois de transformer la science, la logistique, l’éducation… Mais, si les géants de la tech veulent que l’IA soit accessible à tous, alors l’IA devrait pouvoir bénéficier à tous. C’est loin d’être le cas.
Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, à terme, à guérir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en améliorant le dépistage, la détection et le diagnostic. Il est probable cependant que loin d’être une révolution, les améliorations soient bien plus incrémentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothèse selon laquelle ces avancées scientifiques nécessitent la croissance effrénée des hyperscalers du secteur de l’IA. Or, c’est précisément le lien que ces dirigeants d’entreprise tentent d’établir. « Le prétexte que l’IA pourrait révolutionner la santé sert à promouvoir la déréglementation de l’IA pour dynamiser son développement ». Les perspectives scientifiques montées en promesses inéluctables sont utilisées pour abattre les résistances à discuter des enjeux de l’IA et des transformations qu’elle produit sur la société toute entière.
Or, dans le régime des défaillances de l’IA, bien peu de leurs promesses relèvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un régime de “véritude” comme s’en moque l’humoriste Stephen Colbert, c’est-à-dire sur des recherches qui ne sont pas validées par les pairs, à l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmières elles-mêmes… Une affirmation qui ne reposait que sur une étude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA générative. En l’absence de benchmarks indépendants et largement reconnus pour mesurer des attributs clés tels que la précision ou la qualité des réponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent à la fois le produit et les plateformes de validation des benchmarks au même client. Par exemple, Scale AI détient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modèles d’IA destinés au déploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira à évaluer la précision des modèles d’IA destinés aux agences de défense. Fournir la solution et son évaluation est effectivement bien plus simple.
Autre défaillance systémique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la démocratisation de l’accès aux cours. Il n’en a rien été. Désormais, le technosolutionnisme promet la démocratisation par l’IA générative via des offres dédiées comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalité même de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptée par des administrateurs, sans discussion ni implication des concernés. A l’université, les administrateurs achètent des solutions non éprouvées et non testées pour des sommes considérables afin de supplanter les technologies existantes gérées par les services technologiques universitaires. Même constat dans ses déploiements au travail, où les pénuries de main d’œuvre sont souvent évoquées comme une raison pour développer l’IA, alors que le problème n’est pas tant la pénurie que le manque de protection ou le régime austéritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au détriment des travailleurs et des bénéficiaires. L’IA sert souvent de vecteur pour le déploiement de mesures d’austérité sous un autre nom. Les systèmes d’IA appliqués aux personnes à faibles revenus n’améliorent presque jamais l’accès aux prestations sociales ou à d’autres opportunités, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohérent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les défaillances du Doge (que nous avons nous-mêmes documentés). Cela n’empêche pourtant pas le solutionnisme de prospérer. L’objectif du chatbot newyorkais par exemple, “n’est peut-être pas, en réalité, de servir les citoyens, mais plutôt d’encourager et de centraliser l’accès aux données des citoyens ; de privatiser et d’externaliser les tâches gouvernementales ; et de consolider le pouvoir des entreprises sans mécanismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, très opposé au projet.
Le mythe de la productivité enfin, que répètent et anônnent les développeurs d’IA, nous fait oublier que les bénéfices de l’IA vont bien plus leur profiter à eux qu’au public. « La productivité est un euphémisme pour désigner la relation économique mutuellement bénéfique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariés. Non seulement les salariés ne bénéficient pas des gains de productivité liés à l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bénéficie pas aux salariés, mais dégrade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivité individuels et collectifs. Les entreprises utilisent la logique des gains de productivité de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivité des entreprises mènera inévitablement à une prospérité partagée est profondément erronée. Par le passé, lorsque l’automatisation a permis des gains de productivité et des salaires plus élevés, ce n’était pas grâce aux capacités intrinsèques de la technologie, mais parce que les politiques des entreprises et les réglementations étaient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrès (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgré les craintes de pertes d’emplois, les politiques fédérales et le renforcement du mouvement ouvrier ont protégé les intérêts des travailleurs et exigé des salaires plus élevés pour les ouvriers utilisant les nouvelles machines. Les entreprises ont à leur tour mis en place des politiques pour fidéliser les travailleurs, comme la redistribution des bénéfices et la formation, afin de réduire les turbulences et éviter les grèves. « Malgré l’automatisation croissante pendant cette période, la part des travailleurs dans le revenu national est restée stable, les salaires moyens ont augmenté et la demande de travailleurs a augmenté. Ces gains ont été annulés par les politiques de l’ère Reagan, qui ont donné la priorité aux intérêts des actionnaires, utilisé les menaces commerciales pour déprécier les normes du travail et les normes réglementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquérir une domination du marché et un contrôle sur des ressources clés. L’industrie de l’IA est un produit décisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires à la baisse. D’innombrables pratiques sont mobilisées pour isoler les salariés et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tâches routinières est devenue un point central du développement de produits, même si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opérer. Enfin, nous interagissons de plus en plus fréquemment avec des technologies d’IA utilisées non pas par nous, mais sur nous, qui façonnent notre accès aux ressources dans des domaines allant de la finance à l’embauche en passant par le logement, et ce au détriment de la transparence et au détriment de la possibilité même de pouvoir faire autrement.
Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libérer. Par exemple, l’intégration de l’IA dans les agences chargées de l’immigration, malgré l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondément contournés, comme le montrait le rapport sur la déportation automatisée aux Etats-Unis du collectif de défense des droits des latino-américains, Mijente. Les Services de citoyenneté et d’immigration des États-Unis (USCIS) utilisent des outils prédictifs pour automatiser leurs prises de décision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de déterminer celles qui sont frauduleuses. Ces outils ont démontré, entre autres défauts, des taux élevés d’erreurs de classification lorsqu’ils sont utilisés sur des personnes dont l’anglais n’est pas la langue maternelle. Les conséquences d’une identification erronée de fraude sont importantes : elles peuvent entraîner l’expulsion, l’interdiction à vie du territoire américain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernées par ces systèmes est plus que limitée, sans possibilité de se désinscrire ou de demander réparation lorsqu’ils sont utilisés pour prendre des décisions erronées, et, tout aussi important, peu de preuves attestent que l’efficacité de ces outils a été, ou peut être, améliorée ».
Malgré la légalité douteuse et les failles connues de nombre de ces systèmes que le rapport documente, l’intégration de l’IA dans les contrôles d’immigration ne semble vouée qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivité qui masque non seulement un racisme et une xénophobie flagrants, mais aussi la forte pression politique exercée sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fédérales de mener des contrôles d’immigration de manière profondément et de plus en plus opaque, ce qui complique encore davantage la tâche des personnes susceptibles d’être arrêtées ou accusées à tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais même une fois connus, nous disposons de très peu d’informations sur leur étalonnage ou sur les données sur lesquelles ils sont basés, ce qui réduit encore davantage la capacité des individus à faire valoir leurs droits à une procédure régulière. Ces outils s’appuient également sur une surveillance invasive du public, allant du filtrage des publications sur les réseaux sociaux à l’utilisation de la reconnaissance faciale, de la surveillance aérienne et d’autres techniques de surveillance, à l’achat massif d’informations publiques auprès de courtiers en données ». Nous sommes à la fois confrontés à des systèmes coercitifs et opaques, foncièrement défaillants. Mais ces défaillances se déploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.
Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde
La dernière partie du rapport de l’AI Now Institute tente de déployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrès”, expliquent les auteurs qui invitent à “reprendre le contrôle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport présente 5 leviers pour reprendre du pouvoir sur l’IA.
Démontrer que l’IA agit contre les intérêts des individus et de la société
Le premier objectif, pour reprendre la main, consiste à mieux démontrer que l’industrie de l’IA agit contre les intérêts des citoyens ordinaires. Mais ce discours est encore peu partagé, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux déconnectés des réalités matérielles des individus. Pour l’AI Now Institute, “nous devons donner la priorité aux enjeux politiques ancrés dans le vécu des citoyens avec l’IA”, montrer les systèmes d’IA comme des infrastructures invisibles qui régissent les vies de chacun. En cela, la résistance au démantèlement des agences publiques initiée par les politiques du Doge a justement permis d’ouvrir un front de résistance. La résistance et l’indignation face aux coupes budgétaires et à l’accaparement des données a permis de montrer qu’améliorer l’efficacité des services n’était pas son objectif, que celui-ci a toujours été de démanteler les services gouvernementaux et centraliser le pouvoir. La dégradation des services sociaux et la privation des droits est un moyen de remobilisation à exploiter.
La construction des data centers pour l’IA est également un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, à l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.
La question de l’augmentation des prix et de l’inflation, et le développements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de février qui invitait à l’interdiction pure et simple de la surveillance individualisée des prix et des salaires.
Faire progresser l’organisation des travailleurs
Le second levier consiste à faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intéressent sérieusement à la manière dont l’IA transforme la nature du travail et s’engagent résolument par le biais de négociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la manière dont leurs employeurs développent et déploient ces technologies. Les campagnes syndicales visant à contester l’utilisation de l’IA générative à Hollywood, les mobilisations pour dénoncer la gestion algorithmique des employés des entrepôts de la logistique et des plateformes de covoiturage et de livraison ont joué un rôle essentiel dans la sensibilisation du public à l’impact de l’IA et des technologies de données sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepôts ou celles des chauffeurs menées par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la précarité organisée par les plateformes… Pour cela, il faut à la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre à l’image de ce qu’à accompli le syndicat des infirmières qui a montré que le déploiement de l’IA affaiblit le jugement clinique des infirmières et menace la sécurité des patients. Cette lutte a donné lieu à une « Déclaration des droits des infirmières et des patients », un ensemble de principes directeurs visant à garantir une application juste et sûre de l’IA dans les établissements de santé. Les infirmières ont stoppé le déploiement d’EPIC Acuity, un système qui sous-estimait l’état de santé des patients et le nombre d’infirmières nécessaires, et ont contraint l’entreprise qui déployait le système à créer un comité de surveillance pour sa mise en œuvre.
Une autre tactique consiste à contester le déploiement d’IA austéritaires dans le secteur public à l’image du réseau syndicaliste fédéral, qui mène une campagne pour sauver les services fédéraux et met en lumière l’impact des coupes budgétaires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le déploiement de solutions d’IA génératives dans les services publics.
Une autre tactique consiste à mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le démantèlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services à la police, les questions écologiques liées au déploiement des plateformes logistiques ainsi que l’impact des systèmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs.
Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de défense de la vie privée à celles œuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisées sur ces enjeux. Mais également de l’étendre à l’ensemble de la chaîne de valeur et d’approvisionnement de l’IA, au-delà des questions américaines, même si pour l’instant “aucune tentative sérieuse d’organisation du secteur impacté par le déploiement de l’IA à grande échelle n’a été menée”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les différences de traitement entre les employés et les travailleurs contractuels).
Nous avons désespérément besoin de projets de lutte plus ambitieux et mieux dotés en ressources, constate le rapport. Les personnes qui construisent et forment les systèmes d’IA – et qui, par conséquent, les connaissent intimement – ont une opportunité particulière d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la manière dont ces systèmes sont utilisés. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.
“À l’instar du mouvement ouvrier du siècle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numériques au service de l’intérêt public et oblige le pouvoir irresponsable d’aujourd’hui à rendre des comptes.”
Tout d’abord, le rapport plaide pour “des règles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de déterminer si, dans quels contextes et comment, les systèmes d’IA seront utilisés. “Comparées aux cadres reposant sur des garanties basées sur les processus (comme les audits d’IA ou les régimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance à renforcer les pouvoirs des leaders du secteur et à s’appuyer sur une solide capacité réglementaire pour une application efficace, ces règles claires présentent l’avantage d’être facilement administrables et de cibler les préjudices qui ne peuvent être ni évités ni réparés par de simples garanties”. Pour l’AI Now Institute, l’IA doit être interdite pour la reconnaissance des émotions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, générer des deepfakes. Et les données de surveillance des travailleurs ne doivent pas pouvoir pas être vendues à des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions.
Ensuite, le rapport propose de réglementer tout le cycle de vie de l’IA. L’IA doit être réglementée tout au long de son cycle de développement, de la collecte des données au déploiement, en passant par le processus de formation, le perfectionnement et le développement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une réglementation efficace, la résistante des entreprises est forte, tout le long des développements, des données d’entraînement utilisées, aux fonctionnement des applications. La transparence et l’explication devraient être proactives, suggère le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les développeurs documentent et rendent publiques leurs techniques d’atténuation des risques, et que le régulateur exige la divulgation de tout risque anticipé qu’ils ne sont pas en mesure d’atténuer, afin que cela soit transparent pour les autres acteurs de la chaîne d’approvisionnement”. Le rapport recommande également d’inscrire un « droit de dérogation » aux décisions et l’obligation d’intégrer des conseils d’usagers pour qu’ils aient leur mot à dire sur les développements et l’utilisation des systèmes.
Le rapport rappelle également que la supervision des développements doit être indépendante. Ce n’est pas à l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intérêts en jeu et mobilisent des méthodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les données acquises illégalement et les modèles entraînés sur ces données (certains chercheurs parlent d’effacement de modèles et de destruction algorithmique !) ; limiter la conservation des données pour le réentraînement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles.
Le rapport propose également de construire une boîte à outils pour favoriser la concurrence. De nombreuses enquêtes pointent les limites des grandes entreprises de la tech à assurer le respect du droit à la concurrence, mais les poursuites peinent à s’appliquer et peinent à construire des changements législatifs pour renforcer le droit à la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marché est toujours dénoncé par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande séparation structurelle des activités (les entreprises du cloud ne doivent pas pouvoir participer au marché des modèles fondamentaux de l’IA par exemple, interdiction des représentations croisées dans les conseils d’administration des startups et des développeurs de modèles, etc.). Interdire aux fournisseurs de cloud d’exploiter les données qu’ils obtiennent de leurs clients en hébergeant des infrastructures pour développer des produits concurrents.
Enfin, le rapport recommande une supervision rigoureuse du développement et de l’exploitation des centres de données, alors que les entreprises qui les développent se voient exonérées de charge et que leurs riverains en subissent des impacts disproportionnés (concurrence sur les ressources, augmentation des tarifs de l’électricité…). Les communautés touchées ont besoin de mécanismes de transparence et de protections environnementales solides. Les régulateurs devraient plafonner les subventions en fonction des protections concédées et des emplois créés. Initier des règles pour interdire de faire porter l’augmentation des tarifs sur les usagers.
Décloisonner !
Le cloisonnement des enjeux de l’IA est un autre problème qu’il faut lever. C’est le cas notamment de l’obsession à la sécurité nationale qui justifient à la fois des mesures de régulation et des programmes d’accélération et d’expansion du secteur et des infrastructures de l’IA. Mais pour décloisonner, il faut surtout venir perturber le processus de surveillance à l’œuvre et renforcer la vie privée comme un enjeu de justice économique. La montée de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privée (tels que le consentement, les options de retrait, les finalités non autorisées et la minimisation des données) au cœur de la mise en place de conditions économiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les données des travailleurs devraient être considérées comme du « capital capturé » par les entreprises : leurs données sont utilisées pour former des technologies qui finiront par les remplacer (ou créer les conditions pour réduire leurs salaires), ou vendues au plus offrant via un réseau croissant de courtiers en données, sans contrôle ni compensation. Des travailleurs ubérisés aux travailleurs du clic, l’exploitation des données nécessite de repositionner la protection de la vie privée des travailleurs au cœur du programme de justice économique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent être “la cible appropriée de la résistance”, car ils seront instrumentalisés contre les intérêts des travailleurs. Sur le plan réglementaire, cela pourrait impliquer de privilégier des règles de minimisation des données qui restreignent la collecte et l’utilisation des données, renforcer la confidentialité (par exemple en interdisant le partage de données sur les salariés avec des tiers), le droit à ne pas consentir, etc. Renforcer la minimisation, sécuriser les données gouvernementales sur les individus qui sont de haute qualité et particulièrement sensibles, est plus urgent que jamais.
“Nous devons nous réapproprier l’agenda positif de l’innovation centrée sur le public, et l’IA ne devrait pas en être le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axée sur le marché, est préjudiciable au public alors que l’espace de solutions alternatives se réduit. Nous devons rejeter le paradigme d’une IA à grande échelle qui ne profitera qu’aux plus puissants.
L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt public, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique à l’achat de solutions privées, mais développe ses propres capacités d’IA, réinvestisse sa capacité d’expertise pour ne pas céder au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communauté de pratique autour de l’innovation d’intérêt général qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des méthodes d’implication des publics et aussi en élargissant l’intérêt de l’Etat à celui de l’intérêt collectif et pas seulement à ses intérêts propres (par exemple en conditionnant à la promotion des objectifs climatiques, au soutien syndical et citoyen…), ainsi qu’à redéfinir les conditions concrètes du financement public de l’IA, en veillant à ce que les investissements répondent aux besoins des communautés plutôt qu’aux intérêts des entreprises.
Changer l’agenda : pour une IA publique !
Enfin, le rapport conclut en affirmant que l’innovation devrait être centrée sur les besoins des publics et que l’IA ne devrait pas en être le centre. Le développement de l’IA devrait être guidé par des impératifs non marchands et les capitaux publics et philanthropiques devraient contribuer à la création d’un écosystème d’innovation extérieur à l’industrie, comme l’ont réclamé Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania… qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sécurité nationale et de compétitivité, mais vers des enjeux de justice sociale.
Ces discours confirment que la trajectoire de l’IA, axée sur le marché, est préjudiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas à relever le défi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA à grande échelle est nécessaire pour lutter contre les asymétries d’information et de pouvoir inhérentes à l’IA. C’est la partie cachée qu’il faut exprimer haut et fort. C’est la réalité à laquelle nous devons faire face si nous voulons rassembler la volonté et la créativité nécessaires pour façonner la situation différemment ». Un rapport du National AI Research Resource (NAIRR) américain de 2021, d’une commission indépendante présidée par l’ancien PDG de Google, Eric Schmidt, et composée de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulé le risque : « la consolidation du secteur de l’IA menace la compétitivité technologique des États-Unis. » Et la commission proposait de créer des ressources publiques pour l’IA.
« L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt général, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général ». Un projet de loi californien a récemment relancé une proposition de cluster informatique public, hébergé au sein du système de l’Université de Californie, appelé CalCompute. L’État de New York a lancé une initiative appelée Empire AI visant à construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privés. Ces deux initiatives créent des espaces de plaidoyer importants pour garantir que leurs ressources répondent aux besoins des communautés et ne servent pas à enrichir davantage les ressources des géants de la technologie.
Et le rapport de se conclure en appelant à défendre l’IA publique, en soutenant les universités, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes défavorisés disposent d’une autorité dans ces projets. Nous devons cultiver une communauté de pratique autour de l’innovation d’intérêt général.
***
Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent déjà dans des projets politiques, qui peinent à s’interelier et à se structurer. Des luttes qui sont souvent invisibilisées, tant la parole est toute entière donnée aux promoteurs de l’IA. Le rapport est extrêmement riche et rassemble une documentation à nulle autre pareille.
« L’IA ne nous promet ni de nous libérer du cycle incessant de guerres, des pandémies et des crises environnementales et financières qui caractérisent notre présent », conclut le rapport L’IA ne crée rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun à l’IA rend cet avenir plus difficile à réaliser, car cela nous enferme dans une voie résolument sombre, nous privant non seulement de la capacité de choisir quoi construire et comment le construire, mais nous privant également de la joie que nous pourrions éprouver à construire un avenir différent”. L’IA comme seule perspective d’avenir “nous éloigne encore davantage d’une vie digne, où nous aurions l’autonomie de prendre nos propres décisions et où des structures démocratiquement responsables répartiraient le pouvoir et les infrastructures technologiques de manière robuste, responsable et protégée des chocs systémiques”. L’IA ne fait que consolider et amplifier les asymétries de pouvoir existantes. “Elle naturalise l’inégalité et le mérite comme une fatalité, tout en rendant les schémas et jugements sous-jacents qui les façonnent impénétrables pour ceux qui sont affectés par les jugements de l’IA”.
Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA à grande échelle. Nous ne devons pas oublier que l’opinion publique s’oppose résolument au pouvoir bien établi des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concèdent les chercheurs de l’AI Now Institute. Cela ne les empêche pas de faire des propositions, comme d’adopter un programme politique de « confiance zéro » pour l’IA. Adopter un programme politique fondé sur des règles claires qui restreignent les utilisations les plus néfastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crée et exploite actuellement l’IA ne soit pas laissée à elle-même pour s’autoréguler et s’autoévaluer. Repenser les leviers traditionnels de la confidentialité des données comme outils clés dans la lutte contre l’automatisation et la lutte contre le pouvoir de marché.
Revendiquer un programme positif d’innovation centrée sur le public, sans IA au centre.
« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succès n’est pas inéluctable. En nous libérant de l’idée que l’IA à grande échelle est inévitable, nous pouvons retrouver l’espace nécessaire à une véritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouverné par notre volonté collective ».
La trajectoire actuelle de l’IA vers sa suprématie ne nous mènera pas au monde que nous voulons. Sa suprématie n’est pourtant pas encore là. “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir où l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir où l’IA favoriserait des salaires justes et décents, au lieu de les déprécier ; où l’IA garantirait aux travailleurs le contrôle de l’impact des nouvelles technologies sur leur carrière, au lieu de saper leur expertise et leur connaissance de leur propre travail ; où nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois élargissant le filet de sécurité sociale – au lieu de promoteurs de l’IA qui se vantent auprès des actionnaires des économies réalisées grâce à l’automatisation ; où des prestations sociales et des politiques de congés solides garantissent le bien-être à long terme des employés, au lieu que l’IA soit utilisée pour surveiller et exploiter les travailleurs à tout va ; où l’IA contribue à protéger les employés des risques pour la santé et la sécurité au travail, au lieu de perpétuer des conditions de travail dangereuses et de féliciter les employeurs qui exploitent les failles du marché du travail pour se soustraire à leurs responsabilités ; et où l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliénation.”
Pour l’AI Now Institute, l’enjeu est d’aller vers une prospérité partagée, et ce n’est pas la direction que prennent les empires de l’IA. La prolifération de toute nouvelle technologie a le potentiel d’accroître les opportunités économiques et de conduire à une prospérité partagée généralisée. Mais cette prospérité partagée est incompatible avec la trajectoire actuelle de l’IA, qui vise à maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mènera à la « productivité » pour tous, alors qu’il s’agit en réalité de la productivité d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif économique. Même les politiques gouvernementales bien intentionnées, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinées à revitaliser l’industrie de la fabrication de puces électroniques ont été contrecarrées par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou à la création d’emplois. Et malgré quelques initiatives significatives pour enquêter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrôlées, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”
“Cela implique de démanteler les grandes entreprises, de restructurer la structure de financement financée par le capital-risque afin que davantage d’entreprises puissent prospérer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dépendent pas des grandes entreprises privées, et d’accroître les investissements institutionnels pour intégrer une plus grande diversité de personnes – et donc d’idées – au sein de la main-d’œuvre technologique.”
“Nous méritons un avenir technologique qui soutienne des valeurs et des institutions démocratiques fortes.”Nous devons de toute urgence restaurer les structures institutionnelles qui protègent les intérêts du public contre l’oligarchie. Cela nécessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrôler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir.
Sur ce point, comme sur les autres, nous sommes d’accord.
L’Institut Nicod publie un court et très stimulant rapport sur la désinformation signé Grégoire Darcy. Non seulement celui-ci débogue la simplicité des réponses cognitives que les politiques publiques ont tendance à proposer, mais surtout, repolitise la question.
Le rapport rappelle que la désinformation n’est pas seulement un problème d’irrationnalité et de crédulité. Il invite à sortir de l’approche réactive qui se concentre sur les symptômes et qui se focalise bien trop sur les modalités de diffusion oubliant les mécanismes affectifs et sociaux qui expliquent l’adhésion aux récits trompeurs. La lutte contre la désinformation repose sur une vision simpliste de la psychologie humaine : « la désinformation répond à des besoins sociaux, émotionnels et identitaires plus qu’à de simples déficits de rationalité. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces récits socialement fonctionnels. » La désinformation n’est que le symptôme de la dégradation globale de l’écosystème informationnel. « Les vulnérabilités face à la désinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, économiques et médiatiques spécifiques : isolement social, précarité, homogamie idéologique et défiance institutionnelle sont des facteurs clés expliquant l’adhésion, bien au-delà des seuls algorithmes ou biais cognitifs ».
“Tant que les politiques publiques se contenteront de réponses réactives, centrées sur les symptômes visibles et ignorantes des dynamiques cognitives, sociales et structurelles à l’œuvre, elles risquent surtout d’aggraver ce qu’elles prétendent corriger. En cause : un modèle implicite, souvent naïf, de la psychologie humaine – un schéma linéaire et individualisant, qui réduit l’adhésion aux contenus trompeurs à un simple déficit d’information ou de rationalité. Ce cadre conduit à des politiques fragmentées, peu efficaces, parfois même contre-productive.”
Les réponses les plus efficientes à la désinformation passent par une transformation structurelle de l’écosystème informationnel, que seule l’action publique peut permettre, en orchestrant à la fois la régulation algorithmique et le renforcement des médias fiables. La réduction des vulnérabilités sociales, économiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la désinformation, en s’attaquant aux facteurs qui nourrissent la réceptivité aux contenus trompeurs – précarité, marginalisation, polarisation et défiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite à une régulation forte des réseaux sociaux permettant de « restituer la maîtrise du fil par une transparence algorithmique accrue et une possibilité de maîtriser » les contenus auxquels les gens accèdent : « rendre visibles les critères de recommandation et proposer par défaut un fil chronologique permettrait de réduire les manipulations attentionnelles sans recourir à la censure ». Le rapport recommande également « d’assurer un financement stable pour garantir l’indépendance des médias et du service public d’information ». Il recommande également de renforcer la protection sociale et les politiques sociales pour renforcer la stabilité propice à l’analyse critique. D’investir dans le développement d’espace de sociabilité et de favoriser une circulation apaisée de l’information en renforçant l’intégrité publique.
Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.
Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derrière les discours d’efficience, d’autonomie et de prévention, un glissement insidieux s’opère : celui d’une médecine qui renonce à soigner”. Le soin est en train de devenir conditionnel, réservé aux existences jugées “optimisables”. La stratégie de non-soin, n’est pas que la conséquence des restrictions budgétaires ou de la désorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme américain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coûts liés au soin, ou la loi sur le droit à mourir récemment adoptée en France, dénoncée par les collectifs antivalidistes comme une manière d’acter l’impossibilité de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derrière les mots d’efficacité, d’autonomie, de prévention, voire de soutenabilité. Il s’appuie sur des cadres comme le paradigme One Health, censé penser la santé de manière systémique à l’échelle des écosystèmes mais qui, en pratique, contribue à diluer les responsabilités et à rendre invisibles les enjeux de justice sociale.” Nous entrons dans une médicalisation sans soins, où l’analyse de santé se détache de toute thérapeutique.
Pour Derek Beres de Conspirituality, nous entrons dans une ère de “soft eugenics”, d’eugénisme doux. Le self-care propose désormais à chacun de mesurer sa santé pour en reprendre le contrôle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la Santé américain, critiquant à la fois la surmédicalisation et la montée des maladies chroniques renvoyées à des comportements individuels. En mettant l’accent sur la prévention et la modification des modes de vies, cet abandon de la santé renvoie les citoyens vers leurs responsabilités et la santé publique vers des solutions privées, en laissant sur le carreau les populations vulnérables. Cette médecine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiqués proches du quantified self, “vidée de toute relation clinique”. “Ces technologies alimentent des systèmes d’optimisation où l’important n’est plus la guérison, mais la conformité aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet à accompagner. La plateformisation du soin réorganise en profondeur les régimes d’accès à la santé. La médecine n’est alors plus un service public mais une logistique de gestion différenciée des existences.”
C’est le cas du paradigme One Health, qui vise à remplacer le soin par une idéalisation holistique de la santé, comme un état d’équilibre à maintenir, où l’immunité naturelle affaiblit les distinctions entre pathogène et environnement et favorise une démission institutionnelle. “Face aux dégradations écologiques, le réflexe n’est plus de renforcer les capacités collectives de soin. Il s’agit désormais de retrouver une forme de pureté corporelle ou environnementale perdue. Cette quête se traduit par l’apologie du jeûne, du contact avec les microbes, de la « vitalité » naturelle – et la dénonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre médecine industrielle et médecine publique, et reformule le soin comme une purification individuelle. Là encore, le paradigme du non-soin prospère non pas en contradiction avec l’écologie, mais bien davantage au nom d’une écologie mal pensée, orientée vers le refus de l’artifice plutôt que vers l’organisation solidaire de la soutenabilité.”“L’appel à « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus méritants dans un monde saturé de toxicités (et de modernité).”
“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnérables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisé s’infiltre partout, pour distinguer les populations et mettre de côté ceux qui ne peuvent être soignés. “La santé publique cesse d’être pensée comme un bien commun, et devient une performance individuelle, mesurée, scorée, marchandée. La médecine elle-même, soumise à l’austérité, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prévenir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment méritants.” Pour Monnin, cet accent mis sur la prévention pourrait être louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santé publique qui se renforce mais une responsabilité individualisée du « bien se porter » qui légitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prévention devient une rhétorique de la culpabilité, où le soin est indexé sur la conformité à un mode de vie puissamment normé”.
Pour le philosophe, le risque est que le soin devienne une option, un privilège.
Le problème est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prévention, alors qu’elles ne parlent que de responsabilité individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun à l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaître l’inégale capacité des individus à le faire”. Un monde où ”la surveillance remplace l’attention, la donnée remplace la relation, le test remplace le soin”. Derrière le tri, se profile “une santé sans soin, une médecine sans clinique – une écologie sans solidarité”.
“L’État ne disparaît pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, émetteur d’appels à projets. En matière de santé, cela signifie le financement de dispositifs de prévention algorithmique, l’encouragement de solutions « innovantes » portées par des start-ups, ou encore le remboursement indirect de produits encore non éprouvés. Ce nouveau régime n’est pas une absence de soin, c’est une délégation programmée du soin à des acteurs dont l’objectif premier n’est pas le soin mais la rentabilité. L’État ne s’efface pas en totalité : il administre la privatisation du soin.”
Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, résumer des livres ou des articles, planifier et rédiger leurs essais, résoudre les exercices qui leurs sont demandés. Le plafond de la triche a été pulvérisé, explique un étudiant. “Un nombre considérable d’étudiants sortiront diplômés de l’université et entreront sur le marché du travail en étant essentiellement analphabètes”, se désole un professeur qui constate le court-circuitage du processus même d’apprentissage. La triche semblait pourtant déjà avoir atteint son apogée, avant l’arrivée de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des réponses à toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grâce aux 150 000 experts diplômés de l’enseignement supérieur qu’elle employait, principalement en Inde”.
Chaque école a proposé sa politique face à ces nouveaux outils, certains prônant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, à condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux élèves de détailler la manière dont ils l’ont utilisé. Mais cela ne dessine pas nécessairement de limites claires à leurs usages. L’article souligne que si les professeurs se croient doués pour détecter les écrits générés par l’IA, des études ont démontré qu’ils ne le sont pas. L’une d’elles, publiée en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entièrement générés par l’IA dans les piles de correction des professeurs d’une université britannique. Les professeurs n’ont pas signalé 97 % des essais génératifs. En fait, souligne l’article, les professeurs ont plutôt abandonné l’idée de pouvoir détecter le fait que les devoirs soient rédigés par des IA.“De nombreux enseignants semblent désormais désespérés”. “Ce n’est pas ce pour quoi nous nous sommes engagés”, explique l’un d’entre eux. La prise de contrôle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. Désormais, les élèves ne tentent même plus de se battre contre eux-mêmes. Ils se replient sur la facilité. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs.
L’IA a mis à jour les défaillances du système éducatif. Bien sûr, l’idéal de l’université et de l’école comme lieu de développement intellectuel, où les étudiants abordent des idées profondes a disparu depuis longtemps. La perspective que les IA des professeurs évaluent désormais les travaux produits par les IA des élèves, finit de réduire l’absurdité de la situation, en laissant chacun sans plus rien à apprendre. Plusieurs études (comme celle de chercheurs de Microsoft) ont établi un lien entre l’utilisation de l’IA et une détérioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA générative compromet déjà la créativité et l’intelligence. “La bataille est perdue”, se désole un autre professeur.
Reste à savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquête pour le New Yorker, le journaliste Hua Hsu constate que tous les étudiants qu’il a interrogé pour comprendre leur usage de l’IA ont commencé par l’utiliser pour se donner des idées, en promettant de veiller à un usage responsable et ont très vite basculé vers des usages peu modérés, au détriment de leur réflexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des étudiants, Anthropic a montré que la moitié des interactions des étudiants avec son outil serait extractive, c’est-à-dire servent à produire des contenus.404 media est allé discuter avec les participants de groupes de soutien en ligne de gens qui se déclarent comme “dépendants à l’IA”. Rien n’est plus simple que de devenir accro à un chatbot, confient des utilisateurs de tout âge. OpenAI en est conscient, comme le pointait une étude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remèdes.
Comment apprendre aux enfants à faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en éducation à la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA améliore-t-elle l’éducation ou la remplace-t-elle ? “Chaque année, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le résultat d’un cours est constitué de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expérience étudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la réflexion de l’élève”. “L’utilité des devoirs écrits repose sur deux hypothèses : la première est que pour écrire sur un sujet, l’élève doit comprendre le sujet et organiser ses pensées. La seconde est que noter les écrits d’un élève revient à évaluer l’effort et la réflexion qui y ont été consacrés”. Avec l’IA générative, la logique de cette proposition, qui semblait pourtant à jamais inébranlable, s’est complètement effondrée.
Pour Shirky, il ne fait pas de doute que l’IA générative peut être utile à l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les étudiants peuvent rédiger un devoir et demander des commentaires, voir à quoi ressemble une réécriture à différents niveaux de lecture, ou encore demander un résumé pour vérifier la clarté”… “Mais le fait que l’IA puisse aider les étudiants à apprendre ne garantit pas qu’elle le fera”. Pour le grand théoricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant à apprendre”. “Face à l’IA générative dans nos salles de classe, la réponse évidente est d’inciter les étudiants à adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations néfastes. Notre problème est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se désole-t-il. Les étudiants eux aussi sont déboussolés et finissent par se demander où l’utilisation de l’IA les mène. Shirky fait son mea culpa. L’utilisation engagée de l’IA conduit à son utilisation paresseuse. Nous ne savons pas composer avec les difficultés. Mais c’était déjà le cas avant ChatGPT. Les étudiants déclarent régulièrement apprendre davantage grâce à des cours magistraux bien présentés qu’avec un apprentissage plus actif, alors que de nombreuses études démontrent l’inverse. “Un outil qui améliore le rendement mais dégrade l’expérience est un mauvais compromis”.
C’est le sens même de l’éducation qui est en train d’être perdu. Le New York Times revenait récemment sur le fait que certaines écoles interdisent aux élèves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une étude auprès de 1800 enseignants de l’enseignement supérieur, 18 % déclaraient utiliser fréquemment ces outils pour faire leur cours, l’année dernière – un chiffre qui aurait doublé depuis. Les étudiants ne lisent plus ce qu’ils écrivent et les professeurs non plus. Si les profs sont prompts à critiquer l’usage de l’IA par leurs élèves, nombre d’entre eux l’apprécient pour eux-mêmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les élèves, répondent MagicSchool et Brisk Teaching qui proposent déjà des produits d’IA qui fournissent un retour instantané sur les écrits des élèves. L’Etat du Texas a signé un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisée des écrits des élèves.
Pour Jason Koebler de 404 media : “la société dans son ensemble n’a pas très bien résisté à l’IA générative, car les grandes entreprises technologiques s’obstinent à nous l’imposer. Il est donc très difficile pour un système scolaire public sous-financé de contrôler son utilisation”. Pourtant, peu après le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel à des consultants pro-IA pour produire des formations et des présentations “encourageant largement les enseignants à utiliser l’IA générative en classe”, mais “aucun n’anticipait des situations aussi extrêmes que celles décrites dans l’article du New York Mag, ni aussi problématiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains élèves désormais sont totalement dépendants de ChatGPT”. Les documents rassemblés par 404media montrent surtout que les services d’éducation américains ont tardé à réagir et à proposer des perspectives aux enseignants sur le terrain.
Dans un autre article de 404 media, Koebler a demandé à des professeurs américains d’expliquer ce que l’IA a changé à leur travail. Les innombrables témoignages recueillis montrent que les professeurs ne sont pas restés les bras ballants, même s’ils se sentent très dépourvus face à l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures à corriger des devoirs que les élèves mettent quelques secondes à produire. Tous dressent un constat similaire fait d’incohérences, de confusions, de démoralisations, entre préoccupations et exaspérations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectées ?“Je ne veux pas que les étudiants qui n’utilisent pas de LLM soient désavantagés. Et je ne veux pas donner de bonnes notes à des étudiants qui ne font pratiquement rien”, témoigne un prof. Beaucoup ont désormais recours à l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passés de la curiosité au rejet catégorique de ces outils. Beaucoup pointent que leur métier est plus difficile que jamais. “ChatGPT n’est pas un problème isolé. C’est le symptôme d’un paradigme culturel totalitaire où la consommation passive et la régurgitation de contenu deviennent le statu quo.”
L’IA place la déqualification au coeur de l’apprentissage
Nicholas Carr, qui vient de faire paraître Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que“la véritable menace que représente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle décourage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour réaliser une tâche, soit leurs compétences augmentent, soit elles s’atrophient, soit elles ne se développent jamais. C’est la piste qu’il avait d’ailleurs exploré dans Remplacer l’humain (L’échapée, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrètement les métiers, des architectes aux pilotes d’avions). “Si un travailleur maîtrise déjà l’activité à automatiser, la machine peut l’aider à développer ses compétences” et relever des défis plus complexes. Dans les mains d’un mathématicien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compétence exige une pratique fréquente, combinant dextérité manuelle et mentale, alors l’automatisation peut menacer le talent même de l’expert. C’est le cas des pilotes d’avion confrontés aux systèmes de pilotage automatique qui connaissent un “affaissement des compétences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tâche avant que la personne qui l’utilise n’ait acquis l’expérience de la tâche en question. “C’est l’histoire du phénomène de « déqualification » du début de la révolution industrielle. Les artisans qualifiés ont été remplacés par des opérateurs de machines non qualifiés. Le travail s’est accéléré, mais la seule compétence acquise par ces opérateurs était celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compétence. Supprimez la machine, et le travail s’arrête”.
Bien évidemment que les élèves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une très épaisse étude du MIT (synthétisée par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutôt que le calcul mental vont moins se souvenir des opérations qu’ils ont effectuées. Mais le problème est surtout que ceux qui les utilisent sont moins méfiants de leurs résultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement à ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problème de l’usage des LLM à l’école, c’est à la fois qu’il empêche d’apprendre à faire, mais plus encore que leur usage nécessite des compétences pour les évaluer.
L’IA générative étant une technologie polyvalente permettant d’automatiser toutes sortes de tâches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scénarios de compétences dans les années à venir, estime Carr. Mais l’utilisation de l’IA par les lycéens et les étudiants pour réaliser des travaux écrits, pour faciliter ou éviter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de déqualification au cœur de l’éducation. Automatiser l’apprentissage revient à le subvertir”.
En éducation, plus vous effectuez de recherches, plus vous vous améliorez en recherche, et plus vous rédigez d’articles, plus vous améliorez votre rédaction. “Cependant, la valeur pédagogique d’un devoir d’écriture ne réside pas dans le produit tangible du travail – le devoir rendu à la fin du devoir. Elle réside dans le travail lui-même : la lecture critique des sources, la synthèse des preuves et des idées, la formulation d’une thèse et d’un argument, et l’expression de la pensée dans un texte cohérent. Le devoir est un indicateur que l’enseignant utilise pour évaluer la réussite du travail de l’étudiant – le travail d’apprentissage. Une fois noté et rendu à l’étudiant, le devoir peut être jeté”.
L’IA générative permet aux étudiants de produire le produit sans effectuer le travail. Le travail remis par un étudiant ne témoigne plus du travail d’apprentissage qu’il a nécessité. “Il s’y substitue ». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les étudiants ont toujours cherché des raccourcis bien sûr, mais l’IA générative est différente, pas son ampleur, par sa nature. “Sa rapidité, sa simplicité d’utilisation, sa flexibilité et, surtout, sa large adoption dans la société rendent normal, voire nécessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. Grâce à l’IA générative, un élève médiocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe très justement Carr, “la conséquence ironique de cette perte d’apprentissage est qu’elle empêche les élèves d’utiliser l’IA avec habileté. Rédiger une bonne consigne, un prompt efficace, nécessite une compréhension du sujet abordé. Le dispensateur doit connaître le contexte de la consigne. Le développement de cette compréhension est précisément ce que la dépendance à l’IA entrave”. “L’effet de déqualification de l’outil s’étend à son utilisation”. Pour Carr, “nous sommes obnubilés par la façon dont les étudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous préoccuper davantage, c’est la façon dont l’IA trompe les étudiants”.
Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant à avancer !
Passer du malaise moral au malaise social !
Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), révélateur, comme le souligne l’obsession sur la « triche » des élèves. Mais plus qu’un dilemme moral, peut-être faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (première et seconde partie).
Pour Benbouzid, l’IA générative à l’université ébranle les fondements de « l’auctorialité », c’est-à-dire qu’elle modifie la position d’auteur et ses repères normatifs et déontologiques. Dans le monde de l’enseignement supérieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a été « perçu » très tôt comme une transgression morale. Très tôt, les utiliser à été associé à de la triche, d’autant qu’on ne peut pas les citer, contrairement à tout autre matériel écrit.
Face à leur statut ambiguë, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel légitime à fournir pour ses études ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la première partie de ce dossier ? Comment contrôler et s’assurer d’une utilisation active et éthique et non pas passive et moralement condamnable ?
Pour Benbouzid, il se joue une réflexion éthique sur le rapport à soi qui nécessite d’être authentique. Mais peut-on être authentique lorsqu’on se construit, interroge le sociologue, en évoquant le fait que les étudiants doivent d’abord acquérir des compétences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour résumer ou copier. Pour Benbouzid, comme pour Mollick, bien employée, elle peut-être un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais réelle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacité de persuasion de ces machines sur ceux qui les utilisent.
Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donné lieu à un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (même si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indéchiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce déplacement, s’il est intéressant (et peut-être peu adapté à l’IA générative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA génératives qui bousculent le cadre ancien de régulation des textes académiques. Reste que l’auteur d’un texte doit toujours en répondre, rappelle Benbouzid, et c’est désormais bien plus le cas des étudiants qui utilisent l’IA que de ceux qui déploient ces systèmes d’IA. L’autonomie qu’on attend d’eux est à la fois un idéal éducatif et une obligation morale envers soi-même, permettant de développer ses propres capacités de réflexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compétence instrumentale. Il devient un acte de formation éthique ». Le problème, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalité morale de l’éducation n’est pas la même que celle qui permet à un étudiant de décider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les étudiants ont donc obligation morale de ne pas utiliser ChatGPT, car écrire soi-même ses textes est essentiel à la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilité envers soi-même où écrire par soi-même n’est pas seulement une tâche scolaire, mais également un moyen d’assurer sa dignité morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanité en soi. »
Pour Benbouzid, les contradictions de ces deux dilemmes résument bien le choix cornélien des étudiants et des enseignants. Elle leur impose une liberté de ne pas utiliser. Mais cette liberté de ne pas utiliser, elle, ne relève-t-elle pas d’abord et avant tout d’un jugement social ?
L’IA générative ne sera pas le grand égalisateur social !
C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui à recours à l’IA et pourquoi, le sociologue permet d’entrouvrir une autre réponse que la réponse morale. Ceux qui promeuvent l’usage de l’IA pour les étudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une égaliseur de chances, permettant de réduire les différences cognitives entre les élèves. C’est là une référence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expérience, permet la montée en compétence accélérée des travailleurs et réduit les écarts de compétence des travailleurs (une théorie qui a été en partie critiquée, notamment parce que ces avantages sont compensés par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontés à une homogénéisation des performances d’écritures ? N’assiste-t-on pas plutôt à un renforcement des inégalités entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA générative et les moins pourvus socialement ?
Pour John Danaher, l’IA générative pourrait redéfinir pas moins que l’égalité, puisque les compétences traditionnelles (rédaction, programmation, analyses…) permettraient aux moins dotés d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalité soit alors reléguée au second plan : « d’autres valeurs comme l’efficacité économique ou la liberté individuelle prendraient le dessus, entraînant une acceptation accrue des inégalités. L’efficacité économique pourrait être mise en avant si l’IA permet une forte augmentation de la productivité et de la richesse globale, même si cette richesse est inégalement répartie. Dans ce scénario, plutôt que de chercher à garantir une répartition équitable des ressources, la société pourrait accepter des écarts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inégalité sous prétexte que la technologie génère globalement des bénéfices pour tous, même si ces bénéfices ne sont pas partagés de manière égale. De la même manière, la liberté individuelle pourrait être privilégiée si l’IA permet à chacun d’accéder à des outils puissants qui augmentent ses capacités, mais sans garantir que tout le monde en bénéficie de manière équivalente. Certains pourraient considérer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, même si cela crée de nouvelles hiérarchies basées sur l’usage différencié de l’IA ». Pour Danaher comme pour Benbouzid, l’intégration de l’IA dans l’enseignement doit poser la question de ses conséquences sociales !
Les LLM ne produisent pas un langage neutre mais tendent à reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisés », rappelle Bilel Benbouzid. Une étude comparant les lettres de motivation d’étudiants avec des textes produits par des IA génératives montre que ces dernières correspondent surtout à des productions de CSP+. Pour Benbouzid, le risque est que la délégation de l’écriture à ces machines renforce les hiérarchies existantes plus qu’elles ne les distribue. D’où l’enjeu d’une enquête en cours pour comprendre l’usage de l’IA générative des étudiants et leur rapport social au langage.
Les premiers résultats de cette enquête montrent par exemple que les étudiants rechignent à copier-collé directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les étudiants comparent souvent ChatGPT à l’aide parentale. On comprend que la légitimité ne réside pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximité culturelle qui la rend acceptable, voire valorisante, là où l’assistance algorithmique est perçue comme une rupture avec le niveau académique et leur propre maîtrise de la langue ». Et effectivement, la perception de l’apport des LLM dépend du capital culturel des étudiants. Pour les plus dotés, ChatGPT est un outil utilitaire, limité voire vulgaire, qui standardise le langage. Pour les moins dotés, il leur permet d’accéder à des éléments de langages valorisés et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement.
Dans ce rapport aux outils de génération, pointe un rapport social à la langue, à l’écriture, à l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problème moral qu’un dilemme social. « Ces pratiques, loin d’être homogènes, traduisent une appropriation différenciée de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social à l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la manière dont les étudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiérarchies culturelles et sociales de l’université. » En fait, les étudiants utilisent les outils non pas pour se dépasser, comme l’estime Mollick, mais pour produire un contenu socialement légitime. « En déléguant systématiquement leurs compétences de lecture, d’analyse et d’écriture à ces modèles, les étudiants peuvent contourner les processus essentiels d’intériorisation et d’adaptation aux normes discursives et épistémologiques propres à chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de développer authentiquement son propre capital culturel académique, substitué par un habitus dominant produit artificiellement par l’IA. »
L’apparence d’égalité instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inégalité structurelle accrue. Les outils creusant l’écart entre des étudiants qui ont déjà internalisé les normes dominantes et ceux qui les singent. Le fait que les textes générés manquent d’originalité et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les étudiants égaux face à ces outils. D’un côté, les grandes écoles renforcent les compétences orales et renforcent leurs exigences d’originalité face à ces outils. De l’autre, d’autres devront y avoir recours par nécessité. « Pour les mieux établis, l’IA représentera un outil optionnel d’optimisation ; pour les plus précaires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, même si l’IA profitera relativement davantage aux moins qualifiés, cette amélioration pourrait simultanément accentuer une forme de dépendance technologique parmi les populations les plus défavorisées, creusant encore le fossé avec les élites, mieux armées pour exercer un discernement critique face aux contenus générés par les machines ».
Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une manière égale. On le constate très bien ailleurs. Le fait d’être capable de rédiger un courrier administratif est loin d’être partagé. Si ces outils améliorent les courriers des moins dotés socialement, ils ne renversent en rien les différences sociales. C’est le même constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maîtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mémétiques et les utilisateurs productifs. Ces outils, qui se présentent comme des outils qui seraient capables de dépasser les inégalités sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter à chacun, il semble que l’IA donne des superpouvoirs d’apprentissage à ceux qui maîtrisent leurs apprentissages, plus qu’aux autres.
L’IApocalypse scolaire, coincée dans le droit
Les questions de l’usage de l’IA à l’école que nous avons tenté de dérouler dans ce dossier montrent l’enjeu à débattre d’une politique publique d’usage de l’IA générative à l’école, du primaire au supérieur. Mais, comme le montre notre enquête, toute la communauté éducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiée à François Taddéi et Sarah Cohen-Boulakia sur les pratiques pédagogiques de l’IA dans l’enseignement supérieur, rapportait le Monde.
Un premier cadre d’usage de l’IA à l’école vient pourtant d’être publié par le ministère de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout à la hauteur des enjeux. Le document consiste surtout en un rappel des règles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA générative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux élèves d’utiliser des services d’IA grand public impliquant la création d’un compte personnel » rappelle le document. La note recommande également de ne pas utiliser l’IA générative avec les élèves avant la 4e et souligne que« l’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude ». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’être un cadre de développement ouvert à l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer à produire du déni, tentant de rappeler des règles sur des usages qui les débordent déjà très largement.
Sur Linked-in, Yann Houry, prof dans un Institut privé suisse, était très heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de légalité et de confidentialité, les professeurs ne devraient pas utiliser les services d’IA génératives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les élèves peut-être classée comme un usage à haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de désaccord sur une évaluation, sans compter que le professeur doit également être transparent sur ce qu’il utilise pour rester en conformité et l’inscrire au registre des traitements. Bref, d’un côté comme de l’autre, tant du côté des élèves qui sont renvoyé à la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, très contraint, pour ne pas dire impossible.
D’autres cadres et rapports ont été publiés. comme celui de l’inspection générale, du Sénat ou de la Commission européenne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement à l’IA devrait être, plus que de donner un cadre aux débordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste à construire, avec les professeurs… et avec les élèves.
Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de défense des droits Equidem, estiment que les accords de confidentialité sont devenus l’outil qui permet de réduire au silence tous les travailleurs du numérique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent désormais à toute la chaîne de production des systèmes, jusqu’aux travailleurs du clic. Le système tout entier vise à contraindre les travailleurs à se taire. Ils ne concernent plus les accords commerciaux, mais interdisent à tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thérapeutes. Ils rendent toute enquête sur les conditions de travail très difficile, comme le montre le rapport d’Equidem sur la modération des contenus. Partout, les accords de confidentialité ont créé une culture de la peur et imposé le silence, mais surtout “ils contribuent à maintenir un système de contrôle qui spolie les travailleurs tout en exonérant les entreprises technologiques et leurs propriétaires milliardaires de toute responsabilité”, puisqu’ils les rendent inattaquables pour les préjudices qu’ils causent, empêchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la négociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialité à leur objectif initial, à savoir la protection des données propriétaires, et non à l’interdiction générale de parler des conditions de travail. Le recours aux accords de confidentialité dans le secteur technologique, en particulier dans les pays du Sud, reste largement déréglementé et dangereusement incontrôlé.
Pourtant, rappelait-il, la triche est là depuis longtemps. Une étude longitudinale de 2020 montrait déjà que de moins en moins d’élèves bénéficiaient des devoirs qu’ils avaient à faire. L’étude, menée par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les élèves faisaient leurs devoirs en 2008, cela améliorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’améliorer les notes que de 45% des élèves. Pourquoi ? Parce que plus de la moitié des élèves copiaient-collaient les réponses à leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre étude soulignait même que 15% des élèves avaient payé quelqu’un pour faire leur devoir, généralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était déjà facile avant sa généralisation.
Les calculatrices n’ont pas tué les mathématiques
Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion même de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformé l’enseignement des mathématiques. Dans un précédent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a été introduite dans les écoles, les réactions ont été étonnamment proches des inquiétudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les élèves. En s’appuyant sur une thèse signée Sarah Banks, Mollick rappelle que dès les années 70, certains professeurs étaient impatients d’intégrer l’usage des calculatrices dans leurs classes, mais c’était loin d’être le cas de tous. La majorité regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiétude que leurs enfants n’oublient les bases des maths. Au début des années 80, les craintes des enseignants s’étaient inversées, mais très peu d’écoles fournissaient de calculatrices à leurs élèves. Il faut attendre le milieu des années 1990, pour que les calculatrices intègrent les programmes scolaires. En fait, un consensus pratique sur leur usage a été atteint. Et l’enseignement des mathématiques ne s’est pas effondré (même si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la généralisation des calculatrices).
Pour Mollick, l’intégration de l’IA à l’école suivra certainement un chemin similaire. « Certains devoirs nécessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinés à des examens écrits, permettront aux élèves d’acquérir les compétences rédactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intégrer l’IA au processus d’apprentissage sans compromettre le développement des compétences essentielles. Tout comme les calculatrices n’ont pas remplacé l’apprentissage des mathématiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensée critique. Cela prendra peut-être du temps, mais nous y parviendrons », explique Mollick, toujours optimiste.
Pourquoi faire des devoirs quand l’IA les rend obsolètes ?
Mais l’impact de l’IA ne se limite pas à l’écriture, estime Mollick. Elle peut aussi être un vulgarisateur très efficace et ChatGPT peut répondre à bien des questions. L’arrivée de l’IA remet en cause les méthodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succès escompté. « Les cours magistraux ont tendance à reposer sur un apprentissage passif, où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Dans ce format, les étudiants peuvent avoir du mal à retenir l’information, car leur attention peut facilement faiblir lors de longues présentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des différences et des capacités individuelles, ce qui conduit certains étudiants à prendre du retard tandis que d’autres se désintéressent, faute de stimulation ». Mollick est plutôt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les étudiants à participer au processus d’apprentissage par le biais d’activités telles que la résolution de problèmes, le travail de groupe et les exercices pratiques. Dans cette approche, les étudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une méthode que plusieurs études valorisent comme plus efficaces, même si les étudiants ont aussi besoin d’enseignements initiaux appropriés.
La solution pour intégrer davantage d’apprentissage actif passe par les classes inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices. Afin de maximiser le temps consacré à l’apprentissage actif et à la pensée critique, tout en utilisant l’apprentissage à domicile pour la transmission du contenu.
Pourtant, reconnaît Mollick, l’apprentissage actif peine à s’imposer, notamment parce que les professeurs manquent de ressources de qualité et de matériel pédagogique inversé de qualité. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe où des tuteurs IA personnalisés viendraient accompagner les élèves, adaptant leur enseignement aux besoins des élèves tout en ajustant les contenus en fonction des performances des élèves, à la manière du manuel électronique décrit dans L’âge de diamant de Neal Stephenson, emblème du rêve de l’apprentissage personnalisé. Face aux difficultés, Mollick à tendance à toujours se concentrer « sur une vision positive pour nous aider à traverser les temps incertains à venir ». Pas sûr que cela suffise.
Dans son article d’août 2023, Mollick estime que les élèves vont bien sûr utiliser l’IA pour tricher et vont l’intégrer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question à laquelle nous allons devoir répondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolètes ?
Perturbation de l’écriture et de la lecture
Mollick rappelle que la dissertation est omniprésente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacité à raisonner et à structurer son raisonnement. Le problème, c’est que les dissertations sont très faciles à générer avec l’IA générative. Les détecteurs de leur utilisation fonctionnent très mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans écrans, nous n’avons plus de moyens pour détecter si un travail est réalisé par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte à grignoter beaucoup de temps d’apprentissage.
Mais pour Mollick, les écoles et les enseignants vont devoir réfléchir sérieusement à l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des références ou des explications ? Qu’est-ce qui peut-être autorisé et comment les utiliser ?
Mollick rappelle qu’une autre activité éducative primordiale reste la lecture. « Qu’il s’agisse de rédiger des comptes rendus de lecture, de résumer des chapitres ou de réagir à des articles, toutes ces tâches reposent sur l’attente que les élèves assimilent la lecture et engagent un dialogue avec elle ». Or, l’IA est là encore très performante pour lire et résumer. Mollick suggère de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthèses… Pas sûr que la perspective apaise la panique morale qui se déverse dans la presse sur le fait que les étudiants ne lisent plus. Du New Yorker (« Les humanités survivront-elles à ChatGPT ? » ou « Est-ce que l’IA encourage vraiement les élèves à tricher ? ») à The Atlantic (« Les étudiants ne lisent plus de livres » ou « La génération Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les étudiants ne lisent plus c’est parce que les compétences ne sont plus valorisées nulles part), la perturbation que produit l’arrivée de ChatGPT dans les études se double d’une profonde chute de la lecture, qui semble être devenue d’autant plus inutile que les machines les rendent disponibles. Mêmes inquiétudes dans la presse de ce côté-ci de l’Atlantique, duMonde àMédiapart en passant parFrance Info…
Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi très bien résoudre les problèmes et exercices de math comme de science.
Pour Mollick, comme pour bien des thuriféraires de l’IA, c’est à l’école et à l’enseignement de s’adapter aux perturbations générées par l’IA, qu’importe si la société n’a pas demandé le déploiement de ces outils. D’ailleurs, soulignait-il très récemment, nous sommes déjà dans une éducation postapocalyptique. Selon une enquête de mai 2024, aux Etats-Unis 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA. Une adoption extrêmement rapide. Même si les élèves ont beau dos de ne pas considérer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’être humain est doué pour trouver comment se soustraire ce qu’il ne souhaite pas faire et éviter l’effort mental. Et plus les tâches mentales sont difficiles, plus nous avons tendance à les éviter. Le problème, reconnaît Mollick, c’est que dans l’éducation, faire un effort reste primordial.
Dénis et illusions
Pourtant, tout le monde semble être dans le déni et l’illusion. Les enseignants croient pouvoir détecter facilement l’utilisation de l’IA et donc être en mesure de fixer les barrières. Ils se trompent très largement. Une écriture d’IA bien stimulée est même jugée plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste à revenir à l’écriture en classe, ce qui nécessite du temps qu’ils n’ont pas nécessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.
Mais les élèves aussi sont dans l’illusion. « Ils ne réalisent pas réellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». Après tout, ils reçoivent des conseils et des réponses de l’IA qui les aident à résoudre des problèmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les étudiants sont conscients que leur stratégie de devoirs diminue leur note à l’examen… ils en déduisent, de manière logique, que toute stratégie d’étude augmentant leur note à un devoir augmente également leur note à l’examen ». En fait, comme le montre une autre étude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec l’outil. Par contre, quand ils sont accompagnés pour comprendre comment l’utiliser comme coach plutôt qu’outil de réponse, alors l’outil les aide à la fois à améliorer leurs notes aux devoirs comme à l’examen. Une autre étude, dans un cours de programmation intensif à Stanford, a montré que l’usage des chatbots améliorait plus que ne diminuait les notes aux examens.
Une majorité de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, réfléchir à des idées, rafraîchir ses connaissances, obtenir un retour, des conseils… Mais c’est peut-être oublier de sa part, d’où il parle et combien son expertise lui permet d’avoir un usage très évolué de ces outils. Ce qui n’est pas le cas des élèves.
Encourager la réflexion et non la remplacer
Pour que les étudiants utilisent l’IA pour stimuler leur réflexion plutôt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-être va-t-il falloir nous intéresser aux professeurs, pour l’instant laissés bien dépourvus face à ces nouveaux outils.
Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages américains, trois quart des enseignants utiliseraient désormais l’IA dans leur travail, mais nous connaissons encore trop peu les méthodes efficaces qu’ils doivent mobiliser. Une étude qualitative menée auprès d’eux a montré que ceux qui utilisaient l’IA pour aider leurs élèves à réfléchir, pour améliorer les explications obtenaient de meilleurs résultats. Pour Mollick, la force de l’IA est de pouvoir créer des expériences d’apprentissage personnalisées, adaptées aux élèves et largement accessibles, plus que les technologies éducatives précédentes ne l’ont jamais été. Cela n’empêche pas Mollick de conclure par le discours lénifiant habituel : l’éducation quoiqu’il en soit doit s’adapter !
Cela ne veut pas dire que cette adaptation sera très facile ou accessible, pour les professeurs, comme pour les élèves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le résultat« . Or, l’IA fait à tous la promesse inverse. En matière d’éducation, cela risque d’être dramatique, surtout si nous continuons à valoriser le résultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre méritocratie actuelle. C’est peut-être par là qu’il faudrait d’ailleurs commencer, pour résoudre l’IApocalypse éducative…
Pour Mollick cette évolution « exige plus qu’une acceptation passive ou une résistance futile ». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intégrante du paysage éducatif, nos priorités doivent évoluer. L’objectif n’est pas de déjouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour améliorer l’éducation tout en atténuant ses inconvénients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour créer un environnement d’apprentissage plus efficace, plus équitable et plus stimulant pour tous ». Plus facile à dire qu’à faire. Expérimenter prend du temps, trouver de bons exercices, changer ses pratiques… pour nombre de professeurs, ce n’est pas si évident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former. La proposition d’Anthropic de produire une IA dédiée à l’accompagnement des élèves (Claude for Education) qui ne cherche pas à fournir des réponses, mais produit des modalités pour accompagner les élèves à saisir les raisonnements qu’ils doivent échafauder, est certes stimulante, mais il n’est pas sûr qu’elle ne soit pas contournable.
Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutôt comme Mollick et qui ont du temps pour s’occuper de leurs élèves, qui vont pouvoir faire des évaluations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supérieur en France, rapportait le Monde). Et les autres, plus circonspects sur les évolutions en cours, où de plus en plus souvent des élèves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA… On voit bien en tout cas, que la question de l’IA générative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des élèves, à charge à eux de s’en débrouiller.
Mercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA.
Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons pour comprendre de quelle information sur le numérique avons-nous besoin, à l’heure où l’IA vient partout bouleverser sa place.
Venez en discuter avec nous et partager un verre pour fêter notre première bougie.
C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge.
Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.
Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.
Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.
Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.
Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”.
Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.
« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! »
Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.
Où est le neurone ?
« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.
Les données ne suffisent pas
Dans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber.
Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces.
Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience.
Albert Moukheiber sur la scène d’USI 2025.
La subjectivité nous échappe
Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? »
Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale.
Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nues. Comme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironiseMoukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse.
Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? »
En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.
Exemple d’échelle d’évaluation de la douleur.
« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est ».
La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est.
*
Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens ».
« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».
Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang.
“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.
“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.
Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire.
La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces.
« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025.
”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »
La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.
L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise.
Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages.
Une élue locale démocrate de l’État du Minnesota a été assassiné avec son époux à son domicile. Un autre a été victime d’une tentative de meurtre. Si on ne s’inquiétait pas déjà, ce serait le bon moment est le bon moment de commencer.
Pendant sa campagne en 2024, Donald Trump s’est engagé plusieurs fois à faire un mauvais sort à ses adversaires politiques. Il a promis des enquêtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissé entendre que la garde nationale pourrait devoir sévir contre les démocrates qui allaient voler l’élection. « They are so bad and frankly, they’re evil. They’re evil. » Cette semaine, il a déclaré que la police de l’immigration devrait arrêter Gavin Newsom, le gouverneur de la Californie, qui a osé critiquer son envoi de l’armée pour arrêter les manifestations à Los Angeles. Le sénateur Alex Padilla, démocrate, a été violemment expulsé d’une conférence de presse par des agents du FBI alors qu’il posait une question à la secrétaire de la Sécurité intérieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux à l’américaine?
La Nuit des longs couteaux, c’est la première série de crimes publics du gouvernement nazi. C’est l’illustration de la fin définitive de l’état de droit en Allemagne hitlérienne.
Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministères. Il se retrouve coincé entre les révolutionnaires nazis, qui veulent accélérer la mise en place de l’ordre nouveau, et les conservateurs, qui dénoncent la violence et le culte grandissant de la personnalité hitlérienne.
Les révolutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armées qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blâmait les communistes pour la violence et promettait de ramener la paix.
La SA était détestée par une grande partie de la population. Les conservateurs détestaient cette école de révolutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armée allemande. Plusieurs chefs de la SA étaient ouvertement homosexuels, ce qui scandalisait les puritains. De manière générale, la population n’appréciait pas la barbarie de ce groupe paramilitaire. Hitler devait éliminer ce groupe qui l’avait amené au pouvoir mais qui était devenu encombrant.
Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrêtés et exécutés. Les nazis ont inventé de toute pièce un complot visant à assassiner Hitler et à renverser le gouvernement. Hitler profite de l’occasion pour éliminer des adversaires politiques, des rivaux et des éléments gênants. On retrouve parmi les victimes:
Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autorité. Placé en détention préventive. Il survit parce qu’il était une personnalité internationale et que son assassinat aurait eu des répercussions majeures.
Edgar Jung, intellectuel conservateur et rédacteur de discours pour Papen. Placé en détention préventive le 25 juin, puis assassiné.
Herbert von Bose, attaché de presse de Papen, assassiné lors d’une descente de la Gestapo au bureau du vice-chancelier.
Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillé avec Hitler. Arrêté puis abattu dans sa cellule au siège de la Gestapo.
Kurt von Schleicher, prédécesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui préparait son retour en politique. Assassiné avec sa femme à son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
Le général Ferdinand von Bredow, qui préparait le retour en politique de Schleicher. Tiré à bout portant en répondant à la porte de sa maison.
Gustav Ritter von Kahr, ancien gouverneur de Bavière. Il avait quitté la politique depuis plusieurs années et s’était retiré dans l’anonymat, mais Hitler ne lui avait jamais pardonné son rôle dans l’échec du putsch de la Brasserie de Munich en 1923. Assassiné à Dachau.
Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. Détenu à Dachau depuis mars 1933, il est exécuté pendant la Nuit des longs couteaux.
Toutes les victimes sont accusées de s’être impliquées dans le complot de la SA. Accusations farfelues, mais qui ont passé le test de l’opinion publique. Le président allemand, Paul von Hindenburg, adresse un télégramme à Hitler pour le remercier d’avoir « sauvé le peuple allemand d’un grave danger » (il est douteux que le président ait écrit le télégramme lui-même). La population se préoccupe peu des assassinats politiques. Elle se réjouit que la barbarie de la SA ait été mâtée. Hitler avait provoqué la violence et devenait maintenant le héros du peuple parce qu’il y avait mis fin.
Hitler incarnait désormais la nation. Ses ennemis étaient les ennemis de l’Allemagne, donc des traîtres qui ne méritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le début de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indifférence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. Espérons que les Américains sachent mieux réagir.
Une élue locale démocrate de l’État du Minnesota a été assassiné avec son époux à son domicile. Un autre a été victime d’une tentative de meurtre. Si on ne s’inquiétait pas déjà, ce serait le bon moment est le bon moment de commencer.
Pendant sa campagne en 2024, Donald Trump s’est engagé plusieurs fois à faire un mauvais sort à ses adversaires politiques. Il a promis des enquêtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissé entendre que la garde nationale pourrait devoir sévir contre les démocrates qui allaient voler l’élection. “They are so bad and frankly, they’re evil. They’re evil.” Cette semaine, il a déclaré que la police de l’immigration devrait arrêter Gavin Newsom, le gouverneur de la Californie, qui a osé critiquer son envoi de l’armée pour arrêter les manifestations à Los Angeles. Le sénateur Alex Padilla, démocrate, a été violemment expulsé d’une conférence de presse par des agents du FBI alors qu’il posait une question à la secrétaire de la Sécurité intérieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux à l’américaine?
La Nuit des longs couteaux, c’est la première série de crimes publics du gouvernement nazi. C’est l’illustration de la fin définitive de l’état de droit en Allemagne hitlérienne.
Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministères. Il se retrouve coincé entre les révolutionnaires nazis, qui veulent accélérer la mise en place de l’ordre nouveau, et les conservateurs, qui dénoncent la violence et le culte grandissant de la personnalité hitlérienne.
Les révolutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armées qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blâmait les communistes pour la violence et promettait de ramener la paix.
La SA était détestée par une grande partie de la population. Les conservateurs détestaient cette école de révolutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armée allemande. Plusieurs chefs de la SA étaient ouvertement homosexuels, ce qui scandalisait les puritains. De manière générale, la population n’appréciait pas la barbarie de ce groupe paramilitaire. Hitler devait éliminer ce groupe qui l’avait amené au pouvoir mais qui était devenu encombrant.
Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrêtés et exécutés. Les nazis ont inventé de toute pièce un complot visant à assassiner Hitler et à renverser le gouvernement. Hitler profite de l’occasion pour éliminer des adversaires politiques, des rivaux et des éléments gênants. On retrouve parmi les victimes:
Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autorité. Placé en détention préventive. Il survit parce qu’il était une personnalité internationale et que son assassinat aurait eu des répercussions majeures.
Edgar Jung, intellectuel conservateur et rédacteur de discours pour Papen. Placé en détention préventive le 25 juin, puis assassiné.
Herbert von Bose, attaché de presse de Papen, assassiné lors d’une descente de la Gestapo au bureau du vice-chancelier.
Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillé avec Hitler. Arrêté puis abattu dans sa cellule au siège de la Gestapo.
Kurt von Schleicher, prédécesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui préparait son retour en politique. Assassiné avec sa femme à son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
Le général Ferdinand von Bredow, qui préparait le retour en politique de Schleicher. Tiré à bout portant en répondant à la porte de sa maison.
Gustav Ritter von Kahr, ancien gouverneur de Bavière. Il avait quitté la politique depuis plusieurs années et s’était retiré dans l’anonymat, mais Hitler ne lui avait jamais pardonné son rôle dans l’échec du putsch de la Brasserie de Munich en 1923. Assassiné à Dachau.
Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. Détenu à Dachau depuis mars 1933, il est exécuté pendant la Nuit des longs couteaux.
Toutes les victimes sont accusées de s’être impliquées dans le complot de la SA. Accusations farfelues, mais qui ont passé le test de l’opinion publique. Le président allemand, Paul von Hindenburg, adresse un télégramme à Hitler pour le remercier d’avoir “sauvé le peuple allemand d’un grave danger” (il est douteux que le président ait écrit le télégramme lui-même). La population se préoccupe peu des assassinats politiques. Elle se réjouit que la barbarie de la SA ait été mâtée. Hitler avait provoqué la violence et devenait maintenant le héros du peuple parce qu’il y avait mis fin.
Hitler incarnait désormais la nation. Ses ennemis étaient les ennemis de l’Allemagne, donc des traîtres qui ne méritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le début de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indifférence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. Espérons que les Américains sachent mieux réagir.
Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.
Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.
Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation.
Des croyances du modèle sur son interlocuteur
Viégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue.
Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteur
Les deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.
Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé.
Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives.
Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses.
“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ?
Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes).
Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.
Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses.
Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde meilleur, faire des dons à des candidats ou à des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisées soient bien plus enclines à participer que celles qui ont des moyens limités. Dans un pays où près de 30 % de la population vit en situation de pauvreté ou au bord de la pauvreté et où 60 % ne peuvent s’offrir un minimum de qualité de vie, la démocratie est désavantagée dès le départ”. L’IA est largement utilisée désormais pour accentuer ce fossé.
“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements médicaux nécessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou réduire les soins à domicile pour les personnes handicapées. Les gouvernements ont de plus en plus recours à l’IA pour déterminer l’éligibilité aux programmes de prestations sociales ou accuser les bénéficiaires de fraude. Les propriétaires utilisent l’IA pour filtrer les locataires potentiels, souvent à l’aide de vérifications d’antécédents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employés, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activités. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prédire quels élèves pourraient commettre un délit à l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la détresse d’usagers, les empêchant de comprendre ce à quoi ils sont confrontés, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces décisions difficiles à contester. Et au final, cela contribue à renforcer l’exclusion des personnes à faibles revenus de la participation démocratique. Le risque, bien sûr, c’est que ces calculs et les formes d’exclusion qu’elles génèrent s’étendent à d’autres catégories sociales… D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des décisions sur toutes les catégories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour améliorer significativement l’accès à l’emploi, au logement, aux soins de santé, à l’éducation ou aux prestations sociales à une échelle à la hauteur de ses dommages. Cette dynamique actuelle suggère que l’objectif sous-jacent de la technologie est d’enraciner les inégalités et de renforcer les rapports de force existants”. Pour répondre à cette intelligence austéritaire, il est nécessaire de mobiliser les communautés touchées. L’adhésion ouverte de l’administration Trump et des géants de la technologie à l’IA est en train de créer une crise urgente et visible, susceptible de susciter la résistance généralisée nécessaire au changement. Et “cette prise de conscience technologique pourrait bien être la seule voie vers un renouveau démocratique”, estime De Liban.
De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustées à nos identités numériques, comme les mots clés publicitaires qui nous caractérisent, les traitements qui nous spécifient, les données qui nous positionnent, par exemple, le genre, l’âge, notre niveau de revenu… Du moment que nous sommes assignés à une valeur, nous y sommes réduits, dans une forme d’indifférenciation qui produisent des identités et des altérités “rigidifiées” qui structurent “l’espace social selon des lignes de démarcation dont l’arbitraire est dissimulé sous l’apparence d’une objectivité naturalisée”. C’est le cas par exemple quand les données vous caractérisent comme homme ou femme. Le problème est que ces assignations que nous ne maîtrisons pas sont indépassables. Les discours sur l’égalité de genres peuvent se multiplier, plus la différence entre homme et femme s’en trouve réaffirmé, comme un “horizon indépassable de l’intelligibilité sociale”. Melkom Boghossian dans une note très pertinente pour la fondation Jean Jaurès ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inégalités de genre, lorsqu’il ne questionne pas le processus vectoriel lui-même, risque ainsi de reproduire les présupposés mêmes qu’il prétend combattre”. C’est-à-dire que le processus en œuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitée par tous.
“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opère à travers un chaînage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient réciproquement. Cette métavectorisation produit une topologie identitaire d’une complexité croissante qui excède les possibilités de représentation des modèles vectoriels classiques”. Nos assignations dépendent bien souvent de chaînes d’inférences, comme l’illustrait le site They see yours photos que nous avions évoqué. Les débats sur les identités trans ou non binaires, constituent en ce sens “des points de tension révélateurs où s’exprime le caractère intrinsèquement problématique de toute tentative de réduction vectorielle de la complexité existentielle”. Plus que de permettre de dépasser nos assignations, les calculs les intensifient, les cimentent.
Or souligne Chatonsky, nous sommes désormais dans des situations indépassables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-à-dire sa capacité à traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indépassable de la pensée et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette même méthodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent généralement sur la valorisation différentielle des positions vectorielles plutôt que sur la pertinence même du découpage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsèque”, sans pouvoir le remettre en cause, même par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd à toute parole qui revendique une position non assignable ou qui conteste la légitimité même de l’assignation.”“Cette insensibilité n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-même. Elle résulte de la nécessité structurelle d’effacer les singularités irréductibles pour maintenir l’efficacité des catégorisations générales. Le paradigme vectoriel ne peut maintenir sa cohérence qu’en traitant les cas récalcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions négligeables ou des anomalies pathologiques. Ce phénomène produit une forme spécifique de violence épistémique qui consiste à délégitimer systématiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particulièrement à l’encontre des individus dont l’expérience subjective contredit ou excède les assignations vectorielles qui leur sont imposées — non pas simplement parce qu’ils se réassignent à une position vectorielle différente, mais parce qu’ils contestent la légitimité même du geste assignatif.”
La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “génère un réseau dense d’attributions croisées où chaque individu est simultanément assignateur et assigné, vectorisant et vectorisé. Cette configuration produit un système auto entretenu où les assignations se renforcent mutuellement à travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des préjugés sociaux, “qui substitue à l’arbitraire subjectif du préjugé individuel l’arbitraire objectivé du calcul algorithmique”. Les termes eux-mêmes deviennent performatifs : “ils ne se contentent pas de décrire une réalité préexistante, mais contribuent activement à la constituer par l’acte même de leur énonciation”. “Ces mots-vecteurs tirent leur légitimité sociale de leur ancrage dans des dispositifs statistiques qui leur confèrent une apparence d’objectivité scientifique”. “Les données statistiques servent à construire des catégories opérationnelles qui, une fois instituées, acquièrent une forme d’autonomie par rapport aux réalités qu’elles prétendent simplement représenter”.
Pour Chatonsky, la vectorisation déstabilise profondément les identités politiques traditionnelles et rend problématique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhèrent à ces assignations et ceux qui contestent la légitimité même de ces assignations. “Les débats politiques conventionnels se limitent généralement à contester des assignations vectorielles spécifiques sans jamais remettre en question le principe même de la vectorisation comme modalité fondamentale d’organisation du social”. Nous sommes politiquement coincés dans la vectorisation… qui est à la fois “un horizon qui combine la réduction des entités à des vecteurs manipulables (vectorisation), la prédiction de leurs trajectoires futures sur la base de ces réductions (anticipation), et le contrôle permanent de ces trajectoires pour assurer leur conformité aux prédictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensée et d’organisation sociale qui échappent à la logique même de la vectorisation”, c’est-à-dire de nous extraire de l’identité comme force d’organisation du social, de donner de la place au doute plutôt qu’à la certitude ainsi qu’à trouver les modalités d’une forme de rétroaction.
Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvre se fait plus rare. Pour répondre à la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvrière estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmenté de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son écran qui lui indique de tenir la cadence.
Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».
Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.
La vitesse du progrès est plus linéaire qu’on le pense
« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.
En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».
Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées.
Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer.
L’IA va rester sous contrôle
Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – qui est en jeu”.Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisé pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en terme de vitesse, d’où le fait que nous les ayons développé surtout dans les domaines où la vitesse est en jeu.
“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.
Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain”.
Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques.
La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les Etats-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant.
Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”. “Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs.
Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”.Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes.
Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.
Politiques de l’IA
Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs.
Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, il proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.
Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large.
Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.
Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.
Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque.
Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.
Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.
L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjonen introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au contraire. Là-bas aussi, elle rend plus difficile l’accès aux droits. En fait, plus qu’un changement d’outillage, elle est une “évolution de nature politique” qui redéfinit les rapports à l’État, à la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, créant des situations d’accès inégalitaires qui restreignennt la qualité et la continuité des services publics. “La dématérialisation de l’action publique signe en cela une double délégation. D’un côté, certaines opérations sont déléguées aux dispositifs techniques ; de l’autre, on constate un déplacement complémentaire de celles-ci vers les usagers, qui portent désormais la charge et la responsabilité du bon déroulement des démarches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se débrouiller et les autres. L’accès aux outils numériques et leur maîtrise devient un nouveau critère d’éligibilité aux droits, générateur de non-recours : le numérique devient une “charge supplémentaire” pour les plus vulnérables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultés, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “déplacer le périmètre de leurs missions premières”, au risque de les remplacer.
L’article de Pierre Mazet du Lab Accès sur le dispositif Conseiller numérique France Services (CnFS) montre qu’il se révèle fragile, profitant d’abord aux structures préalablement les plus engagées sur l’inclusion numérique. L’État s’est appuyé sur le plan de relance européen afin de transférer aux acteurs locaux la prise en charge d’un problème public dont les conseillers numériques doivent assumer la charge. Les moyens s’avèrent « structurellement insuffisants pour stabiliser une réponse proportionnée aux besoins ». À l’échelle nationale, les démarches en ligne se placent en tête des aides réalisées par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexés à la numérisation des administrations »; et de constater qu’il y a là une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numérique – qui ne parvient pas à répondre aux besoins générés par une autre action publique – les politiques de dématérialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant à certains acteurs, notamment aux acteurs de la dématérialisation de la relation administrative, qu’il n’a permis de répondre à la géographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes âgées, moins en réponse à des besoins qu’en raison du ciblage de l’offre elle-même : elle capte d’abord des publics « disponibles », pas nécessairement ceux qui en ont le plus besoin ». Enfin, la dégressivité des financements a, quant à elle, « produit un effet de sélection, qui a accentué les inégalités entre acteurs et territoires », notamment au détriment des acteurs de la médiation numérique.
La gouvernance par dispositifs numériques faciliterait l’avènement d’une administration d’orientation néolibérale priorisant les valeurs du marché, explique Granjon. L’administration « renforcerait son contrôle sur les populations, mais, paradoxalement, perdrait le contrôle sur ses principaux outils, notamment ceux d’aide à la décision quant à l’octroi de droits et de subsides ». La décision confiée aux procédures de calcul, laisse partout peu de marge de manœuvre aux agents, les transformant en simples exécutants. A Pôle Emploi, par exemple, il s’agit moins de trouver un emploi aux chômeurs que de les rendre « autonomes » avec les outils numériques. Pour Périne Brotcorne pourtant, malgré la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des développements numériques des services publics. Rien n’est fait par exemple pour l’usager en difficulté par exemple pour qu’il puisse déléguer la prise en charge de ses tâches administratives à un tiers, comme le soulignait récemment le Défenseur des droits. Les interfaces numériques, trop complexes, fabriquent “de l’incapacité” pour certains publics, notamment les plus éloignés et les plus vulnérables. Brotcorne montre d’ailleurs très bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invités à s’exprimer. L’étude souligne que près de la moitié des usagers n’arrivent pas à passer la première étape des services publics numériques que ce soit se connecter, prendre rendez-vous ou même télécharger un formulaire. Dans un autre article, signé Anne-Sylvie Pharabod et Céline Borelle, les deux chercheuses auscultent les pratiques administratives numérisées ordinaires qui montrent que la numérisation est une longue habituation, où les démarches apprises pour un service permettent d’en aborder d’autres. Les démarches administratives sont un univers de tâches dont il faut apprendre à se débrouiller, comme faire se peut, et qui en même temps sont toujours remises à zéro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identité, ou des documents à uploader. “La diversité des démarches, l’hétérogénéité des interfaces et l’évolution rapide des outils liée à des améliorations incrémentales (notamment en matière de sécurité) renouvellent constamment le questionnement sur ce qu’il convient de faire”.
Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numériques au sein du Service public de l’emploi a pour conséquence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numérique se voit investie de la fonction de régulation des comportements des usagers, des agents publics, mais également de bien d’autres publics, notamment tous ceux utilisant ses données et plateformes. A cette aune, France Travail est amené à devenir un « animateur d’écosystème emploi/formation/insertion » connectant divers échelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses différentes plateformes. Granjon invite à s’intéresser à ces encastrements nouveaux et pas seulement aux guichets, ou à la relation agent-public, pour mieux saisir comment les bases de données, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procédures que France Travail met en place.
Le numéro de Réseaux livre également un intéressant article, très critique, du Dossier médical partagé, signé Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intéresse à l’histoire de la gouvernance problématique du projet, qui explique en grande partie ses écueils, et au fait que le DMP ne semble toujours pas avoir trouvé son utilité pour les professionnels de santé.
Un autre article signé Pauline Boyer explore le lancement du portail de données ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel Goëta et Élise Ho-Pun-Cheung s’intéressent quant à eux à la production de standards et aux difficultés de leur intégration dans le quotidien des agents, en observant le processus de standardisation des données des lieux de médiation numérique. L’article souligne la difficulté des conseillers numériques à infléchir la standardisation et montre que cette normalisation peine à prévoir les usages de la production de données.
Dans un article de recherche qui n’est pas publié par Réseaux, mais complémentaire à son dossier, le politologue néerlandais, Pascal D. Koenig explique que le développement d’un État algorithmique modifie la relation avec les citoyens, ce qui nécessite de regarder au-delà des seules propriétés des systèmes. L’intégration des algos et de l’IA développe une relation plus impersonnelle, renforçant le contrôle et l’asymétrie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systèmes d’IA, qui remplacent ou assistent l’exécution des tâches humaines, introduisent un nouveau type de représentation des agents dans les organisations gouvernementales. Ils réduisent ainsi structurellement la représentation des citoyens – en tant qu’êtres humains – au sein de l’État et augmentent les asymétries de pouvoir, en étendant unilatéralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte également les fondements de la reconnaissance sociale dans la relation citoyen-État, liés au comportement. En tant qu’agents artificiels, les systèmes d’IA manquent de compréhension et de compassion humaines, dont l’expression dans de nombreuses interactions est un élément important pour reconnaître et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiérarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui érode le respect que les institutions leur témoignent”. Le manque d’empathie des systèmes est l’une des principales raisons pour lesquelles les individus s’en méfient, rappelle Koenig. Or, “la numérisation et l’automatisation de l’administration réduisent les foyers d’empathie existants et contribuent à une prise en compte étroite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de compréhension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental où le contact humain se réduit : moins représentatif, il est donc moins disposé à prendre des décisions dans leur intérêt.
En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.
Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.
« Certes, ce n’est pas pour tout de suite », écrit Rousseau, « car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fédéral décide d’abolir cette interdiction pour que le Québec puisse être forcé d’en faire autant. » Effectivement, pratiquement tous les actes criminels peuvent être légalisés du jour au lendemain si le gouvernement le décide. Ce n’est pas un argument.
D’après Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la liberté de religion. Cette crainte est complètement sans fondement. Un jugement de la Cour suprême de la Colombie-Britannique l’a d’ailleurs confirmé en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-être une entrave à la liberté de religion, mais c’est une limitation acceptable et nécessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la référence.
Donc non, ce n’est pas demain qu’un tribunal va décriminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en décider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de légiférer en ce sens. Alors de quoi est-ce qu’on s’inquiète? Et surtout, quel est le rapport avec les familles pluriparentales?
La compétition entre les épouses cause du tort aux enfants et aux épouses elles-mêmes
Risque pour la santé sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
La polygamie est souvent synonyme de dénuement économique pour les femmes et leurs enfants
L’inégalité domestique est incompatible avec l’égalité économique et sociale, donc avec les valeurs canadiennes
Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causé un tort réel et documenté aux femmes et aux enfants.
On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales à la reconnaissance conjugale. Ce sont deux enjeux complètement différents. Plusieurs provinces canadiennes reconnaissent déjà légalement la pluriparentalité (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon Valérie Costanzo, professeure en sciences juridiques à l’Université du Québec à Montréal, ces changements législatifs n’ont pas conduit à des campagnes juridiques pour décriminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au Québec.
Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacés par leur structure atypique? Au contraire, c’est précisément en tenant compte des intérêts des enfants que les tribunaux canadiens ont accordé un statut légal aux unions pluriparentales. Imaginons une situation d’urgence où le « troisième parent », celui qui n’est pas inscrit sur le certificat de naissance, se retrouve à l’hôpital seul avec son enfant. Il n’a pas l’autorité légale de prendre une décision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu être évitée avec un changement sur un papier.
Avant d’adopter des idées préconçues sur la pluriparentalité, je recommande vivement d’écouter l’entrevue de Sophie Paradis à l’émission de Patrick Lagacé le 7 mai 2025. Les inquiets réaliseront peut-être que les familles pluriparentales ne sont dignes ni de suspicion, ni de mépris. Si vous vous inquiétez pour le bien-être des enfants des unions à trois parents, dites-vous que les séparations complexes et les cellules familiales dysfonctionnelles ne sont pas liées au nombre d’adultes impliqués. Au contraire, un projet de pluriparentalité implique généralement un niveau de préparation qui échappe à un très grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvée en cour pour débattre de la garde des enfants. Pour citer Valérie Costanzo encore une fois: « Cela peut s’expliquer notamment par une méfiance par rapport à la surveillance des tribunaux, où ces familles pourraient vivre des préjugés, mais également par des outils de communication et de gestion familiale plus sains. » Bref, l’expérience ne donne aucune raison de croire que reconnaître légalement la pluriparenté serait préjudiciable pour les enfants.
Associer les familles pluriparentales, comme le fait Normand Lester, à des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale à des familles déjà marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles à leurs enfants. C’est d’autant plus absurde vu la présence importante de la communauté LGBTQ+ parmi les familles qui ne répondent pas au modèle traditionnel. Ce n’est généralement pas là qu’on retrouve les ultrareligieux.
« Face à cette atteinte à sa liberté de choisir et à son caractère distinct, le Québec doit résister », conclut Guillaume Rousseau. Résister à quoi? À des familles qui ne répondent pas au modèle traditionnel? Cette bataille juridique que Rousseau semble réclamer de ses voeux ne vise en gros qu’à empêcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se féliciter collectivement d’avoir empêché Ottawa de nous obliger à respecter les droits d’une minorité? C’est une habitude dangereuse qu’on semble vouloir développer au Québec. Il serait temps d’arrêter de voir les droits individuels comme une menace à éliminer.
Les familles pluriparentales n’ont pas demandé à être prises en otage par un nouvel affrontement juridictionnel entre Québec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colère contre le régime fédéral, qu’ils s’en tiennent à des guerres de chiffres.
En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.
Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.
“Certes, ce n’est pas pour tout de suite”, écrit Rousseau, “car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fédéral décide d’abolir cette interdiction pour que le Québec puisse être forcé d’en faire autant.” Effectivement, pratiquement tous les actes criminels peuvent être légalisés du jour au lendemain si le gouvernement le décide. Ce n’est pas un argument.
D’après Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la liberté de religion. Cette crainte est complètement sans fondement. Un jugement de la Cour suprême de la Colombie-Britannique l’a d’ailleurs confirmé en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-être une entrave à la liberté de religion, mais c’est une limitation acceptable et nécessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la référence.
Donc non, ce n’est pas demain qu’un tribunal va décriminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en décider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de légiférer en ce sens. Alors de quoi est-ce qu’on s’inquiète? Et surtout, quel est le rapport avec les familles pluriparentales?
La compétition entre les épouses cause du tort aux enfants et aux épouses elles-mêmes
Risque pour la santé sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
La polygamie est souvent synonyme de dénuement économique pour les femmes et leurs enfants
L’inégalité domestique est incompatible avec l’égalité économique et sociale, donc avec les valeurs canadiennes
Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causé un tort réel et documenté aux femmes et aux enfants.
On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales à la reconnaissance conjugale. Ce sont deux enjeux complètement différents. Plusieurs provinces canadiennes reconnaissent déjà légalement la pluriparentalité (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon Valérie Costanzo, professeure en sciences juridiques à l’Université du Québec à Montréal, ces changements législatifs n’ont pas conduit à des campagnes juridiques pour décriminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au Québec.
Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacés par leur structure atypique? Au contraire, c’est précisément en tenant compte des intérêts des enfants que les tribunaux canadiens ont accordé un statut légal aux unions pluriparentales. Imaginons une situation d’urgence où le “troisième parent”, celui qui n’est pas inscrit sur le certificat de naissance, se retrouve à l’hôpital seul avec son enfant. Il n’a pas l’autorité légale de prendre une décision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu être évitée avec un changement sur un papier.
Avant d’adopter des idées préconçues sur la pluriparentalité, je recommande vivement d’écouter l’entrevue de Sophie Paradis à l’émission de Patrick Lagacé le 7 mai 2025. Les inquiets réaliseront peut-être que les familles pluriparentales ne sont dignes ni de suspicion, ni de mépris. Si vous vous inquiétez pour le bien-être des enfants des unions à trois parents, dites-vous que les séparations complexes et les cellules familiales dysfonctionnelles ne sont pas liées au nombre d’adultes impliqués. Au contraire, un projet de pluriparentalité implique généralement un niveau de préparation qui échappe à un très grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvée en cour pour débattre de la garde des enfants. Pour citer Valérie Costanzo encore une fois: “Cela peut s’expliquer notamment par une méfiance par rapport à la surveillance des tribunaux, où ces familles pourraient vivre des préjugés, mais également par des outils de communication et de gestion familiale plus sains.” Bref, l’expérience ne donne aucune raison de croire que reconnaître légalement la pluriparenté serait préjudiciable pour les enfants.
Associer les familles pluriparentales, comme le fait Normand Lester, à des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale à des familles déjà marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles à leurs enfants. C’est d’autant plus absurde vu la présence importante de la communauté LGBTQ+ parmi les familles qui ne répondent pas au modèle traditionnel. Ce n’est généralement pas là qu’on retrouve les ultrareligieux.
“Face à cette atteinte à sa liberté de choisir et à son caractère distinct, le Québec doit résister”, conclut Guillaume Rousseau. Résister à quoi? À des familles qui ne répondent pas au modèle traditionnel? Cette bataille juridique que Rousseau semble réclamer de ses voeux ne vise en gros qu’à empêcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se féliciter collectivement d’avoir empêché Ottawa de nous obliger à respecter les droits d’une minorité? C’est une habitude dangereuse qu’on semble vouloir développer au Québec. Il serait temps d’arrêter de voir les droits individuels comme une menace à éliminer.
Les familles pluriparentales n’ont pas demandé à être prises en otage par un nouvel affrontement juridictionnel entre Québec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colère contre le régime fédéral, qu’ils s’en tiennent à des guerres de chiffres.
Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues.
Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer.
Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mêmes moyens pour configurer la plateforme et que souvent, elles utilisent des procédés de sélection rudimentaires. Elle montre que, là aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposés aux valeurs des formations qui les mettent en œuvre.
Jérémie Poiroux évoque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrôle technique des activités maritimes qui permet de montrer comment le calcul et l’évolution de la réglementation sont mobilisées pour réduire les effectifs des services de l’Etat tout en améliorant le ciblage des contrôles. Pour Poiroux, le système mis en place pose des questions quant à son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens à la prévention et à l’accompagnement, afin de réduire son champ d’action au contrôle et à la punition”, ainsi qu’à éloigner les agents au profit de règles venues d’en haut.
Soizic Pénicaud revient quant à elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de différents collectifs n’est pas allé de soi et que le recueil de témoignages a permis de soulever le problème et d’incarner les difficultés auxquelles les personnes étaient confrontées. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une réalité.
Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le déploiement des algorithmes à la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui préexiste. “L’algorithme ne se substitue pas aux pratiques précédentes de contrôle. Il s’y intègre (…). Il ne l’automatise pas non plus : il le « flèche »”. Elle rappelle, à la suite du travail de Vincent Dubois dans Contrôler les assistés, que le développement des systèmes de calculs permettent à la fois de produire un contrôle réorganisé, national, au détriment de l’autonomie des agents et des caisses locales, ainsi que de légitimer la culture du contrôle et de donner une nouvelle orientation aux services publics.
Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir”.
Mardi 3 juin à 19h30 à la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisée autour des chercheurs et chercheuses qui ont participé à ce numéro. Nous y serons.
La politologueErica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of PeoplePower, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernière décennie, alors même que ces techniques sont devenues très populaires dans le monde entier. Lors d’une récente conférence sur l’IA et les libertés démocratiques organisée par le Knight First Amendment Institute de l’université de Columbia, elle se demandait si l’IA pouvait soutenir les revendications démocratiques, rapporte Tech Policy Press (vidéo). L’occasion de rendre compte à notre tour d’un point de vue décoiffant qui interroge en profondeur notre rapport à la démocratie.
La récession démocratique est engagée
La démocratie est en déclin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle même de “récession démocratique” et estime que la sauvegarde des droits démocratiques est partout en crise. 2025 pourrait être la première année, depuis longtemps, où la majorité de la population mondiale vit sous des formes de gouvernement autoritaires plutôt que démocratiques. Ce recul est dû à la fois au développement de l’autoritarisme dans les régimes autocratiques et à l’avancée de l’autocratie dans les démocraties établies, explique Chenoweth. Les avancées démocratiques des 100 dernières années ont été nombreuses et assez générales. Elles ont d’abord été le fait de mouvements non violents, populaires, où des citoyens ordinaires ont utilisé les manifestations et les grèves, bien plus que les insurrections armées, pour déployer la démocratie là où elle était empêchée. Mais ces succès sont en déclin. Les taux de réussite des mouvements populaires pacifistes comme armés, se sont effondrés, notamment au cours des dix dernières années. “Il y a quelque chose de global et de systémique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants à ces mouvements sont devenus plus efficaces pour les vaincre en général”.
Les épisodes de contestation réformistes (qui ne relèvent pas de revendications maximalistes, comme les mouvements démocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes… n’ont cessé de subir des revers et des défaites au cours des deux dernières décennies, et ont même diminué leur capacité à obtenir des concessions significatives, à l’image de la contestation de la réforme des retraites en France ou des mouvements écologiques, plus écrasés que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisées que jamais.
Selon la littérature, ce qui permet aux mouvements populaires de réussir repose sur une participation large et diversifiée, c’est-à-dire transversale à l’ensemble de la société, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans… Et notamment quand ils suscitent le soutien de personnes très différentes les unes des autres. “Le principal défi pour les mouvements de masse qui réclament un changement pour étendre la démocratie consiste bien souvent à disloquer les piliers des soutiens autocratiques comme l’armée ou les fonctionnaires. L’enjeu, pour les mouvements démocratiques, consiste à retourner la répression à l’encontre de la population en la dénonçant pour modifier l’opinion générale ». Enfin, les mouvements qui réussissent enchaînent bien souvent les tactiques plutôt que de reposer sur une technique d’opposition unique, afin de démultiplier les formes de pression.
La répression s’est mise à niveau
Mais l’autocratie a appris de ses erreurs. Elle a adapté en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements démocratiques l’emportent. “La première consiste à s’assurer que personne ne fasse défection. La deuxième consiste à dominer l’écosystème de l’information et à remporter la guerre de l’information. La troisième consiste à recourir à la répression sélective de manière à rendre très difficile pour les mouvements d’exploiter les moments d’intense brutalité. Et la quatrième consiste à perfectionner l’art de diviser pour mieux régner”. Pour que l’armée ou la police ne fasse pas défection, les autorités ont amélioré la formation des forces de sécurité. La corruption et le financement permet de s’attacher des soutiens plus indéfectibles. Les forces de sécurité sont également plus fragmentées, afin qu’une défection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit également de faire varier la répression pour qu’une unité de sécurité ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les répressions des personnes déloyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la défection des forces de sécurité, et cette tendance s’est accentuée au fil du temps”.
La seconde adaptation clé a consisté à gagner la guerre de l’information, notamment en dominant les écosystèmes de l’information. “Inonder la zone de rumeurs, de désinformation et de propagande, dont certaines peuvent être créées et testées par différents outils d’IA, en fait partie. Il en va de même pour la coupure d’Internet aux moments opportuns, puis sa réouverture au moment opportun”.
Le troisième volet de la panoplie consiste à appliquer une répression sélective, consistant à viser des individus plutôt que les mouvements pour des crimes graves qui peuvent sembler décorrélé des manifestations, en les accusant de terrorisme ou de préparation de coup d’Etat. ”La guerre juridique est un autre outil administratif clé”.
Le quatrième volet consiste à diviser pour mieux régner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant à des actions violentes pour générer des reflux d’opinion…
Comment utiliser l’IA pour gagner ?
Dans la montée de l’adaptation des techniques pour défaire leurs opposants, la technologie joue un rôle, estime Erica Chenoweth. Jusqu’à présent, les mouvements civiques ont plutôt eu tendance à s’approprier et à utiliser, souvent de manière très innovantes, les technologies à leur avantage, par exemple à l’heure de l’arrivée d’internet, qui a très tôt été utilisé pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques à utiliser l’IA, contrairement aux régimes autocratiques. Pourtant, l’un des principaux problèmes des mouvements civiques consiste à “cerner leur environnement opérationnel”, c’est-à-dire de savoir qui est connecté à qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? Où sont les vulnérabilités du mouvement ? Réfléchir de manière créative à ces questions et enjeux, aux tactiques à déployer pourrait pourtant être un atout majeur pour que les mouvements démocratiques réussissent.
Les mouvements démocratiques passent bien plus de temps à sensibiliser et communiquer qu’à faire de la stratégie, rappelle la chercheuse. Et c’est là deux enjeux où les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des élections municipales russe, un algorithme a permis de contrôler les images de vidéosurveillance des bureaux de vote pour détecter des irrégularités permettant de dégager les séquences où des bulletins préremplis avaient été introduits dans les urnes. Ce qui aurait demandé un contrôle militant épuisant a pu être accompli très simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer très facilement à des actions (des applications puissantes, mais parfois peu transparentes sur leurs méthodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent être mieux documentées et partagées pour qu’elles puissent servir à d’autres. Certains groupes proposent d’ailleurs déjà des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.
Le Non Violent Action Lab a d’ailleurs publié un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements démocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent réellement le succès des mouvements démocratiques. Encore faudrait-il que les mouvements démocratiques puissent accéder à des outils d’IA qui ne partagent pas leurs données avec des plateformes et avec les autorités. L’autre enjeu consiste à construire des corpus adaptés pour aider les mouvements à résister. Les corpus de l’IA s’appuient sur des données des 125 dernières années, alors que l’on sait déjà que ce qui fonctionnait il y a 60 ans ne fonctionne plus nécessairement.
Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour démêler des processus délibératifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait été notre projet démocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques à poser la question de l’utilisation de l’IA a leur profit, plutôt que de la rejetter d’emblée comme l’instrument de l’autoritarisme, elle invite à faire un pas de côté pour trouver des modalités pour refaire gagner les luttes sociales.
On lui suggérera tout de même de regarder du côté des projets que Audrey Tang mène à Taïwan avec le Collective intelligence for collective progress, comme ses « assemblées d’alignement » qui mobilise l’IA pour garantir une participation équitable et une écoute active de toutes les opinions. Comme Tang le défend dans son manifeste, Plurality, l’IA pourrait être une technologie d’extension du débat démocratique pour mieux organiser la complexité. Tang parle d’ailleurs de broad listening (« écoute élargie ») pour l’opposer au broadcasting, la diffusion de un vers tous. Une méthode mobilisée par un jeune ingénieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bénéficié d’une audience surprenante, sans néanmoins l’emporter. Son adversaire a depuis mobilisé la méthode pour lancer une consultation, Tokyo 2050.
Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la réduction de la consommation et dans le recyclage, mais dans l’intégration à grande échelle de l’ancien dans le nouveau. Hybrider les technologies défuntes et les intégrer dans nos quotidiens est tout l’enjeu du monde à venir, dans une forme de permaculture du calcul. Arrêtons de déplorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La réutilisation et la réparation nous conduisent désormais à refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent désormais “refuser d’être neutralisés, écrasés et réduits au silence”, refuser de se faire réapproprier. Nous devons réclamer la tech – c’était déjà la conclusion de son précédent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspiré par le mouvement britannique des années 90, qui réclamait déjà la rue, pour reconquérir cet espace public contre la surveillance policière et la voiture.
“Reclaim the Tech » va plus loin en affirmant que « Nous sommes la technologie », explique Lovink. Cela signifie que la technologie n’est plus un phénomène passager, imposé : la technologie est en nous, nous la portons à fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech », décrites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numérique actuelle est stagnante, elle n’est pas une échappatoire. Elle manque de direction et de destin. La volonté d’organisation est absente maintenant que même les réseaux à faible engagement ont été supplantés par les plateformes. L’esprit du temps est régressif, à l’opposé de l’accélérationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de données. Ce que nous vivons est une succession interminable de courtes poussées d’extase orgasmique, suivies de longues périodes d’épuisement.”
Ce rythme culturel dominant a eu un effet dévastateur sur la recherche et la mise en œuvre d’alternatives durables, estime Lovink. L’optimisation prédictive a effacé l’énergie intérieure de révolte que nous portons en nous. Il ne reste que des explosions de colère, entraînant des mouvements sociaux erratiques – une dynamique alimentée par une utilisation des réseaux sociaux à courte durée d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialité visible dans la technologie et le design. Nous la voyons apparaître non seulement dans le cas des matières premières, mais aussi dans le contexte du « colonialisme des données ».
Mais, s’il est essentiel d’exiger la décolonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « créolisation technologique ».
La décolonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cœur même de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, créons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements géopolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion à la destruction militaire bien réelle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratégies de sortie ne manquent pas. L’exode ne sera pas télévisé. Le monde ne peut attendre la mise en œuvre des principes de prévention des données. Arrêtons définitivement les flux de données !, clame Lovink.
La « confidentialité » des données s’étant révélée être un gouffre juridique impossible à garantir, la prochaine option sera des mécanismes intégrés, des filtres empêchant les données de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de données, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant après la révolution, les « magasins de proximité » qui rendent les technologies aux gens ne se contenteront plus de réparer, mais nous permettront de vivre avec nos déchets, de les rendre visibles, à nouveau fonctionnels, tout comme on rend à nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalités.
Encore une réflexion stimulante de Gregory Chatonsky, qui observe deux modes de relation à l’IA générative. L’un actif-productif, l’autre passif-reproductif-mémétique. « L’infrastructure générative n’a pas d’essence unifiée ni de destination prédéterminée — elle peut être orientée vers la production comme vers la consommation. Cette indétermination constitutive des technologies génératives révèle un aspect fondamental : nous nous trouvons face à un système technique dont les usages et les implications restent largement à définir ».
« L’enjeu n’est donc pas de privilégier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports à la génération déterminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualité fondamentale, nous pouvons commencer à élaborer une relation plus consciente et réfléchie aux technologies génératives, capable de dépasser aussi bien l’instrumentalisme naïf que le déterminisme technologique.
La génération n’est ni intrinsèquement productive ni intrinsèquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous établissons avec elle. C’est dans cette indétermination constitutive que résident sa réponse à la finitude. »
Dans une riche et détaillée revue d’études sur la modération des plateformes du web social, Lisa Macpherson de l’association Public Knowledge démontre que cette modération n’est ni équitable ni neutre. En fait, les études ne démontrent pas qu’il y aurait une surmodération des propos conservateurs, au contraire, les contenus de droite ayant tendance à générer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modérés, c’est parce qu’ils enfreignent plus volontiers les règles des plateformes en colportant de la désinformation ou des propos haineux, et non du fait des biais politiques de la modération. La modération injustifiée, elle, touche surtout les communautés marginalisées (personnes racisées, minorités religieuses, femmes, LGBTQ+). Les biais de modération sont toujours déséquilibrés. Et les contenus de droite sont plus amplifiés que ceux de gauche.
En France, rapporte Next, constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numériques Xavier Brandao porte plainte contre Meta auprès de l’Arcom au titre du DSA. En envoyant plus de 118 signalements à Meta en quatre mois pour des discours racistes avérés, l’activiste s’est rendu compte que seulement 8 commentaires avaient été supprimés.
Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.
Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).
Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).
Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :
D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
Les algorithmes sont cela.
Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.
Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.
Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.
Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.
Je vais maintenant vous parler du rythme des algorithmes.
Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.
Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.
Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.
Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.
L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.
L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.
Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.
« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.«
Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.
Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.
“Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidé et ne cessent de dégrader non seulement le droit, mais également les services publics dédiés. Ce qu’il se passe aux Etats-Unis n’est pas une exception.
Voilà longtemps que le droit des étrangers en France est plus que malmené. Voilà longtemps que les associations et autorités indépendantes qui surveillent ses évolutions le dénoncent. Des travaux des associations comme la Cimade, à ceux des autorités indépendantes, comme le Défenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifère de ce qui ne devrait être pourtant qu’un droit parmi d’autres.
Couverture du livre France terre d’écueils.
Dans un petit livre simple et percutant,France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, très concrètement, comment agit la maltraitance administrative à l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spécialisée en droit des étrangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les défaillances de l’administration à destination des étrangers. Une administration mise au pas, au service d’un propos politique de plus en plus déconnecté des réalités, qui concentre des pratiques mortifères et profondément dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des étrangers pourraient devenir un modèle de maltraitance à appliquer à tous les autres services publics.
Le dysfonctionnement des services publics à destination des étrangers est caractérisé par plusieurs maux, détaille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits à minima et qui se réduisent, ce sont partout des procédures à rallonge, où aucune instruction n’est disponible dans un délai “normal”. Ce sont enfin une suspicion et une persécution systématique. L’ensemble produit un empêchement organisé qui a pour but de diminuer l’accès au droit, d’entraver la régularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontés à des pratiques problématiques, mais des pratiques systémiques qui finissent par faire modèle.
Indisponibilité et lenteur systémique
France, Terre d’écueils décrit d’abord des chaînes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur à l’absurdité qui nous saisit face à la déshumanisation des étrangers dans les parcours d’accès aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilité d’un service : service téléphonique qui ne répond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dépôts sans récépissés, dossier auquel il n’est pas possible d’accéder ou de mettre à jour… Autant de pratiques qui sont là pour faire patienter c’est-à-dire pour décourager… et qui nécessitent de connaître les mesures de contournements qui ne sont pas dans la procédure officielle donc, comme de documenter l’indisponibilité d’un site par la prise de capture d’écran répétée, permettant de faire un recours administratif pour obliger le service à proposer un rendez-vous à un requérant.
Toutes les procédures que l’avocate décrit sont interminables. Toutes oeuvrent à décourager comme si ce découragement était le seul moyen pour désengorger des services partout incapables de répondre à l’afflux des demandes. Si tout est kafkaïen dans ce qui est décrit ici, on est surtout marqué par la terrible lenteur des procédures, rallongées de recours eux-mêmes interminables. Par exemple, l’Ofpra (Office Français de Protection des Réfugiés et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procédure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 à 24 mois à réétudier un dossier. Quand un ressortissant étranger obtient le statut de réfugié, il devrait obtenir un titre de séjour dans les 3 mois. En réalité, les cartes de séjour et les actes d’état civils mettent de longs mois à être produits (douze mois en moyenne) ce qui prive les étrangers de nombreux droits sociaux, comme de pouvoir s’inscrire à France Travail ou de bénéficier des allocations familiales, du droit du travail. Même constat à l’AES (admission exceptionnelle au séjour). Depuis 2023, la demande d’AES se fait en ligne et consiste à enregistrer quelques documents pour amorcer la procédure. Mais les préfectures ne font de retour que 6 mois après le dépôt de la demande. Un rendez-vous n’est proposé bien souvent qu’encore une année plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour déposer un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter à minima 3 à 4 années pour une demande de régularisation ! Sans compter qu’en cas de refus (ce qui est plutôt majoritairement le cas), il faut ajouter la durée de la procédure de recours au tribunal administratif. Même chose en cas de refus de visa injustifié, qui nécessite plus de 2 ans de procédure pour obtenir concrètement le papier permettant de revenir en France.
C’est un peu comme s’il fallait patienter des années pour obtenir un rendez-vous chez un dermatologue pour vérifier un grain de beauté inquiétant ou plusieurs mois pour obtenir des papiers d’identité. Dans le domaine du droit des étrangers, la dégradation des services publics semble seulement plus prononcée qu’ailleurs.
Droits minimaux et décisions discrétionnaires
Le dysfonctionnement que décrit l’avocate n’est pas qu’administratif, il est également juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procédure d’appel, qui est pourtant une garantie simple et forte d’une justice équitable. Les demandeurs ayant été refusés peuvent demander un réexamen qui a souvent lieu dans le cadre de procédures « accélérées ». Mais cette accélération là ne consiste pas à aller plus vite, elle signifie seulement que la décision sera prise par un juge unique, et donc, potentiellement, moins équitable.
L’admission exceptionnelle au séjour (AES), autre possibilité pour obtenir une naturalisation, nécessite elle de faire une demande à la préfecture de son domicile. Même si cette admission est bornée de conditions concrètes très lourdes (promesse d’embauche, présence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans…), le préfet exerce ici une compétence discrétionnaire, puisqu’il évalue seul les demandes. « En matière de naturalisation, l’administration a un très large pouvoir d’appréciation », souligne l’avocate. Même constat quant aux demandes de naturalisation, tout aussi compliquées que les autres demandes. L’entretien de naturalisation par exemple, qu’avait étudié le sociologue Abdellali Hajjat dans son livre, Les frontières de l’identité nationale, a tout d’une sinécure. Il consiste en un entretien discrétionnaire, sans procès verbal ni enregistrement, sans programme pour se préparer à y répondre. Ce n’est pas qu’un test de culture général d’ailleurs auquel nombre de Français auraient du mal à répondre, puisque de nombreuses questions ne relèvent pas d’un QCM, mais sont appréciatives. Il n’y a même pas de score minimal à obtenir, comme ce peut-être le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez répondre juste aux questions… et être refusé.
Suspicion, persécution et empêchement systématiques
Le fait de chercher à empêcher les demandeurs d’asile d’accéder à un travail (en janvier 2024, une loi anti-immigration, une de plus, est même venue interdire à ceux qui ne disposent pas de titre de séjour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coûts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux étrangers présents sur le territoire. Et ce alors que 90% des personnes en situation irrégulière travaillent quand même, comme le souligne France Stratégies dans son rapport sur l’impact de l’immigration sur le marché du travail. En fait, en les empêchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de séjour d’un tiers, à qui seront adressés les bulletins de salaires. Tiers qui prélèvent une commission de 30 à 50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.
Parce que le lien de paternité ou de maternité créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systématique quand elle était avant un signe d’intégration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. Enquêtes intrusives, abusives, surveillance policière, maires qui s’opposent aux unions (sans en avoir le droit)… Alors qu’on ne comptait que 345 mariages annulés en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pénales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les défaillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire à tous que ce sont les individus qui sont coupables des lacunes de l’administration française.
Une politique du non accueil perdu dans ses amalgames
France, terre d’écueils, nous montre le parcours du combattant que représente partout la demande à acquérir la nationalité. L’ouvrage nous montre ce que la France impose à ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte.
Ces dérives juridiques et administratives sont nées de l’amalgame sans cesse renouvelé à nous faire confondre immigration et délinquance. C’est ce que symbolise aujourd’hui le délires sur les OQTF. L’OQTF est une décision administrative prise par les préfectures à l’encontre d’un étranger en situation irrégulière, lui imposant un départ avec ou sans délai. Or, contrairement à ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majorité des personnes frappées par des OQTF ne sont coupables d’aucun délit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffré. Les préfectures les démultiplent alors qu’elles sont très souvent annulées par les tribunaux. La France en émet plus de 100 000 par an et en exécute moins de 7000. Elle émet 30% des OQTF de toute l’Europe. Les services préfectoraux dédiés sont surchargés et commettent des “erreurs de droit” comme le dit très pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrégulière. Le contentieux des étrangers représente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants étrangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulées, nombre d’autres ne peuvent pas être exécutées. Peut-on sortir de cette spirale inutile, se demande l’avocate ?
Nous misons désormais bien plus sur une fausse sécurité que sur la sûreté. La sûreté, rappelle l’avocate, c’est la garantie que les libertés individuelles soient respectées, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sûreté nous garantit une administration équitable et juste. C’est elle que nous perdons en nous enfermant dans un délire sécuritaire qui a perdu contact avec la réalité. Les témoignages que livre Marianne Leloup-Dassonville montrent des personnes plutôt privilégiées, traumatisées par leurs rapports à l’administration française. Les étrangers sont partout assimilés à des délinquants comme les bénéficiaires de droits sociaux sont assimilés à des fraudeurs.
A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour éviter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons réaffirmer que l’administration ne peut se substituer nulle part à la justice, car c’est assurément par ce glissement là qu’on entraîne tous les autres.
Hubert Guillaud
PS : Au Royaume-Uni, le ministère de l’intérieur souhaite introduire deux outils d’IA dans les processus de décisions de demande d’asile d’après une étude pilote : une pour résumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer là-bas, la boîte noire des décisions, au prétexte d’améliorer « la vitesse » de décision plutôt que leur qualité, comme le souligne une étude critique. Comme quoi, on peut toujours imaginer pire pour encore dégrader ce qui l’est déjà considérablement.
MAJ du 23/05/2025 : L’extension des prérogatives de l’administration au détriment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertés individuelles, à un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.
Pour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut réguler les programmes de monétisation de contenus que proposent désormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont été créés en 2025 seulement. Ces modèles de redistribution des revenus sont souvent très simples : plus le nombre de vues et d’engagements générés sont élevés, plus la plateforme verse d’argent. Or, la communauté de la régulation s’est beaucoup intéressée à la modération des contenus, aux recommandations publicitaires, aux problèmes que posent l’amplification algorithmique, mais elle s’est peu penchée sur la « gouvernance de leur monétisation », c’est-à-dire à la façon dont les plateformes redistribuent l’argent et à la manière dont leurs décisions de monétisation « façonnent in fine l’environnement informationnel ».
Dans un rapport consacré au sujet, What to Fix estime que « les plateformes de médias sociaux ont redistribué plus de 20 milliards de dollars de leurs revenus à plus de 6 millions de comptes l’année dernière ». « Et pourtant, nous ignorons qui les plateformes ont payé, combien elles ont payé, ni pour quel contenu ! », rappelle Victoire Rio. L’enjeu n’est pas que cette redistribution n’ait pas lieu, bien au contraire, précise-t-elle : « Ce qui m’inquiète, c’est de laisser les décisions de redistribution des revenus aux plateformes de médias sociaux, sans transparence ni contrôle ». Et notamment, le fait que ces revenus bénéficient de plus en plus à des acteurs de la désinformation ou encore le fait que ces financements puissent être coupés unilatéralement pour nombre d’acteurs légitimes, avec des recours limités et sans compensation pour les pertes de revenus associées. Or, ni le DSA européen, ni le Online Safety Act britannique, n’abordent clairement les systèmes de monétisation des plateformes comme un vecteur de risque. Là encore, la transparence des modalités de reversement est en cause, accuse Victoire Rio, qui souhaite que nous considérions les modalités de monétisation comme un enjeu spécifique, c’est-à-dire un enjeu de régulation.
Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.
Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.
Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.
La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.
La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».
Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)
Je leur dirai les mots noirs.
Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».
Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation) leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.
Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :
activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.
Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.
Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)
Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.
Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …
Ingénieries de l’effacement.
Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »
Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »
Un grand remplacement documentaire et linguistique.
Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.
Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.
Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :
Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s).
Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).
Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.
Calculer la langue.
Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.
Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.
Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.
Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]
En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.
En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »
En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.
Pascal Chabot est philosophe et enseigne à l’Institut des hautes études des communications sociales à Bruxelles. Son plus récent ouvrage, Un sens à la vie : enquête philosophique sur l’essentiel (PUF, 2024) fait suite à une riche production de livres, où la question du numérique est toujours présente, lancinante, quand elle n’est pas au cœur de sa réflexion. L’occasion de revenir avec lui sur comment les enjeux numériques d’aujourd’hui questionnent la philosophie. Entretien.
Dans les algorithmes : Dans votre dernier livre, Un sens à la vie, vous vous interrogez sur le meaning washing, c’est à la dire à la fois sur la perte de sens de nos sociétés contemporaines et leur récupération, par exemple par le consumérisme qui nous invite à consommer pour donner du sens à l’existence. Pour vous, notre monde contemporain est saisi d’une “dissonance majeure”, où les sources de sens s’éloignent de nous du fait du développement d’environnements entièrement artificiels, du monde physique comme du monde numérique.
Couverture du livre de Pascal Chabot, Un sens à la vie.
Vous interrogez cette perte de sens ou notre difficulté, fréquente, à retrouver du sens dans les contradictions de la modernité. Retrouver le sens nécessite de trouver comment circuler entre les sensations, les significations et les orientations, expliquez-vous, c’est-à-dire à trouver des formes de circulations entre ce que l’on ressent, ce qu’on en comprend et là où l’on souhaite aller. “Vivre, c’est faire circuler du sens”, le désirer, se le réapproprier. Mais le sens que tout à chacun cherche est aujourd’hui bouleversé par le numérique. Le sens “est transformé par les modalités de sa transmission” dites-vous. En quoi ces nouvelles modalités de transmission modifient-elles notre compréhension même du monde ?
Pascal Chabot : Une chose qui m’intéresse beaucoup en philosophie, c’est de comprendre comment des questions, anciennes, traditionnelles, sont à la fois toujours actuelles et bouleversées par ce que nous vivons. Par rapport à la question du sens, qui est un accord entre ce que l’on sent, ce que l’on comprend et ce que l’on devient, les choses ont peu bougé. Un ancien grec ou un humaniste de la Renaissance auraient pu faire des constats sur le sens de la vie proches des miens, pour peu qu’ils aient été en dehors des très grands récits de transcendance qui s’imposaient alors, où le sens est donné par Dieu ou le Salut, c’est à dire où le sens a un nom avec une majuscule. Cette façon de faire circuler du sens dans nos vies, on la partage avec nos lointains prédécesseurs dans l’histoire de la philosophie. Il y a une lignée humaine dans laquelle nous sommes chacun profondément inscrits.
Cela étant, après avoir dit la continuité, il faut penser la rupture. Et la rupture, selon moi, elle est dans le branchement de nos consciences à ce que j’appelle le surconscient numérique. La conscience, telle qu’elle est ordinairement définie à partir du XXe siècle et bien sûr de Freud, est toujours couplée à son inconscient. Cette découverte, d’un enrichissement inédit, même si l’on ne sait pas toujours très bien ce qu’est l’inconscient, est restée d’une grande originalité, en apportant ce binôme conscience-inconscience qui permet d’enrichir notre compréhension de la pensée, en accord avec une nature humaine profonde, allant des grands mythes freudiens à la nature, dans lesquels notre inconscient peut s’exprimer, que ce soit via la sexualité ou la contemplation. Ce binôme a permis de créer des sens nouveaux. Cependant, je crois qu’on est de plus en plus débranchés de notre inconscient. C’est pourquoi une partie de la psychiatrie et de la psychanalyse ont un mal fou à comprendre ce qu’il se passe avec les nouvelles pathologies. En revanche, on est beaucoup plus branché, on fait couple, avec ce surconscient auquel on a accès dès qu’on fait le geste de consulter un écran. Ce mot surconscient, créé par analogie avec l’inconscient, est un mot assez large qui désigne pour moi un réseau, un dôme d’information, de communication, de protocoles d’échanges, d’images, qui a une certaine conscience. Une conscience relative comme l’inconscient a lui-même une conscience relative. Ce n’est pas une conscience en terme de « JE », mais de « NOUS ». C’est un savoir exploitable par la conscience et l’inconscient et qui est de plus en plus déterminant sur notre conscience comme sur notre inconscient.
Dans les algorithmes : Mais on pourrait dire que ce surconscient existait avant le numérique, non ? Des grands récits à la presse, toutes nos formes médiatiques et culturelles y participaient. Pourquoi le numérique modifierait-il particulièrement ce rapport ?
Pascal Chabot : Oui, toute œuvre culturelle, de la presse à la littérature, crée des bulles de signification, un cadre de signification, avec lequel nous sommes en dialogue. La graphosphère, comme on l’a parfois appelé, existe. Mais la grande différence, c’est que le monde numérique propose un monde où les significations ont une vie propre. Ce que Tolstoï a écrit par exemple, a été écrit une fois pour toute. On se réfère à Guerre et Paix à partir des significations qui ont été données depuis un écrit stabilisé. Si Guerre et Paix continue à vivre, c’est par l’acte d’enrichissement du livre dans notre imagination, dans nos souvenirs, dans notre mémoire. Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous.
Cette personnalisation est une caractéristique importante. Il y en a une autre, celle du temps. Quand on se réfère à un livre écrit à la fin du XIXe siècle, on fait venir dans le temps présent un objet du passé. La sphère numérique est caractérisée par un temps nouveau, comme je l’évoquais dans Avoir le temps, où j’essayais de dire, qu’il y a eu deux grands temps. Le temps comme destin, c’est le temps de la nature, et le temps du progrès, celui de la construction d’un monde commun. Dans le numérique on vit un hypertemps. Un temps de synchronisation permanente. Un temps où la nouveauté est tout le temps présente. Un temps décompté, à rebours. Le temps du surconscient est aussi cet hypertemps. On est de moins en moins dans l’espace et de plus en plus dans des bulles temporelles qui s’ouvrent notamment quand on est dans la consommation de l’écran, où l’on se branche à un hypertemps commun.
« Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous. »
Dans les algorithmes :Cette consommation d’écran, ce pas de côté dans nos réalités, nécessite de « faire le geste » dites-vous, c’est-à-dire d’ouvrir son smartphone. Geste que nous faisons des centaines de fois par jour. « Nous passons nos vies à caresser une vitre », ironise l’écrivain Alain Damasio. C’est consulter, nous brancher en permanence, dans un geste qui est désormais si présent dans notre quotidien, qu’il ne semble nullement le perturber, alors qu’il l’entrecoupe sans arrêt. Or, ce geste nous coupe de nos environnements. Il réduit nos sensations, limite nos orientations… Comme si ce geste était le symptôme de notre envahissement par ce surconscient…
Pascal Chabot : C’est effectivement sa matérialisation. C’est par ce geste que le surconscient colonise nos consciences. On dit beaucoup qu’on vit une mutation anthropologique majeure, mais elle est orchestrée par des ultraforces, c’est-à-dire des moyens qui ne sont pas une fin mais une force en soi, comme le sont la finance ou le numérique. « Faire le geste » nous fait changer de réalité, nous fait muter, nous fait passer dans un autre monde. Un monde très libidinal, un monde qui sait nos intentions, qui satisfait nos désirs. Un monde qui nous rend captif mais qui nous permet surtout de quitter une réalité qui nous apparaît de moins en moins satisfaisante. Le rapport au présent, à la matérialité, nous apparaît désormais plus pauvre que le voyage dans le surconscient de l’humanité. La plupart d’entre nous sommes devenus incapables de rester 5 minutes sans « faire le geste ». Toute addiction est aphrodisiaque : elle nous promet un désir qu’on ne peut plus avoir ailleurs. Comme si notre conscience et notre inconscient ne nous suffisaient plus.
Dans les algorithmes : Vous reconnaissez pourtant que ce surconscient a des vertus : « il fait exploser nos compréhensions », dites-vous. Vous expliquez que le rendement informationnel du temps que l’on passe sur son smartphone – différent de son impact intellectuel ou affectif – est bien supérieur à la lecture d’un livre ou même d’un dialogue avec un collègue. Que notre connexion au réseau permet de zoomer et dézoomer en continue, comme disait le sociologue Dominique Cardon, nous permet d’aller du micro au macro. Nous sommes plongés dans un flux continu de signifiants. “Les sensations s’atrophient, les significations s’hypertrophient. Quant aux orientations, en se multipliant et se complexifiant, elles ouvrent sur des mondes labyrinthiques” qui se reconfigurent selon nos circulations. Nous sommes plongés dans un surconscient tentaculaire qui vient inhiber notre inconscient et notre conscience. Ce surconscient perturbe certes la circulation du sens. Mais nos écrans ne cessent de produire du sens en permanence…
Pascal Chabot : Oui, mais ce surconscient apporte de l’information, plus que du sens. Je parle bien de rendement informationnel. Quand les livres permettent eux de déployer l’imagination, la créativité, la sensibilité, l’émotivité… de les ancrer dans nos corps, de dialoguer avec l’inconscient. En revanche, ce que nous offre le surconscient en terme quantitatif, en précision, en justesse est indéniable. Comme beaucoup, j’ai muté des mondes de la bibliothèque au monde du surconscient. Il était souvent difficile de retrouver une information dans le monde des livres. Alors que le surconscient, lui, est un monde sous la main. Nous avons un accès de plus en plus direct à l’information. Et celle-ci se rapproche toujours plus de notre conscience, notamment avec ChatGPT. La recherche Google nous ouvrait une forme d’arborescence dans laquelle nous devions encore choisir où aller. Avec les chatbots, l’information arrive à nous de manière plus directe encore.
Mais l’information n’est ni le savoir ni la sagesse et sûrement pas le sens.
Dans les algorithmes :Vous dites d’ailleurs que nous sommes entrés dans des sociétés de la question après avoir été des sociétés de la réponse. Nous sommes en train de passer de la réponse qu’apporte un article de Wikipédia, à une société de l’invite, à l’image de l’interface des chatbots qui nous envahissent, et qui nous invitent justement à poser des questions – sans nécessairement en lire les réponses d’ailleurs. Est-ce vraiment une société de la question, de l’interrogation, quand, en fait, les réponses deviennent sans importance ?
Pascal Chabot : Quand j’évoque les sociétés de la question et de la réponse, j’évoque les sociétés modernes du XVIIe et du XVIIIe siècle, des sociétés où certaines choses ne s’interrogent pas, parce qu’il y a des réponses partout. La question du sens ne hante pas les grands penseurs de cette époque car pour eux, le sens est donné. Les sociétés de la question naissent de la mort de Dieu, de la perte de la transcendance et du fait qu’on n’écrit plus le sens en majuscule. Ce sont des sociétés de l’inquiétude et du questionnement. La question du sens de la vie est une question assez contemporaine finalement. C’est Nietzsche qui est un des premiers à la poser sous cette forme là.
Dans la société de la question dans laquelle nous entrons, on interroge les choses, le sens… Mais les réponses qui nous sont faites restent désincanées. Or, pour que le sens soit présent dans une existence, il faut qu’il y ait un enracinement, une incarnation… Il faut que le corps soit là pour que la signification soit comprise. Il faut une parole et pas seulement une information. De même, l’orientation, le chemin et son caractère initiatique comme déroutant, produisent du sens.
Mais, si nous le vivons ainsi c’est parce que nous avons vécu dans un monde de sensation, de signification et d’orientation relativement classique. Les plus jeunes n’ont pas nécessairement ces réflexes. Certains sont déjà couplés aux outils d’IA générative qui leurs servent de coach particuliers en continue… C’est un autre rapport au savoir qui arrive pour une génération qui n’a pas le rapport au savoir que nous avons construit.
Dans les algorithmes : Vous expliquez que cette extension du surconscient produit des pathologies que vous qualifiez de digitoses, pour parler d’un conflit entre la conscience et le surconscient. Mais pourquoi parlez-vous de digitose plutôt que de nouvelles névroses ou de nouvelles psychoses ?
Pascal Chabot : Quand j’ai travaillé sur la question du burn-out, j’ai pu constater que le domaine de la santé mentale devait évoluer. Les concepts classiques, de névrose ou de psychose, n’étaient plus opérants pour décrire ces nouvelles afflictions. Nous avions des notions orphelines d’une théorie plus englobante. Le burn-out ou l’éco-anxiété ne sont ni des névroses ni des psychoses. Pour moi, la santé mentale avait besoin d’un aggiornamento, d’une mise à jour. J’ai cherché des analogies entre inconscient et surconscient, le ça, le là, le refoulement et le défoulement… J’ai d’abord trouvé le terme de numérose avant de lui préféré le terme de digitose en référence au digital plus qu’au numérique. C’est un terme qui par son suffixe en tout cas ajoute un penchant pathologique au digital. Peu à peu, les digitoses se sont structurées en plusieurs familles : les digitoses de scission, d’avenir, de rivalité… qui m’ont permis de créer une typologie des problèmes liés à un rapport effréné ou sans conscience au numérique qui génère de nouveaux types de pathologies.
Dans les algorithmes : Le terme de digitose, plus que le lien avec le surconscient, n’accuse-t-il pas plus le messager que le message ? Sur l’éco-anxiété, l’information que l’on obtient via le numérique peut nous amener à cette nouvelle forme d’inquiétude sourde vis à vis du futur, mais on peut être éco-anxieux sans être connecté. Or, dans votre typologie des digitoses, c’est toujours le rapport au numérique qui semble mis au banc des accusés…
Pascal Chabot : Je ne voudrais pas donner l’impression que je confond le thermomètre et la maladie effectivement. Mais, quand même : le média est le message. Ce genre de pathologies là, qui concernent notre rapport au réel, arrivent dans un monde où le réel est connu et transformé par le numérique. Pour prendre l’exemple de l’éco-anxiété, on pourrait tout à fait faire remarquer qu’elle a existé avant internet. Le livre de Rachel Carson, Le printemps silencieux, par exemple, date des années 60.
Mais, ce qui est propre au monde numérique est qu’il a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas. L’avenir a toujours été le lieu de l’opacité, comblé par de grands récits mythiques ou apocalyptiques. Aujourd’hui, l’apport informationnel majeur du numérique, permet d’avoir pour chaque réalité un ensemble de statistiques prospectives extrêmement fiables. On peut trouver comment vont évoluer les populations d’insectes, la fonte des glaciers, les températures globales comme locales… Ce n’est pas uniquement le média numérique qui est mobilisé ici, mais la science, la technoscience, les calculateurs… c’est-à-dire la forme contemporaine du savoir. Les rapports du Giec en sont une parfaite illustration. Ils sont des éventails de scénarios chiffrés, sourcés, documentés… assortis de probabilités et validés collectivement. Ils font partie du surconscient, du dôme de savoir dans lequel nous évoluons et qui étend sa chape d’inquiétude et de soucis sur nos consciences. L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur.
« Le numérique a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas »
Dans les algorithmes : Ce n’est pas le fait que ce soit numérique, c’est ce que ce branchement transforme en nous…
Pascal Chabot : Oui, c’est la même chose dans le monde du travail, par rapport à la question du burn-out… Nombre de burn-out sont liés à des facteurs extra-numériques qui vont des patrons chiants, aux collègues toxiques… et qui ont toujours existé, hélas. Mais dans la structure contemporaine du travail, dans son exigence, dans ce que les algorithmes font de notre rapport au système, au travail, à la société… ces nouveaux branchements, ce reporting constant, cette normalisation du travail… renforcent encore les souffrances que nous endurons.
« L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur. »
Dans les algorithmes :Outre la digitose de scission (le burn-out), et la digitose d’avenir (l’éco-anxiété) dont vous nous avez parlé, vous évoquez aussi la digitose de rivalité, celle de notre confrontation à l’IA et de notre devenir machine. Expliquez-nous !
Pascal Chabot : Il faut partir de l’écriture pour la comprendre. Ce que l’on délègue à un chatbot, c’est de l’écriture. Bien sûr, elles peuvent générer bien d’autres choses, mais ce sont d’abord des machines qui ont appris à aligner des termes en suivant les grammaires pour produire des réponses sensées, c’est-à-dire qui font sens pour quelqu’un qui les lit. Ce qui est tout à fait perturbant, c’est que de cette sorte de graphogenèse, de genèse du langage graphique, naît quelque chose comme une psychogenèse. C’est simplement le bon alignement de termes qui répond à telle ou telle question qui nous donne l’impression d’une intentionnalité. Depuis que l’humanité est l’humanité, un terme écrit nous dit qu’il a été pensé par un autre. Notre rapport au signe attribue toujours une paternité. L’humanité a été créée par les Ecritures. Les sociétés religieuses, celles des grands monothéismes, sont des sociétés du livre. Être en train de déléguer l’écriture à des machines qui le feront de plus en plus correctement, est quelque chose d’absolument subjuguant. Le problème, c’est que l’humain est paresseux et que nous risquons de prendre cette voie facile. Nos consciences sont pourtant nées de l’écriture. Et voilà que désormais, elles se font écrire par des machines qui appartiennent à des ultraforces qui ont, elles, des visées politiques et économiques. Politique, car écrire la réponse à la question « la démocratie est-elle un bon régime ? » dépendra de qui relèvent de ces ultraforces. Économique, comme je m’en amusait dans L’homme qui voulait acheter le langage… car l’accès à ChatGPT est déjà payant et on peut imaginer que les accès à de meilleures versions demain, pourraient être plus chères encore. La capitalisme linguistique va continuer à se développer. L’écriture, qui a été un outil d’émancipation démocratique sans commune mesure (car apprendre à écrire a toujours été le marqueur d’entrée dans la société), risque de se transformer en simple outil de consommation. Outre la rivalité existentielle de l’IA qui vient dévaluer notre intelligence, les impacts politiques et économiques ne font que commencer. Pour moi, il y dans ce nouveau rapport quelque chose de l’ordre de la dépossession, d’une dépossession très très profonde de notre humanité.
Dans les algorithmes : Ecrire, c’est penser. Être déposséder de l’écriture, c’est être dépossédé de la pensée.
Pascal Chabot : Oui et cela reste assez vertigineux. Notamment pour ceux qui ont appris à manier l’écriture et la pensée. Ecrire, c’est s’emparer du langage pour lui injecter un rythme, une stylistique et une heuristique, c’est-à-dire un outil de découverte, de recherche, qui nous permet de stabiliser nos relations à nous-mêmes, à autrui, au savoir… Quand on termine un mail, on réfléchit à la formule qu’on veut adopter en fonction de la relation à l’autre que nous avons… jusqu’à ce que les machines prennent cela en charge. On a l’impression pour le moment d’être au stade de la rivalité entre peinture et photographie vers 1885. Souvenons-nous que la photographie a balayé le monde ancien.
Mais c’est un monde dont il faut reconnaître aussi les limites et l’obsolescence. Le problème des nouvelles formes qui viennent est que le sens qu’elles proposent est bien trop extérieur aux individus. On enlève l’individu au sens. On est dans des significations importées, dans des orientations qui ne sont pas vécues existentiellement.
Dans les algorithmes :Pour répondre aux pathologies des digitoses, vous nous invitez à une thérapie de civilisation. De quoi avons-nous besoin pour pouvoir répondre aux digitoses ?
Pascal Chabot : La conscience, le fait d’accompagner en conscience ce que nous faisons change la donne. Réfléchir sur le temps, prendre conscience de notre rapport temporel, change notre rapport au temps. Réfléchir à la question du sens permet de prendre une hauteur et de créer une série de filtres permettant de distinguer des actions insensées qui relèvent à la fois des grandes transcendance avec une majuscule que des conduites passives face au sens. La thérapie de la civilisation, n’est rien d’autre que la philosophie. C’est un plaidoyer pro domo ! Mais la philosophie permet de redoubler ce que nous vivons d’une sorte de conscience de ce que nous vivons : la réflexivité. Et cette façon de réfléchir permet d’évaluer et garder vive la question de l’insensé, de l’absurde et donc du sens.
Dans les algorithmes : Dans ce surconscient qui nous aplatit, comment vous situez-vous face aux injonctions à débrancher, à ne plus écouter la télévision, la radio, à débrancher les écrans ? Cela relève d’un levier, du coaching comportemental ou est-ce du meaning washing ?
Pascal Chabot : Je n’y crois pas trop. C’est comme manger des légumes ou faire pipi sous la douche. Les mouvements auxquels nous sommes confrontés sont bien plus profonds. Bien sûr, chacun s’adapte comme il peut. Je ne cherche pas à être jugeant. Mais cela nous rappelle d’ailleurs que la civilisation du livre et de l’écrit a fait beaucoup de dégâts. La conscience nous aide toujours à penser mieux. Rien n’est neutre. Confrontés aux ultraforces, on est dans un monde qui développe des anti-rapports, à la fois des dissonnances, des dénis ou des esquives pour tenter d’échapper à notre impuissance.
Dans les algorithmes : Vous êtes assez alarmiste sur les enjeux civilisationnels de l’intelligence artificielle que vous appelez très joliment des « communicants artificiels ». Et de l’autre, vous nous expliquez que ces outils vont continuer la démocratisation culturelle à l’œuvre. Vous rappelez d’ailleurs que le protestantisme est né de la généralisation de la lecture et vous posez la question : « que naîtra-t-il de la généralisation de l’écriture ? »
Mais est-ce vraiment une généralisation de l’écriture à laquelle nous assistons ? On parle de l’écriture de et par des machines. Et il n’est pas sûr que ce qu’elles produisent nous pénètrent, nous traversent, nous émancipent. Finalement, ce qu’elles produisent ne sont que des réponses qui ne nous investissent pas nécessairement. Elles font à notre place. Nous leur déléguons non seulement l’écriture, mais également la lecture… au risque d’abandonner les deux. Est-ce que ces outils produisent vraiment une nouvelle démocratisation culturelle ? Sommes-nous face à un nouvel outil interculturel ou assistons-nous simplement à une colonisation et une expansion du capitalisme linguistique ?
Pascal Chabot : L’écriture a toujours été une sorte de ticket d’entrée dans la société et selon les types d’écritures dont on était capable, on pouvait pénétrer dans tel ou tel milieu. L’écriture est très clairement un marqueur de discrimination sociale. C’est le cas de l’orthographe, très clairement, qui est la marque de niveaux d’éducation. Mais au-delà de l’orthographe, le fait de pouvoir rédiger un courrier, un CV… est quelque chose de très marqué socialement. Dans une formation à l’argumentation dans l’équivalent belge de France Travail, j’ai été marqué par le fait que pour les demandeurs d’emploi, l’accès à l’IA leur changeait la vie, leur permettant d’avoir des CV, des lettres de motivation adaptées. Pour eux, c’était un boulet de ne pas avoir de CV corrects. Même chose pour les étudiants. Pour nombre d’entre eux, écrire est un calvaire et ils savent très bien que c’est ce qu’ils ne savent pas toujours faire correctement. Dans ces nouveaux types de couplage que l’IA permet, branchés sur un surconscient qui les aide, ils ont accès à une assurance nouvelle.
Bien sûr, dans cette imitation, personne n’est dupe. Mais nous sommes conditionnés par une société qui attribue à l’auteur d’un texte les qualités de celui-ci, alors que ses productions ne sont pas que personnelles, elles sont d’abord le produit des classes sociales de leurs auteurs, de la société dont nous sommes issus. Dans ce nouveau couplage à l’IA, il me semble qu’il y a quelque chose de l’ordre d’une démocratisation.
Dans les algorithmes :Le risque avec l’IA, n’est-il pas aussi, derrière la dépossession de l’écriture, notre dépossession du sens lui-même ? Le sens nous est désormais imposé par d’autres, par les résultats des machines. Ce qui m’interroge beaucoup avec l’IA, c’est cette forme de délégation des significations, leur aplatissement, leur moyennisation. Quand on demande à ces outils de nous représenter un mexicain, ils nous livrent l’image d’une personne avec un sombrero ! Or, faire société, c’est questionner tout le temps les significations pour les changer, les modifier, les faire évoluer. Et là, nous sommes confrontés à des outils qui les figent, qui excluent ce qui permet de les remettre en cause, ce qui sort de la norme, de la moyenne…
Pascal Chabot : Oui, nous sommes confrontés à un « Bon gros bon sens » qui n’est pas sans rappeler Le dictionnaire des idées de reçues de Flaubert…
Dans les algorithmes :…mais le dictionnaire des idées reçues était ironique, lui !
Pascal Chabot : Il est ironique parce qu’il a vu l’humour dans le « Bon gros bon sens ». Dans la société, les platitudes circulent. C’est la tâche de la culture et de la créativité de les dépasser. Car le « Bon gros bon sens » est aussi très politique : il est aussi un sens commun, avec des assurances qui sont rabachées, des slogans répétés…. Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. On est plongé dans un pragmatisme anglo-saxon, qui a un rapport au langage très peu polysémique d’ailleurs. Le problème, c’est que ce « Bon gros bon sens » est beaucoup plus invasif. Il a une force d’autorité. Le produit de ChatGPT ne nous est-il pas présenté d’ailleurs comme un summum de la science ?
« Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. »
Dans les algorithmes : Et en même temps, ce calcul laisse bien souvent les gens sans prise, sans moyens d’action individuels comme collectifs.
Le point commun entre les différentes digitoses que vous listez me semble-t-il est que nous n’avons pas de réponses individuelles à leur apporter. Alors que les névroses et psychoses nécessitent notre implication pour être réparées. Face aux digitoses, nous n’avons pas de clefs, nous n’avons pas de prises, nous sommes sans moyen d’action individuels comme collectifs. Ne sommes nous pas confrontés à une surconscience qui nous démunie ?
Pascal Chabot : Il est certain que le couplage des consciences au surconscient, en tant qu’elle est un processus de civilisation, apparaît comme un nouveau destin. Il s’impose, piloté par des ultraforces sur lesquelles nous n’avons pas de prise. En ce sens, il s’agit d’un nouveau destin, avec tout ce que ce terme charrie d’imposition et d’inexorabilité.
En tant que les digitoses expriment le versant problématique de ce nouveau couplage, elles aussi ont quelque chose de fatal. Branchée à une réalité numérique qui la dépasse et la détermine, la conscience peine souvent à exprimer sa liberté, qui est pourtant son essence. La rivalité avec les IA, l’eco-anxiété, la scission avec le monde sensible : autant de digitoses qui ont un aspect civilisationnel, presque indépendant du libre-arbitre individuel. Les seules réponses, en l’occurrence, ne peuvent être que politiques. Mais là aussi, elles ne sont pas faciles à imaginer.
Or on ne peut pourtant en rester là. Si ce seul aspect nécessaire existait, toute cette théorie ne serait qu’une nouvelle formulation de l’aliénation. Mais les digitoses ont une composante psychologique, de même que les névroses et psychoses. Cette composante recèle aussi des leviers de résistance. La prise de conscience, la lucidité, la reappropriation, l’hygiène mentale, une certaine désintoxication, le choix de brancher sa conscience sur des réalités extra-numériques, et tant d’autres stratégies encore, voire tant d’autres modes de vies, peuvent très clairement tempérer l’emprise de ces digitoses sur l’humain. C’est dire que l’individu, face à ce nouveau destin civilisationnel, garde des marges de résistance qui, lorsqu’elles deviennent collectives, peuvent être puissantes.
Les digitoses sont donc un défi et un repoussoir : une occasion de chercher et d’affirmer des libertés nouvelles dans un monde où s’inventent sous nos yeux de nouveaux déterminismes.
Dans les algorithmes : Derrière le surconscient, le risque n’est-il pas que s’impose une forme de sur-autorité, de sur-vision… sur lesquelles, il sera difficile de créer des formes d’échappement, de subtilité, d’ambiguité. On a l’impression d’être confronté à une force politique qui ne dit pas son nom mais qui se donne un nouveau moyen de pouvoir…
Pascal Chabot : C’est clair que la question est celle du pouvoir, politique et économique. Les types de résistances sont extrêmement difficiles à inventer. C’est le propre du pouvoir de rendre la résistance à sa force difficile. On est confronté à un tel mélange de pragmatisme, de facilitation de la vie, de création d’une bulle de confort, d’une enveloppe où les réponses sont faciles et qui nous donnent accès à de nouveaux mondes, comme le montrait la question de la démocratisation qu’on évoquait à l’instant… que la servitude devient très peu apparente. Et la perte de subtilité et d’ambiguïté est peu vue, car les gains économiques supplantent ces pertes. Qui se rend compte de l’appauvrissement ? Il faut avoir un pied dans les formes culturelles précédentes pour cela. Quand les choses seront plus franches, ce que je redoute, c’est que nos démocraties ne produisent pas de récits numériques pour faire entendre une autre forme de puissance.
Dans les algorithmes :En 2016 vous avez publié, ChatBot le robot, une très courte fable écrite bien avant l’avènement de l’IA générative, qui met en scène un jury de philosophes devant décider si une intelligence artificielle est capable de philosopher. Ce petit drame philosophique où l’IA fomente des réponses à des questions philosophiques, se révèle très actuel 9 ans plus tard. Qualifieriez vous ChatGPT et ses clones de philosophes ?
Pascal Chabot : Je ne suis pas sûr. Je ne suis pas sûr que ce chatbot là se le décernerait à lui, comme il est difficile à un artiste de se dire artiste. Mon Chatbot était un récalcitrant, ce n’est pas le cas des outils d’IA d’aujourd’hui. Il leur manque un rapport au savoir, le lien entre la sensation et la signification. La philosophie ne peut pas être juste de la signification. Et c’est pour cela que l’existentialisme reste la matrice de toute philosophie, et qu’il n’y a pas de philosophie qui serait non-existentielle, c’est-à-dire pure création de langage. La graphogenèse engendre une psychogenèse. Mais la psychogenèse, cette imitation de la conscience, n’engendre ni philosophie ni pensée humaine. Il n’y a pas de conscience artificielle. La conscience est liée à la naissance, la mort, la vie.
Dans les algorithmes :La question de l’incalculabitéest le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour un un philosophe, qu’est-ce qui est incalculable ?
Pascal Chabot : L’incalculable, c’est le subtil ! L’étymologie de subtil, c’est subtela, littéralement, ce qui est en-dessous d’une toile. En dessous d’une toile sur laquelle on tisse, il y a évidémment la trame, les fils de trame. Le subtil, c’est les fils de trame, c’est-à-dire nos liens majeurs, les liens à nous-mêmes, aux autres, au sens, à la culture, nos liens amoureux, amicaux… Et tout cela est profondément de l’ordre de l’incalculable. Et tout cela est même profané quand on les calcule. Ces liens sont ce qui résiste intrinsèquement à la calculabilité, qui est pourtant l’un des grands ressort de l’esprit humain et pas seulement des machines. Le problème, c’est qu’on est tellement dans une idéologie de la calculabilité qu’on ne perçoit même plus qu’on peut faire des progrès dans le domaine du subtil. Désormais, le progrès semble lié à la seule calculabilité. Le progrès est un progrès du calculable et de l’utile. Or, je pense qu’il existe aussi un progrès dans le domaine du subtil. Dans l’art d’être ami par exemple, dans l’art d’être lié à soi-même ou aux autres, il y a moyen de faire des progrès. Il y a là toute une zone de développement, de progrès (nous ne devons pas laisser le terme uniquement à la civilisation techno-économique), de progrès subtil. Un progrès subtil, incalculable, mais extrêmement précieux.
Propos recueillis par Hubert Guillaud.
Pascal Chabot sera l’un des intervenants de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.
Les tarifs des études dans les grandes universités américaines sont très élevés et les établissements se livrent à une concurrence féroce que ce soit pour fixer les prix des frais de scolarité comme pour fixer les réductions qu’elles distribuent sous forme de bourses. Ces réductions peuvent être considérables : en moyenne, elles permettent de réduire le prix de plus de 56% pour les nouveaux étudiants et peuvent monter jusqu’à six chiffres sur le coût total des études. Or, explique Ron Lieber, pour le New York Times, les prix comme les réductions dépendent de calculs complexes, d’algorithmes opaques, mis au point discrètement depuis des décennies par des cabinets de conseil opérant dans l’ombre, notamment EAB et Ruffalo Noel Levitz (RNL) qui appartiennent à des sociétés de capital-investissement.
Lieber raconte la mise au point d’un algorithme dédié au Boston College par Jack Maguire dans les années 70, visant à accorder des réductions ciblées sur la base de la qualité des candidats plutôt que sur leurs moyens financiers, dans le but que nombre d’entre eux acceptent l’offre d’étude qui leur sera faite. Les sociétés qui proposent des algorithmes parlent, elles, “d’optimisation de l’aide financière”. Pour cela, elles utilisent les données sociodémographiques que les étudiants remplissent lors d’une demande d’information. S’ensuit des échanges numériques nourris entre universités et candidats pour évaluer leur engagement en mesurant tout ce qui est mesurable : clics d’ouvertures aux messages qui leurs sont adressés, nombre de secondes passées sur certaines pages web. L’EAB utilise plus de 200 variables pour fixer le prix d’admission en s’appuyant sur les données de plus de 350 clients et plus de 1,5 milliard d’interactions avec des étudiants. Pour chaque profil, des matrices sont produites mesurant à la fois la capacité de paiement et évaluant la réussite scolaire du candidat avant que les écoles ne fassent une offre initiale qui évolue au gré des discussions avec les familles. L’article évoque par exemple un établissement qui “a offert aux étudiants provenant d’autres Etats une réduction trois fois supérieure au prix catalogue par étudiant par rapport à celle proposée aux étudiants de l’Etat, tout en leur faisant payer le double du prix net”. Le but de l’offre était de les attirer en leur faisant une proposition qu’ils ne pouvaient pas refuser.
Mais contrairement à ce que l’on croit, les « bourses » ne sont pas que des bourses sur critères sociaux. C’est même de moins en moins le cas. Bien souvent, les universités proposent des bourses à des gens qui n’en ont pas besoin, comme une forme de remise tarifaire. En fait, la concurrence pour attirer les étudiants capables de payer est très forte, d’où l’enjeu à leur offrir des remises convaincantes, et les familles ont vite compris qu’elles pouvaient jouer de cette concurrence. En fait, constate une responsable administrative : “je pensais que l’aide financière servait à améliorer l’accès, mais ce n’est plus le cas. C’est devenu un modèle économique.” Les bourses ne servent plus tant à permettre aux plus démunis d’accéder à l’université, qu’à moduler la concurrence inter-établissement, à chasser les étudiants qui ont les capacités de payer.
En 2023, EAB a lancé Appily, un portail universitaire grand public à l’ambiance positive, une plateforme de mise en relation entre futurs étudiants à la manière d’une application de rencontre qui compte déjà 3 millions d’utilisateurs. Le recrutement d’étudiants est en passe de devenir de plus en plus concurrentiel à l’heure où les financements des universités s’apprêtent à se tarit sous les coupes de l’administration Trump et où la venue d’étudiants étrangers devient extrêmement difficile du fait des nouvelles politiques d’immigration mises en place. Comme on le constatait dans d’autres rapports tarifaires, dans les études supérieures également, le marketing numérique a pris le contrôle : là encore, le meilleur prix est devenu celui que les étudiants et les familles sont prêts à payer.
« La crise de l’emploi via l’IA est arrivée. Elle est là, maintenant. Elle ne ressemble simplement pas à ce que beaucoup attendaient.
La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai déjà écrit, à l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une série de décisions managériales prises par des dirigeants cherchant à réduire les coûts de main-d’œuvre et à consolider le contrôle de leurs organisations. La crise de l’emploi dans l’IA n’est pas une apocalypse d’emplois robotisés à la SkyNet : c’est le Doge qui licencie des dizaines de milliers d’employés fédéraux sous couvert d’une « stratégie IA prioritaire ».
La crise de l’emploi dans l’IA ne se résume pas au déplacement soudain de millions de travailleurs d’un seul coup ; elle se manifeste plutôt par l’attrition dans les industries créatives, la baisse des revenus des artistes, écrivains et illustrateurs indépendants, et par la propension des entreprises à embaucher moins de travailleurs humains.
En d’autres termes, la crise de l’emploi dans l’IA est davantage une crise de la nature et de la structure du travail qu’une simple tendance émergeant des données économiques », explique Brian Merchant. « Les patrons ont toujours cherché à maximiser leurs profits en utilisant des technologies de réduction des coûts. Et l’IA générative a été particulièrement efficace pour leur fournir un argumentaire pour y parvenir, et ainsi justifier la dégradation, la déresponsabilisation ou la destruction d’emplois précaires ». Le Doge en est une parfaite illustration : « il est présenté comme une initiative de réduction des coûts visant à générer des gains d’efficacité, mais il détruit surtout massivement des moyens de subsistance et érode le savoir institutionnel ».
« On entend souvent dire que l’IA moderne était censée automatiser les tâches rébarbatives pour que nous puissions tous être plus créatifs, mais qu’au lieu de cela, elle est utilisée pour automatiser les tâches créatives ». Pourquoi ? Parce que l’IA générative reste performante pour « certaines tâches qui ne nécessitent pas une fiabilité constante, ce qui explique que ses fournisseurs ciblent les industries artistiques et créatives ».
Luis von Ahn, PDG milliardaire de la célèbre application d’apprentissage des langues Duolingo, a annoncé que son entreprise allait officiellement être axée sur l’IA. Mais ce n’est pas nouveau, voilà longtemps que la startup remplace ses employés par de l’IA. En réalité, les employés ne cessent de corriger les contenus produits par l’IA au détriment du caractère original et de la qualité.
Dans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montée de la prise de conscience de la dépendance européenne aux clouds américains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl » sur Amazon Web Services, a initié une réflexion nationale sur l’indépendance des infrastructures, sur laquelle la chercheuse a publié un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalement été stoppée par les politiciens néerlandais au profit de réponses apportées par les fournisseurs locaux.
Ces débats relatifs à la souveraineté sont désormais présents dans toute l’Europe, remarque-t-elle, à l’image du projet EuroStack, qui propose de développer une « souveraineté technologique européenne ». Son initiatrice, Francesca Bria, plaide pour la création d’un un Fonds européen pour la souveraineté technologique doté de 10 milliards d’euros afin de soutenir cette initiative, ainsi que pour des changements politiques tels que la priorité donnée aux technologies européennes dans les marchés publics, l’encouragement de l’adoption de l’open source et la garantie de l’interopérabilité. Ce projet a reçu le soutien d’entreprises européennes, qui alertent sur la crise critique de dépendance numérique qui menace la souveraineté et l’avenir économique de l’Europe.
La chercheuse souligne pourtant pertinemment le risque d’une défense uniquement souverainiste, consistant à construire des clones des services américains, c’est-à-dire un remplacement par des équivalents locaux. Pour elle, il est nécessaire de « repenser radicalement l’économie politique sous-jacente qui façonne le fonctionnement des systèmes numériques et leurs bénéficiaires ». Nous devons en profiter pour repenser la position des acteurs. Quand les acteurs migrent leurs infrastructure dans les nuages américains, ils ne font pas que déplacer leurs besoins informatiques, bien souvent ils s’adaptent aussi à des changements organisationnels, liés à l’amenuisements de leurs compétences techniques. Un cloud souverain européen ou national n’adresse pas l’enjeu de perte de compétences internes que le cloud tiers vient soulager. L’enjeu n’est pas de choisir un cloud plutôt qu’un autre, mais devrait être avant tout de réduire la dépendance des services aux clouds, quels qu’ils soient. Des universitaires des universités d’Utrecht et d’Amsterdam ont ainsi appelé leurs conseils d’administration, non pas à trouver des solutions de clouds souverains, mais à réduire la dépendance des services aux services en nuage. Pour eux, la migration vers le cloud transforme les universités « d’une source d’innovation technique et de diffusion de connaissances en consommateurs de services ».
Les initiatives locales, même très bien financées, ne pourront jamais concurrencer les services en nuage des grands acteurs du numérique américain, rappelle Corinne Cath. Les remplacer par des offres locales équivalentes ne peut donc pas être l’objectif. Le concept de souveraineté numérique produit un cadrage nationaliste voire militariste qui peut-être tout aussi préjudiciable à l’intérêt général que l’autonomie technologique pourrait souhaiter porter. Nous n’avons pas besoin de cloner les services en nuage américains, mais « de développer une vision alternative du rôle de l’informatique dans la société, qui privilégie l’humain sur la maximisation du profit ». Ce ne sont pas seulement nos dépendances technologiques que nous devons résoudre, mais également concevoir et financer des alternatives qui portent d’autres valeurs que celles de l’économie numérique américaine. « Les systèmes et les économies fondés sur les principes de suffisance, de durabilité, d’équité et de droits humains, plutôt que sur l’abondance informatique et l’expansion des marchés, offrent une voie plus prometteuse ».
Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de député (et ainsi de ménager les finances du Parti conservateur), de la tribune de l’Assemblée nationale et éventuellement de participer aux prochains débats des chefs. Il accuse Paul St-Pierre Plamondon de « briser une tradition » en présentant un candidat contre un chef de parti qui se présente lors d’une élection complémentaire et de « vouloir absolument empêcher un Québécois sur sept d’avoir une voix à l’Assemblée nationale » (Les coulisses du pouvoir, 4 mai 2025).
Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?
Réponse courte: Non.
Cette « tradition » a été observée cinq fois entre 1986 et 2013 par le Parti libéral, le Parti québécois et la Coalition Avenir Québec. Dans les cinq cas, les chefs se présentaient dans une circonscription laissée vacante par un député DE LEUR PROPRE PARTI. Trois de ces élections partielles ont été provoquées par le départ d’un député ayant quitté son poste expressément pour permettre à son ou sa chef(fe) de faire son entrée à l’Assemblée nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a été laissée vacante par le député caquiste Éric Lefebvre, dont le chef siège toujours à l’Assemblée nationale. Si les autres partis avaient accordé un passe-droit à Éric Duhaime, nous aurions assisté à une première historique: la classe politique imposant à une circonscription d’être représentée par un parti pour lequel elle n’a jamais voté. Duhaime y aurait vu un respect élémentaire pour les électeurs du PCQ. J’y vois un grave affront pour les électeurs d’Arthabaska.
Je vous présente l’historique complet des situations où le chef d’un parti représenté à l’Assemblée nationale s’est présenté dans une élection complémentaire. Vous jugerez ensuite.
1) Joseph-Alfred Mousseau (1882) En 1882, le premier ministre du Québec, Joseph-Adolphe Chapleau, démissionne pour devenir ministre à Ottawa. Il est remplacé par Joseph-Alfred Mousseau, qui lui quitte son ministère à Ottawa pour devenir premier ministre du Québec. Il n’a pas de siège au Québec. C’est Narcisse Lecavalier, député de Jacques-Cartier, qui lui cède son siège en échange d’un poste de haut-fonctionnaire (c’était acceptable à l’époque). Les libéraux ne présentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comté de Jacques-Cartier était conservateur depuis 1867. En 1881, Lecavalier avait été élu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.
2) Georges-Émile Lapalme (1953) En 1950, Georges-Émile Lapalme quitte son siège de député d’arrière-ban à Ottawa pour devenir chef du Parti libéral du Québec. Aux élections générales de 1952, les libéraux font élire 23 députés, mais Lapalme est battu dans le comté de Joliette. La mort du député d’Outremont, Henri Groulx, vient tristement libérer un siège. Lapalme se présente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la démocratie: « M. Lapalme aurait aimé une élection par acclamation réalisant, aujourd’hui, que c’est le seul moyen pour lui d’être élu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supérieur à tous les électeurs du comté. » (La Presse, 6 juillet 1953) Lapalme est malgré tout élu avec 56% des votes.
3) Claude Ryan (1979) Les élections de 1976 sont remportées par le Parti québécois. Le premier ministre sortant, Robert Bourassa est remplacé comme chef du Parti libéral du Québec par Claude Ryan, qui n’est pas élu. Zoël Saindon, député d’Argenteuil, démissionne pour lui céder son siège. Choix audacieux: Saindon ne l’avait emporté que par une majorité de 1275 voix contre le candidat péquiste et le candidat de l’Union nationale les suivait de près. Le Parti québécois et l’Union nationale présentent tous deux un candidat contre Ryan, qui l’emporte malgré tout avec 64% des votes.
4) Robert Bourassa (1986) En 1985, le Parti libéral du Québec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le député libéral Germain Leduc lui cède son siège dans Saint-Laurent. Neuf candidats s’opposent à Bourassa, mais le Parti québécois ne lui présente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comté était gagné d’avance. Bourassa est élu avec 80% des votes.
5) Lucien Bouchard (1996) Jacques Parizeau a quitté la direction du Parti québécois suite à l’échec du référendum de 1995. Lucien Bouchard, chef du Bloc québécois, a quitté Ottawa pour devenir premier ministre du Québec. Francis Dufour, député de Jonquière, a quitté son siège pour permettre à Bouchard de faire son entrée à l’Assemblée nationale. Le Parti libéral ne présente aucun adversaire à Bouchard, qui est élu avec le score stalinien de 95% des votes.
6) André Boisclair (2006) André Boisclair succède à Bernard Landry comme chef du Parti québécois en 2005, mais il ne siège pas à l’Assemblée nationale. Nicole Léger, qui avait appuyé Pauline Marois lors de la course à la chefferie, démissionne en 2006. Son comté de Pointe-aux-Trembles est relativement sûr: Nicole Léger l’avait emporté par une majorité de près de 5000 voix en 2003. Ni le Parti libéral, ni l’Action démocratique du Québec (ADQ), ne présentent de candidat contre Boisclair. Ses adversaires sont des candidats de Québec solidaire, du Parti vert et cinq indépendants. Boisclair l’emporte avec 71% des votes.
7) Pauline Marois (2007) Pauline Marois est élue cheffe du PQ suite à la démission d’André Boisclair en 2007, mais elle a quitté l’Assemblée nationale en 2006. Rosaire Bertrand démissionne de son siège de Charlevoix pour lui céder sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux élections précédentes. Jean Charest n’oppose aucun adversaire à Pauline Marois. L’ADQ présente Conrad Harvey, candidat aux précédentes élections générales. Pauline Marois l’emporte avec 59% des votes.
8) Philippe Couillard (2013) Philippe Couillard devient chef du Parti libéral du Québec en 2013. Raymond Bachand, son principal adversaire lors de la course à la chefferie, démissionne de son siège à Outremont. Couillard se présente pour le remplacer. Le Parti québécois et la Coalition Avenir Québec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majorité de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.
Faux cas: Gabriel Nadeau-Dubois (2017) Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti québécois n’avait pas présenté de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncé dès février son intention de ne pas présenter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a été élu co-porte-parole de Québec solidaire. Il est à ce moment un candidat comme les autres. C’est d’ailleurs Manon Massé qui allait briguer le poste de première ministre aux élections générales de 2018.
En résumé, si on prétend s’appuyer sur une « tradition » pour réclamer que le chef d’un parti n’ayant jamais fait élire un seul député soit élu par acclamation, il faut ignorer l’histoire politique du Québec ou souhaiter à tout prix se présenter comme une victime des « élites » et du « système ». Je vous laisse choisir quel cas s’applique ici.
Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de député (et ainsi de ménager les finances du Parti conservateur), de la tribune de l’Assemblée nationale et éventuellement de participer aux prochains débats des chefs. Il accuse Paul St-Pierre Plamondon de “briser une tradition” en présentant un candidat contre un chef de parti qui se présente lors d’une élection complémentaire et de “vouloir absolument empêcher un Québécois sur sept d’avoir une voix à l’Assemblée nationale” (Les coulisses du pouvoir, 4 mai 2025).
Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?
Réponse courte: Non.
Cette “tradition” a été observée cinq fois entre 1986 et 2013 par le Parti libéral, le Parti québécois et la Coalition Avenir Québec. Dans les cinq cas, les chefs se présentaient dans une circonscription laissée vacante par un député DE LEUR PROPRE PARTI. Trois de ces élections partielles ont été provoquées par le départ d’un député ayant quitté son poste expressément pour permettre à son ou sa chef(fe) de faire son entrée à l’Assemblée nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a été laissée vacante par le député caquiste Éric Lefebvre, dont le chef siège toujours à l’Assemblée nationale. Si les autres partis avaient accordé un passe-droit à Éric Duhaime, nous aurions assisté à une première historique: la classe politique imposant à une circonscription d’être représentée par un parti pour lequel elle n’a jamais voté. Duhaime y aurait vu un respect élémentaire pour les électeurs du PCQ. J’y vois un grave affront pour les électeurs d’Arthabaska.
Je vous présente l’historique complet des situations où le chef d’un parti représenté à l’Assemblée nationale s’est présenté dans une élection complémentaire. Vous jugerez ensuite.
1) Joseph-Alfred Mousseau (1882) En 1882, le premier ministre du Québec, Joseph-Adolphe Chapleau, démissionne pour devenir ministre à Ottawa. Il est remplacé par Joseph-Alfred Mousseau, qui lui quitte son ministère à Ottawa pour devenir premier ministre du Québec. Il n’a pas de siège au Québec. C’est Narcisse Lecavalier, député de Jacques-Cartier, qui lui cède son siège en échange d’un poste de haut-fonctionnaire (c’était acceptable à l’époque). Les libéraux ne présentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comté de Jacques-Cartier était conservateur depuis 1867. En 1881, Lecavalier avait été élu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.
2) Georges-Émile Lapalme (1953) En 1950, Georges-Émile Lapalme quitte son siège de député d’arrière-ban à Ottawa pour devenir chef du Parti libéral du Québec. Aux élections générales de 1952, les libéraux font élire 23 députés, mais Lapalme est battu dans le comté de Joliette. La mort du député d’Outremont, Henri Groulx, vient tristement libérer un siège. Lapalme se présente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la démocratie: “M. Lapalme aurait aimé une élection par acclamation réalisant, aujourd’hui, que c’est le seul moyen pour lui d’être élu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supérieur à tous les électeurs du comté.” (La Presse, 6 juillet 1953) Lapalme est malgré tout élu avec 56% des votes.
3) Claude Ryan (1979) Les élections de 1976 sont remportées par le Parti québécois. Le premier ministre sortant, Robert Bourassa est remplacé comme chef du Parti libéral du Québec par Claude Ryan, qui n’est pas élu. Zoël Saindon, député d’Argenteuil, démissionne pour lui céder son siège. Choix audacieux: Saindon ne l’avait emporté que par une majorité de 1275 voix contre le candidat péquiste et le candidat de l’Union nationale les suivait de près. Le Parti québécois et l’Union nationale présentent tous deux un candidat contre Ryan, qui l’emporte malgré tout avec 64% des votes.
4) Robert Bourassa (1986) En 1985, le Parti libéral du Québec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le député libéral Germain Leduc lui cède son siège dans Saint-Laurent. Neuf candidats s’opposent à Bourassa, mais le Parti québécois ne lui présente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comté était gagné d’avance. Bourassa est élu avec 80% des votes.
5) Lucien Bouchard (1996) Jacques Parizeau a quitté la direction du Parti québécois suite à l’échec du référendum de 1995. Lucien Bouchard, chef du Bloc québécois, a quitté Ottawa pour devenir premier ministre du Québec. Francis Dufour, député de Jonquière, a quitté son siège pour permettre à Bouchard de faire son entrée à l’Assemblée nationale. Le Parti libéral ne présente aucun adversaire à Bouchard, qui est élu avec le score stalinien de 95% des votes.
6) André Boisclair (2006) André Boisclair succède à Bernard Landry comme chef du Parti québécois en 2005, mais il ne siège pas à l’Assemblée nationale. Nicole Léger, qui avait appuyé Pauline Marois lors de la course à la chefferie, démissionne en 2006. Son comté de Pointe-aux-Trembles est relativement sûr: Nicole Léger l’avait emporté par une majorité de près de 5000 voix en 2003. Ni le Parti libéral, ni l’Action démocratique du Québec (ADQ), ne présentent de candidat contre Boisclair. Ses adversaires sont des candidats de Québec solidaire, du Parti vert et cinq indépendants. Boisclair l’emporte avec 71% des votes.
7) Pauline Marois (2007) Pauline Marois est élue cheffe du PQ suite à la démission d’André Boisclair en 2007, mais elle a quitté l’Assemblée nationale en 2006. Rosaire Bertrand démissionne de son siège de Charlevoix pour lui céder sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux élections précédentes. Jean Charest n’oppose aucun adversaire à Pauline Marois. L’ADQ présente Conrad Harvey, candidat aux précédentes élections générales. Pauline Marois l’emporte avec 59% des votes.
8) Philippe Couillard (2013) Philippe Couillard devient chef du Parti libéral du Québec en 2013. Raymond Bachand, son principal adversaire lors de la course à la chefferie, démissionne de son siège à Outremont. Couillard se présente pour le remplacer. Le Parti québécois et la Coalition Avenir Québec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majorité de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.
Faux cas: Gabriel Nadeau-Dubois (2017) Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti québécois n’avait pas présenté de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncé dès février son intention de ne pas présenter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a été élu co-porte-parole de Québec solidaire. Il est à ce moment un candidat comme les autres. C’est d’ailleurs Manon Massé qui allait briguer le poste de première ministre aux élections générales de 2018.
En résumé, si on prétend s’appuyer sur une “tradition” pour réclamer que le chef d’un parti n’ayant jamais fait élire un seul député soit élu par acclamation, il faut ignorer l’histoire politique du Québec ou souhaiter à tout prix se présenter comme une victime des “élites” et du “système”. Je vous laisse choisir quel cas s’applique ici.
Depuis 2018, l’administration brésilienne s’est mise à l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisées d’ici la fin 2025. Problème : au Brésil comme partout ailleurs, le système dysfonctionne et rejette de nombreuses demandes à tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les règles de calcul de la sécurité sociale à leur égard. « Les utilisateurs mécontents des décisions peuvent faire appel auprès d’un comité interne de ressources juridiques, ce qui doit également se faire via l’application de la sécurité sociale brésilienne. Le délai moyen d’attente pour obtenir une réponse est de 278 jours ».
A l’heure où, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent à poursuivre les ressortissants étrangers pour les reconduire aux frontières, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux étrangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcé la surveillance des citoyens et plus encore des ressortissants d’origine étrangère. Le Brennan Center for Justice a publié en 2022 un rapport sur la montée de l’utilisation des réseaux sociaux dans ces activités de surveillance et rappelle que ceux-ci sont massivement mobilisés pour la surveillance des opposants politiques, notamment depuis Occupy et depuis 2014 pour le contrôle des demandes d’immigration et les contrôles aux frontières, rappelle The Verge.
Le premier projet de loi du second mandat de Donald Trump était un texte concernant l’immigration clandestine, nous rappelle Le Monde. C’est un texte qui propose la détention automatique par les forces de l’ordre fédérales de migrants en situation irrégulière qui ont été accusés, condamnés ou inculpés pour certains délits, mêmes mineurs, comme le vol à l’étalage.
La lutte contre l’immigration est au cœur de la politique du président américain, qui dénonce une “invasion” et annonce vouloir déporter 11 millions d’immigrants illégaux, au risque que le tissu social des Etats-Unis, nation d’immigrants, se déchire, rappelait The Guardian. Dès janvier, l’administration Trump a mis fin à l’application CBP One, seule voie pour les demandeurs d’asile désirant entrer légalement sur le territoire des Etats-Unis pour prendre rendez-vous avec l’administration douanière américaine et régulariser leur situation. La suppression unilatérale de l’application a laissé tous les demandeurs d’asile en attente d’un rendez-vous sans recours, rapportait Le Monde.
Une opération de fusion des informations sans précédent
Cette politique est en train de s’accélérer, notamment en mobilisant toutes les données numériques à sa disposition, rapporte Wired. Le Doge est en train de construire une base de données dédiée aux étrangers, collectant les données de plusieurs administrations, afin de créer un outil de surveillance d’une portée sans précédent. L’enjeu est de recouper toutes les données disponibles, non seulement pour mieux caractériser les situations des étrangers en situation régulière comme irrégulière, mais également les géolocaliser afin d’aider les services de police chargés des arrestations et de la déportation, d’opérer.
Jusqu’à présent, il existait d’innombrables bases de données disparates entre les différentes agences et au sein des agences. Si certaines pouvaient être partagées, à des fins policières, celles-ci n’ont jamais été regroupées par défaut, parce qu’elles sont souvent utilisées à des fins spécifiques. Le service de l’immigration et des douanes (ICE, Immigration and Customs Enforcement) et le département d’investigation de la sécurité intérieure (HSI, Homeland Security Investigations), par exemple, sont des organismes chargés de l’application de la loi et ont parfois besoin d’ordonnances du tribunal pour accéder aux informations sur un individu dans le cadre d’enquêtes criminelles, tandis que le service de citoyenneté et d’immigration des États-Unis (USCIS, United States Citizenship and Immigration Services) des États-Unis collecte des informations sensibles dans le cadre de la délivrance régulière de visas et de cartes vertes.
Des agents du Doge ont obtenu l’accès aux systèmes de l’USCIS. Ces bases de données contiennent des informations sur les réfugiés et les demandeurs d’asile, des données sur les titulaires de cartes vertes, les citoyens américains naturalisés et les bénéficiaires du programme d’action différée pour les arrivées d’enfants. Le Doge souhaite également télécharger des informations depuis les bases de données de myUSCIS, le portail en ligne où les immigrants peuvent déposer des demandes, communiquer avec l’USCIS, consulter l’historique de leurs demandes et répondre aux demandes de preuves à l’appui de leur dossier. Associées aux informations d’adresse IP des personnes qui consultent leurs données, elles pourraient servir à géolocaliser les immigrants.
Le département de sécurité intérieur (DHS, Department of Homeland Security) dont dépendent certaines de ces agences a toujours été très prudent en matière de partage de données. Ce n’est plus le cas. Le 20 mars, le président Trump a d’ailleurs signé un décret exigeant que toutes les agences fédérales facilitent « le partage intra- et inter-agences et la consolidation des dossiers non classifiés des agences », afin d’entériner la politique de récupération de données tout azimut du Doge. Jusqu’à présent, il était historiquement « extrêmement difficile » d’accéder aux données que le DHS possédait déjà dans ses différents départements. L’agrégation de toutes les données disponibles « représenterait une rupture significative dans les normes et les politiques en matière de données », rappelle un expert. Les agents du Doge ont eu accès à d’innombrables bases, comme à Save, un système de l’USCIS permettant aux administrations locales et étatiques, ainsi qu’au gouvernement fédéral, de vérifier le statut d’immigration d’une personne. Le Doge a également eu accès à des données de la sécurité sociale et des impôts pour recouper toutes les informations disponibles.
Le problème, c’est que la surveillance et la protection des données est également rendue plus difficile. Les coupes budgétaires et les licenciements ont affecté trois services clés qui constituaient des garde-fous importants contre l’utilisation abusive des données par les services fédéraux, à savoir le Bureau des droits civils et des libertés civiles (CRCL, Office for Civil Rights and Civil Liberties), le Bureau du médiateur chargé de la détention des immigrants et le Bureau du médiateur des services de citoyenneté et d’immigration. Le CRCL, qui enquête sur d’éventuelles violations des droits de l’homme par le DHS et dont la création a été mandatée par le Congrès est depuis longtemps dans le collimateur du Doge.
Le 5 avril, le DHS a conclu un accord avec les services fiscaux (IRS) pour utiliser les données fiscales. Plus de sept millions de migrants travaillent et vivent aux États-Unis. L’ICE a également récemment versé des millions de dollars à l’entreprise privée Palantir pour mettre à jour et modifier une base de données de l’ICE destinée à traquer les immigrants, a rapporté 404 Media. Le Washington Post a rapporté également que des représentants de Doge au sein d’agences gouvernementales – du Département du Logement et du Développement urbain à l’Administration de la Sécurité sociale – utilisent des données habituellement confidentielles pour identifier les immigrants sans papiers. Selon Wired, au Département du Travail, le Doge a obtenu l’accès à des données sensibles sur les immigrants et les ouvriers agricoles. La fusion de toutes les données entre elles pour permettre un accès panoptique aux informations est depuis l’origine le projet même du ministère de l’efficacité américain, qui espère que l’IA va lui permettre de rendre le traitement omniscient.
Le changement de finalités de la collecte de données, moteur d’une défiance généralisée
L’administration des impôts a donc accepté un accord de partage d’information et de données avec les services d’immigration, rapporte la NPR, permettant aux agents de l’immigration de demander des informations sur les immigrants faisant l’objet d’une ordonnance d’expulsion. Derrière ce qui paraît comme un simple accès à des données, il faut voir un changement majeur dans l’utilisation des dossiers fiscaux. Les modalités de ce partage d’information ne sont pas claires puisque la communication du cadre de partage a été expurgée de très nombreuses informations. Pour Murad Awawdeh, responsable de la New York Immigration Coalition, ce partage risque d’instaurer un haut niveau de défiance à respecter ses obligations fiscales, alors que les immigrants paient des impôts comme les autres et que les services fiscaux assuraient jusqu’à présent aux contribuables sans papiers la confidentialité de leurs informations et la sécurité de leur déclaration de revenus.
La NPR revient également sur un autre changement de finalité, particulièrement problématique : celle de l’application CBP One. Cette application lancée en 2020 par l’administration Biden visait à permettre aux immigrants de faire une demande d’asile avant de pénétrer aux Etats-Unis. Avec l’arrivée de l’administration Trump, les immigrants qui ont candidaté à une demande d’asile ont reçu une notification les enjoignants à quitter les Etats-Unis et les données de l’application ont été partagées avec les services de police pour localiser les demandeurs d’asile et les arrêter pour les reconduire aux frontières. Pour le dire simplement : une application de demande d’asile est désormais utilisée par les services de police pour identifier ces mêmes demandeurs et les expulser. Les finalités sociales sont transformées en finalités policières. La confidentialité même des données est détruite.
CBP One n’est pas la seule application dont la finalité a été modifiée. Une belle enquête du New York Times évoque une application administrée par Geo Group, l’un des principaux gestionnaires privés de centres pénitentiaires et d’établissements psychiatriques aux Etats-Unis. Une application que des étrangers doivent utiliser pour se localiser et s’identifier régulièrement, à la manière d’un bracelet électronique. Récemment, des utilisateurs de cette application ont été convoqués à un centre d’immigration pour mise à jour de l’application. En fait, ils ont été arrêtés.
Geo Group a développé une activité lucrative d’applications et de bracelets électroniques pour surveiller les immigrants pour le compte du gouvernement fédéral qui ont tous été mis au service des procédures d’expulsion lancées par l’administration Trump, constatent nombre d’associations d’aides aux étrangers. “Alors même que M. Trump réduit les dépenses du gouvernement fédéral, ses agences ont attribué à Geo Group de nouveaux contrats fédéraux pour héberger des immigrants sans papiers. Le DHS envisage également de renouveler un contrat de longue date avec l’entreprise – d’une valeur d’environ 350 millions de dollars l’an dernier – pour suivre les quelque 180 000 personnes actuellement sous surveillance”. Ce programme “d’alternative à la détention en centre de rétention » que Noor Zafar, avocate principale à l’American Civil Liberties Union, estime relever plutôt d’une “extension à la détention”, consiste en des applications et bracelets électroniques. Les programmes de Geo Group, coûteux, n’ont pas été ouverts à la concurrence, rapporte le New York Times, qui explique également que ses programmes sont en plein boom. Ces applications permettent aux employés de Geo Group de savoir en temps réel où se trouvent leurs porteurs, leur permettent de délimiter des zones dont ils ne peuvent pas sortir sans déclencher des alertes.
Une confiance impossible !
Ces exemples américains de changement de finalités sont emblématiques et profondément problématiques. Ils ne se posent pourtant pas que de l’autre côté de l’Atlantique. Utiliser des données produites dans un contexte pour d’autres enjeux et d’autres contextes est au cœur des fonctionnements des systèmes numériques, comme nous l’avions vu à l’époque du Covid. Les finalités des traitements des services numériques qu’on utilise sont rarement claires, notamment parce qu’elles peuvent être mises à jour unilatéralement et ce, sans garantie. Et le changement de finalité peut intervenir à tout moment, quelque soit l’application que vous utilisez. Remplir un simple questionnaire d’évaluation peut finalement, demain, être utilisé par le service qui le conçoit ou d’autres pour une toute autre finalité, et notamment pour réduire les droits des utilisateurs qui y ont répondu. Répondre à un questionnaire de satisfaction de votre banque ou d’un service public, qui semble anodin, peut divulguer des données qui seront utilisées pour d’autres enjeux. Sans renforcer la protection absolue des données, le risque est que ces exemples démultiplient la méfiance voire le rejet des citoyens et des administrés. A quoi va être utilisé le questionnaire qu’on me propose ? Pourra-t-il être utilisé contre moi ?Qu’est-ce qui me garantie qu’il ne le sera pas ?
La confiance dans l’utilisation qui est faite des données par les services, est en train d’être profondément remise en question par l’exemple américain et pourrait avoir des répercussions sur tous les services numériques, bien au-delà des Etats-Unis. La spécialiste de la sécurité informatique, Susan Landau, nous l’avait pourtant rappelé quand elle avait étudié les défaillances des applications de suivi de contact durant la pandémie : la confidentialité est toujours critique. Elle parlait bien sûr des données de santé des gens, mais on comprend qu’assurer la confidentialité des données personnelles que les autorités détiennent sur les gens est tout aussi critique. Les défaillances de confidentialité sapent la confiance des autorités qui sont censées pourtant être les premières garantes des données personnelles des citoyens.
Aurait-on oublié pourquoi les données sont cloisonnées ?
« Ces systèmes sont cloisonnés pour une raison », rappelle Victoria Noble, avocate à l’Electronic Frontier Foundation. « Lorsque vous centralisez toutes les données d’une agence dans un référentiel central accessible à tous les membres de l’agence, voire à d’autres agences, vous augmentez considérablement le risque que ces informations soient consultées par des personnes qui n’en ont pas besoin et qui les utilisent à des fins inappropriées ou répressives, pour les instrumentaliser, les utiliser contre des personnes qu’elles détestent, des dissidents, surveiller des immigrants ou d’autres groupes. »
« La principale inquiétude désormais est la création d’une base de données fédérale unique contenant tout ce que le gouvernement sait sur chaque personne de ce pays », estime Cody Venzke de l’Union américaine pour les libertés civiles (ACLU). « Ce que nous voyons est probablement la première étape vers la création d’un dossier centralisé sur chaque habitant.» Wired rapporte d’ailleurs que l’ACLU a déposé plainte contre l’Administration de la Sécurité Sociale (SSA) et le Département des Anciens Combattants (VA) qui ont ouvert des accès de données sensibles au Doge en violation de la loi sur la liberté d’information, après en avoir déjà déposé une en février contre le Trésor américain pour les mêmes raisons (alors que ce n’est pas nécessairement la seule manière de procéder. Confronté aux demandes du Doge, le régulateur des marchés financiers américains, rapporte Reuters, a pour l’instant pu créer une équipe de liaison spécifique pour répondre aux demandes d’information du Doge, afin que ses équipes n’aient pas accès aux données de l’autorité des marchés financiers).
En déposant plainte, l’ACLU cherche notamment à obtenir des documents pour saisir exactement ce à quoi a accès le Doge. “Les Américains méritent de savoir qui a accès à leurs numéros de sécurité sociale, à leurs informations bancaires et à leurs dossiers médicaux”, explique une avocate de l’ACLU.
Le cloisonnement des données, des bases, selon leurs finalités et les agences qui les administrent, est un moyen non seulement d’en préserver l’intégrité, mais également d’en assurer la sécurité et la confidentialité. Ce sont ces verrous qui sont en train de sauter dans toutes les administrations sous la pression du Doge, posant des questions de sécurité inédites, comme nous nous en inquiétons avec Jean Cattan dans une lettre du Conseil national du numérique. Ce sont les mesures de protection d’une démocratie numérique qui sont en train de voler en éclat.
Pour Wired, Brian Barrett estime que les données qu’agrège le Doge ne sont pas tant un outil pour produire une hypothétique efficacité, qu’une arme au service des autorités. La question de l’immigration n’est qu’un terrain d’application parmi d’autres. La brutalité qui s’abat sur les étrangers, les plus vulnérables, les plus démunis, est bien souvent une préfiguration de son extension à toutes les autres populations, nous disait le philosophe Achille Mbembe dans Brutalisme.
Et maintenant que les croisements de données sont opérationnels, que les données ont été récupérées par les équipes du Doge, l’enjeu va être de les faire parler, de les mettre en pratique.
Finalement, le départ annoncé ou probable de Musk de son poste en première ligne du Doge ne signe certainement pas la fin de cette politique, toute impopulaire qu’elle soit (enfin, Musk est bien plus impopulaire que les économies dans les services publics qu’il propose), mais au contraire, le passage à une autre phase. Le Doge a pris le contrôle, etil s’agit désormais de rendre les données productives. L’efficacité n’est plus de réduire les dépenses publiques de 2 000 milliards de dollars, comme le promettait Musk à son arrivée. Il a lui-même reconnu qu’il ne visait plus que 150 milliards de dollars de coupe en 2025, soit 15 % de l’objectif initial, comme le soulignait Le Monde. Mais le débat sur les coupes et l’efficacité, sont d’abord un quolifichet qu’on agite pour détourner l’attention de ce qui se déroule vraiment, à savoir la fin de la vie privée aux Etats-Unis. En fait, la politique initiée par le Doge ne s’arrêtera pas avec le retrait probable de Musk. IL n’en a été que le catalyseur.
Elizabeth Lopatto pour The Verge explique elle aussi que l’ère du Doge ne fait que commencer. Malgré ses échecs patents et l’explosion des plaintes judiciaires à son encontre (Bloomberg a dénombré plus de 300 actions en justice contre les décisions prises par le président Trump : dans 128 affaires, ils ont suspendu les décisions de l’administration Trump). Pour elle, Musk ne va pas moins s’immiscer dans la politique publique. Son implication risque surtout d’être moins publique et moins visible dans ses ingérences, afin de préserver son égo et surtout son portefeuille. Mais surtout, estime-t-elle, les tribunaux ne sauveront pas les Américains des actions du Doge, notamment parce que dans la plupart des cas, les décisions tardent à être prises et à être effectives. Pourtant, si les tribunaux étaient favorables à « l’élimination de la fraude et des abus », comme le dit Musk – à ce stade, ils devraient surtout œuvrer à “éliminer le Doge” !
Ce n’est malgré tout pas la direction qui est prise, au contraire. Même si Musk s’en retire, l’administration continue à renforcer le pouvoir du Doge qu’à l’éteindre. C’est ainsi qu’il faut lire le récent hackathon aux services fiscaux ou le projet qui s’esquisse avec Palantir. L’ICE, sous la coupe du Doge, vient de demander à Palantir, la sulfureuse entreprise de Thiel, de construire une plateforme dédiée, explique Wired : “ImmigrationOS”, « le système d’exploitation de l’immigration » (sic). Un outil pour “choisir les personnes à expulser”, en accordant une priorité particulière aux personnes dont le visa est dépassé qui doivent, selon la demande de l’administration, prendre leurs dispositions pour “s’expulser elles-mêmes des Etats-Unis”. L’outil qui doit être livré en septembre a pour fonction de cibler et prioriser les mesures d’application, c’est-à-dire d’aider à sélectionner les étrangers en situation irrégulière, les localiser pour les arrêter. Il doit permettre de suivre que les étrangers en situation irrégulière prennent bien leur disposition pour quitter les Etats-Unis, afin de mesurer la réalité des départs, et venir renforcer les efforts des polices locales, bras armées des mesures de déportation, comme le pointait The Markup.
De ImmigrationOS au panoptique américain : le démantèlement des mesures de protection de la vie privée
Dans un article pour Gizmodo qui donne la parole à nombre d’opposants à la politique de destructions des silos de données, plusieurs rappellent les propos du sénateur démocrate Sam Ervin, auteur de la loi sur la protection des informations personnelles suite au scandale du Watergate, qui redoutait le caractère totalitaire des informations gouvernementales sur les citoyens. Pour Victoria Noble de l’Electronic Frontier Foundation, ce contrôle pourrait conduire les autorités à « exercer des représailles contre les critiques adressées aux représentants du gouvernement, à affaiblir les opposants politiques ou les ennemis personnels perçus, et à cibler les groupes marginalisés. » N’oubliez pas qu’il s’agit du même président qui a qualifié d’« ennemis » les agents électoraux, les journalistes, les juges et, en fait, toute personne en désaccord avec lui. Selon Reuters, le Doge a déjà utilisé l’IA pour détecter les cas de déloyauté parmi les fonctionnaires fédéraux. Pour les défenseurs des libertés et de la confidentialité, il est encore temps de renforcer les protections citoyennes. Et de rappeler que le passage de la sûreté à la sécurité, de la défense contre l’arbitraire à la défense de l’arbitraire, vient de ce que les élus ont passé bien plus d’énergie à légiférer pour la surveillance qu’à établir des garde-fous contre celle-ci, autorisant toujours plus de dérives, comme d’autoriser la surveillance des individus sans mandats de justice.
Pour The Atlantic, Ian Bogost et Charlie Warzel estiment que le Doge est en train de construire le panoptique américain. Ils rappellent que l’administration est l’univers de l’information, composée de constellations de bases de données. Des impôts au travail, toutes les administrations collectent et produisent des données sur les Américains, et notamment des données particulièrement sensibles et personnelles. Jusqu’à présent, de vieilles lois et des normes fragiles ont empêché que les dépôts de données ne soient regroupés. Mais le Doge vient de faire voler cela en éclat, préparant la construction d’un Etat de surveillance centralisé. En mars, le président Trump a publié un décret visant à éliminer les silos de données qui maintiennent les informations séparément.
Dans leur article, Bogost et Warzel listent d’innombrables bases de données maintenues par des agences administratives : bases de données de revenus, bases de données sur les lanceurs d’alerte, bases de données sur la santé mentale d’anciens militaires… L’IA promet de transformer ces masses de données en outils “consultables, exploitables et rentables”. Mais surtout croisables, interconnectables. Les entreprises bénéficiant de prêts fédéraux et qui ont du mal à rembourser, pourraient désormais être punies au-delà de ce qui est possible, par la révocation de leurs licences, le gel des aides ou de leurs comptes bancaires. Une forme d’application universelle permettant de tout croiser et de tout inter-relier. Elles pourraient permettre de cibler la population en fonction d’attributs spécifiques. L’utilisation actuelle par le gouvernement de ces données pour expulser des étrangers, et son refus de fournir des preuves d’actes répréhensibles reprochées à certaines personnes expulsées, suggère que l’administration a déjà franchi la ligne rouge de l’utilisation des données à des fins politiques.
Le Doge ne se contente pas de démanteler les mesures de protection de la vie privée, il ignore qu’elles ont été rédigées. Beaucoup de bases ont été conçues sans interconnectivité par conception, pour protéger la vie privée. “Dans les cas où le partage d’informations ou de données est nécessaire, la loi sur la protection de la vie privée de 1974 exige un accord de correspondance informatique (Computer Matching Agreement, CMA), un contrat écrit qui définit les conditions de ce partage et assure la protection des informations personnelles. Un CMA est « un véritable casse-tête », explique un fonctionnaire, et constitue l’un des moyens utilisés par le gouvernement pour décourager l’échange d’informations comme mode de fonctionnement par défaut”.
La centralisation des données pourrait peut-être permettre d’améliorer l’efficacité gouvernementale, disent bien trop rapidement Bogost et Warzel, alors que rien ne prouve que ces croisements de données produiront autre chose qu’une discrimination toujours plus étendue car parfaitement granulaire. La protection de la vie privée vise à limiter les abus de pouvoir, notamment pour protéger les citoyens de mesures de surveillance illégales du gouvernement.
Derrière les bases de données, rappellent encore les deux journalistes, les données ne sont pas toujours ce que l’on imagine. Toutes les données de ces bases ne sont pas nécessairement numérisées. Les faire parler et les croiser ne sera pas si simple. Mais le Doge a eu accès à des informations inédites. “Ce que nous ignorons, c’est ce qu’ils ont copié, exfiltré ou emporté avec eux”.
“Doge constitue l’aboutissement logique du mouvement Big Data” : les données sont un actif. Les collecter et les croiser est un moyen de leur donner de la valeur. Nous sommes en train de passer d’une administration pour servir les citoyens à une administration pour les exploiter, suggèrent certains agents publics. Ce renversement de perspective “correspond parfaitement à l’éthique transactionnelle de Trump”. Ce ne sont plus les intérêts des américains qui sont au centre de l’équation, mais ceux des intérêts commerciaux des services privés, des intérêts des amis et alliés de Trump et Musk.
La menace totalitaire de l’accaparement des données personnelles gouvernementales
C’est la même inquiétude qu’exprime la politiste Allison Stanger dans un article pour The Conversation, qui rappelle que l’accès aux données gouvernementales n’a rien à voir avec les données personnelles que collectent les entreprises privées. Les référentiels gouvernementaux sont des enregistrements vérifiés du comportement humain réel de populations entières. « Les publications sur les réseaux sociaux et les historiques de navigation web révèlent des comportements ciblés ou intentionnels, tandis que les bases de données gouvernementales capturent les décisions réelles et leurs conséquences. Par exemple, les dossiers Medicare révèlent les choix et les résultats en matière de soins de santé. Les données de l’IRS et du Trésor révèlent les décisions financières et leurs impacts à long terme. Les statistiques fédérales sur l’emploi et l’éducation révèlent les parcours scolaires et les trajectoires professionnelles. » Ces données là, capturées pour faire tourner et entraîner des IA sont à la fois longitudinales et fiables. « Chaque versement de la Sécurité sociale, chaque demande de remboursement Medicare et chaque subvention fédérale constituent un point de données vérifié sur les comportements réels. Ces données n’existent nulle part ailleurs aux États-Unis avec une telle ampleur et une telle authenticité. »« Les bases de données gouvernementales suivent des populations entières au fil du temps, et pas seulement les utilisateurs actifs en ligne. Elles incluent les personnes qui n’utilisent jamais les réseaux sociaux, n’achètent pas en ligne ou évitent activement les services numériques. Pour une entreprise d’IA, cela impliquerait de former les systèmes à la diversité réelle de l’expérience humaine, plutôt qu’aux simples reflets numériques que les gens projettent en ligne.« A terme, explique Stanger, ce n’est pas la même IA à laquelle nous serions confrontés. « Imaginez entraîner un système d’IA non seulement sur les opinions concernant les soins de santé, mais aussi sur les résultats réels des traitements de millions de patients. Imaginez la différence entre tirer des enseignements des discussions sur les réseaux sociaux concernant les politiques économiques et analyser leurs impacts réels sur différentes communautés et groupes démographiques sur des décennies ». Pour une entreprise développant des IA, l’accès à ces données constituerait un avantage quasi insurmontable. « Un modèle d’IA, entraîné à partir de ces données gouvernementales pourrait identifier les schémas thérapeutiques qui réussissent là où d’autres échouent, et ainsi dominer le secteur de la santé. Un tel modèle pourrait comprendre comment différentes interventions affectent différentes populations au fil du temps, en tenant compte de facteurs tels que la localisation géographique, le statut socio-économique et les pathologies concomitantes. » Une entreprise d’IA qui aurait accès aux données fiscales, pourrait « développer des capacités exceptionnelles de prévision économique et de prévision des marchés. Elle pourrait modéliser les effets en cascade des changements réglementaires, prédire les vulnérabilités économiques avant qu’elles ne se transforment en crises et optimiser les stratégies d’investissement avec une précision impossible à atteindre avec les méthodes traditionnelles ». Explique Stanger, en étant peut-être un peu trop dithyrambique sur les potentialités de l’IA, quand rien ne prouve qu’elles puissent faire mieux que nos approches plus classiques. Pour Stanger, la menace de l’accès aux données gouvernementales par une entreprise privée transcende les préoccupations relatives à la vie privée des individus. Nous deviendrons des sujets numériques plutôt que des citoyens, prédit-elle. Les données absolues corrompt absolument, rappelle Stanger. Oubliant peut-être un peu rapidement que ce pouvoir totalitaire est une menace non seulement si une entreprise privée se l’accapare, mais également si un Etat le déploie. La menace d’un Etat totalitaire par le croisement de toutes les données ne réside pas seulement par l’accaparement de cette puissance au profit d’une entreprise, comme celles de Musk, mais également au profit d’un Etat.
Nombre de citoyens étaient déjà résignés face à l’accumulation de données du secteur privé, face à leur exploitation sans leur consentement, concluent Bogost et Warzel. L’idée que le gouvernement cède à son tour ses données à des fins privées est scandaleuse, mais est finalement prévisible. La surveillance privée comme publique n’a cessé de se développer et de se renforcer. La rupture du barrage, la levée des barrières morales, limitant la possibilité à recouper l’ensemble des données disponibles, n’était peut-être qu’une question de temps. Certes, le pire est désormais devant nous, car cette rupture de barrière morale en annonce d’autres. Dans la kleptocratie des données qui s’est ouverte, celles-ci pourront être utilisées contre chacun, puisqu’elles permettront désormais de trouver une justification rétroactive voire de l’inventer, puisque l’intégrité des bases de données publiques ne saurait plus être garantie. Bogost et Warzel peuvent imaginer des modalités, en fait, désormais, les systèmes n’ont même pas besoin de corréler vos dons à des associations pro-palestiniennes pour vous refuser une demande de prêt ou de subvention. Il suffit de laisser croire que désormais, le croisement de données le permet.
Pire encore, “les Américains sont tenus de fournir de nombreuses données sensibles au gouvernement, comme des informations sur le divorce d’une personne pour garantir le versement d’une pension alimentaire, ou des dossiers détaillés sur son handicap pour percevoir les prestations d’assurance invalidité de la Sécurité sociale”, rappelle Sarah Esty, ancienne conseillère principale pour la technologie et la prestation de services au ministère américain de la Santé et des Services sociaux. “Ils ont agi ainsi en étant convaincus que le gouvernement protégerait ces données et que seules les personnes autorisées et absolument nécessaires à la prestation des services y auraient accès. Si ces garanties sont violées, ne serait-ce qu’une seule fois, la population perdra confiance dans le gouvernement, ce qui compromettra à jamais sa capacité à gérer ces services”. C’est exactement là où l’Amérique est plongée. Et le risque, devant nous, est que ce qui se passe aux Etats-Unis devienne un modèle pour saper partout les garanties et la protection des données personnelles.
Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.
que des journalistes et des associations de défense des libertés numériques se saisissent de ces éléments et enquêtent.
que d’autres associations ayant reçu de pareilles sollicitations me contactent ou publient aussi ces éléments.
que les autorités indépendantes que sont la CNIL et l’ANSSI s’expriment sur ce sujet.
Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.
Côté presse d’abord.
Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein
Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.
Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf
Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).
Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).
Effet Streisand.
L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »
Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).
Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).
L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.
Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.
J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.
Cherry On The Cake.
Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)
J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.
Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.
Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.
Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là
Si Zuck peut dire que les médias sociaux sont morts, c’est parce qu’il sait très bien qui a tenu le couteau : lui-même !, explique Kyle Chayka pour le New Yorker. Même constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer à la démanteler en tant que lieu de résistance à la commercialisation, à la marchandisation et à la médiatisation. Saboter le graphe social a été plus rémunérateur que l’exploiter, car les personnes isolées sont des consommateurs plus fiables” (…) “Les réseaux sociaux ont toujours voulu que vous détestiez vos amis”.
Les grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques » ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marché qui opérationnalisent leurs convictions. Et tandis que les milliardaires de l’ère industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures érigent des fonds d’investissement qui font également office de forteresses idéologiques. »Evgeny Morozov sort la kalach pour montrer que leurs idées ne sont que des arguments pour défendre leurs positions ! « Ils ont colonisé à la fois le média et le message, le système et le monde réel ».
Pour les nouveaux législateurs de la tech, l’intellectuel archéologue d’hier est mort, il l’ont eux-mêmes remplacé. Experts en démolition, ils n’écrivent plus sur l’avenir, mais l’installe. Ils ne financent plus de think tank, mais les suppriment. Ils dirigent eux-mêmes le débat « dans une production torrentielle qui épuiserait même Balzac », à coups de mèmes sur X repris en Une des journaux internationaux. « Leur droit divin de prédire découle de leur divinité avérée ». « Leurs déclarations présentent l’ancrage et l’expansion de leurs propres programmes non pas comme l’intérêt personnel de leurs entreprises, mais comme la seule chance de salut du capitalisme ».
L’accélération et l’audace entrepreneuriale sont pour eux le seul antidote à la sclérose systémique. Leur objectif : réaligner l’intelligentsia technologique sur le pouvoir de l’argent traditionnel en purifiant ses rangs des pensées subversives. Dans le Washington de Trump, ils n’arrivent pas en invités, mais en architectes, pour faire ce qu’ils ne cessent de faire : manipuler la réalité. « En réécrivant les réglementations, en canalisant les subventions et en réajustant les attentes du public, les intellectuels oligarques transforment des rêves fiévreux – fiefs de la blockchain, fermes martiennes – en futurs apparemment plausibles ».
Reste que le déni de réalité risque bien de les rattraper, prédit Morozov.
Samah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais à succès, Le talent est une fiction (JC Lattès, 2023) et L’empathie est politique (JC Lattès, 2024). La force des livres de Karaki consiste à remettre en perspective nos idées préconçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intègre à cette lecture des perspectives sociales et politiques, nous invitant à prendre du recul sur nos émotions et nos comportements pour mieux les politiser. Interview.
Dans les algorithmes : Dans vos deux derniers essais, vous ne faites pas qu’une lecture neuroscientifique de nos comportements, mais vous immergez les apports de la recherche en neuroscience et en psychologie de perspectives sociales et politiques. Dans l’un comme dans l’autre, vous nous invitez à prendre du recul sur nos émotions et nos comportements, pour mieux les politiser. Est-ce à dire que vous ne trouvez pas les apports des neurosciences suffisamment politiques ?
Samah Karaki :Effectivement, je trouve que les neurosciences s’intéressent peu aux facteurs sociaux. La lecture des comportements y est souvent faite d’une façon réductionniste, depuis des études en laboratoire, où les comportements ne ressemblent pas à ce qui se produit dans la vie réelle. Cela ne veut pas dire que ces apports ne peuvent pas être mis au service d’une lecture sociologique pour autant. Les neuroscientifiques n’ont jamais prétendu le contraire d’ailleurs… C’est souvent la vulgarisation scientifique qui fait des généralisations, qui souvent bâti un « pont trop loin », et passe, un peu facilement, de la cellule au comportement. Sans compter que le piège naturalisant de la biologie peut avoir tendance à ignorer certains facteurs visibles et invisibles, alors qu’ils peuvent influer sur des facteurs biologiques. Dans la formation même des biologistes, on ne rend pas toujours compte de la complexité de ces interactions.
Ainsi, on a connu une phase monogénique jusque dans les années 90, où l’on cherchait les gènes de tels ou tels phénotypes ou de tels comportements. On s’est depuis éloigné de cette approche pour une approche plus polygénique où l’on admet qu’il y a des milliers de gènes qui peuvent donner un phénotype donné. Reste que l’impérialisme biologique qui a régné au XIXe siècle a parfois tendance à revenir, avec des propos de généticiens du comportement qui donnent une primauté sur l’explication des comportements par le biologique.
La difficulté des neurosciences, c’est qu’on ne peut pas reproduire les facteurs sociologiques au sein d’un laboratoire. D’où l’importance de s’ouvrir aux lectures d’autres disciplines, d’éclairer les neurosciences d’autres disciplines.
Dans les algorithmes : Cette discussion en tout cas, entre les apports des neurosciences et les apports de la sociologie, est souvent très riche dans vos livres. Ces deux essais nous montrent que les comportements des autres influencent profondément les nôtres. Dans Le talent est un fiction, vous nous dites que les comportements des éducateurs ont le plus d’effet sur nos capacités à croire en nos chances de réussite. Dans L’empathie est politique, vous nous dites également que celle-ci est très dépendante de nos représentations, de nos ancrages sociologiques, et que pour faire advenir des comportements pro-sociaux et dépasser nos réponses émotionnelles, nous devons dépasser les influences qui nous façonnent et les déconstruire. Les deux essais donnent l’impression que nous sommes des éponges sociales et que nous avons beaucoup de mal à nous en extraire. Que nos croyances et nos représentations nous façonnent bien plus qu’on le pense. En être conscient suffit-il à dépasser nos biais ?
Samah Karaki : Absolument pas, hélas. Aujourd’hui, on parle de cognition incarnée, qui est un paradigme qui règne de plus en plus sur la lecture que nous faisons de notre manière de penser. Cela signifie que la cognition n’existe pas que dans nos cerveaux mais aussi dans nos corps et que nos corps existent aussi dans notre rapport aux autres. Cela signifie que ma cognition est traversée par celle des autres. C’est bien sûr ce qui a facilité la survie de notre espèce. En tant qu’êtres physiquement vulnérables, nous avons besoin de récupérer des informations pour explorer un danger ou des opportunités. Et ces informations ne proviennent pas uniquement de notre traitement sensoriel, mais passent aussi par ce qu’on observe chez les autres. En fait, les autres aussi nous permettent de traiter l’information. Cela ne concerne pas que l’espèce humaine d’ailleurs, les plantes aussi construisent un traitement informationnel collectif pour pouvoir avoir des réactions au monde. La cognition incarnée permet de mieux saisir l’intersubjectivité par laquelle on comprend les interactions avec les autres.
Reste à savoir si l’on peut transcender cette intersubjectivité. En fait, une fois que nous avons automatisé un apprentissage, on l’opère comme on respire. Quand un apprentissage a pris en nous, il devient de l’ordre de l’intuition. On peut certes regarder notre respiration de manière consciente, mais cette conscience là ne nous permet pas de faire autre chose en même temps. On a attribué une grande puissance à notre capacité à nous regarder penser, plus que ce qu’elle est vraiment. Or, détecter en nous une influence, ne signifie pas qu’on soit en capacité de la changer. C’est une approche spinoziste que certains neuroscientifiques rejoignent aujourd’hui : se rendre compte de ses déterminismes ne signifie pas qu’on va les transcender.
Reste que cette prise de conscience nous permet de nous organiser pour pouvoir, peut-être ou parfois, changer l’influence à sa racine. On n’opère pas un changement au sein de sa propre cognition, par coertion cognitive, mais on peut s’organiser pour influer sur les systèmes qui nous déterminent. Il y a donc des brèches que nous pouvons opérer dans un déterminisme, mais il ne faut pas sur-exagérer la force de la volonté. Le libre-arbitre, dans l’état actuel des connaissances en neurosciences, n’existe pas vraiment. Nos automatismes sont beaucoup plus écrasants que notre force à les observer ou à y résister.
Modérons cependant ces constats en rappelant que les études sur le libre-arbitre sont faites en laboratoire : on ne peut donc pas écarter qu’il n’y ait aucune résistance cognitive à soi-même. Les travaux sur la résistance cognitive et l’anticipation du regret montrent que ce sont des aptitudes mentales qui permettent de montrer que l’on sait observer ses influences et y résister. Mais cela a un coût énergétique important qui implique un ralentissement de l’action cognitive. Or, notre cognition ne peut pas se baser sur une résistance permanente à soi. Il est donc utopique et très optimiste de penser que nous aurions beaucoup de pouvoir sur notre propre pensée.
Dans les algorithmes : Je suis frappé par le fait que vos deux essais questionnent profondément notre rapport à la domination. Notre désir de domination est-il impossible à rassasier ? D’où vient un tel besoin de domination ?
Samah Karaki : Certes. Mais il ne faut pas croire que cela relèverait d’une forme de nature humaine. C’est le sens de mon prochain ouvrage : nous ne devons pas naturaliser la domination comme un trait biologique. Ce n’est ni Jean-Jacques Rousseau ni Hobbes ! L’homme n’est ni bon à l’état de nature, ni égoïste et tourné vers la domination à l’état de nature. Par contre, la domination est une façon de diviser et simplifier le réel. Comme on a besoin de créer des endogroupes et des exogroupes, de catégoriser les phénomènes, les personnes et les sujets autour de nous, la catégorisation, au niveau de la proximité de l’autre, se fait naturellement. Elle se fait déjà chez le bébé par exemple, qui va montrer une préférence pour les visages familiers et une anxiété et une méfiance vis-à-vis de ce qui lui est inconnu et étrange..
Reste que la catégorisation hiérarchique, verticale, est quelque chose qui s’impose surtout socialement… C’est là où l’on peut rejoindre un peu plus Jean-Jacques Rousseau, dans le sens où l’instinct de conservation nous pousse à entretenir nos hiérarchies. La société peut nous pousser à catégoriser dans les statuts sociaux une valeur sociale, qui dépend de nos intérêts économiques. Cela ne se fait pas tant à l’échelle individuelle, mais à l’échelle de systèmes hiérarchiques qui cherchent à assurer leur survie. Je ne fais pas partie des neuroscientifiques qui vont dire que le besoin d’acquérir du pouvoir ou de dominer ou de consommer (ce qui était aussi une théorie très répandue il y a quelques années sur le rapport à la crise climatique, qu’il serait dans notre nature d’user de la vitalité des autres pour soi-même) nous constitue… Pour moi, il n’y a besoin ni de pessimisme ni d’optimisme anthropologique. Mais d’observations de nos systèmes complexes, riches, différents, historiquement comme géographiquement, qui nous imposent des formes de domination. Sans compter toutes les récompenses qu’on peut obtenir en se positionnant dans les échelles de la hiérarchie de domination.
Dans les algorithmes : Dans Le talent est une fiction, vous expliquez que le mérite est une justification a posteriori. “Dans une société inégalitaire, ceux qui arrivent au sommet veulent ou ont besoin de croire que leur succès est moralement justifié”, alors que ni le talent ni les efforts ne savent renverser la pesanteur du social. Nos propres progrès dépendent bien plus des autres, du contexte, et de notre rapport aux autres, que simplement de nous-mêmes, de notre talent ou de notre travail, qui sont en fait bien plus hérités qu’acquis. “Croire que notre mérite découle de nos talents et de notre travail personnel encourage l’égoïsme, la discrimination et l’indifférence face au sort des autres”. A quoi sert alors cette fiction du mérite, qui est partout autour de nous ?
Couverture du livre, Le talent est une fiction.
Samah Karaki : La fiction du mérite, que beaucoup de sociologues décrivent comme nécessaire car elle vient remplacer l’héritocratie de l’ancien régime, stipule que toute personne a un potentiel qu’elle nourrit par ses efforts et ses liens, dispose d’un principe d’émancipation, à l’image de la déclaration des Droits de l’Homme qui l’a érigée en principe. Chacun à le droit de tenter sa chance. En cela, cette fiction est rassurante, car elle paraît comme un ordre plus juste. C’est aussi une fiction sécurisante, car elle dit que les hommes de pouvoir ont les compétences pour occuper ces positions de pouvoir. Elle est aussi rassurante pour ceux qui perdent dans ce système, puisqu’elle légitime aussi cette perte. La fiction de la méritocratie est finalement apaisante pour la société, car elle ne pousse pas à analyser les raisons des inégalités et donc à éventuellement les subvertir. La fiction du mérite, nous donne l’illusion que si on n’y arrive pas, c’est parce qu’on n’a pas le talent ou qu’on n’a pas assez travaillé. Elle permet finalement de stabiliser la société.
Mais ce que je montre dans Le Talent est une fiction, c’est que la société repose toujours sur une héritocratie qui finit par se valider par elle-même. Certes, ce n’est pas parce qu’on a hérité qu’on n’a pas mérité. Mais l’héritage permet plus que le travail de faire fructifier son potentiel. Ceux qui disent que la méritocratie est un principe juste et émancipateur, disent souvent qu’on n’est pas dans une vraie méritocratie. Mais en fait, les personnes qui héritent finissent bien plus que d’autres par hériter d’une position de pouvoir parce qu’ils intègrent les bonnes formations et les opportunités qui leurs permettent de légitimer leur position d’arrivée.
Dans les algorithmes : Nous devrions remettre en question notre “crédentialisme” – c’est-à-dire la croyance que les qualifications académiques ou autres identifiants prestigieux sont la meilleure mesure de l’intelligence ou de la capacité. Comment pourrions-nous réinventer nos croyances dans le mérite pour le rendre plus inclusif, pour qu’il accorde une place à d’autres formes de mérite que la seule réussite sociale ? Pensez-vous que ce soit un enjeu de société important aujourd’hui de réinventer le mérite ?
Samah Karaki : La méritocratie ne peut pas reposer que sur des critères de réussite, car on a aussi le droit de s’émanciper « sur place », sans élévation économique. Nous n’avons pas tous le culte de l’ambition. Et nous avons tous le droit à la dignité, au-delà de ce qu’on réalise ou pas. La concentration de certains types d’aptitudes qui seules mèneraient à la réussite a peut-être fonctionné à une époque où on avait besoin d’aptitudes liées au raisonnement abstrait, comme le proposaient les tests QI ou comme le valorise le système académique. L’aptitude de raisonnement abstrait – qui signifie principalement une rapidité et une aisance de processus mentaux logico-mathématiques – est en opposition avec d’autres types d’aptitudes comme celle de la résistance cognitive. Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. Cela nous dit que si nous n’avons pas assez développé cette réflexivité mentale et le doute de sa pensée, on peut avoir du mal face à l’incertitude, mais être très bons sur la résolution de problèmes. En fait, on n’a aucune idée, aucun indicateur sur l’entraînement de ces autres aptitudes, du talent lié au doute… Je propose d’ailleurs qu’on s’intéresse à ces autres aptitudes. On peut être à l’aise dans le raisonnement abstrait et mal à l’aise dans d’autres aptitudes. Cela nous rappelle d’ailleurs que le génie solitaire n’existe pas. C’est bien souvent les discordes dans nos façons de penser qui permettent de parvenir à des pensées complexes, notamment dans les situations incertaines. Même notre définition de l’intelligence artificielle s’appelle intelligence parce qu’on la compare à la nôtre dans un anthropomorphisme qui nous rappelle qu’on n’arrive pas à concevoir d’autres façons d’appréhender le monde. Or, aujourd’hui, on devrait définir l’intelligence autrement. En neuroscience, on parle d’ailleurs plutôt d’aptitudes que d’intelligence.
« Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. »
Dans les algorithmes : Vous concluez Le Talent est une fiction par la nécessité de plus d’empathie et de diversité pour élargir la mesure de la réussite. Au regard de votre second livre, plus critique sur les limites de l’empathie, votre constat est-il toujours d’actualité ?
Samah Karaki : Oui, parce que si on ne se projette pas dans d’autres façons de vivre le monde et dans d’autres conditions pour le vivre, on risque de rester camper sur une seule façon de lire les trajectoires. C’est pour cela que les procédures de sélection dans les formations se basent sur des critères éprouvés, celles des personnes qui sélectionnent et donc des personnes qui ont elles-mêmes réussi dans ces mêmes formations. Par cette empathie, je suggérais qu’on puisse s’ouvrir à d’autres trajectoires et inclure ces trajectoires dans les processus de sélection pour ne pas qu’ils ne se ferment, qu’ils favorisent l’entre-soi. Notre façon de vivre dans le monde n’est pas universelle. C’est ce que je disais sur la question de la réussite, c’est ce que je répète sur la question de la morale dans L’empathie est politique. Il n’y a pas une recette et une seule de ce qu’est d’avoir une vie réussie. Nous devons nous ouvrir à d’autres définitions, à d’autres formes d’attachements… Et nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ. C’est comme si nous étions invités à un concours de natation, jugés par des poissons.
Je n’aime pas parler de personnes atypiques, qui me semble une forme d’essentialisation. La psychiatrie, heureusement, sort d’une définition déficitaire, où certaines personnes auraient des déficits par rapport à la norme et que la société doit les amener à cette norme. En psychiatrie, on parle plutôt de « spectre » désormais et de différences d’appréhension de l’apprentissage. C’est là un vrai progrès. Mais les systèmes scolaires et professionnels, eux, sont toujours dans une approche déficitaire. Nous avons encore besoin d’y diversifier la norme. Ce n’est pas que la norme n’est pas bonne d’ailleurs, mais elle est totalitaire, trop rigide. On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister.
« Nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ ». « On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister ».
Couverture du livre, L’empathie est politique.
Dans les algorithmes : L’empathie est politique est incontestablement une suite et une réponse de votre précédent livre, puisqu’il interroge ce qui le concluait, l’empathie. Notre capacité d’empathie est très plastique, modulable, sélective. Le film de Jonathan Glazer, La Zone d’intérêt, le montre très bien, en soulignant la grande normalité d’une famille nazie qui parvient très bien à faire abstraction de l’horreur qui se déroule à côté d’eux, en étant compatissante pour les siens et indifférentes aux hurlements et aux coups de feux qui leur parvient de l’autre côté des murs de leur maison. L’empathie n’est pas une capacité universelle ou naturelle, mais sociale, orientée et orientable. Politique. Elle est biaisée par la proximité sociale : on se sent plus proche de ceux qui nous sont proches, socialement ou culturellement. Nous la convoquons pour nous donner l’illusion de compréhension des autres, mais « nous nous projetons bien plus dans l’autre que nous ne le comprenons », dites-vous. Aurions-nous une forme d’illusion à comprendre l’autre ?
Samah Karaki : Vous avez cité les trois limites que je pose à l’empathie. D’abord, qu’elle est mécaniquement sélective, car on n’a pas assez d’attention disponible pour se projeter dans les expériences de tout le monde. On réserve donc cette habilité à ceux qui nous sont proches, à ceux qui appartiennent à notre cercle, à notre endogroupe. Et en plus, elle est influencée par les cadrages culturels, politiques, médiatiques qui viennent positionner les groupes humains selon une hiérarchie de valeur. L’empathie est une aptitude qui cherche une similitude – « l’impérialisme du même », disait Lévinas -, c’est-à-dire qu’elle cherche en l’autre mon semblable – ce qui est sa force et sa limite. Cela signifie que si je ne trouve pas dans l’autre mon semblable je ne vais pas l’humaniser et lui attribuer de l’empathie. Cela nous montre qu’elle n’est pas très fiable. On peut décider que l’autre n’est pas notre semblable, comme nous le rappelle le film de Glazer justement.
Enfin, on est attaché à ce qui nous ressemble, ce qui est une forme de narcissisme de l’espèce. Mais, cette impression de similitude est bien souvent factice. L’expérience de l’autre n’est bien souvent pas celle qu’on imagine qu’elle est. C’est la troisième limite à l’empathie. Même quand on arrive à s’identifier à l’autre, après plein d’examens de similitude morale et de traits de comportements ou de sensibilité intellectuelle… à la fin, on est dans l’illusion de la compréhension de l’autre, car on ne le voit que là où on s’y retrouve ! Si on est exclu d’une expérience par exemple, on l’analyse mal avec nos outils limités et tronqués car nous n’avons pas nécessairement les vies riches que nous imaginerions avoir. Avoir connu la souffrance par exemple ne signifie pas qu’on soit capable de comprendre celle des autres. Les expériences restent toujours singulières.
Dans les algorithmes : Oui, vous dites que l’appartenance est une perception. Nous autoproduisons nos propres stéréotypes sociaux. Les étudiants blancs sont plus susceptibles d’interpréter une bousculade comme violente lorsqu’elle est causée par une personne noire que par une personne blanche. Notre interprétation semble toujours confirmer nos stéréotypes plutôt qu’elle ne les remet en cause. Et les informations qui confirment nos stéréotypes sont mieux mémorisées que celles qui les réfutent. Comment peut-on lutter contre nos représentations et nos stéréotypes, dans lesquels nous sommes englués ?
Samah Karaki : En fait, les biais de confirmation nous simplifient notre lecture du monde. Nous avons envie d’avoir un favoritisme d’endogroupe au profit de notre groupe et de son image. Par recherche de cohérence, et d’efficience, on a tendance à préserver l’image de groupe qui miroite sur notre image de soi, et donc c’est pour cela qu’on a tendance à favoriser notre groupe. On explique et on pardonne bien mieux les comportements négatifs de nos proches que ceux des gens de l’exogroupe. On a plus de facilités à juger les groupes externes avec des caractéristiques très réductrices. Cela nous rassure sur notre position morale et notre image de nous-mêmes. Si on reprend l’exemple du film de Glazer, l’indifférence de cette famille s’explique aussi parce que ces personnes pensent qu’elles sont dans le camp du bien et que l’effacement du groupe humain qui est de l’autre côté des murs est une nécessité. Ces personnes ne sont pas que indifférentes. Elles sont persuadées que cet effacement est nécessaire pour la survie de leur propre groupe. Cette victimisation inversée sert le groupe, comme l’instrumentalisation des animaux nous sert à légitimer notre nourriture, notre agriculture. Il y a quelques siècles en arrière, l’instrumentalisation du corps des esclaves pour l’économie européenne était considérée comme une nécessité. En fait, l’empathie ne disparaît pas par simple indifférence, elle disparaît aussi par le sentiment d’être victime. L’effacement de l’autre devient une forme de légitime défense.
Ce sont là des mécanismes qui nous simplifient le monde. On peut ramener ces mécanismes à leur biologie. On a besoin de simplifier le monde car on n’a pas assez d’énergie. Mais on a aussi besoin d’être en cohérence avec sa propre image. C’est là où s’intègrent les cadrages politiques et sociaux qui donnent à chaque groupe l’impression d’être dominé ou menacé par l’autre. C’est en cela que ces affects nous éloignent d’une lecture objective des situations. Je ne veux pas dire dans mon livre que tous les affects sont légitimes, bien au contraire. Tous sont réels et précis, mais ne sont pas objectivement situés au même endroit. Et c’est pour cela que nous avons besoin de quelque chose que nous avons produit, suite à la Shoah d’ailleurs, qui est le droit humanitaire international. C’est un moyen de nous protéger de notre propre raison et de notre propre définition de ce qui est moral.
Dans les algorithmes : C’est le moyen que nous avons pour sortir du cercle infernal de l’empathie envers son endogroupe. Développer des règles qui s’appliquent à tous ?
Samah Karaki : Oui. Ce sont des règles que nous avons construites avec notre organisation sociale. Ce sont des règles auxquelles on se conforme pour naviguer dans les interactions sociales qui nous lient. Des règles qui nous permettent de conserver nos droits, de ne pas céder à des affects et donc, ce sont des règles où tout le monde n’est pas gagnant de la même façon mais qui peuvent régir des biens collectifs supérieurs aux intérêts d’un groupe par rapport à d’autres. C’est pourquoi je suggère de sortir du lexique affectif qui revient souvent aujourd’hui et qui ne se concrétise pas en action politique, car il se suffirait à lui-même, justifiant même certaines inerties. L’affect nous évite de passer à des actions concrètes.
Dans les algorithmes : Vous êtes très critique sur la manière dont nous pouvons réparer l’empathie. Vous dites par exemple que ce ne sont pas les formations à l’empathie qui vont permettre de mettre fin à l’organisation hiérarchique des sociétés humaines.
Samah Karaki : Les formations à l’empathie qui parlent de l’histoire des oppressions, de ce qu’ont vécu les groupes humains opprimés, permettent de modifier notre appréhension du monde. Éviter ces sujets ne donne pas des outils pour comprendre, pour questionner les raisons qui font que nous avons des biais racistes. Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Car le biais consiste à suivre un automatisme appris, comme quand on respire. Je ne pense pas que la bonne manière de faire consiste à résister à ces apprentissages, mais de les modifier, d’acquérir une autre lecture.
En fait, je voudrais qu’on sorte un peu de notre fainéantise intellectuelle. Aujourd’hui, par exemple, trop souvent, quand on fait des films sur des populations opprimées, on ne prend pas le temps d’analyser, d’amener les personnes concernées, de modifier les conditions de production pour sortir du regard que l’on porte sur elles pour donner la voix à leurs propres regards. Et on justifie cette fainéantise intellectuelle par l’affect, l’intuition ou la création spontanée. Peut-être aussi par romantisme de notre nature, en expliquant qu’on comprendra par soi-même. C’est comme quand on dit que les enfants sont bons par nature. Ce n’est pas le cas pourtant. Le racisme est présent chez les enfants à partir de 3 ans si on ne leur explique pas les structures de suprématie qui structurent nos sociétés. J’invite à faire nôtre ce que la journaliste Douce Dibondo appelle « l’épistémologie de la connaissance contre celle de l’ignorance ». Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification. Nous ne nous identifions pas assez aux personnes qui ne nous ressemblent pas. Nous devons le dire et le répéter : nous avons une difficulté à nous identifier à certains comme nous n’entendons pas les sons sous une certaine fréquence. Les formations sur l’empathie par l’identification ne résoudront pas les problèmes de harcèlement scolaire ou de comportements de domination.
« Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Pour les modifier, il nous faut acquérir une autre lecture ». « Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification »
Dans les algorithmes : Ce que vous dites, c’est que nous avons besoin d’une lecture plus politique de nos rapports sociaux ?
Samah Karaki : Oui. On a besoin d’une lecture historique en tout cas. Et nous devrions d’ailleurs beaucoup valoriser la lecture historique à l’heure où les tentatives d’effacement de certaines histoires se multiplient tout autour de nous. Nous devons défendre ce patrimoine. Cet attachement aux faits, au réel, doit nous permettre de nous éloigner des attitudes complotistes au monde. Nous avons un devoir de protéger cette discipline.
Dans les algorithmes : Dans votre second livre, vous parlez un peu du numérique. Vous nous dites qu’on est confronté, sur les réseaux sociaux, à une empathie un peu factice. Que les algorithmes basés sur la viralité cherchent d’abord et avant tout à produire de l’émotion, de l’exacerbation de nos sensations, de nos sentiments. En analysant 430 milliards de vidéos, le facteur le plus puissant du succès viral est la réponse émotionnelle (“Plus l’intensité de l’émotion suscitée par le contenu sera grande, plus les gens auront tendance à le partager”). Vous dites même que le numérique favorise une forme de « tourisme affectif »…
Samah Karaki : Si on prend la question en la ramenant à l’attention avant même de parler de réseaux sociaux, il nous faut observer ce que la prédiction des calculs produit. Que ce soit des sons ou des images, l’attention passe d’un niveau phasique à un niveau tonique, avec des changements de circulation électro-chimique dans le cerveau quand je suis dans ce que l’on appelle un écart de prédiction. Cet écart de prédiction, c’est ce qu’on appelle l’émotion. C’est ce qui nous surprend, nous émeut. Et nous avons besoin de réduire cet écart de prédiction en analysant cette information. Et ce travail d’analyse me fait dépenser de l’énergie. S’il ne se passe rien d’intéressant dans un échange, je peux perdre mon attention car je ne fais plus le travail qui fait que je suis en train de réduire les écarts de prédiction. C’est un peu comme cela qu’on apprend aussi. Face à une information nouvelle, on a un écart de prédiction : soit on rejette cette nouvelle information, soit on l’intègre dans nos prédictions, ce qui nous permet ensuite de revenir à ce que l’on appelle un monde émotionnellement neutre ou stable.
Un contenu viral est donc un contenu qui va produire un écart de prédiction. C’est pourquoi ils sont souvent émotionnels. Ils captent notre attention et créent un attachement par rapport à ces contenus. Dans la vie intime, c’est le même processus qui nous fait nous attacher à certaines personnes plutôt qu’à d’autres, parce que ces personnes produisent en nous des déplacements. La viralité repose sur des objets qui attirent l’attention, qui produisent un travail émotionnel et ce travail nous fait créer un lien avec ces contenus. Faire reposer l’intérêt sur un travail émotionnel peut vite être pernicieux, car il nous empêche par exemple de saisir le contexte de ce que l’on regarde, car notre cognition est déjà sollicitée pour rétablir l’équilibre émotionnel qui nous atteint.
La seconde chose qui peut se produire, c’est que l’exposition à un même écart de répétition, finit par l’aplatir, comme quand on est exposé à un son répétitif qu’on finit par ne plus entendre. Face à des contenus émotionnels répétitifs, nous finissons par nous engourdir. Face au flux d’affect, les contenus viraux finissent par ne plus provoquer de réaction en nous. Beaucoup d’études montrent que l’exposition répétée à des contenus violents abaisse notre capacité à être ému par ces contenus. De même quand nous sommes exposés à des contenus de personnes en souffrance. Le risque, c’est que par leur répétition, nous normalisions des contenus qui devraient nous heurter, nous faire réagir. Les études montrent que cette exposition répétée peut conduire à la violence de certains et surtout à l’inertie.
Le tourisme affectif est un troisième niveau. Quand on scroll ces contenus affectifs, nous faisons un travail, comme si nous les vivions à notre tour. Ces contenus nouveaux nous dépaysent, nous surprennent. Le tourisme, dans la vie réelle, consiste à chercher quelque chose qui nous déplace, qui ne corresponde pas à nos prédictions. Le problème, c’est que quand ce tourisme se fait sur la souffrance des autres, ce déplacement devient indécent, car alors, on instrumentalise ce que vivent les autres pour notre propre déplacement et notre propre émancipation. C’est pour cela que j’estime que nous ne devons pas nous suffire à l’émotion et à l’empathie. L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire.
« L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire. »
Dans les algorithmes : Le numérique était censé nous ouvrir à la diversité du monde, à nous rendre plus conscient des différences. On a l’impression à vous lire qu’il favorise surtout des comportements homophiles, réduits à notre endogroupe. danah boyd, disait “La technologie ne bouleverse pas les clivages sociaux. Au contraire, elle les renforce”. Partagez-vous ce constat ? Pourquoi sa promesse de diversité n’est-elle pas réalisée selon vous ?
Samah Karaki : Cette amplification n’est pas dans la nature des technologies. C’est lié à leur usage surtout et le fait que nos technologies suivent nos biais, nos biais de confirmation, produisent des effets bulles… Mais la technologie peut aussi aider à faire circuler la connaissance nécessaire pour comprendre les oppressions. On peut aussi découvrir des pensées qui ne sont pas institutionnalisées, ou peu référencées. Elle peut aussi nous permettre de nous organiser, pour refuser ou questionner un système. Mais effectivement, elle peut aussi servir à confirmer nos stéréotypes et représentations : nous conforter dans notre façon de voir le monde.
Les dernières élections américaines se sont beaucoup faites sur les réseaux sociaux. Il n’y a eu qu’un débat télévisé entre les deux candidats. La persuasion c’est faite aussi avec les outils. Pourtant, plus que de s’en méfier, nous devrions chercher à les comprendre pour les mettre au service d’une autre façon d’appréhender la connaissance. Le débat sur l’utilisation des technologies a toujours accompagné ses avancées. Souvent on est un peu naïf avec elles. On crée des outils qui nous ressemblent. Mais on peut toujours les transcender. Il y a aussi sur les réseaux sociaux des voies alternatives, subversives, subalternes qui existent. Nous devons questionner et nous méfier des algorithmes, comme on se méfie de la nicotine en précisant ce qu’elle nous fait. On est en devoir d’avoir une littératie des médias qui s’apprend à l’école comme tout autre outil de connaissance. Et c’est une fois que nous avons cette connaissance que nous pouvons juger de ce qu’on décide d’en faire collectivement. Aujourd’hui, trop peu de gens comprennent comment fonctionnent les algorithmes. Sur TikTok, la majorité des jeunes qui l’utilisent ne comprennent pas son fonctionnement, alors que c’est essentiel. La formation aux médias, cela devrait être une formation obligatoire pour s’en protéger et les utiliser pour la découverte intellectuelle nous permettant d’accéder à des personnes auxquelles nous n’aurions pas accès autrement. Mais aussi pour faire rebondir ses idées avec d’autres personnes distantes. C’est la question de l’usage et de la connaissance de ces outils que nous devons mener une bataille, en plus de celle de la transparence des algorithmes qui a lieu à l’échelle européenne.
Dans les algorithmes : Quel regard portez-vous sur l’Intelligence artificielle ? D’autant que celle-ci semble avoir un rôle important sur nos représentations culturelles et nos stéréotypes. Pour ma part, j’ai l’impression que l’IA favorise et amplifie nos représentations culturelles les plus partagées. Ce qu’on pourrait appeler la « moyennisation culturelle de nos représentations » (comme quand on demande à une IA de produire l’image d’un mexicain et qu’elle va produire l’image d’un homme avec un sombrero). Le risque n’est-il pas que nos stéréotypes sociaux et comportementaux, demain, soient encore plus marqués qu’ils ne sont, plus indépétrables – alors que vous nous dites dans vos livres que nous devons les questionner, les déconstruire ?
Samah Karaki : Pour moi, l’IA nous confronte à ce qui ne va pas chez nous. Elle n’invente pas nos stéréotypes. Elle nous montre au contraire à quel point nous sommes réducteurs, à quels points nous sommes eurocentrés, hétérocentrés, validistes… L’IA nous expose ce que nous sommes. En exposant ce que nous sommes, elle montre aussi aux jeunes générations ce que le monde est, au risque de ne pas leur permettre de séparer la représentation du réel. Mais je trouve très intéressant que nous soyons confrontés au ridicule de nos représentations. Critiquer ce que les IA produisent, c’est un peu comme les formations à l’empathie qui ne veulent pas parler des problèmes qui structurent nos rapports de force. Alors que cela devrait nous inviter à comprendre avec quoi nous nourrissons ces machines, que ce soit nos représentations comme d’ailleurs toutes les études qui les défient. C’est comme si l’IA nous renvoyait un état des lieux de là où nous en sommes dans notre compréhension, qui sera toujours tronquée, car nous analysons ces représentations avec les mêmes cerveaux qui l’ont produit. Sans compter qu’avec l’IA, nous en restons à une définition de l’intelligence qui colle aux intérêts de l’homme. Quand nous attribuons à l’IA des intentions, nous le faisons parce que nous n’arrivons pas, dans les limites de notre intelligence, à nous imaginer autre chose que des intentions humaines. C’est aussi une des grandes limites de notre intelligence : d’être aussi obsédée par soi au point de ne pas voir dans ce qui se produit dans l’IA ce qui nous est incompréhensible ou parallèle. Elle nous permet de nous rappeler que notre espèce n’est peut-être pas centrale dans l’appréhension du monde, comme nous le rappelle aussi le reste du vivant. La puissance de l’IA nous permet de douter de soi, en tant qu’individu, mais aussi de notre espèce. Peut-être peut-elle nous aider à trouver un peu d’humilité épistémologique, en nous renvoyant à nous-mêmes et à nos propres limites.
Nous n’avons pas à fermer les yeux parce que l’IA nous renvoie des mexicains stéréotypés ou des médecins qui sont toujours des hommes blancs. C’est l’occasion plutôt de poser des questions. Pourquoi avons-nous ces représentations ? Qui nourrit ces systèmes ? Quelle partie du monde les nourrit ? Comme dans les études en psychologie et neurosciences d’ailleurs, il y a un eurocentrisme et une lecture de la psychologie humaine à travers 25% de ceux qui la constituent.
Dans les algorithmes : La question de l’incalculabité est le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour une spécialiste des neurosciences, qu’est-ce qui est incalculable ?
Samah Karaki : Pour moi, l’incalculabe, ce sont les interactions qui se sont produites dans notre cognition depuis notre vie intra-utérine en interaction avec notre patrimoine génétique, qui ne sont pas ni une addition ni une compétition, mais une interaction qui font de nous ce que nous sommes d’une manière incalculable et qui ridiculisent nos tentatives à quantifier l’humain. Que ce soit au niveau de nos compétences, de nos prises de décisions ou de nos jugements, on les pense rationnels et calculables, alors qu’ils reposent sur des écarts de prédiction extrêmement précis, mais sans avoir d’outils pour les démêler. C’est ce que je défends dans Le mérite est une fiction. Quand je vois un résultat, je ne peux pas remonter aux raisons qui l’expliquent. Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Cela nous dit de nous méfier de tout ce qu’on appelle talent, personnalité… Et cela nous invite enfin à admettre une forme d’incertitude constitutive de l’homme.
« Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. »
Propos recueillis par Hubert Guillaud.
Samah Karaki sera l’une des intervenantes de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.
Le 2 avril 2025, le président américain a mis à exécution sa décision d’augmenter unilatéralement les droits de douane pour les produits étrangers entrant sur le sol américain. Trump a pourtant rapidement rétropédalé, mais sans annuler complètement les augmentations (voir le détail des mesures et revirements prises par l’administration américaine sur Wikipédia). Les tarifs ont été modérés depuis (sauf pour la Chine), notamment pour certains secteurs (dont les produits technologiques), abaissés voire figés pour 90 jours, mais avec la menace que les augmentations reprennent dans 3 mois. Suite à la panique boursière, à d’innombrables contestations (notamment judiciaires d’Etats américains) et représailles des pays touchés par ces nouvelles exigences tarifaires, les tarifs douaniers mondiaux sont devenus partout l’inconnu des perspectives économiques. Cette politique de sanctions commerciales et de protectionnisme a surtout déclenché une grande incertitude économique, non seulement tout autour de la planète, mais plus encore aux Etats-Unis.
Partout, les économistes dénoncent une politique inconséquente, qui s’apprête surtout à ralentir les échanges, relancer l’inflation et ralentir l’innovation, plus que de protéger l’industrie américaine. Explications.
Incertitude généralisée
L’escalade des tarifs et les revirements de Trump ont surtout produit ce que tout le monde déteste en économie : de l’incertitude. C’était particulièrement flagrant concernant les droits de douane des produits technologiques, dans un premier temps impactés par les évolutions tarifaires, puis soudainement exclues, visiblement sous la pression des entreprises de la tech qui ont su imposer un lobbying puissant sur le président Trump, ce qui est loin d’être le cas de nombre d’autres secteurs de l’économie qui n’ont pas l’oreille présidentielle pour les protéger. « Les va-et-vient de l’administration Trump concernant les droits de douane sur les produits technologiques sèment la confusion dans un secteur fortement dépendant des chaînes d’approvisionnement mondiales », explique The Hill. L’exemption des droits de douane sur les produits technologiques n’est annoncée que comme temporaire. Or, « Les entreprises apprécient la stabilité, la prévisibilité et la certitude de l’environnement commercial, et cela s’applique non seulement à la politique commerciale, mais aussi aux niveaux institutionnels, programmatiques, réglementaires, etc. » En fait, tant que l’issue des négociations sur l’évolution des tarifs restera floue, les investissements des entreprises risquent d’être freinés. Pour l’économiste Paul Krugman : l’exemption des produits électroniques des droits de douane n’est pas un retour à la raison de Trump ou de son administration, c’est surtout le signe qu’ils pilotent à vue sans savoir où ils vont. Le yoyo des tarifs est en train de générer une incertitude fatale pour les entreprises américaines, estime Krugman.
Comment les des droits de douane… vont favoriser les plus forts
Pour David Dayen de The American Prospect, les droits de douane imposés par Trump vont surtout favoriser les monopoles, notamment parce que les exemptions, comme vient de le connaître le secteur technologique, ne sont pas des solutions à la portée des petites entreprises. Aux Etats-Unis, le géant de l’alimentation Albertsons a annoncé qu’il refusera l’augmentation du coût des produits, invitant les producteurs à assumer seuls la charge de l’élévation des droits de douane, sans vouloir les faire porter sur les consommateurs finaux. Il est probable que les deux autres géants de la distribution, Walmart et Kroger, imposent les mêmes conditions à leurs fournisseurs. Mais les indépendants, eux, ne pourront pas imposer les mêmes règles. Le problème, explique Dayen, c’est que la guerre tarifaire est concomitante à l’affaiblissement des aides aux petites entreprises du fait du démantèlement des agences fédérales, à l’image de la Small Business Administration. Or, rappelle le Wall Street Journal, les petites entreprises américaines sont responsables d’un tiers des importations américaines et elles ne pourront pas éviter la hausse des coûts due aux droits de douane, ni en transférer la charge à quelqu’un d’autre. « La situation pourrait empirer avec l’annonce par la Chine d’imposer des contrôles à l’exportation de terres rares et d’aimants vers les États-Unis », qui pourrait paralyser des secteurs entiers de la production américaine, explique le New York Times.
Sans alternatives nationales pour rapatrier rapidement leur production aux Etats-Unis et avec peu de temps pour s’adapter, de nombreuses PME sont déjà en difficulté. Celles qui optent pour l’augmentation du prix de leurs produits se mettent à produire des « frais de douane » sur les factures de leurs clients pour accroître la pression populaire à leur contestation voire à leur suppression. Mais l’augmentation des tarifs risque surtout de rapidement détourner les consommateurs de produits devenus trop chers. Les droits de douane de Trump n’avaient peut-être pas l’objectif de favoriser la concentration de l’économie américaine, mais le fait que les plus grands acteurs puissent négocier des exemptions à leur avantage pourraient bien d’abord et avant tout renforcer certains monopoles.
Pour un responsable de la division antitrust du ministère de la Justice, l’inflation de ces dernières années avait déjà permis à des entreprises de se livrer à des pratiques extrêmement néfastes pour la société… le risque est que les droits de douane permettent à nombre d’acteurs d’augmenter leurs tarifs au-delà du nécessaire, à l’image de la récente grippe aviaire qui a été une explication bien commode pour augmenter le prix des œufs aux Etats-Unis, ces derniers mois. En effet, aux Etats-Unis, le prix des œufs a augmenté de 53%. L’explication la plus communément avancée pour expliquer « l’eggflation » serait dû à la grippe aviaire et à l’abattage en masse qui en a résulté, explique Basel Musharbash dans sa newsletter, Big. Pourtant, souligne-t-il, la production d’oeufs n’a pas baissée : par rapport à 2021, la baisse de la production d’oeufs n’a été que de 3 à 5 %, alors que la consommation d’oeufs est passée de 206 oeufs par Américain et par an en 2021 à 190 oeufs en 2024 (-7,5%). Sans compter que l’exportation d’œufs a également reculé… L’augmentation des tarifs n’est donc pas liée à la baisse de production, comme on l’entend trop souvent, mais à la nouvelle concentration du marché. Cal-Maine Foods – le plus grand producteur d’œufs et le seul à publier ses données financières en tant que société cotée en bourse – a vu ses profits s’envoler avec l’épidémie de grippe aviaire, “dépassant le milliard de dollars pour la première fois de son histoire”. En fait, Cal-Maine a réalisé des marges sans précédent de 70 à 145 % sur les coûts de production agricoles. Pour Doctorow, l’oeuflation est typique d’une inflation de la cupidité, liée à l’établissement de monopoles sur les marchés. Pour nombre d’entreprises, la reprise de l’inflation pourrait bien être une aubaine pour continuer à augmenter leurs tarifs.
L’augmentation des tarifs ne relocalisera pas la production
Wired explique pourquoi nombre de petites entreprises américaines ne peuvent pas produire aux Etats-Unis. Pour elles, bien souvent, il n’y a pas d’alternative à faire produire en Chine, quels que soient le niveau des droits de douane, notamment parce que l’appareil productif américain n’est plus disponible. En fait, la hausse des droits de douane à eux seuls ne suffiront pas à inciter les entreprises à s’implanter aux États-Unis, affirme Kyle Chan, chercheur spécialisé dans la politique industrielle à l’université de Princeton. Si les coûts bas sont une raison importante qui motive l’approvisionnement en Chine, la raison pour laquelle la production manufacturière en Chine est moins chère que dans d’autres régions n’est pas toujours liée au salaire des travailleurs ni à une moindre qualité. Au contraire. L’industrie chinoise est très qualifiée, spécialisée et intégrée. « La Chine est également un leader mondial dans la production d’outils industriels, ce qui signifie que les usines peuvent facilement adapter leurs machines aux besoins en constante évolution de leurs clients ». Non seulement la production chinoise sait s’adapter aux exigences, mais elle sait produire aussi tant en petites qu’en grosses quantités. Enfin, rapatrier la production aux Etats-Unis nécessiterait de construire des usines, voire de faire venir des spécialistes chinois pour cela, ce qui avec les politiques d’immigration mises en place s’avérerait désormais impossible.
Dans un éditorial saignant, le modéré Financial Times n’a pas de mots assez durs contre la hausse des tarifs douaniers décidés par Trump qu’il qualifie de « pire acte d’autodestruction de l’histoire économique américaine ». Pour l’économie américaine, les effets les plus immédiats des mesures de Trump seront une hausse de l’inflation et un ralentissement de l’activité économique. Même son de cloche pour David Brooks dans le New York Times : « Trump construit des murs. Ses politiques commerciales entravent non seulement la circulation des biens, mais aussi celle des idées, des contacts, des technologies et des amitiés. Ses politiques d’immigration ont le même effet. Il s’en prend aux institutions et aux communautés les plus impliquées dans les échanges internationaux ». C’est oublier que les grandes nations sont des carrefours, rappelle Brooks. « Elles ont été des lieux où des gens du monde entier se sont rencontrés, ont échangé des idées et en ont inventé de nouvelles ensemble ». L’entrée en vigueur des droits de douane aux Etats-Unis n’est pas le « Jour de la Libération » de l’Amérique comme le clame Trump, mais risque bien plus d’être le « Jour de la Stagnation » et du déclin de l’empire américain.
La presse américaine se fait l’écho des effets très immédiats que les tarifs douaniers ont sur le commerce. Le New York Times par exemple explique que les droits de douane réduisent déjà les importations de voitures et paralysent les usines américaines, du fait de pièces indisponibles, comme aux pires temps de la pandémie. Avec les tarifs douaniers, Trump espère faire revivre l’industrie manufacturière d’après-guerre, qui, jusque dans les années 70, a employé plus de 20 millions d’Américains, rappelle le New York Times. Mais les pôles industriels ont largement périclité depuis. Les économistes eux-mêmes restent profondément sceptiques : pour eux, les droits de douane ne suffiront pas à rétablir l’industrie d’antan. Ils ne suffisent pas à faire une politique industrielle.
Pour Wired, le gouvernement Trump, en même temps qu’il augmentait les droits de douane, a surtout arrêté de financer le programme qui a stimulé l’industrie américaine pendant des décennies, le Manufacturing Extension Partnership (MEP), un programme et un réseau d’aide à l’industrialisation pour les PME américaines. Dans une tribune, Brian Desse, ancien président du Conseil économique des Etats-Unis durant l’administration Biden, rappelle que l’industrie automobile américaine est désormais à la traîne dans la course à l’innovation. 60% des pièces qui constituent les véhicules américains sont importées et les droits de douane vont surtout venir renchérir les prix des véhicules des constructeurs nationaux. Mais Trump ne s’est pas attaqué qu’aux droits de douane. Son projet de réduire les incitations fiscales pour l’innovation et la production nationale de batteries par exemple a gelé les investissements des constructeurs américains : au premier trimestre 2025, les entreprises ont annulé plus de 6 milliards de dollars de projets de fabrication de batteries. Or, ces incitations fiscales ont permis de limiter le retard dans la production de batteries, qui est aujourd’hui le lieu de la course à l’innovation pour la voiture du futur. Trump enferme les Etats-Unis dans un piège luddiste, qui risque bien plus de pénaliser les entreprises américaines que de les aider à développer leurs capacités d’innovation et d’investissements.
Le Financial Times semble assez inquiet de l’escalade des tarifs douaniers lancée par le président Américain. Les marchés également, qui anticipent plutôt un ralentissement économique mondial voire une récession. “Les droits de douane de Trump n’ont pas accéléré la croissance économique américaine. Au contraire, ils l’ont probablement stoppée”, rapporte Vox. Les entrepreneurs de la Tech, qui s’étaient ralliés massivement à Trump, sont en train de faire la grimace. Pourtant, pour l’instant, souligne The Verge, ils restent assez silencieux sur l’augmentation des tarifs malgré l’impact certain sur leur activité. Il faut dire que personne ne souhaite se mettre Trump à dos.
Dans le New York Times, la journaliste Patricia Cohen estime que les perturbations économiques introduites par le gouvernement Trump seront difficiles à inverser, notamment parce que le reste du monde, lui, va rapidement s’y adapter. “Les chaînes d’approvisionnement seront réorganisées, de nouveaux partenariats seront conclus, et les étudiants, chercheurs et talents technologiques étrangers trouveront d’autres destinations où migrer.”
Face au virage protectionniste de l’Amérique, Pékin se positionne déjà comme le défenseur du libre-échange et le nouveau leader du système commercial mondial. Comme le montrait un reportage du New York Times, les entreprises chinoises s’adaptent déjà et réorientent leurs marchés et leurs budgets publicitaires, quand ils ne se mettent pas à s’adresser directement aux Américains, explique la Technology Review, pour leur proposer des modalités de vente directe pour réduire les prix en tentant de contourner l’augmentation des tarifs, comme les commissions des grandes plateformes chinoises de B2B, qui mettent les fabricants en relation avec les entreprises américaines.
En s’intéressant aux conséquences sur une vaste gamme de produits, The Verge montre surtout que plus personne n’y comprend rien… Et que l’incompréhension génère un fort attentisme des entreprises américaines qui ralentissent leurs achats comme leurs investissements. L’évolution des tarifs va également “modifier les habitudes de consommation des Américains, ainsi que la production et les produits des entreprises américaines”. Les droits de douane ressemblent à une arme automatique qui tire dans tous les sens. Mais nul ne sait qui elle va abattre en premier. Ce qui est sûr, c’est que la guerre commerciale, elle, a déjà commencé. Et elle ne va bénéficier à personne, sauf aux plus grandes entreprises qui vont continuer d’imposer leurs conditions à toutes les autres.
Vous vous souvenez de janvier 2021? Pour aider à faire passer la pilule du couvre-feu, les ministres caquistes publiaient des photos et vidéos des petits bonheurs de leur quotidien dans leur immense cour ou dans leur luxueux salon grand comme mon appartement. On y voyait entre autres le ministre André Lamontagne qui joue du piano en compagnie de son chien. En compagnie de son chien. J’insiste sur le compagnon canin parce que le couvre-feu prévoyait une exception pour les propriétaires de chien. Mais pas pour les itinérants. Plus de 150 itinérants ont reçu une amende pour non-respect du couvre-feu. Les propriétaires de chiens n’ont pas eu ce problème.
C’est une anecdote (merci à Josiane Cossette qui l’analyse et en souligne le caractère indécent dans son livre Raccommodements raisonnables), mais une anecdote qui selon moi révèle comment se prennent les décisions au gouvernement de la CAQ. Je peux facilement imaginer, au moment où François Legault annonce qu’il y aura un couvre-feu, le ministre Lamontagne qui lève la main pour dire « Oui mais moi il faut que j’amène mon chien faire sa promenade le soir. » « Okay André on va prévoir une exemption pour toi. Je veux dire: On va prévoir une exemption pour les propriétaires de chien. » Mais naturellement, il n’y avait pas d’itinérant autour de la table pour faire part de sa situation personnelle. Donc pour eux, l’exemption est seulement venue plus tard en raison de la pression populaire et médiatique.
C’est ça, la CAQ. Un groupe d’individus qui gouvernent pour eux-mêmes.
Cette année, le salaire minimum a augmenté de 15.75$ à 16.10$. Une augmentation de 2.2%, inférieure à l’inflation. Il n’y a évidemment pas beaucoup de gens autour de la table du conseil des ministres qui savent ce que c’est de travailler au salaire minimum. En revanche, 30% des ministres de la CAQ viennent du milieu des affaires. Il y avait donc beaucoup de gens pour rappeler que la prospérité des entreprises dépend d’un salaire minimum aussi bas que possible. Tant pis si ceux qui en arrachent doivent s’appauvrir un peu plus. Ce gouvernement travaille pour l’économie.
Pendant que le salaire minimum augmente de 2.2%, le gouvernement recommande des augmentations de loyer de 5.9% (minimum). Les ministres de la CAQ qui sont propriétaires d’un parc immobilier valant en moyenne 1.6 millions de dollars sont là pour rappeler qu’il faut tenir compte de l’augmentation des taxes municipales, des matériaux, des coûts des travaux, des coûts d’entretien… Malheureusement, très peu de locataires sont là pour faire remarquer qu’ils s’appauvrissent d’année en année avec ces hausses de loyer supérieures aux augmentations de salaire.
Évidemment, les augmentations de salaire ne sont pas un enjeu majeur pour les députés de la CAQ, qui se sont accordés à eux-mêmes une augmentation de 30% en 2023. Une augmentation nécessaire puisque les députés travaillent fort (mention honorable à Éric Lefebvre qui s’est plaint de travailler tellement qu’il n’a plus le temps de rendre visite à sa mère). Ce n’est pas comme ces paresseuses d’infirmières ou ces fainéants d’enseignants. Comme disait Bernard Drainville, « tu compares vraiment le job d’enseignant au job de député? Tu es en train de me dire que ça se compare? »
François Legault justifiait cette augmentation en disant qu’il ne voyait pas pourquoi le secteur privé paierait mieux que la politique. Imaginez-vous comme moi les députés de la CAQ se plaindre qu’ils ne gagnent pas assez cher et rappeler qu’ils avaient un meilleur salaire dans le privé, avant que l’équipe de M. Legault vienne les recruter? Pendant ce temps, les travailleurs du secteur public reçoivent une augmentation de 17.4% sur 5 ans. Et le gouvernement offre 12.7% d’augmentation sur 5 ans aux éducatrices. Faut-il souligner qu’il n’y a aucune éducatrice au conseil des ministres?
Ajoutons à tout cela l’éthique élastique de la CAQ. Éric Caire ne laissait rien passer lorsqu’il était dans l’opposition. Le gouvernement devait être plus blanc que blanc. Une fois au pouvoir, les caquistes se sont bien accommodés des NOMBREUX conflits d’intérêt de Pierre Fitzgibbon, dont le ministère accordait des subventions aux entreprises de ses amis et qui recevait des cadeaux de la part d’entrepreneurs qui font affaire avec le gouvernement. Ça n’inquiétait pas M. Legault parce que contrairement aux libéraux et aux péquistes, les caquistes sont honnêtes. C’est ce qu’il nous disait en 2020 lorsqu’il a assoupli les règles d’attribution des contrats d’infrastructure malgré toutes les voix qui lui disaient qu’il ouvrait grand la porte à l’émergence de la corruption et de la collusion. Il rappelait qu’il y avait dans son équipe Sonia Lebel, ancienne procureure en chef de la commission Charbonneau, Christian Dubé, qui est comptable agréé, et « même du monde qui ont milité à la CAQ parce qu’ils étaient tannés de la corruption dans d’autres partis ». Bref, la transparence et l’éthique, c’est pour les autres. Les gens honnêtes n’ont pas besoin de suivre les règles.
De toute façon, quel mal y a-t-il à aider ses amis? Dans une logique bien duplessiste, la CAQ s’occupe de ses amis d’abord et des autres ensuite. Québec solidaire a fait remarquer que les projets de construction d’école semblent déterminés en fonction de l’allégeance politique du député local. D’un extrême à l’autre, les investissements varieraient entre 4189$ par enfant dans une circonscription caquiste VS 1045$ par enfant dans une circonscription péquiste. Le ministre Bernard Drainville s’est défendu d’accorder le financement en fonction de critères partisans, mais il a refusé de rendre publiques les évaluations. « On a d’autres choses à faire. » Nous sommes trop occupés pour être transparents, alors vous allez devoir nous croire sur parole.
François Legault a affirmé franchement son clientélisme politique lorsqu’il a dit que « la CAQ, c’est un parti des régions » pour justifier son refus d’investir dans l’hôpital Maisonneuve-Rosemont. Si les gens de Maisonneuve-Rosemont voulaient un meilleur hôpital, ils n’avaient qu’à ne pas élire un député solidaire. Le gouvernement prétend en faire une question d’équité entre Montréal et les régions. Traduction: nos électeurs vont être en colère si on investit trop d’argent dans un hôpital de Montréal pendant que leurs propres hôpitaux ont aussi besoin de travaux. Alors les patients et le personnel de HMR vont devoir s’habituer aux chauve-souris.
Pendant que le premier ministre nous dit chercher désespérément 85 millions pour l’hôpital Maisonneuve-Rosemont, un contrat de 46 millions pour du soutien en ingénierie pour le troisième lien Québec – Lévis est accordé. Si le projet pharaonique que représente ce fameux pont finit par voir le jour, ce sera l’achat de votes le plus coûteux de l’histoire du Québec. Même Maurice Duplessis n’aurait jamais osé. Soyons honnêtes: la question ici n’a jamais été de mesurer les coûts VS l’utilité d’un troisième pont. La question a toujours été: qu’est-ce qui est le plus rentable électoralement, bien gérer les fonds publics ou céder aux pressions des radios de Québec? Apparemment les caquistes de la grande région de Québec ont parlé plus fort que les gestionnaires responsables et donc le troisième lien n’en finit plus d’être ressuscité.
Depuis 2018, les beaux principes de la CAQ sont tombés les uns après les autres. Vous vous souvenez de la promesse de réformer le mode de scrutin? C’était à l’époque où la CAQ obtenait 15% des sièges avec 27% des votes (élections générales de 2012). « Ce que je souhaite, c’est qu’il y ait moins de cynisme au Québec, qu’il y ait plus de confiance entre les citoyens et la classe politique. Et je pense que ça passe par un mode de scrutin proportionnel mixte », nous disait François Legault. Depuis, la CAQ a obtenu 59% des sièges avec 37% des votes (2018), ensuite 72% des sièges avec 41% des votes (2022). Réformer le mode de scrutin a sans surprise cessé d’être une priorité pour notre premier ministre. « Il n’y a personne qui se bat dans les autobus au Québec pour changer le mode de scrutin. » Traduction: « Beaucoup de mes députés ont peur de perdre leur siège si on change le mode de scrutin. »
René Lévesque disait de l’Union nationale de Maurice Duplessis que ce n’était pas un parti d’idées, mais un parti d’intérêts. Je dois faire le même constat à l’égard de la CAQ. Quand ce gouvernement prend des décisions, c’est forcément pour servir des intérêts caquistes. Intérêts électoraux, intérêts financiers ou intérêts personnels, mais intérêts tout de même.
Les seules personnes qui ont des raisons d’être satisfaites de ce gouvernement sont les millionnaires, les gros propriétaires et les patrons. Des personnes qui se sont enrichies depuis 2018 et qui vont continuer à le faire puisque la CAQ leur donne toujours davantage de moyens en plus de diminuer leur fardeau fiscal (on ne se pose pas de question sur la capacité à payer des Québécois quand vient le temps de baisser les impôts). Et comme par hasard, ces gens qui bénéficient du régime sont très bien représentés au conseil des ministres.
La « Coalition Avenir Québec » rassemble des anciens libéraux, des anciens péquistes et des anciens adéquistes. On y retrouve des indépendantistes, des nationalistes et des fédéralistes. Certains caquistes appartiennent à la droite économique pure, d’autres sont plus socio-démocrates. Qu’est-ce qui unit tous ces gens à part un appétit pour le pouvoir? Poser la question revient à y répondre. Cette coalition travaille pour un seul avenir: le sien.