Vue lecture

Chatbots, une adoption sans impact ?

Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

Pour une science de la subjectivité

« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! » 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

Où est le neurone ?

« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent  ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.

Les données ne suffisent pas

Dans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces

Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience. 

Albert Moukheiber sur la scène d’USI 2025.

La subjectivité nous échappe

Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? » 

Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironise Moukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse. 

Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? » 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est »

La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est. 

*

Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens »

« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».

Hubert Guillaud

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.

“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.

Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire. 

La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025

”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »

La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages. 

Vers une nouvelle nuit des longs couteaux?

Une élue locale démocrate de l’État du Minnesota a été assassiné avec son époux à son domicile. Un autre a été victime d’une tentative de meurtre. Si on ne s’inquiétait pas déjà, ce serait le bon moment est le bon moment de commencer.

Pendant sa campagne en 2024, Donald Trump s’est engagé plusieurs fois à faire un mauvais sort à ses adversaires politiques. Il a promis des enquêtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissé entendre que la garde nationale pourrait devoir sévir contre les démocrates qui allaient voler l’élection. « They are so bad and frankly, they’re evil. They’re evil. » Cette semaine, il a déclaré que la police de l’immigration devrait arrêter Gavin Newsom, le gouverneur de la Californie, qui a osé critiquer son envoi de l’armée pour arrêter les manifestations à Los Angeles. Le sénateur Alex Padilla, démocrate, a été violemment expulsé d’une conférence de presse par des agents du FBI alors qu’il posait une question à la secrétaire de la Sécurité intérieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux à l’américaine?

La Nuit des longs couteaux, c’est la première série de crimes publics du gouvernement nazi. C’est l’illustration de la fin définitive de l’état de droit en Allemagne hitlérienne.

Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministères. Il se retrouve coincé entre les révolutionnaires nazis, qui veulent accélérer la mise en place de l’ordre nouveau, et les conservateurs, qui dénoncent la violence et le culte grandissant de la personnalité hitlérienne.

Les révolutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armées qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blâmait les communistes pour la violence et promettait de ramener la paix.

La SA était détestée par une grande partie de la population. Les conservateurs détestaient cette école de révolutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armée allemande. Plusieurs chefs de la SA étaient ouvertement homosexuels, ce qui scandalisait les puritains. De manière générale, la population n’appréciait pas la barbarie de ce groupe paramilitaire. Hitler devait éliminer ce groupe qui l’avait amené au pouvoir mais qui était devenu encombrant.

Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrêtés et exécutés. Les nazis ont inventé de toute pièce un complot visant à assassiner Hitler et à renverser le gouvernement. Hitler profite de l’occasion pour éliminer des adversaires politiques, des rivaux et des éléments gênants. On retrouve parmi les victimes:

  • Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autorité. Placé en détention préventive. Il survit parce qu’il était une personnalité internationale et que son assassinat aurait eu des répercussions majeures.
  • Edgar Jung, intellectuel conservateur et rédacteur de discours pour Papen. Placé en détention préventive le 25 juin, puis assassiné.
  • Herbert von Bose, attaché de presse de Papen, assassiné lors d’une descente de la Gestapo au bureau du vice-chancelier.
  • Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillé avec Hitler. Arrêté puis abattu dans sa cellule au siège de la Gestapo.
  • Kurt von Schleicher, prédécesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui préparait son retour en politique. Assassiné avec sa femme à son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
  • Le général Ferdinand von Bredow, qui préparait le retour en politique de Schleicher. Tiré à bout portant en répondant à la porte de sa maison.
  • Gustav Ritter von Kahr, ancien gouverneur de Bavière. Il avait quitté la politique depuis plusieurs années et s’était retiré dans l’anonymat, mais Hitler ne lui avait jamais pardonné son rôle dans l’échec du putsch de la Brasserie de Munich en 1923. Assassiné à Dachau.
  • Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. Détenu à Dachau depuis mars 1933, il est exécuté pendant la Nuit des longs couteaux.

Toutes les victimes sont accusées de s’être impliquées dans le complot de la SA. Accusations farfelues, mais qui ont passé le test de l’opinion publique. Le président allemand, Paul von Hindenburg, adresse un télégramme à Hitler pour le remercier d’avoir « sauvé le peuple allemand d’un grave danger » (il est douteux que le président ait écrit le télégramme lui-même). La population se préoccupe peu des assassinats politiques. Elle se réjouit que la barbarie de la SA ait été mâtée. Hitler avait provoqué la violence et devenait maintenant le héros du peuple parce qu’il y avait mis fin.

Hitler incarnait désormais la nation. Ses ennemis étaient les ennemis de l’Allemagne, donc des traîtres qui ne méritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le début de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indifférence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. Espérons que les Américains sachent mieux réagir.

Vers une nouvelle nuit des longs couteaux?

Une élue locale démocrate de l’État du Minnesota a été assassiné avec son époux à son domicile. Un autre a été victime d’une tentative de meurtre. Si on ne s’inquiétait pas déjà, ce serait le bon moment est le bon moment de commencer.

Pendant sa campagne en 2024, Donald Trump s’est engagé plusieurs fois à faire un mauvais sort à ses adversaires politiques. Il a promis des enquêtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissé entendre que la garde nationale pourrait devoir sévir contre les démocrates qui allaient voler l’élection. “They are so bad and frankly, they’re evil. They’re evil.” Cette semaine, il a déclaré que la police de l’immigration devrait arrêter Gavin Newsom, le gouverneur de la Californie, qui a osé critiquer son envoi de l’armée pour arrêter les manifestations à Los Angeles. Le sénateur Alex Padilla, démocrate, a été violemment expulsé d’une conférence de presse par des agents du FBI alors qu’il posait une question à la secrétaire de la Sécurité intérieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux à l’américaine?

La Nuit des longs couteaux, c’est la première série de crimes publics du gouvernement nazi. C’est l’illustration de la fin définitive de l’état de droit en Allemagne hitlérienne.

Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministères. Il se retrouve coincé entre les révolutionnaires nazis, qui veulent accélérer la mise en place de l’ordre nouveau, et les conservateurs, qui dénoncent la violence et le culte grandissant de la personnalité hitlérienne.

Les révolutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armées qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blâmait les communistes pour la violence et promettait de ramener la paix.

La SA était détestée par une grande partie de la population. Les conservateurs détestaient cette école de révolutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armée allemande. Plusieurs chefs de la SA étaient ouvertement homosexuels, ce qui scandalisait les puritains. De manière générale, la population n’appréciait pas la barbarie de ce groupe paramilitaire. Hitler devait éliminer ce groupe qui l’avait amené au pouvoir mais qui était devenu encombrant.

Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrêtés et exécutés. Les nazis ont inventé de toute pièce un complot visant à assassiner Hitler et à renverser le gouvernement. Hitler profite de l’occasion pour éliminer des adversaires politiques, des rivaux et des éléments gênants. On retrouve parmi les victimes:

  • Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autorité. Placé en détention préventive. Il survit parce qu’il était une personnalité internationale et que son assassinat aurait eu des répercussions majeures.
  • Edgar Jung, intellectuel conservateur et rédacteur de discours pour Papen. Placé en détention préventive le 25 juin, puis assassiné.
  • Herbert von Bose, attaché de presse de Papen, assassiné lors d’une descente de la Gestapo au bureau du vice-chancelier.
  • Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillé avec Hitler. Arrêté puis abattu dans sa cellule au siège de la Gestapo.
  • Kurt von Schleicher, prédécesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui préparait son retour en politique. Assassiné avec sa femme à son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
  • Le général Ferdinand von Bredow, qui préparait le retour en politique de Schleicher. Tiré à bout portant en répondant à la porte de sa maison.
  • Gustav Ritter von Kahr, ancien gouverneur de Bavière. Il avait quitté la politique depuis plusieurs années et s’était retiré dans l’anonymat, mais Hitler ne lui avait jamais pardonné son rôle dans l’échec du putsch de la Brasserie de Munich en 1923. Assassiné à Dachau.
  • Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. Détenu à Dachau depuis mars 1933, il est exécuté pendant la Nuit des longs couteaux.

Toutes les victimes sont accusées de s’être impliquées dans le complot de la SA. Accusations farfelues, mais qui ont passé le test de l’opinion publique. Le président allemand, Paul von Hindenburg, adresse un télégramme à Hitler pour le remercier d’avoir “sauvé le peuple allemand d’un grave danger” (il est douteux que le président ait écrit le télégramme lui-même). La population se préoccupe peu des assassinats politiques. Elle se réjouit que la barbarie de la SA ait été mâtée. Hitler avait provoqué la violence et devenait maintenant le héros du peuple parce qu’il y avait mis fin.

Hitler incarnait désormais la nation. Ses ennemis étaient les ennemis de l’Allemagne, donc des traîtres qui ne méritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le début de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indifférence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. Espérons que les Américains sachent mieux réagir.

La surveillance au travail s’internationalise

Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête  observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.

Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

Qui est l’utilisateur des LLM ?

Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation. 

Des croyances du modèle sur son interlocuteur

Viégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé. 

Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives

Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses. 

“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes). 

Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.

Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses. 

Hubert Guillaud

IA : intelligence austéritaire

Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde meilleur, faire des dons à des candidats ou à des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisées soient bien plus enclines à participer que celles qui ont des moyens limités. Dans un pays où près de 30 % de la population vit en situation de pauvreté ou au bord de la pauvreté et où 60 % ne peuvent s’offrir un minimum de qualité de vie, la démocratie est désavantagée dès le départ”. L’IA est largement utilisée désormais pour accentuer ce fossé. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements médicaux nécessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou réduire les soins à domicile pour les personnes handicapées. Les gouvernements ont de plus en plus recours à l’IA pour déterminer l’éligibilité aux programmes de prestations sociales ou accuser les bénéficiaires de fraude. Les propriétaires utilisent l’IA pour filtrer les locataires potentiels, souvent à l’aide de vérifications d’antécédents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employés, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activités. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prédire quels élèves pourraient commettre un délit à l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la détresse d’usagers, les empêchant de comprendre ce à quoi ils sont confrontés, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces décisions difficiles à contester. Et au final, cela contribue à renforcer l’exclusion des personnes à faibles revenus de la participation démocratique. Le risque, bien sûr, c’est que ces calculs et les formes d’exclusion qu’elles génèrent s’étendent à d’autres catégories sociales… D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des décisions sur toutes les catégories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour améliorer significativement l’accès à l’emploi, au logement, aux soins de santé, à l’éducation ou aux prestations sociales à une échelle à la hauteur de ses dommages. Cette dynamique actuelle suggère que l’objectif sous-jacent de la technologie est d’enraciner les inégalités et de renforcer les rapports de force existants”. Pour répondre à cette intelligence austéritaire, il est nécessaire de mobiliser les communautés touchées. L’adhésion ouverte de l’administration Trump et des géants de la technologie à l’IA est en train de créer une crise urgente et visible, susceptible de susciter la résistance généralisée nécessaire au changement. Et “cette prise de conscience technologique pourrait bien être la seule voie vers un renouveau démocratique”, estime De Liban.

De notre vectorisation et de ses conséquences

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustées à nos identités numériques, comme les mots clés publicitaires qui nous caractérisent, les traitements qui nous spécifient, les données qui nous positionnent, par exemple, le genre, l’âge, notre niveau de revenu… Du moment que nous sommes assignés à une valeur, nous y sommes réduits, dans une forme d’indifférenciation qui produisent des identités et des altérités “rigidifiées” qui structurent “l’espace social selon des lignes de démarcation dont l’arbitraire est dissimulé sous l’apparence d’une objectivité naturalisée”. C’est le cas par exemple quand les données vous caractérisent comme homme ou femme. Le problème est que ces assignations que nous ne maîtrisons pas sont indépassables. Les discours sur l’égalité de genres peuvent se multiplier, plus la différence entre homme et femme s’en trouve réaffirmé, comme un “horizon indépassable de l’intelligibilité sociale”. Melkom Boghossian dans une note très pertinente pour la fondation Jean Jaurès ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inégalités de genre, lorsqu’il ne questionne pas le processus vectoriel lui-même, risque ainsi de reproduire les présupposés mêmes qu’il prétend combattre”. C’est-à-dire que le processus en œuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitée par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opère à travers un chaînage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient réciproquement. Cette métavectorisation produit une topologie identitaire d’une complexité croissante qui excède les possibilités de représentation des modèles vectoriels classiques”. Nos assignations dépendent bien souvent de chaînes d’inférences, comme l’illustrait le site They see yours photos que nous avions évoqué. Les débats sur les identités trans ou non binaires, constituent en ce sens “des points de tension révélateurs où s’exprime le caractère intrinsèquement problématique de toute tentative de réduction vectorielle de la complexité existentielle”. Plus que de permettre de dépasser nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes désormais dans des situations indépassables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-à-dire sa capacité à traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indépassable de la pensée et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette même méthodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent généralement sur la valorisation différentielle des positions vectorielles plutôt que sur la pertinence même du découpage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsèque”, sans pouvoir le remettre en cause, même par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd à toute parole qui revendique une position non assignable ou qui conteste la légitimité même de l’assignation.” “Cette insensibilité n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-même. Elle résulte de la nécessité structurelle d’effacer les singularités irréductibles pour maintenir l’efficacité des catégorisations générales. Le paradigme vectoriel ne peut maintenir sa cohérence qu’en traitant les cas récalcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions négligeables ou des anomalies pathologiques. Ce phénomène produit une forme spécifique de violence épistémique qui consiste à délégitimer systématiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particulièrement à l’encontre des individus dont l’expérience subjective contredit ou excède les assignations vectorielles qui leur sont imposées — non pas simplement parce qu’ils se réassignent à une position vectorielle différente, mais parce qu’ils contestent la légitimité même du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “génère un réseau dense d’attributions croisées où chaque individu est simultanément assignateur et assigné, vectorisant et vectorisé. Cette configuration produit un système auto entretenu où les assignations se renforcent mutuellement à travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des préjugés sociaux, “qui substitue à l’arbitraire subjectif du préjugé individuel l’arbitraire objectivé du calcul algorithmique”. Les termes eux-mêmes deviennent performatifs : “ils ne se contentent pas de décrire une réalité préexistante, mais contribuent activement à la constituer par l’acte même de leur énonciation”. “Ces mots-vecteurs tirent leur légitimité sociale de leur ancrage dans des dispositifs statistiques qui leur confèrent une apparence d’objectivité scientifique”. “Les données statistiques servent à construire des catégories opérationnelles qui, une fois instituées, acquièrent une forme d’autonomie par rapport aux réalités qu’elles prétendent simplement représenter”

Pour Chatonsky, la vectorisation déstabilise profondément les identités politiques traditionnelles et rend problématique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhèrent à ces assignations et ceux qui contestent la légitimité même de ces assignations. “Les débats politiques conventionnels se limitent généralement à contester des assignations vectorielles spécifiques sans jamais remettre en question le principe même de la vectorisation comme modalité fondamentale d’organisation du social”. Nous sommes politiquement coincés dans la vectorisation… qui est à la fois “un horizon qui combine la réduction des entités à des vecteurs manipulables (vectorisation), la prédiction de leurs trajectoires futures sur la base de ces réductions (anticipation), et le contrôle permanent de ces trajectoires pour assurer leur conformité aux prédictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensée et d’organisation sociale qui échappent à la logique même de la vectorisation”, c’est-à-dire de nous extraire de l’identité comme force d’organisation du social, de donner de la place au doute plutôt qu’à la certitude ainsi qu’à trouver les modalités d’une forme de rétroaction. 

“Sans répit”

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvre se fait plus rare. Pour répondre à la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvrière estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmenté de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son écran qui lui indique de tenir la cadence.

L’IA est une technologie comme les autres

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense 

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées. 

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer. 

L’IA va rester sous contrôle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisé pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en terme de vitesse, d’où le fait que nous les ayons développé surtout dans les domaines où la vitesse est en jeu.  

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les Etats-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant. 

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs. 

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes. 

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, il proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large. 

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque. 

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

De l’instrumentalisation du numérique par l’action publique

L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au contraire. Là-bas aussi, elle rend plus difficile l’accès aux droits. En fait, plus qu’un changement d’outillage, elle est une “évolution de nature politique” qui redéfinit les rapports à l’État, à la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, créant des situations d’accès inégalitaires qui restreignennt la qualité et la continuité des services publics. “La dématérialisation de l’action publique signe en cela une double délégation. D’un côté, certaines opérations sont déléguées aux dispositifs techniques ; de l’autre, on constate un déplacement complémentaire de celles-ci vers les usagers, qui portent désormais la charge et la responsabilité du bon déroulement des démarches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se débrouiller et les autres. L’accès aux outils numériques et leur maîtrise devient un nouveau critère d’éligibilité aux droits, générateur de non-recours : le numérique devient une “charge supplémentaire” pour les plus vulnérables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultés, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “déplacer le périmètre de leurs missions premières”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab Accès sur le dispositif Conseiller numérique France Services (CnFS) montre qu’il se révèle fragile, profitant d’abord aux structures préalablement les plus engagées sur l’inclusion numérique. L’État s’est appuyé sur le plan de relance européen afin de transférer aux acteurs locaux la prise en charge d’un problème public dont les conseillers numériques doivent assumer la charge. Les moyens s’avèrent « structurellement insuffisants pour stabiliser une réponse proportionnée aux besoins ». À l’échelle nationale, les démarches en ligne se placent en tête des aides réalisées par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexés à la numérisation des administrations »; et de constater qu’il y a là une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numérique – qui ne parvient pas à répondre aux besoins générés par une autre action publique – les politiques de dématérialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant à certains acteurs, notamment aux acteurs de la dématérialisation de la relation administrative, qu’il n’a permis de répondre à la géographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes âgées, moins en réponse à des besoins qu’en raison du ciblage de l’offre elle-même : elle capte d’abord des publics « disponibles », pas nécessairement ceux qui en ont le plus besoin ». Enfin, la dégressivité des financements a, quant à elle, « produit un effet de sélection, qui a accentué les inégalités entre acteurs et territoires », notamment au détriment des acteurs de la médiation numérique.

La gouvernance par dispositifs numériques faciliterait l’avènement d’une administration d’orientation néolibérale priorisant les valeurs du marché, explique Granjon. L’administration « renforcerait son contrôle sur les populations, mais, paradoxalement, perdrait le contrôle sur ses principaux outils, notamment ceux d’aide à la décision quant à l’octroi de droits et de subsides ». La décision confiée aux procédures de calcul, laisse partout peu de marge de manœuvre aux agents, les transformant en simples exécutants. A Pôle Emploi, par exemple, il s’agit moins de trouver un emploi aux chômeurs que de les rendre « autonomes » avec les outils numériques. Pour Périne Brotcorne pourtant, malgré la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des développements numériques des services publics. Rien n’est fait par exemple pour l’usager en difficulté par exemple pour qu’il puisse déléguer la prise en charge de ses tâches administratives à un tiers, comme le soulignait récemment le Défenseur des droits. Les interfaces numériques, trop complexes, fabriquent “de l’incapacité” pour certains publics, notamment les plus éloignés et les plus vulnérables. Brotcorne montre d’ailleurs très bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invités à s’exprimer. L’étude souligne que près de la moitié des usagers n’arrivent pas à passer la première étape des services publics numériques que ce soit se connecter, prendre rendez-vous ou même télécharger un formulaire. Dans un autre article, signé Anne-Sylvie Pharabod et Céline Borelle, les deux chercheuses auscultent les pratiques administratives numérisées ordinaires qui montrent que la numérisation est une longue habituation, où les démarches apprises pour un service permettent d’en aborder d’autres. Les démarches administratives sont un univers de tâches dont il faut apprendre à se débrouiller, comme faire se peut, et qui en même temps sont toujours remises à zéro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identité, ou des documents à uploader. “La diversité des démarches, l’hétérogénéité des interfaces et l’évolution rapide des outils liée à des améliorations incrémentales (notamment en matière de sécurité) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numériques au sein du Service public de l’emploi a pour conséquence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numérique se voit investie de la fonction de régulation des comportements des usagers, des agents publics, mais également de bien d’autres publics, notamment tous ceux utilisant ses données et plateformes. A cette aune, France Travail est amené à devenir un « animateur d’écosystème emploi/formation/insertion » connectant divers échelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses différentes plateformes. Granjon invite à s’intéresser à ces encastrements nouveaux et pas seulement aux guichets, ou à la relation agent-public, pour mieux saisir comment les bases de données, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procédures que France Travail met en place. 

Le numéro de Réseaux livre également un intéressant article, très critique, du Dossier médical partagé, signé Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intéresse à l’histoire de la gouvernance problématique du projet, qui explique en grande partie ses écueils, et au fait que le DMP ne semble toujours pas avoir trouvé son utilité pour les professionnels de santé.

Un autre article signé Pauline Boyer explore le lancement du portail de données ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel Goëta et Élise Ho-Pun-Cheung s’intéressent quant à eux à la production de standards et aux difficultés de leur intégration dans le quotidien des agents, en observant le processus de standardisation des données des lieux de médiation numérique. L’article souligne la difficulté des conseillers numériques à infléchir la standardisation et montre que cette normalisation peine à prévoir les usages de la production de données.

Dans un article de recherche qui n’est pas publié par Réseaux, mais complémentaire à son dossier, le politologue néerlandais, Pascal D. Koenig explique que le développement d’un État algorithmique modifie la relation avec les citoyens, ce qui nécessite de regarder au-delà des seules propriétés des systèmes. L’intégration des algos et de l’IA développe une relation plus impersonnelle, renforçant le contrôle et l’asymétrie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systèmes d’IA, qui remplacent ou assistent l’exécution des tâches humaines, introduisent un nouveau type de représentation des agents dans les organisations gouvernementales. Ils réduisent ainsi structurellement la représentation des citoyens – en tant qu’êtres humains – au sein de l’État et augmentent les asymétries de pouvoir, en étendant unilatéralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte également les fondements de la reconnaissance sociale dans la relation citoyen-État, liés au comportement. En tant qu’agents artificiels, les systèmes d’IA manquent de compréhension et de compassion humaines, dont l’expression dans de nombreuses interactions est un élément important pour reconnaître et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiérarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui érode le respect que les institutions leur témoignent”. Le manque d’empathie des systèmes est l’une des principales raisons pour lesquelles les individus s’en méfient, rappelle Koenig. Or, “la numérisation et l’automatisation de l’administration réduisent les foyers d’empathie existants et contribuent à une prise en compte étroite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de compréhension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental où le contact humain se réduit : moins représentatif, il est donc moins disposé à prendre des décisions dans leur intérêt.

Pluriparentalité et polygamie

En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.

Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.

« Certes, ce n’est pas pour tout de suite », écrit Rousseau, « car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fédéral décide d’abolir cette interdiction pour que le Québec puisse être forcé d’en faire autant. » Effectivement, pratiquement tous les actes criminels peuvent être légalisés du jour au lendemain si le gouvernement le décide. Ce n’est pas un argument.

D’après Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la liberté de religion. Cette crainte est complètement sans fondement. Un jugement de la Cour suprême de la Colombie-Britannique l’a d’ailleurs confirmé en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-être une entrave à la liberté de religion, mais c’est une limitation acceptable et nécessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la référence.

Donc non, ce n’est pas demain qu’un tribunal va décriminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en décider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de légiférer en ce sens. Alors de quoi est-ce qu’on s’inquiète? Et surtout, quel est le rapport avec les familles pluriparentales?

Pourquoi la polygamie est-elle non seulement interdite au Canada, mais criminelle? Voici quelques raisons tirées du rapport « La polygynie et les obligations du Canada en vertu du droit international en matière de droits de la personne« . On comprend que le rapport adresse directement les familles appartenant à des communautés où la polygynie (un homme ayant plusieurs épouses) est une pratique culturelle ou religieuse:

  • La polygamie renforce le patriarcat
  • La compétition entre les épouses cause du tort aux enfants et aux épouses elles-mêmes
  • Risque pour la santé sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
  • La polygamie est souvent synonyme de dénuement économique pour les femmes et leurs enfants
  • L’inégalité domestique est incompatible avec l’égalité économique et sociale, donc avec les valeurs canadiennes

Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causé un tort réel et documenté aux femmes et aux enfants.

On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales à la reconnaissance conjugale. Ce sont deux enjeux complètement différents. Plusieurs provinces canadiennes reconnaissent déjà légalement la pluriparentalité (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon Valérie Costanzo, professeure en sciences juridiques à l’Université du Québec à Montréal, ces changements législatifs n’ont pas conduit à des campagnes juridiques pour décriminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au Québec.

Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacés par leur structure atypique? Au contraire, c’est précisément en tenant compte des intérêts des enfants que les tribunaux canadiens ont accordé un statut légal aux unions pluriparentales. Imaginons une situation d’urgence où le « troisième parent », celui qui n’est pas inscrit sur le certificat de naissance, se retrouve à l’hôpital seul avec son enfant. Il n’a pas l’autorité légale de prendre une décision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu être évitée avec un changement sur un papier.

Avant d’adopter des idées préconçues sur la pluriparentalité, je recommande vivement d’écouter l’entrevue de Sophie Paradis à l’émission de Patrick Lagacé le 7 mai 2025. Les inquiets réaliseront peut-être que les familles pluriparentales ne sont dignes ni de suspicion, ni de mépris. Si vous vous inquiétez pour le bien-être des enfants des unions à trois parents, dites-vous que les séparations complexes et les cellules familiales dysfonctionnelles ne sont pas liées au nombre d’adultes impliqués. Au contraire, un projet de pluriparentalité implique généralement un niveau de préparation qui échappe à un très grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvée en cour pour débattre de la garde des enfants. Pour citer Valérie Costanzo encore une fois: « Cela peut s’expliquer notamment par une méfiance par rapport à la surveillance des tribunaux, où ces familles pourraient vivre des préjugés, mais également par des outils de communication et de gestion familiale plus sains. » Bref, l’expérience ne donne aucune raison de croire que reconnaître légalement la pluriparenté serait préjudiciable pour les enfants.

Associer les familles pluriparentales, comme le fait Normand Lester, à des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale à des familles déjà marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles à leurs enfants. C’est d’autant plus absurde vu la présence importante de la communauté LGBTQ+ parmi les familles qui ne répondent pas au modèle traditionnel. Ce n’est généralement pas là qu’on retrouve les ultrareligieux.

« Face à cette atteinte à sa liberté de choisir et à son caractère distinct, le Québec doit résister », conclut Guillaume Rousseau. Résister à quoi? À des familles qui ne répondent pas au modèle traditionnel? Cette bataille juridique que Rousseau semble réclamer de ses voeux ne vise en gros qu’à empêcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se féliciter collectivement d’avoir empêché Ottawa de nous obliger à respecter les droits d’une minorité? C’est une habitude dangereuse qu’on semble vouloir développer au Québec. Il serait temps d’arrêter de voir les droits individuels comme une menace à éliminer.

Les familles pluriparentales n’ont pas demandé à être prises en otage par un nouvel affrontement juridictionnel entre Québec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colère contre le régime fédéral, qu’ils s’en tiennent à des guerres de chiffres.

Pluriparentalité et polygamie

En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.

Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.

“Certes, ce n’est pas pour tout de suite”, écrit Rousseau, “car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fédéral décide d’abolir cette interdiction pour que le Québec puisse être forcé d’en faire autant.” Effectivement, pratiquement tous les actes criminels peuvent être légalisés du jour au lendemain si le gouvernement le décide. Ce n’est pas un argument.

D’après Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la liberté de religion. Cette crainte est complètement sans fondement. Un jugement de la Cour suprême de la Colombie-Britannique l’a d’ailleurs confirmé en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-être une entrave à la liberté de religion, mais c’est une limitation acceptable et nécessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la référence.

Donc non, ce n’est pas demain qu’un tribunal va décriminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en décider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de légiférer en ce sens. Alors de quoi est-ce qu’on s’inquiète? Et surtout, quel est le rapport avec les familles pluriparentales?

Pourquoi la polygamie est-elle non seulement interdite au Canada, mais criminelle? Voici quelques raisons tirées du rapport “La polygynie et les obligations du Canada en vertu du droit international en matière de droits de la personne“. On comprend que le rapport adresse directement les familles appartenant à des communautés où la polygynie (un homme ayant plusieurs épouses) est une pratique culturelle ou religieuse:

  • La polygamie renforce le patriarcat
  • La compétition entre les épouses cause du tort aux enfants et aux épouses elles-mêmes
  • Risque pour la santé sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
  • La polygamie est souvent synonyme de dénuement économique pour les femmes et leurs enfants
  • L’inégalité domestique est incompatible avec l’égalité économique et sociale, donc avec les valeurs canadiennes

Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causé un tort réel et documenté aux femmes et aux enfants.

On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales à la reconnaissance conjugale. Ce sont deux enjeux complètement différents. Plusieurs provinces canadiennes reconnaissent déjà légalement la pluriparentalité (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon Valérie Costanzo, professeure en sciences juridiques à l’Université du Québec à Montréal, ces changements législatifs n’ont pas conduit à des campagnes juridiques pour décriminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au Québec.

Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacés par leur structure atypique? Au contraire, c’est précisément en tenant compte des intérêts des enfants que les tribunaux canadiens ont accordé un statut légal aux unions pluriparentales. Imaginons une situation d’urgence où le “troisième parent”, celui qui n’est pas inscrit sur le certificat de naissance, se retrouve à l’hôpital seul avec son enfant. Il n’a pas l’autorité légale de prendre une décision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu être évitée avec un changement sur un papier.

Avant d’adopter des idées préconçues sur la pluriparentalité, je recommande vivement d’écouter l’entrevue de Sophie Paradis à l’émission de Patrick Lagacé le 7 mai 2025. Les inquiets réaliseront peut-être que les familles pluriparentales ne sont dignes ni de suspicion, ni de mépris. Si vous vous inquiétez pour le bien-être des enfants des unions à trois parents, dites-vous que les séparations complexes et les cellules familiales dysfonctionnelles ne sont pas liées au nombre d’adultes impliqués. Au contraire, un projet de pluriparentalité implique généralement un niveau de préparation qui échappe à un très grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvée en cour pour débattre de la garde des enfants. Pour citer Valérie Costanzo encore une fois: “Cela peut s’expliquer notamment par une méfiance par rapport à la surveillance des tribunaux, où ces familles pourraient vivre des préjugés, mais également par des outils de communication et de gestion familiale plus sains.” Bref, l’expérience ne donne aucune raison de croire que reconnaître légalement la pluriparenté serait préjudiciable pour les enfants.

Associer les familles pluriparentales, comme le fait Normand Lester, à des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale à des familles déjà marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles à leurs enfants. C’est d’autant plus absurde vu la présence importante de la communauté LGBTQ+ parmi les familles qui ne répondent pas au modèle traditionnel. Ce n’est généralement pas là qu’on retrouve les ultrareligieux.

“Face à cette atteinte à sa liberté de choisir et à son caractère distinct, le Québec doit résister”, conclut Guillaume Rousseau. Résister à quoi? À des familles qui ne répondent pas au modèle traditionnel? Cette bataille juridique que Rousseau semble réclamer de ses voeux ne vise en gros qu’à empêcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se féliciter collectivement d’avoir empêché Ottawa de nous obliger à respecter les droits d’une minorité? C’est une habitude dangereuse qu’on semble vouloir développer au Québec. Il serait temps d’arrêter de voir les droits individuels comme une menace à éliminer.

Les familles pluriparentales n’ont pas demandé à être prises en otage par un nouvel affrontement juridictionnel entre Québec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colère contre le régime fédéral, qu’ils s’en tiennent à des guerres de chiffres.

De la maîtrise de l’automatisation d’Etat

Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues. 

Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer. 

Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mêmes moyens pour configurer la plateforme et que souvent, elles utilisent des procédés de sélection rudimentaires. Elle montre que, là aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposés aux valeurs des formations qui les mettent en œuvre. 

Jérémie Poiroux évoque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrôle technique des activités maritimes qui permet de montrer comment le calcul et l’évolution de la réglementation sont mobilisées pour réduire les effectifs des services de l’Etat tout en améliorant le ciblage des contrôles. Pour Poiroux, le système mis en place pose des questions quant à son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens à la prévention et à l’accompagnement, afin de réduire son champ d’action au contrôle et à la punition”, ainsi qu’à éloigner les agents au profit de règles venues d’en haut. 

Soizic Pénicaud revient quant à elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de différents collectifs n’est pas allé de soi et que le recueil de témoignages a permis de soulever le problème et d’incarner les difficultés auxquelles les personnes étaient confrontées. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une réalité. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le déploiement des algorithmes à la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui préexiste. “L’algorithme ne se substitue pas aux pratiques précédentes de contrôle. Il s’y intègre (…). Il ne l’automatise pas non plus : il le « flèche »”. Elle rappelle, à la suite du travail de Vincent Dubois dans Contrôler les assistés, que le développement des systèmes de calculs permettent à la fois de produire un contrôle réorganisé, national, au détriment de l’autonomie des agents et des caisses locales, ainsi que de légitimer la culture du contrôle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir”.

Mardi 3 juin à 19h30 à la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisée autour des chercheurs et chercheuses qui ont participé à ce numéro. Nous y serons.

L’IA peut-elle soutenir la démocratie ?

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernière décennie, alors même que ces techniques sont devenues très populaires dans le monde entier. Lors d’une récente conférence sur l’IA et les libertés démocratiques organisée par le Knight First Amendment Institute de l’université de Columbia, elle se demandait si l’IA pouvait soutenir les revendications démocratiques, rapporte Tech Policy Press (vidéo). L’occasion de rendre compte à notre tour d’un point de vue décoiffant qui interroge en profondeur notre rapport à la démocratie.  

La récession démocratique est engagée

La démocratie est en déclin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle même de “récession démocratique” et estime que la sauvegarde des droits démocratiques est partout en crise. 2025 pourrait être la première année, depuis longtemps, où la majorité de la population mondiale vit sous des formes de gouvernement autoritaires plutôt que démocratiques. Ce recul est dû à la fois au développement de l’autoritarisme dans les régimes autocratiques et à l’avancée de l’autocratie dans les démocraties établies, explique Chenoweth. Les avancées démocratiques des 100 dernières années ont été nombreuses et assez générales. Elles ont d’abord été le fait de mouvements non violents, populaires, où des citoyens ordinaires ont utilisé les manifestations et les grèves, bien plus que les insurrections armées, pour déployer la démocratie là où elle était empêchée. Mais ces succès sont en déclin. Les taux de réussite des mouvements populaires pacifistes comme armés, se sont effondrés, notamment au cours des dix dernières années. “Il y a quelque chose de global et de systémique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants à ces mouvements sont devenus plus efficaces pour les vaincre en général”.

Les épisodes de contestation réformistes (qui ne relèvent pas de revendications maximalistes, comme les mouvements démocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes… n’ont cessé de subir des revers et des défaites au cours des deux dernières décennies, et ont même diminué leur capacité à obtenir des concessions significatives, à l’image de la contestation de la réforme des retraites en France ou des mouvements écologiques, plus écrasés que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisées que jamais. 

Selon la littérature, ce qui permet aux mouvements populaires de réussir repose sur une participation large et diversifiée, c’est-à-dire transversale à l’ensemble de la société, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans… Et notamment quand ils suscitent le soutien de personnes très différentes les unes des autres. “Le principal défi pour les mouvements de masse qui réclament un changement pour étendre la démocratie consiste bien souvent à disloquer les piliers des soutiens autocratiques comme l’armée ou les fonctionnaires. L’enjeu, pour les mouvements démocratiques, consiste à retourner la répression à l’encontre de la population en la dénonçant pour modifier l’opinion générale ». Enfin, les mouvements qui réussissent enchaînent bien souvent les tactiques plutôt que de reposer sur une technique d’opposition unique, afin de démultiplier les formes de pression. 

La répression s’est mise à niveau

Mais l’autocratie a appris de ses erreurs. Elle a adapté en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements démocratiques l’emportent. “La première consiste à s’assurer que personne ne fasse défection. La deuxième consiste à dominer l’écosystème de l’information et à remporter la guerre de l’information. La troisième consiste à recourir à la répression sélective de manière à rendre très difficile pour les mouvements d’exploiter les moments d’intense brutalité. Et la quatrième consiste à perfectionner l’art de diviser pour mieux régner”. Pour que l’armée ou la police ne fasse pas défection, les autorités ont amélioré la formation des forces de sécurité. La corruption et le financement permet de s’attacher des soutiens plus indéfectibles. Les forces de sécurité sont également plus fragmentées, afin qu’une défection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit également de faire varier la répression pour qu’une unité de sécurité ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les répressions des personnes déloyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la défection des forces de sécurité, et cette tendance s’est accentuée au fil du temps”.

La seconde adaptation clé a consisté à gagner la guerre de l’information, notamment en dominant les écosystèmes de l’information. “Inonder la zone de rumeurs, de désinformation et de propagande, dont certaines peuvent être créées et testées par différents outils d’IA, en fait partie. Il en va de même pour la coupure d’Internet aux moments opportuns, puis sa réouverture au moment opportun”.

Le troisième volet de la panoplie consiste à appliquer une répression sélective, consistant à viser des individus plutôt que les mouvements pour des crimes graves qui peuvent sembler décorrélé des manifestations, en les accusant de terrorisme ou de préparation de coup d’Etat. ”La guerre juridique est un autre outil administratif clé”.

Le quatrième volet consiste à diviser pour mieux régner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant à des actions violentes pour générer des reflux d’opinion… 

Comment utiliser l’IA pour gagner ? 

Dans la montée de l’adaptation des techniques pour défaire leurs opposants, la technologie joue un rôle, estime Erica Chenoweth. Jusqu’à présent, les mouvements civiques ont plutôt eu tendance à s’approprier et à utiliser, souvent de manière très innovantes, les technologies à leur avantage, par exemple à l’heure de l’arrivée d’internet, qui a très tôt été utilisé pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques à utiliser l’IA, contrairement aux régimes autocratiques. Pourtant, l’un des principaux problèmes des mouvements civiques consiste à “cerner leur environnement opérationnel”, c’est-à-dire de savoir qui est connecté à qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? Où sont les vulnérabilités du mouvement ? Réfléchir de manière créative à ces questions et enjeux, aux tactiques à déployer pourrait pourtant être un atout majeur pour que les mouvements démocratiques réussissent. 

Les mouvements démocratiques passent bien plus de temps à sensibiliser et communiquer qu’à faire de la stratégie, rappelle la chercheuse. Et c’est là deux enjeux où les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des élections municipales russe, un algorithme a permis de contrôler les images de vidéosurveillance des bureaux de vote pour détecter des irrégularités permettant de dégager les séquences où des bulletins préremplis avaient été introduits dans les urnes. Ce qui aurait demandé un contrôle militant épuisant a pu être accompli très simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer très facilement à des actions (des applications puissantes, mais parfois peu transparentes sur leurs méthodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent être mieux documentées et partagées pour qu’elles puissent servir à d’autres. Certains groupes proposent d’ailleurs déjà des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publié un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements démocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent réellement le succès des mouvements démocratiques. Encore faudrait-il que les mouvements démocratiques puissent accéder à des outils d’IA qui ne partagent pas leurs données avec des plateformes et avec les autorités. L’autre enjeu consiste à construire des corpus adaptés pour aider les mouvements à résister. Les corpus de l’IA s’appuient sur des données des 125 dernières années, alors que l’on sait déjà que ce qui fonctionnait il y a 60 ans ne fonctionne plus nécessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour démêler des processus délibératifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait été notre projet démocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques à poser la question de l’utilisation de l’IA a leur profit, plutôt que de la rejetter d’emblée comme l’instrument de l’autoritarisme, elle invite à faire un pas de côté pour trouver des modalités pour refaire gagner les luttes sociales.

On lui suggérera tout de même de regarder du côté des projets que Audrey Tang mène à Taïwan avec le Collective intelligence for collective progress, comme ses « assemblées d’alignement » qui mobilise l’IA pour garantir une participation équitable et une écoute active de toutes les opinions. Comme Tang le défend dans son manifeste, Plurality, l’IA pourrait être une technologie d’extension du débat démocratique pour mieux organiser la complexité. Tang parle d’ailleurs de broad listening (« écoute élargie ») pour l’opposer au broadcasting, la diffusion de un vers tous. Une méthode mobilisée par un jeune ingénieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bénéficié d’une audience surprenante, sans néanmoins l’emporter. Son adversaire a depuis mobilisé la méthode pour lancer une consultation, Tokyo 2050.

Des pistes à observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisée. Ajouter de l’IA ne signifie pas que les décisions demain seront plus justes, plus efficaces ou plus démocratiques. Au contraire. Le risque est fort que cet ajout bénéfice d’abord aux plus nantis au détriment de la diversité. L’enjeu demeure non pas d’ajouter des outils pour eux-mêmes, mais de savoir si ces outils produisent du changement et au profit de qui !

Réutiliser, réparer, refuser, réclamer 

Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la réduction de la consommation et dans le recyclage, mais dans l’intégration à grande échelle de l’ancien dans le nouveau. Hybrider les technologies défuntes et les intégrer dans nos quotidiens est tout l’enjeu du monde à venir, dans une forme de permaculture du calcul. Arrêtons de déplorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La réutilisation et la réparation nous conduisent désormais à refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent désormais “refuser d’être neutralisés, écrasés et réduits au silence”, refuser de se faire réapproprier. Nous devons réclamer la tech – c’était déjà la conclusion de son précédent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspiré par le mouvement britannique des années 90, qui réclamait déjà la rue, pour reconquérir cet espace public contre la surveillance policière et la voiture.

“Reclaim the Tech » va plus loin en affirmant que « Nous sommes la technologie », explique Lovink. Cela signifie que la technologie n’est plus un phénomène passager, imposé : la technologie est en nous, nous la portons à fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech », décrites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numérique actuelle est stagnante, elle n’est pas une échappatoire. Elle manque de direction et de destin. La volonté d’organisation est absente maintenant que même les réseaux à faible engagement ont été supplantés par les plateformes. L’esprit du temps est régressif, à l’opposé de l’accélérationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de données. Ce que nous vivons est une succession interminable de courtes poussées d’extase orgasmique, suivies de longues périodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dévastateur sur la recherche et la mise en œuvre d’alternatives durables, estime Lovink. L’optimisation prédictive a effacé l’énergie intérieure de révolte que nous portons en nous. Il ne reste que des explosions de colère, entraînant des mouvements sociaux erratiques – une dynamique alimentée par une utilisation des réseaux sociaux à courte durée d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialité visible dans la technologie et le design. Nous la voyons apparaître non seulement dans le cas des matières premières, mais aussi dans le contexte du « colonialisme des données ». 

Mais, s’il est essentiel d’exiger la décolonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « créolisation technologique ».

La décolonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cœur même de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, créons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements géopolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion à la destruction militaire bien réelle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratégies de sortie ne manquent pas. L’exode ne sera pas télévisé. Le monde ne peut attendre la mise en œuvre des principes de prévention des données. Arrêtons définitivement les flux de données !, clame Lovink. 

La « confidentialité » des données s’étant révélée être un gouffre juridique impossible à garantir, la prochaine option sera des mécanismes intégrés, des filtres empêchant les données de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de données, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant après la révolution, les « magasins de proximité » qui rendent les technologies aux gens ne se contenteront plus de réparer, mais nous permettront de vivre avec nos déchets, de les rendre visibles, à nouveau fonctionnels, tout comme on rend à nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalités. 

IA générative vs IA productive

Encore une réflexion stimulante de Gregory Chatonsky, qui observe deux modes de relation à l’IA générative. L’un actif-productif, l’autre passif-reproductif-mémétique. « L’infrastructure générative n’a pas d’essence unifiée ni de destination prédéterminée — elle peut être orientée vers la production comme vers la consommation. Cette indétermination constitutive des technologies génératives révèle un aspect fondamental : nous nous trouvons face à un système technique dont les usages et les implications restent largement à définir ».

« L’enjeu n’est donc pas de privilégier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports à la génération déterminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualité fondamentale, nous pouvons commencer à élaborer une relation plus consciente et réfléchie aux technologies génératives, capable de dépasser aussi bien l’instrumentalisme naïf que le déterminisme technologique.

La génération n’est ni intrinsèquement productive ni intrinsèquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous établissons avec elle. C’est dans cette indétermination constitutive que résident sa réponse à la finitude. »

La modération n’est pas équitable

Dans une riche et détaillée revue d’études sur la modération des plateformes du web social, Lisa Macpherson de l’association Public Knowledge démontre que cette modération n’est ni équitable ni neutre. En fait, les études ne démontrent pas qu’il y aurait une surmodération des propos conservateurs, au contraire, les contenus de droite ayant tendance à générer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modérés, c’est parce qu’ils enfreignent plus volontiers les règles des plateformes en colportant de la désinformation ou des propos haineux, et non du fait des biais politiques de la modération. La modération injustifiée, elle, touche surtout les communautés marginalisées (personnes racisées, minorités religieuses, femmes, LGBTQ+). Les biais de modération sont toujours déséquilibrés. Et les contenus de droite sont plus amplifiés que ceux de gauche. 

En France, rapporte Next, constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numériques Xavier Brandao porte plainte contre Meta auprès de l’Arcom au titre du DSA. En envoyant plus de 118 signalements à Meta en quatre mois pour des discours racistes avérés, l’activiste s’est rendu compte que seulement 8 commentaires avaient été supprimés.

Algorithmes et société. Pint Of Science 2025.

J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».

 

Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.

Voici donc ce que j’ai raconté de mon côté.

Je vais vous faire écouter un algorithme.

Je vais vous faire écouter un algorithme.

 

Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).

Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).

Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :

  • D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.

Les algorithmes sont cela.

  • Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.

Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.

Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.

  • Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. » 

Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.

Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.

 

Je vais maintenant vous parler du rythme des algorithmes.

Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.

Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.

Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.

Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.

L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.

L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.

L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.

Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.

Dans un article j’écrivais :

« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.« 

 

Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.

On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.

Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.

Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)

​​Droit des étrangers, modèle de la maltraitance administrative

“Le respect des droits fondamentaux des étrangers est un marqueur essentiel du degré de protection des droits et des libertés dans un pays”, disait très clairement le Défenseur des droits en 2016. Le rapport pointait déjà très bien nombre de dérives : atteintes aux droits constantes, exclusions du droit commun, surveillances spécifiques et invasives… Près de 10 ans plus tard, contexte politique aidant, on ne sera pas étonné que ces atteintes se soient dégradées. Les réformes législatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidé et ne cessent de dégrader non seulement le droit, mais également les services publics dédiés. Ce qu’il se passe aux Etats-Unis n’est pas une exception

Voilà longtemps que le droit des étrangers en France est plus que malmené. Voilà longtemps que les associations et autorités indépendantes qui surveillent ses évolutions le dénoncent. Des travaux des associations comme la Cimade, à ceux des autorités indépendantes, comme le Défenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifère de ce qui ne devrait être pourtant qu’un droit parmi d’autres. 

Couverture du livre France terre d’écueils.

Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, très concrètement, comment agit la maltraitance administrative à l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spécialisée en droit des étrangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les défaillances de l’administration à destination des étrangers. Une administration mise au pas, au service d’un propos politique de plus en plus déconnecté des réalités, qui concentre des pratiques mortifères et profondément dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des étrangers pourraient devenir un modèle de maltraitance à appliquer à tous les autres services publics. 

Le dysfonctionnement des services publics à destination des étrangers est caractérisé par plusieurs maux, détaille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits à minima et qui se réduisent, ce sont partout des procédures à rallonge, où aucune instruction n’est disponible dans un délai “normal”. Ce sont enfin une suspicion et une persécution systématique. L’ensemble produit un empêchement organisé qui a pour but de diminuer l’accès au droit, d’entraver la régularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontés à des pratiques problématiques, mais des pratiques systémiques qui finissent par faire modèle. 

Indisponibilité et lenteur systémique

France, Terre d’écueils décrit d’abord des chaînes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur à l’absurdité qui nous saisit face à la déshumanisation des étrangers dans les parcours d’accès aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilité d’un service : service téléphonique qui ne répond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dépôts sans récépissés, dossier auquel il n’est pas possible d’accéder ou de mettre à jour… Autant de pratiques qui sont là pour faire patienter c’est-à-dire pour décourager… et qui nécessitent de connaître les mesures de contournements qui ne sont pas dans la procédure officielle donc, comme de documenter l’indisponibilité d’un site par la prise de capture d’écran répétée, permettant de faire un recours administratif pour obliger le service à proposer un rendez-vous à un requérant. 

Toutes les procédures que l’avocate décrit sont interminables. Toutes oeuvrent à décourager comme si ce découragement était le seul moyen pour désengorger des services partout incapables de répondre à l’afflux des demandes. Si tout est kafkaïen dans ce qui est décrit ici, on est surtout marqué par la terrible lenteur des procédures, rallongées de recours eux-mêmes interminables. Par exemple, l’Ofpra (Office Français de Protection des Réfugiés et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procédure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 à 24 mois à réétudier un dossier. Quand un ressortissant étranger obtient le statut de réfugié, il devrait obtenir un titre de séjour dans les 3 mois. En réalité, les cartes de séjour et les actes d’état civils mettent de longs mois à être produits (douze mois en moyenne) ce qui prive les étrangers de nombreux droits sociaux, comme de pouvoir s’inscrire à France Travail ou de bénéficier des allocations familiales, du droit du travail. Même constat à l’AES (admission exceptionnelle au séjour). Depuis 2023, la demande d’AES se fait en ligne et consiste à enregistrer quelques documents pour amorcer la procédure. Mais les préfectures ne font de retour que 6 mois après le dépôt de la demande. Un rendez-vous n’est proposé bien souvent qu’encore une année plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour déposer un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter à minima 3 à 4 années pour une demande de régularisation ! Sans compter qu’en cas de refus (ce qui est plutôt majoritairement le cas), il faut ajouter la durée de la procédure de recours au tribunal administratif. Même chose en cas de refus de visa injustifié, qui nécessite plus de 2 ans de procédure pour obtenir concrètement le papier permettant de revenir en France. 

C’est un peu comme s’il fallait patienter des années pour obtenir un rendez-vous chez un dermatologue pour vérifier un grain de beauté inquiétant ou plusieurs mois pour obtenir des papiers d’identité. Dans le domaine du droit des étrangers, la dégradation des services publics semble seulement plus prononcée qu’ailleurs.

Droits minimaux et décisions discrétionnaires

Le dysfonctionnement que décrit l’avocate n’est pas qu’administratif, il est également juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procédure d’appel, qui est pourtant une garantie simple et forte d’une justice équitable. Les demandeurs ayant été refusés peuvent demander un réexamen qui a souvent lieu dans le cadre de procédures « accélérées ». Mais cette accélération là ne consiste pas à aller plus vite, elle signifie seulement que la décision sera prise par un juge unique, et donc, potentiellement, moins équitable.

L’admission exceptionnelle au séjour (AES), autre possibilité pour obtenir une naturalisation, nécessite elle de faire une demande à la préfecture de son domicile. Même si cette admission est bornée de conditions concrètes très lourdes (promesse d’embauche, présence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans…), le préfet exerce ici une compétence discrétionnaire, puisqu’il évalue seul les demandes. « En matière de naturalisation, l’administration a un très large pouvoir d’appréciation », souligne l’avocate. Même constat quant aux demandes de naturalisation, tout aussi compliquées que les autres demandes. L’entretien de naturalisation par exemple, qu’avait étudié le sociologue Abdellali Hajjat dans son livre, Les frontières de l’identité nationale, a tout d’une sinécure. Il consiste en un entretien discrétionnaire, sans procès verbal ni enregistrement, sans programme pour se préparer à y répondre. Ce n’est pas qu’un test de culture général d’ailleurs auquel nombre de Français auraient du mal à répondre, puisque de nombreuses questions ne relèvent pas d’un QCM, mais sont appréciatives. Il n’y a même pas de score minimal à obtenir, comme ce peut-être le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez répondre juste aux questions… et être refusé.

Suspicion, persécution et empêchement systématiques

Le fait de chercher à empêcher les demandeurs d’asile d’accéder à un travail (en janvier 2024, une loi anti-immigration, une de plus, est même venue interdire à ceux qui ne disposent pas de titre de séjour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coûts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux étrangers présents sur le territoire. Et ce alors que 90% des personnes en situation irrégulière travaillent quand même, comme le souligne France Stratégies dans son rapport sur l’impact de l’immigration sur le marché du travail. En fait, en les empêchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de séjour d’un tiers, à qui seront adressés les bulletins de salaires. Tiers qui prélèvent une commission de 30 à 50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.

Parce que le lien de paternité ou de maternité créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systématique quand elle était avant un signe d’intégration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. Enquêtes intrusives, abusives, surveillance policière, maires qui s’opposent aux unions (sans en avoir le droit)… Alors qu’on ne comptait que 345 mariages annulés en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pénales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les défaillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire à tous que ce sont les individus qui sont coupables des lacunes de l’administration française. 

Une politique du non accueil perdu dans ses amalgames

France, terre d’écueils, nous montre le parcours du combattant que représente partout la demande à acquérir la nationalité. L’ouvrage nous montre ce que la France impose à ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte. 

Ces dérives juridiques et administratives sont nées de l’amalgame sans cesse renouvelé à nous faire confondre immigration et délinquance. C’est ce que symbolise aujourd’hui le délires sur les OQTF. L’OQTF est une décision administrative prise par les préfectures à l’encontre d’un étranger en situation irrégulière, lui imposant un départ avec ou sans délai. Or, contrairement à ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majorité des personnes frappées par des OQTF ne sont coupables d’aucun délit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffré. Les préfectures les démultiplent alors qu’elles sont très souvent annulées par les tribunaux. La France en émet plus de 100 000 par an et en exécute moins de 7000. Elle émet 30% des OQTF de toute l’Europe. Les services préfectoraux dédiés sont surchargés et commettent des “erreurs de droit” comme le dit très pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrégulière. Le contentieux des étrangers représente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants étrangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulées, nombre d’autres ne peuvent pas être exécutées. Peut-on sortir de cette spirale inutile, se demande l’avocate ?

Nous misons désormais bien plus sur une fausse sécurité que sur la sûreté. La sûreté, rappelle l’avocate, c’est la garantie que les libertés individuelles soient respectées, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sûreté nous garantit une administration équitable et juste. C’est elle que nous perdons en nous enfermant dans un délire sécuritaire qui a perdu contact avec la réalité. Les témoignages que livre Marianne Leloup-Dassonville montrent des personnes plutôt privilégiées, traumatisées par leurs rapports à l’administration française. Les étrangers sont partout assimilés à des délinquants comme les bénéficiaires de droits sociaux sont assimilés à des fraudeurs.

A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour éviter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons réaffirmer que l’administration ne peut se substituer nulle part à la justice, car c’est assurément par ce glissement là qu’on entraîne tous les autres. 

Hubert Guillaud

PS : Au Royaume-Uni, le ministère de l’intérieur souhaite introduire deux outils d’IA dans les processus de décisions de demande d’asile d’après une étude pilote : une pour résumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer là-bas, la boîte noire des décisions, au prétexte d’améliorer « la vitesse » de décision plutôt que leur qualité, comme le souligne une étude critique. Comme quoi, on peut toujours imaginer pire pour encore dégrader ce qui l’est déjà considérablement.

MAJ du 23/05/2025 : L’extension des prérogatives de l’administration au détriment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertés individuelles, à un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.

Regouverner la monétisation ?

Pour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut réguler les programmes de monétisation de contenus que proposent désormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont été créés en 2025 seulement. Ces modèles de redistribution des revenus sont souvent très simples : plus le nombre de vues et d’engagements générés sont élevés, plus la plateforme verse d’argent. Or, la communauté de la régulation s’est beaucoup intéressée à la modération des contenus, aux recommandations publicitaires, aux problèmes que posent l’amplification algorithmique, mais elle s’est peu penchée sur la « gouvernance de leur monétisation », c’est-à-dire à la façon dont les plateformes redistribuent l’argent et à la manière dont leurs décisions de monétisation « façonnent in fine l’environnement informationnel ».

Dans un rapport consacré au sujet, What to Fix estime que « les plateformes de médias sociaux ont redistribué plus de 20 milliards de dollars de leurs revenus à plus de 6 millions de comptes l’année dernière ». « Et pourtant, nous ignorons qui les plateformes ont payé, combien elles ont payé, ni pour quel contenu ! », rappelle Victoire Rio. L’enjeu n’est pas que cette redistribution n’ait pas lieu, bien au contraire, précise-t-elle : « Ce qui m’inquiète, c’est de laisser les décisions de redistribution des revenus aux plateformes de médias sociaux, sans transparence ni contrôle ». Et notamment, le fait que ces revenus bénéficient de plus en plus à des acteurs de la désinformation ou encore le fait que ces financements puissent être coupés unilatéralement pour nombre d’acteurs légitimes, avec des recours limités et sans compensation pour les pertes de revenus associées. Or, ni le DSA européen, ni le Online Safety Act britannique, n’abordent clairement les systèmes de monétisation des plateformes comme un vecteur de risque. Là encore, la transparence des modalités de reversement est en cause, accuse Victoire Rio, qui souhaite que nous considérions les modalités de monétisation comme un enjeu spécifique, c’est-à-dire un enjeu de régulation.

Cette brève est parue originellement dans la lettre du Conseil national du numérique du 7 mai 2025.

Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).

Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »

 

Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.

Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.

Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.

La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.

La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».

Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)

Je leur dirai les mots noirs. 

Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».

Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation)  leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.

 

Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :

  • activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.

Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.

« Erase Baby, Erase ! »

Il faut effacer. « Erase Baby, Erase. » Comme Anne-Cécile Mailfert le rappelait dans sa chronique sur France Inter :

Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)

Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.

 

Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …

Ingénieries de l’effacement.

Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »

Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »

Les LGBTQIA+, les Noirs, les peuples indigènes, les Juifs et les Latinos. Le tout dans un monde où un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde où plus personne ne semble capable de simplement le qualifier pour ce qu’il est.

Un grand remplacement documentaire et linguistique.

Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.

Une boucle paradoxale dans laquelle les mêmes technologies d’IA utilisées pour générer des contenus jusqu’au-delà de la saturation sont également mobilisées et utilisées pour rechercher, détecter et supprimer les mots interdits. Et à partir de là de nouveau générer des contenus à saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.

La certitude d’une ingérence.

Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.

Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :

Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s). 

 

Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).

Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de déposer plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectés, c’est à dire d’Apple à Amazon en passant par Facebook, Microsoft et Google, et par-delà ce qu’Olivier Tesquet qualifie de « Watergate domestique », qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrées et qui relèvent de l’intime et du privé ?

Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.

Calculer la langue.

Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.

Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.

En conclusion il semble important de redire, de ré-expliquer et de réaffirmer qu’à chaque fois que nous utilisons des artefacts génératifs, et qu’à chaque fois que nous sommes confrontés à leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face à un système de valeurs. Un article récent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :

Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]

 

En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.

En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »

En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.

Pascal Chabot : Coincés dans les digitoses

Pascal Chabot est philosophe et enseigne à l’Institut des hautes études des communications sociales à Bruxelles. Son plus récent ouvrage, Un sens à la vie : enquête philosophique sur l’essentiel (PUF, 2024) fait suite à une riche production de livres, où la question du numérique est toujours présente, lancinante, quand elle n’est pas au cœur de sa réflexion. L’occasion de revenir avec lui sur comment les enjeux numériques d’aujourd’hui questionnent la philosophie. Entretien.

Dans les algorithmes : Dans votre dernier livre, Un sens à la vie, vous vous interrogez sur le meaning washing, c’est à la dire à la fois sur la perte de sens de nos sociétés contemporaines et leur récupération, par exemple par le consumérisme qui nous invite à consommer pour donner du sens à l’existence. Pour vous, notre monde contemporain est saisi d’une “dissonance majeure”, où les sources de sens s’éloignent de nous du fait du développement d’environnements entièrement artificiels, du monde physique comme du monde numérique. 

Couverture du livre de Pascal Chabot, Un sens à la vie.

Vous interrogez cette perte de sens ou notre difficulté, fréquente, à retrouver du sens dans les contradictions de la modernité. Retrouver le sens nécessite de trouver comment circuler entre les sensations, les significations et les orientations, expliquez-vous, c’est-à-dire à trouver des formes de circulations entre ce que l’on ressent, ce qu’on en comprend et là où l’on souhaite aller. “Vivre, c’est faire circuler du sens”, le désirer, se le réapproprier. Mais le sens que tout à chacun cherche est aujourd’hui bouleversé par le numérique. Le sens “est transformé par les modalités de sa transmission” dites-vous. En quoi ces nouvelles modalités de transmission modifient-elles notre compréhension même du monde ?  

Pascal Chabot : Une chose qui m’intéresse beaucoup en philosophie, c’est de comprendre comment des questions, anciennes, traditionnelles, sont à la fois toujours actuelles et bouleversées par ce que nous vivons. Par rapport à la question du sens, qui est un accord entre ce que l’on sent, ce que l’on comprend et ce que l’on devient, les choses ont peu bougé. Un ancien grec ou un humaniste de la Renaissance auraient pu faire des constats sur le sens de la vie proches des miens, pour peu qu’ils aient été en dehors des très grands récits de transcendance qui s’imposaient alors, où le sens est donné par Dieu ou le Salut, c’est à dire où le sens a un nom avec une majuscule. Cette façon de faire circuler du sens dans nos vies, on la partage avec nos lointains prédécesseurs dans l’histoire de la philosophie. Il y a une lignée humaine dans laquelle nous sommes chacun profondément inscrits. 

Cela étant, après avoir dit la continuité, il faut penser la rupture. Et la rupture, selon moi, elle est dans le branchement de nos consciences à ce que j’appelle le surconscient numérique. La conscience, telle qu’elle est ordinairement définie à partir du XXe siècle et bien sûr de Freud, est toujours couplée à son inconscient. Cette découverte, d’un enrichissement inédit, même si l’on ne sait pas toujours très bien ce qu’est l’inconscient, est restée d’une grande originalité, en apportant ce binôme conscience-inconscience qui permet d’enrichir notre compréhension de la pensée, en accord avec une nature humaine profonde, allant des grands mythes freudiens à la nature, dans lesquels notre inconscient peut s’exprimer, que ce soit via la sexualité ou la contemplation. Ce binôme a permis de créer des sens nouveaux. Cependant, je crois qu’on est de plus en plus débranchés de notre inconscient. C’est pourquoi une partie de la psychiatrie et de la psychanalyse ont un mal fou à comprendre ce qu’il se passe avec les nouvelles pathologies. En revanche, on est beaucoup plus branché, on fait couple, avec ce surconscient auquel on a accès dès qu’on fait le geste de consulter un écran. Ce mot surconscient, créé par analogie avec l’inconscient, est un mot assez large qui désigne pour moi un réseau, un dôme d’information, de communication, de protocoles d’échanges, d’images, qui a une certaine conscience. Une conscience relative comme l’inconscient a lui-même une conscience relative. Ce n’est pas une conscience en terme de « JE », mais de « NOUS ». C’est un savoir exploitable par la conscience et l’inconscient et qui est de plus en plus déterminant sur notre conscience comme sur notre inconscient. 

Dans les algorithmes : Mais on pourrait dire que ce surconscient existait avant le numérique, non ? Des grands récits à la presse, toutes nos formes médiatiques et culturelles y participaient. Pourquoi le numérique modifierait-il particulièrement ce rapport ?  

Pascal Chabot : Oui, toute œuvre culturelle, de la presse à la littérature, crée des bulles de signification, un cadre de signification, avec lequel nous sommes en dialogue. La graphosphère, comme on l’a parfois appelé, existe. Mais la grande différence, c’est que le monde numérique propose un monde où les significations ont une vie propre. Ce que Tolstoï a écrit par exemple, a été écrit une fois pour toute. On se réfère à Guerre et Paix à partir des significations qui ont été données depuis un écrit stabilisé. Si Guerre et Paix continue à vivre, c’est par l’acte d’enrichissement du livre dans notre imagination, dans nos souvenirs, dans notre mémoire. Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous. 

Cette personnalisation est une caractéristique importante. Il y en a une autre, celle du temps. Quand on se réfère à un livre écrit à la fin du XIXe siècle, on fait venir dans le temps présent un objet du passé. La sphère numérique est caractérisée par un temps nouveau, comme je l’évoquais dans Avoir le temps, où j’essayais de dire, qu’il y a eu deux grands temps. Le temps comme destin, c’est le temps de la nature, et le temps du progrès, celui de la construction d’un monde commun. Dans le numérique on vit un hypertemps. Un temps de synchronisation permanente. Un temps où la nouveauté est tout le temps présente. Un temps décompté, à rebours. Le temps du surconscient est aussi cet hypertemps. On est de moins en moins dans l’espace et de plus en plus dans des bulles temporelles qui s’ouvrent notamment quand on est dans la consommation de l’écran, où l’on se branche à un hypertemps commun. 

« Dans le monde du surconscient numérique, il n’y a pas d’inertie. Les informations sont modifiées, mises à jour, répétées, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation là est assez spécifique, centrée sur les personnes, calibrée pour chacun d’entre nous. »

Dans les algorithmes : Cette consommation d’écran, ce pas de côté dans nos réalités, nécessite de « faire le geste » dites-vous, c’est-à-dire d’ouvrir son smartphone. Geste que nous faisons des centaines de fois par jour. « Nous passons nos vies à caresser une vitre », ironise l’écrivain Alain Damasio. C’est consulter, nous brancher en permanence, dans un geste qui est désormais si présent dans notre quotidien, qu’il ne semble nullement le perturber, alors qu’il l’entrecoupe sans arrêt. Or, ce geste nous coupe de nos environnements. Il réduit nos sensations, limite nos orientations… Comme si ce geste était le symptôme de notre envahissement par ce surconscient… 

Pascal Chabot : C’est effectivement sa matérialisation. C’est par ce geste que le surconscient colonise nos consciences. On dit beaucoup qu’on vit une mutation anthropologique majeure, mais elle est orchestrée par des ultraforces, c’est-à-dire des moyens qui ne sont pas une fin mais une force en soi, comme le sont la finance ou le numérique. « Faire le geste » nous fait changer de réalité, nous fait muter, nous fait passer dans un autre monde. Un monde très libidinal, un monde qui sait nos intentions, qui satisfait nos désirs. Un monde qui nous rend captif mais qui nous permet surtout de quitter une réalité qui nous apparaît de moins en moins satisfaisante. Le rapport au présent, à la matérialité, nous apparaît désormais plus pauvre que le voyage dans le surconscient de l’humanité. La plupart d’entre nous sommes devenus incapables de rester 5 minutes sans « faire le geste ». Toute addiction est aphrodisiaque : elle nous promet un désir qu’on ne peut plus avoir ailleurs. Comme si notre conscience et notre inconscient ne nous suffisaient plus. 

Dans les algorithmes : Vous reconnaissez pourtant que ce surconscient a des vertus : « il fait exploser nos compréhensions », dites-vous. Vous expliquez que le rendement informationnel du temps que l’on passe sur son smartphone – différent de son impact intellectuel ou affectif – est bien supérieur à la lecture d’un livre ou même d’un dialogue avec un collègue. Que notre connexion au réseau permet de zoomer et dézoomer en continue, comme disait le sociologue Dominique Cardon, nous permet d’aller du micro au macro. Nous sommes plongés dans un flux continu de signifiants. “Les sensations s’atrophient, les significations s’hypertrophient. Quant aux orientations, en se multipliant et se complexifiant, elles ouvrent sur des mondes labyrinthiques” qui se reconfigurent selon nos circulations. Nous sommes plongés dans un surconscient tentaculaire qui vient inhiber notre inconscient et notre conscience. Ce surconscient perturbe certes la circulation du sens. Mais nos écrans ne cessent de produire du sens en permanence…

Pascal Chabot : Oui, mais ce surconscient apporte de l’information, plus que du sens. Je parle bien de rendement informationnel. Quand les livres permettent eux de déployer l’imagination, la créativité, la sensibilité, l’émotivité… de les ancrer dans nos corps, de dialoguer avec l’inconscient. En revanche, ce que nous offre le surconscient en terme quantitatif, en précision, en justesse est indéniable. Comme beaucoup, j’ai muté des mondes de la bibliothèque au monde du surconscient. Il était souvent difficile de retrouver une information dans le monde des livres. Alors que le surconscient, lui, est un monde sous la main. Nous avons un accès de plus en plus direct à l’information. Et celle-ci se rapproche toujours plus de notre conscience, notamment avec ChatGPT. La recherche Google nous ouvrait une forme d’arborescence dans laquelle nous devions encore choisir où aller. Avec les chatbots, l’information arrive à nous de manière plus directe encore. 

Mais l’information n’est ni le savoir ni la sagesse et sûrement pas le sens. 

Dans les algorithmes : Vous dites d’ailleurs que nous sommes entrés dans des sociétés de la question après avoir été des sociétés de la réponse. Nous sommes en train de passer de la réponse qu’apporte un article de Wikipédia, à une société de l’invite, à l’image de l’interface des chatbots qui nous envahissent, et qui nous invitent justement à poser des questions – sans nécessairement en lire les réponses d’ailleurs. Est-ce vraiment une société de la question, de l’interrogation, quand, en fait, les réponses deviennent sans importance ? 

Pascal Chabot : Quand j’évoque les sociétés de la question et de la réponse, j’évoque les sociétés modernes du XVIIe et du XVIIIe siècle, des sociétés où certaines choses ne s’interrogent pas, parce qu’il y a des réponses partout. La question du sens ne hante pas les grands penseurs de cette époque car pour eux, le sens est donné. Les sociétés de la question naissent de la mort de Dieu, de la perte de la transcendance et du fait qu’on n’écrit plus le sens en majuscule. Ce sont des sociétés de l’inquiétude et du questionnement. La question du sens de la vie est une question assez contemporaine finalement. C’est Nietzsche qui est un des premiers à la poser sous cette forme là. 

Dans la société de la question dans laquelle nous entrons, on interroge les choses, le sens… Mais les réponses qui nous sont faites restent désincanées. Or, pour que le sens soit présent dans une existence, il faut qu’il y ait un enracinement, une incarnation… Il faut que le corps soit là pour que la signification soit comprise. Il faut une parole et pas seulement une information. De même, l’orientation, le chemin et son caractère initiatique comme déroutant, produisent du sens. 

Mais, si nous le vivons ainsi c’est parce que nous avons vécu dans un monde de sensation, de signification et d’orientation relativement classique. Les plus jeunes n’ont pas nécessairement ces réflexes. Certains sont déjà couplés aux outils d’IA générative qui leurs servent de coach particuliers en continue… C’est un autre rapport au savoir qui arrive pour une génération qui n’a pas le rapport au savoir que nous avons construit. 

Dans les algorithmes : Vous expliquez que cette extension du surconscient produit des pathologies que vous qualifiez de digitoses, pour parler d’un conflit entre la conscience et le surconscient. Mais pourquoi parlez-vous de digitose plutôt que de nouvelles névroses ou de nouvelles psychoses ? 

Pascal Chabot : Quand j’ai travaillé sur la question du burn-out, j’ai pu constater que le domaine de la santé mentale devait évoluer. Les concepts classiques, de névrose ou de psychose, n’étaient plus opérants pour décrire ces nouvelles afflictions. Nous avions des notions orphelines d’une théorie plus englobante. Le burn-out ou l’éco-anxiété ne sont ni des névroses ni des psychoses. Pour moi, la santé mentale avait besoin d’un aggiornamento, d’une mise à jour. J’ai cherché des analogies entre inconscient et surconscient, le ça, le là, le refoulement et le défoulement… J’ai d’abord trouvé le terme de numérose avant de lui préféré le terme de digitose en référence au digital plus qu’au numérique. C’est un terme qui par son suffixe en tout cas ajoute un penchant pathologique au digital. Peu à peu, les digitoses se sont structurées en plusieurs familles : les digitoses de scission, d’avenir, de rivalité… qui m’ont permis de créer une typologie des problèmes liés à un rapport effréné ou sans conscience au numérique qui génère de nouveaux types de pathologies. 

Dans les algorithmes : Le terme de digitose, plus que le lien avec le surconscient, n’accuse-t-il pas plus le messager que le message ? Sur l’éco-anxiété, l’information que l’on obtient via le numérique peut nous amener à cette nouvelle forme d’inquiétude sourde vis à vis du futur, mais on peut être éco-anxieux sans être connecté. Or, dans votre typologie des digitoses, c’est toujours le rapport au numérique qui semble mis au banc des accusés… 

Pascal Chabot : Je ne voudrais pas donner l’impression que je confond le thermomètre et la maladie effectivement. Mais, quand même : le média est le message. Ce genre de pathologies là, qui concernent notre rapport au réel, arrivent dans un monde où le réel est connu et transformé par le numérique. Pour prendre l’exemple de l’éco-anxiété, on pourrait tout à fait faire remarquer qu’elle a existé avant internet. Le livre de Rachel Carson, Le printemps silencieux, par exemple, date des années 60. 

Mais, ce qui est propre au monde numérique est qu’il a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas. L’avenir a toujours été le lieu de l’opacité, comblé par de grands récits mythiques ou apocalyptiques. Aujourd’hui, l’apport informationnel majeur du numérique, permet d’avoir pour chaque réalité un ensemble de statistiques prospectives extrêmement fiables. On peut trouver comment vont évoluer les populations d’insectes, la fonte des glaciers, les températures globales comme locales… Ce n’est pas uniquement le média numérique qui est mobilisé ici, mais la science, la technoscience, les calculateurs… c’est-à-dire la forme contemporaine du savoir. Les rapports du Giec en sont une parfaite illustration. Ils sont des éventails de scénarios chiffrés, sourcés, documentés… assortis de probabilités et validés collectivement. Ils font partie du surconscient, du dôme de savoir dans lequel nous évoluons et qui étend sa chape d’inquiétude et de soucis sur nos consciences. L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur. 

« Le numérique a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas »

Dans les algorithmes : Ce n’est pas le fait que ce soit numérique, c’est ce que ce branchement transforme en nous… 

Pascal Chabot : Oui, c’est la même chose dans le monde du travail, par rapport à la question du burn-out… Nombre de burn-out sont liés à des facteurs extra-numériques qui vont des patrons chiants, aux collègues toxiques… et qui ont toujours existé, hélas. Mais dans la structure contemporaine du travail, dans son exigence, dans ce que les algorithmes font de notre rapport au système, au travail, à la société… ces nouveaux branchements, ce reporting constant, cette normalisation du travail… renforcent encore les souffrances que nous endurons. 

« L’éco-anxiété est une digitose parce que c’est le branchement à ce surconscient là qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numérique est le vecteur. »

Dans les algorithmes : Outre la digitose de scission (le burn-out), et la digitose d’avenir (l’éco-anxiété) dont vous nous avez parlé, vous évoquez aussi la digitose de rivalité, celle de notre confrontation à l’IA et de notre devenir machine. Expliquez-nous !

Pascal Chabot : Il faut partir de l’écriture pour la comprendre. Ce que l’on délègue à un chatbot, c’est de l’écriture. Bien sûr, elles peuvent générer bien d’autres choses, mais ce sont d’abord des machines qui ont appris à aligner des termes en suivant les grammaires pour produire des réponses sensées, c’est-à-dire qui font sens pour quelqu’un qui les lit. Ce qui est tout à fait perturbant, c’est que de cette sorte de graphogenèse, de genèse du langage graphique, naît quelque chose comme une psychogenèse. C’est simplement le bon alignement de termes qui répond à telle ou telle question qui nous donne l’impression d’une intentionnalité. Depuis que l’humanité est l’humanité, un terme écrit nous dit qu’il a été pensé par un autre. Notre rapport au signe attribue toujours une paternité. L’humanité a été créée par les Ecritures. Les sociétés religieuses, celles des grands monothéismes, sont des sociétés du livre. Être en train de déléguer l’écriture à des machines qui le feront de plus en plus correctement, est quelque chose d’absolument subjuguant. Le problème, c’est que l’humain est paresseux et que nous risquons de prendre cette voie facile. Nos consciences sont pourtant nées de l’écriture. Et voilà que désormais, elles se font écrire par des machines qui appartiennent à des ultraforces qui ont, elles, des visées politiques et économiques. Politique, car écrire la réponse à la question « la démocratie est-elle un bon régime ? » dépendra de qui relèvent de ces ultraforces. Économique, comme je m’en amusait dans L’homme qui voulait acheter le langage… car l’accès à ChatGPT est déjà payant et on peut imaginer que les accès à de meilleures versions demain, pourraient être plus chères encore. La capitalisme linguistique va continuer à se développer. L’écriture, qui a été un outil d’émancipation démocratique sans commune mesure (car apprendre à écrire a toujours été le marqueur d’entrée dans la société), risque de se transformer en simple outil de consommation. Outre la rivalité existentielle de l’IA qui vient dévaluer notre intelligence, les impacts politiques et économiques ne font que commencer. Pour moi, il y dans ce nouveau rapport quelque chose de l’ordre de la dépossession, d’une dépossession très très profonde de notre humanité. 

Dans les algorithmes : Ecrire, c’est penser. Être déposséder de l’écriture, c’est être dépossédé de la pensée.

Pascal Chabot : Oui et cela reste assez vertigineux. Notamment pour ceux qui ont appris à manier l’écriture et la pensée. Ecrire, c’est s’emparer du langage pour lui injecter un rythme, une stylistique et une heuristique, c’est-à-dire un outil de découverte, de recherche, qui nous permet de stabiliser nos relations à nous-mêmes, à autrui, au savoir… Quand on termine un mail, on réfléchit à la formule qu’on veut adopter en fonction de la relation à l’autre que nous avons… jusqu’à ce que les machines prennent cela en charge. On a l’impression pour le moment d’être au stade de la rivalité entre peinture et photographie vers 1885. Souvenons-nous que la photographie a balayé le monde ancien. 

Mais c’est un monde dont il faut reconnaître aussi les limites et l’obsolescence. Le problème des nouvelles formes qui viennent est que le sens qu’elles proposent est bien trop extérieur aux individus. On enlève l’individu au sens. On est dans des significations importées, dans des orientations qui ne sont pas vécues existentiellement. 

Dans les algorithmes : Pour répondre aux pathologies des digitoses, vous nous invitez à une thérapie de civilisation. De quoi avons-nous besoin pour pouvoir répondre aux digitoses ?

Pascal Chabot : La conscience, le fait d’accompagner en conscience ce que nous faisons change la donne. Réfléchir sur le temps, prendre conscience de notre rapport temporel, change notre rapport au temps. Réfléchir à la question du sens permet de prendre une hauteur et de créer une série de filtres permettant de distinguer des actions insensées qui relèvent à la fois des grandes transcendance avec une majuscule que des conduites passives face au sens. La thérapie de la civilisation, n’est rien d’autre que la philosophie. C’est un plaidoyer pro domo ! Mais la philosophie permet de redoubler ce que nous vivons d’une sorte de conscience de ce que nous vivons : la réflexivité. Et cette façon de réfléchir permet d’évaluer et garder vive la question de l’insensé, de l’absurde et donc du sens. 

Dans les algorithmes : Dans ce surconscient qui nous aplatit, comment vous situez-vous face aux injonctions à débrancher, à ne plus écouter la télévision, la radio, à débrancher les écrans ? Cela relève d’un levier, du coaching comportemental ou est-ce du meaning washing ?

Pascal Chabot : Je n’y crois pas trop. C’est comme manger des légumes ou faire pipi sous la douche. Les mouvements auxquels nous sommes confrontés sont bien plus profonds. Bien sûr, chacun s’adapte comme il peut. Je ne cherche pas à être jugeant. Mais cela nous rappelle d’ailleurs que la civilisation du livre et de l’écrit a fait beaucoup de dégâts. La conscience nous aide toujours à penser mieux. Rien n’est neutre. Confrontés aux ultraforces, on est dans un monde qui développe des anti-rapports, à la fois des dissonnances, des dénis ou des esquives pour tenter d’échapper à notre impuissance. 

Dans les algorithmes : Vous êtes assez alarmiste sur les enjeux civilisationnels de l’intelligence artificielle que vous appelez très joliment des « communicants artificiels ». Et de l’autre, vous nous expliquez que ces outils vont continuer la démocratisation culturelle à l’œuvre. Vous rappelez d’ailleurs que le protestantisme est né de la généralisation de la lecture et vous posez la question : « que naîtra-t-il de la généralisation de l’écriture ? » 

Mais est-ce vraiment une généralisation de l’écriture à laquelle nous assistons ? On parle de l’écriture de et par des machines. Et il n’est pas sûr que ce qu’elles produisent nous pénètrent, nous traversent, nous émancipent. Finalement, ce qu’elles produisent ne sont que des réponses qui ne nous investissent pas nécessairement. Elles font à notre place. Nous leur déléguons non seulement l’écriture, mais également la lecture… au risque d’abandonner les deux. Est-ce que ces outils produisent vraiment une nouvelle démocratisation culturelle ? Sommes-nous face à un nouvel outil interculturel ou assistons-nous simplement à une colonisation et une expansion du capitalisme linguistique ?

Pascal Chabot : L’écriture a toujours été une sorte de ticket d’entrée dans la société et selon les types d’écritures dont on était capable, on pouvait pénétrer dans tel ou tel milieu. L’écriture est très clairement un marqueur de discrimination sociale. C’est le cas de l’orthographe, très clairement, qui est la marque de niveaux d’éducation. Mais au-delà de l’orthographe, le fait de pouvoir rédiger un courrier, un CV… est quelque chose de très marqué socialement. Dans une formation à l’argumentation dans l’équivalent belge de France Travail, j’ai été marqué par le fait que pour les demandeurs d’emploi, l’accès à l’IA leur changeait la vie, leur permettant d’avoir des CV, des lettres de motivation adaptées. Pour eux, c’était un boulet de ne pas avoir de CV corrects. Même chose pour les étudiants. Pour nombre d’entre eux, écrire est un calvaire et ils savent très bien que c’est ce qu’ils ne savent pas toujours faire correctement. Dans ces nouveaux types de couplage que l’IA permet, branchés sur un surconscient qui les aide, ils ont accès à une assurance nouvelle. 

Bien sûr, dans cette imitation, personne n’est dupe. Mais nous sommes conditionnés par une société qui attribue à l’auteur d’un texte les qualités de celui-ci, alors que ses productions ne sont pas que personnelles, elles sont d’abord le produit des classes sociales de leurs auteurs, de la société dont nous sommes issus. Dans ce nouveau couplage à l’IA, il me semble qu’il y a quelque chose de l’ordre d’une démocratisation. 

Dans les algorithmes : Le risque avec l’IA, n’est-il pas aussi, derrière la dépossession de l’écriture, notre dépossession du sens lui-même ? Le sens nous est désormais imposé par d’autres, par les résultats des machines. Ce qui m’interroge beaucoup avec l’IA, c’est cette forme de délégation des significations, leur aplatissement, leur moyennisation. Quand on demande à ces outils de nous représenter un mexicain, ils nous livrent l’image d’une personne avec un sombrero ! Or, faire société, c’est questionner tout le temps les significations pour les changer, les modifier, les faire évoluer. Et là, nous sommes confrontés à des outils qui les figent, qui excluent ce qui permet de les remettre en cause, ce qui sort de la norme, de la moyenne… 

Pascal Chabot : Oui, nous sommes confrontés à un « Bon gros bon sens » qui n’est pas sans rappeler Le dictionnaire des idées de reçues de Flaubert… 

Dans les algorithmes : …mais le dictionnaire des idées reçues était ironique, lui !

Pascal Chabot : Il est ironique parce qu’il a vu l’humour dans le « Bon gros bon sens ». Dans la société, les platitudes circulent. C’est la tâche de la culture et de la créativité de les dépasser. Car le « Bon gros bon sens » est aussi très politique : il est aussi un sens commun, avec des assurances qui sont rabachées, des slogans répétés…. Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. On est plongé dans un pragmatisme anglo-saxon, qui a un rapport au langage très peu polysémique d’ailleurs. Le problème, c’est que ce « Bon gros bon sens » est beaucoup plus invasif. Il a une force d’autorité. Le produit de ChatGPT ne nous est-il pas présenté d’ailleurs comme un summum de la science ? 

« Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est très loin de ce qui est subtil, de ce qui est fin, polysémique, ambiguë, plein de doute, raffiné, étrange, surréaliste… C’est-à-dire tout ce qui fait la vie de la culture. »

Dans les algorithmes : Et en même temps, ce calcul laisse bien souvent les gens sans prise, sans moyens d’action individuels comme collectifs. 

Le point commun entre les différentes digitoses que vous listez me semble-t-il est que nous n’avons pas de réponses individuelles à leur apporter. Alors que les névroses et psychoses nécessitent notre implication pour être réparées. Face aux digitoses, nous n’avons pas de clefs, nous n’avons pas de prises, nous sommes sans moyen d’action individuels comme collectifs. Ne sommes nous pas confrontés à une surconscience qui nous démunie ? 

Pascal Chabot : Il est certain que le couplage des consciences au surconscient, en tant qu’elle est un processus de civilisation, apparaît comme un nouveau destin. Il s’impose, piloté par des ultraforces sur lesquelles nous n’avons pas de prise. En ce sens, il s’agit d’un nouveau destin, avec tout ce que ce terme charrie d’imposition et d’inexorabilité. 

En tant que les digitoses expriment le versant problématique de ce nouveau couplage, elles aussi ont quelque chose de fatal. Branchée à une réalité numérique qui la dépasse et la détermine, la conscience peine souvent à exprimer sa liberté, qui est pourtant son essence. La rivalité avec les IA, l’eco-anxiété, la scission avec le monde sensible : autant de digitoses qui ont un aspect civilisationnel, presque indépendant du libre-arbitre individuel. Les seules réponses, en l’occurrence, ne peuvent être que politiques. Mais là aussi, elles ne sont pas faciles à imaginer. 

Or on ne peut pourtant en rester là. Si ce seul aspect nécessaire existait, toute cette théorie ne serait qu’une nouvelle formulation de l’aliénation. Mais les digitoses ont une composante psychologique, de même que les névroses et psychoses. Cette composante recèle aussi des leviers de résistance. La prise de conscience, la lucidité, la reappropriation, l’hygiène mentale, une certaine désintoxication, le choix de brancher sa conscience sur des réalités extra-numériques, et tant d’autres stratégies encore, voire tant d’autres modes de vies, peuvent très clairement tempérer l’emprise de ces digitoses sur l’humain. C’est dire que l’individu, face à ce nouveau destin civilisationnel, garde des marges de résistance qui, lorsqu’elles deviennent collectives, peuvent être puissantes. 

Les digitoses sont donc un défi et un repoussoir  : une occasion de chercher et d’affirmer des libertés nouvelles dans un monde où s’inventent sous nos yeux de nouveaux déterminismes. 

Dans les algorithmes : Derrière le surconscient, le risque n’est-il pas que s’impose une forme de sur-autorité, de sur-vision… sur lesquelles, il sera difficile de créer des formes d’échappement, de subtilité, d’ambiguité. On a l’impression d’être confronté à une force politique qui ne dit pas son nom mais qui se donne un nouveau moyen de pouvoir…

Pascal Chabot : C’est clair que la question est celle du pouvoir, politique et économique. Les types de résistances sont extrêmement difficiles à inventer. C’est le propre du pouvoir de rendre la résistance à sa force difficile. On est confronté à un tel mélange de pragmatisme, de facilitation de la vie, de création d’une bulle de confort, d’une enveloppe où les réponses sont faciles et qui nous donnent accès à de nouveaux mondes, comme le montrait la question de la démocratisation qu’on évoquait à l’instant… que la servitude devient très peu apparente. Et la perte de subtilité et d’ambiguïté est peu vue, car les gains économiques supplantent ces pertes. Qui se rend compte de l’appauvrissement ? Il faut avoir un pied dans les formes culturelles précédentes pour cela. Quand les choses seront plus franches, ce que je redoute, c’est que nos démocraties ne produisent pas de récits numériques pour faire entendre une autre forme de puissance. 

Dans les algorithmes : En 2016 vous avez publié, ChatBot le robot, une très courte fable écrite bien avant l’avènement de l’IA générative, qui met en scène un jury de philosophes devant décider si une intelligence artificielle est capable de philosopher. Ce petit drame philosophique où l’IA fomente des réponses à des questions philosophiques, se révèle très actuel 9 ans plus tard. Qualifieriez vous ChatGPT et ses clones de philosophes ?

Pascal Chabot : Je ne suis pas sûr. Je ne suis pas sûr que ce chatbot là se le décernerait à lui, comme il est difficile à un artiste de se dire artiste. Mon Chatbot était un récalcitrant, ce n’est pas le cas des outils d’IA d’aujourd’hui. Il leur manque un rapport au savoir, le lien entre la sensation et la signification. La philosophie ne peut pas être juste de la signification. Et c’est pour cela que l’existentialisme reste la matrice de toute philosophie, et qu’il n’y a pas de philosophie qui serait non-existentielle, c’est-à-dire pure création de langage. La graphogenèse engendre une psychogenèse. Mais la psychogenèse, cette imitation de la conscience, n’engendre ni philosophie ni pensée humaine. Il n’y a pas de conscience artificielle. La conscience est liée à la naissance, la mort, la vie. 

Dans les algorithmes : La question de l’incalculabité est le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour un un philosophe, qu’est-ce qui est incalculable ? 

Pascal Chabot : L’incalculable, c’est le subtil ! L’étymologie de subtil, c’est subtela, littéralement, ce qui est en-dessous d’une toile. En dessous d’une toile sur laquelle on tisse, il y a évidémment la trame, les fils de trame. Le subtil, c’est les fils de trame, c’est-à-dire nos liens majeurs, les liens à nous-mêmes, aux autres, au sens, à la culture, nos liens amoureux, amicaux… Et tout cela est profondément de l’ordre de l’incalculable. Et tout cela est même profané quand on les calcule. Ces liens sont ce qui résiste intrinsèquement à la calculabilité, qui est pourtant l’un des grands ressort de l’esprit humain et pas seulement des machines. Le problème, c’est qu’on est tellement dans une idéologie de la calculabilité qu’on ne perçoit même plus qu’on peut faire des progrès dans le domaine du subtil. Désormais, le progrès semble lié à la seule calculabilité. Le progrès est un progrès du calculable et de l’utile. Or, je pense qu’il existe aussi un progrès dans le domaine du subtil. Dans l’art d’être ami par exemple, dans l’art d’être lié à soi-même ou aux autres, il y a moyen de faire des progrès. Il y a là toute une zone de développement, de progrès (nous ne devons pas laisser le terme uniquement à la civilisation techno-économique), de progrès subtil. Un progrès subtil, incalculable, mais extrêmement précieux. 

Propos recueillis par Hubert Guillaud. 

Pascal Chabot sera l’un des intervenants de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.

Aux US, le prix des études s’ajuste selon celui que vous êtes prêts à payer

Les tarifs des études dans les grandes universités américaines sont très élevés et les établissements se livrent à une concurrence féroce que ce soit pour fixer les prix des frais de scolarité comme pour fixer les réductions qu’elles distribuent sous forme de bourses. Ces réductions peuvent être considérables : en moyenne, elles permettent de réduire le prix de plus de 56% pour les nouveaux étudiants et peuvent monter jusqu’à six chiffres sur le coût total des études. Or, explique Ron Lieber, pour le New York Times, les prix comme les réductions dépendent de calculs complexes, d’algorithmes opaques, mis au point discrètement depuis des décennies par des cabinets de conseil opérant dans l’ombre, notamment EAB et Ruffalo Noel Levitz (RNL) qui appartiennent à des sociétés de capital-investissement. 

Lieber raconte la mise au point d’un algorithme dédié au Boston College par Jack Maguire dans les années 70, visant à accorder des réductions ciblées sur la base de la qualité des candidats plutôt que sur leurs moyens financiers, dans le but que nombre d’entre eux acceptent l’offre d’étude qui leur sera faite. Les sociétés qui proposent des algorithmes parlent, elles, “d’optimisation de l’aide financière”. Pour cela, elles utilisent les données sociodémographiques que les étudiants remplissent lors d’une demande d’information. S’ensuit des échanges numériques nourris entre universités et candidats pour évaluer leur engagement en mesurant tout ce qui est mesurable : clics d’ouvertures aux messages qui leurs sont adressés, nombre de secondes passées sur certaines pages web. L’EAB utilise plus de 200 variables pour fixer le prix d’admission en s’appuyant sur les données de plus de 350 clients et plus de 1,5 milliard d’interactions avec des étudiants. Pour chaque profil, des matrices sont produites mesurant à la fois la capacité de paiement et évaluant la réussite scolaire du candidat avant que les écoles ne fassent une offre initiale qui évolue au gré des discussions avec les familles. L’article évoque par exemple un établissement qui “a offert aux étudiants provenant d’autres Etats une réduction trois fois supérieure au prix catalogue par étudiant par rapport à celle proposée aux étudiants de l’Etat, tout en leur faisant payer le double du prix net”. Le but de l’offre était de les attirer en leur faisant une proposition qu’ils ne pouvaient pas refuser. 

Mais contrairement à ce que l’on croit, les « bourses » ne sont pas que des bourses sur critères sociaux. C’est même de moins en moins le cas. Bien souvent, les universités proposent des bourses à des gens qui n’en ont pas besoin, comme une forme de remise tarifaire. En fait, la concurrence pour attirer les étudiants capables de payer est très forte, d’où l’enjeu à leur offrir des remises convaincantes, et les familles ont vite compris qu’elles pouvaient jouer de cette concurrence. En fait, constate une responsable administrative : “je pensais que l’aide financière servait à améliorer l’accès, mais ce n’est plus le cas. C’est devenu un modèle économique.” Les bourses ne servent plus tant à permettre aux plus démunis d’accéder à l’université, qu’à moduler la concurrence inter-établissement, à chasser les étudiants qui ont les capacités de payer.

En 2023, EAB a lancé Appily, un portail universitaire grand public à l’ambiance positive, une plateforme de mise en relation entre futurs étudiants à la manière d’une application de rencontre qui compte déjà 3 millions d’utilisateurs. Le recrutement d’étudiants est en passe de devenir de plus en plus concurrentiel à l’heure où les financements des universités s’apprêtent à se tarit sous les coupes de l’administration Trump et où la venue d’étudiants étrangers devient extrêmement difficile du fait des nouvelles politiques d’immigration mises en place. Comme on le constatait dans d’autres rapports tarifaires, dans les études supérieures également, le marketing numérique a pris le contrôle : là encore, le meilleur prix est devenu celui que les étudiants et les familles sont prêts à payer.

La crise de l’emploi créée par l’IA est déjà là !

« La crise de l’emploi via l’IA est arrivée. Elle est là, maintenant. Elle ne ressemble simplement pas à ce que beaucoup attendaient.

La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai déjà écrit, à l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une série de décisions managériales prises par des dirigeants cherchant à réduire les coûts de main-d’œuvre et à consolider le contrôle de leurs organisations. La crise de l’emploi dans l’IA n’est pas une apocalypse d’emplois robotisés à la SkyNet : c’est le Doge qui licencie des dizaines de milliers d’employés fédéraux sous couvert d’une « stratégie IA prioritaire ».

La crise de l’emploi dans l’IA ne se résume pas au déplacement soudain de millions de travailleurs d’un seul coup ; elle se manifeste plutôt par l’attrition dans les industries créatives, la baisse des revenus des artistes, écrivains et illustrateurs indépendants, et par la propension des entreprises à embaucher moins de travailleurs humains.

En d’autres termes, la crise de l’emploi dans l’IA est davantage une crise de la nature et de la structure du travail qu’une simple tendance émergeant des données économiques », explique Brian Merchant. « Les patrons ont toujours cherché à maximiser leurs profits en utilisant des technologies de réduction des coûts. Et l’IA générative a été particulièrement efficace pour leur fournir un argumentaire pour y parvenir, et ainsi justifier la dégradation, la déresponsabilisation ou la destruction d’emplois précaires ». Le Doge en est une parfaite illustration : « il est présenté comme une initiative de réduction des coûts visant à générer des gains d’efficacité, mais il détruit surtout massivement des moyens de subsistance et érode le savoir institutionnel ».

« On entend souvent dire que l’IA moderne était censée automatiser les tâches rébarbatives pour que nous puissions tous être plus créatifs, mais qu’au lieu de cela, elle est utilisée pour automatiser les tâches créatives ». Pourquoi ? Parce que l’IA générative reste performante pour « certaines tâches qui ne nécessitent pas une fiabilité constante, ce qui explique que ses fournisseurs ciblent les industries artistiques et créatives ».

Luis von Ahn, PDG milliardaire de la célèbre application d’apprentissage des langues Duolingo, a annoncé que son entreprise allait officiellement être axée sur l’IA. Mais ce n’est pas nouveau, voilà longtemps que la startup remplace ses employés par de l’IA. En réalité, les employés ne cessent de corriger les contenus produits par l’IA au détriment du caractère original et de la qualité.

Nuages sur les infrastructures publiques : repenser la gouvernance d’internet à l’ère des hyperscalers

Dans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montée de la prise de conscience de la dépendance européenne aux clouds américains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl » sur Amazon Web Services, a initié une réflexion nationale sur l’indépendance des infrastructures, sur laquelle la chercheuse a publié un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalement été stoppée par les politiciens néerlandais au profit de réponses apportées par les fournisseurs locaux.

Ces débats relatifs à la souveraineté sont désormais présents dans toute l’Europe, remarque-t-elle, à l’image du projet EuroStack, qui propose de développer une « souveraineté technologique européenne ». Son initiatrice, Francesca Bria, plaide pour la création d’un un Fonds européen pour la souveraineté technologique doté de 10 milliards d’euros afin de soutenir cette initiative, ainsi que pour des changements politiques tels que la priorité donnée aux technologies européennes dans les marchés publics, l’encouragement de l’adoption de l’open source et la garantie de l’interopérabilité. Ce projet a reçu le soutien d’entreprises européennes, qui alertent sur la crise critique de dépendance numérique qui menace la souveraineté et l’avenir économique de l’Europe.

La chercheuse souligne pourtant pertinemment le risque d’une défense uniquement souverainiste, consistant à construire des clones des services américains, c’est-à-dire un remplacement par des équivalents locaux. Pour elle, il est nécessaire de « repenser radicalement l’économie politique sous-jacente qui façonne le fonctionnement des systèmes numériques et leurs bénéficiaires ». Nous devons en profiter pour repenser la position des acteurs. Quand les acteurs migrent leurs infrastructure dans les nuages américains, ils ne font pas que déplacer leurs besoins informatiques, bien souvent ils s’adaptent aussi à des changements organisationnels, liés à l’amenuisements de leurs compétences techniques. Un cloud souverain européen ou national n’adresse pas l’enjeu de perte de compétences internes que le cloud tiers vient soulager. L’enjeu n’est pas de choisir un cloud plutôt qu’un autre, mais devrait être avant tout de réduire la dépendance des services aux clouds, quels qu’ils soient. Des universitaires des universités d’Utrecht et d’Amsterdam ont ainsi appelé leurs conseils d’administration, non pas à trouver des solutions de clouds souverains, mais à réduire la dépendance des services aux services en nuage. Pour eux, la migration vers le cloud transforme les universités « d’une source d’innovation technique et de diffusion de connaissances en consommateurs de services ».

Les initiatives locales, même très bien financées, ne pourront jamais concurrencer les services en nuage des grands acteurs du numérique américain, rappelle Corinne Cath. Les remplacer par des offres locales équivalentes ne peut donc pas être l’objectif. Le concept de souveraineté numérique produit un cadrage nationaliste voire militariste qui peut-être tout aussi préjudiciable à l’intérêt général que l’autonomie technologique pourrait souhaiter porterNous n’avons pas besoin de cloner les services en nuage américains, mais « de développer une vision alternative du rôle de l’informatique dans la société, qui privilégie l’humain sur la maximisation du profit ». Ce ne sont pas seulement nos dépendances technologiques que nous devons résoudre, mais également concevoir et financer des alternatives qui portent d’autres valeurs que celles de l’économie numérique américaine. « Les systèmes et les économies fondés sur les principes de suffisance, de durabilité, d’équité et de droits humains, plutôt que sur l’abondance informatique et l’expansion des marchés, offrent une voie plus prometteuse ».

La « tradition » des passe-droits

Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de député (et ainsi de ménager les finances du Parti conservateur), de la tribune de l’Assemblée nationale et éventuellement de participer aux prochains débats des chefs. Il accuse Paul St-Pierre Plamondon de « briser une tradition » en présentant un candidat contre un chef de parti qui se présente lors d’une élection complémentaire et de « vouloir absolument empêcher un Québécois sur sept d’avoir une voix à l’Assemblée nationale » (Les coulisses du pouvoir, 4 mai 2025).

Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?

Réponse courte: Non.

Cette « tradition » a été observée cinq fois entre 1986 et 2013 par le Parti libéral, le Parti québécois et la Coalition Avenir Québec. Dans les cinq cas, les chefs se présentaient dans une circonscription laissée vacante par un député DE LEUR PROPRE PARTI. Trois de ces élections partielles ont été provoquées par le départ d’un député ayant quitté son poste expressément pour permettre à son ou sa chef(fe) de faire son entrée à l’Assemblée nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a été laissée vacante par le député caquiste Éric Lefebvre, dont le chef siège toujours à l’Assemblée nationale. Si les autres partis avaient accordé un passe-droit à Éric Duhaime, nous aurions assisté à une première historique: la classe politique imposant à une circonscription d’être représentée par un parti pour lequel elle n’a jamais voté. Duhaime y aurait vu un respect élémentaire pour les électeurs du PCQ. J’y vois un grave affront pour les électeurs d’Arthabaska.

Je vous présente l’historique complet des situations où le chef d’un parti représenté à l’Assemblée nationale s’est présenté dans une élection complémentaire. Vous jugerez ensuite.

1) Joseph-Alfred Mousseau (1882)
En 1882, le premier ministre du Québec, Joseph-Adolphe Chapleau, démissionne pour devenir ministre à Ottawa. Il est remplacé par Joseph-Alfred Mousseau, qui lui quitte son ministère à Ottawa pour devenir premier ministre du Québec. Il n’a pas de siège au Québec. C’est Narcisse Lecavalier, député de Jacques-Cartier, qui lui cède son siège en échange d’un poste de haut-fonctionnaire (c’était acceptable à l’époque). Les libéraux ne présentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comté de Jacques-Cartier était conservateur depuis 1867. En 1881, Lecavalier avait été élu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.

2) Georges-Émile Lapalme (1953)
En 1950, Georges-Émile Lapalme quitte son siège de député d’arrière-ban à Ottawa pour devenir chef du Parti libéral du Québec. Aux élections générales de 1952, les libéraux font élire 23 députés, mais Lapalme est battu dans le comté de Joliette. La mort du député d’Outremont, Henri Groulx, vient tristement libérer un siège. Lapalme se présente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la démocratie: « M. Lapalme aurait aimé une élection par acclamation réalisant, aujourd’hui, que c’est le seul moyen pour lui d’être élu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supérieur à tous les électeurs du comté. » (La Presse, 6 juillet 1953) Lapalme est malgré tout élu avec 56% des votes.

3) Claude Ryan (1979)
Les élections de 1976 sont remportées par le Parti québécois. Le premier ministre sortant, Robert Bourassa est remplacé comme chef du Parti libéral du Québec par Claude Ryan, qui n’est pas élu. Zoël Saindon, député d’Argenteuil, démissionne pour lui céder son siège. Choix audacieux: Saindon ne l’avait emporté que par une majorité de 1275 voix contre le candidat péquiste et le candidat de l’Union nationale les suivait de près. Le Parti québécois et l’Union nationale présentent tous deux un candidat contre Ryan, qui l’emporte malgré tout avec 64% des votes.

4) Robert Bourassa (1986)
En 1985, le Parti libéral du Québec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le député libéral Germain Leduc lui cède son siège dans Saint-Laurent. Neuf candidats s’opposent à Bourassa, mais le Parti québécois ne lui présente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comté était gagné d’avance. Bourassa est élu avec 80% des votes.

5) Lucien Bouchard (1996)
Jacques Parizeau a quitté la direction du Parti québécois suite à l’échec du référendum de 1995. Lucien Bouchard, chef du Bloc québécois, a quitté Ottawa pour devenir premier ministre du Québec. Francis Dufour, député de Jonquière, a quitté son siège pour permettre à Bouchard de faire son entrée à l’Assemblée nationale. Le Parti libéral ne présente aucun adversaire à Bouchard, qui est élu avec le score stalinien de 95% des votes.

6) André Boisclair (2006)
André Boisclair succède à Bernard Landry comme chef du Parti québécois en 2005, mais il ne siège pas à l’Assemblée nationale. Nicole Léger, qui avait appuyé Pauline Marois lors de la course à la chefferie, démissionne en 2006. Son comté de Pointe-aux-Trembles est relativement sûr: Nicole Léger l’avait emporté par une majorité de près de 5000 voix en 2003. Ni le Parti libéral, ni l’Action démocratique du Québec (ADQ), ne présentent de candidat contre Boisclair. Ses adversaires sont des candidats de Québec solidaire, du Parti vert et cinq indépendants. Boisclair l’emporte avec 71% des votes.

7) Pauline Marois (2007)
Pauline Marois est élue cheffe du PQ suite à la démission d’André Boisclair en 2007, mais elle a quitté l’Assemblée nationale en 2006. Rosaire Bertrand démissionne de son siège de Charlevoix pour lui céder sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux élections précédentes. Jean Charest n’oppose aucun adversaire à Pauline Marois. L’ADQ présente Conrad Harvey, candidat aux précédentes élections générales. Pauline Marois l’emporte avec 59% des votes.

8) Philippe Couillard (2013)
Philippe Couillard devient chef du Parti libéral du Québec en 2013. Raymond Bachand, son principal adversaire lors de la course à la chefferie, démissionne de son siège à Outremont. Couillard se présente pour le remplacer. Le Parti québécois et la Coalition Avenir Québec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majorité de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.

Faux cas: Gabriel Nadeau-Dubois (2017)
Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti québécois n’avait pas présenté de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncé dès février son intention de ne pas présenter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a été élu co-porte-parole de Québec solidaire. Il est à ce moment un candidat comme les autres. C’est d’ailleurs Manon Massé qui allait briguer le poste de première ministre aux élections générales de 2018.

En résumé, si on prétend s’appuyer sur une « tradition » pour réclamer que le chef d’un parti n’ayant jamais fait élire un seul député soit élu par acclamation, il faut ignorer l’histoire politique du Québec ou souhaiter à tout prix se présenter comme une victime des « élites » et du « système ». Je vous laisse choisir quel cas s’applique ici.

La “tradition” des passe-droits

Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de député (et ainsi de ménager les finances du Parti conservateur), de la tribune de l’Assemblée nationale et éventuellement de participer aux prochains débats des chefs. Il accuse Paul St-Pierre Plamondon de “briser une tradition” en présentant un candidat contre un chef de parti qui se présente lors d’une élection complémentaire et de “vouloir absolument empêcher un Québécois sur sept d’avoir une voix à l’Assemblée nationale” (Les coulisses du pouvoir, 4 mai 2025).

Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?

Réponse courte: Non.

Cette “tradition” a été observée cinq fois entre 1986 et 2013 par le Parti libéral, le Parti québécois et la Coalition Avenir Québec. Dans les cinq cas, les chefs se présentaient dans une circonscription laissée vacante par un député DE LEUR PROPRE PARTI. Trois de ces élections partielles ont été provoquées par le départ d’un député ayant quitté son poste expressément pour permettre à son ou sa chef(fe) de faire son entrée à l’Assemblée nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a été laissée vacante par le député caquiste Éric Lefebvre, dont le chef siège toujours à l’Assemblée nationale. Si les autres partis avaient accordé un passe-droit à Éric Duhaime, nous aurions assisté à une première historique: la classe politique imposant à une circonscription d’être représentée par un parti pour lequel elle n’a jamais voté. Duhaime y aurait vu un respect élémentaire pour les électeurs du PCQ. J’y vois un grave affront pour les électeurs d’Arthabaska.

Je vous présente l’historique complet des situations où le chef d’un parti représenté à l’Assemblée nationale s’est présenté dans une élection complémentaire. Vous jugerez ensuite.

1) Joseph-Alfred Mousseau (1882)
En 1882, le premier ministre du Québec, Joseph-Adolphe Chapleau, démissionne pour devenir ministre à Ottawa. Il est remplacé par Joseph-Alfred Mousseau, qui lui quitte son ministère à Ottawa pour devenir premier ministre du Québec. Il n’a pas de siège au Québec. C’est Narcisse Lecavalier, député de Jacques-Cartier, qui lui cède son siège en échange d’un poste de haut-fonctionnaire (c’était acceptable à l’époque). Les libéraux ne présentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comté de Jacques-Cartier était conservateur depuis 1867. En 1881, Lecavalier avait été élu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.

2) Georges-Émile Lapalme (1953)
En 1950, Georges-Émile Lapalme quitte son siège de député d’arrière-ban à Ottawa pour devenir chef du Parti libéral du Québec. Aux élections générales de 1952, les libéraux font élire 23 députés, mais Lapalme est battu dans le comté de Joliette. La mort du député d’Outremont, Henri Groulx, vient tristement libérer un siège. Lapalme se présente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la démocratie: “M. Lapalme aurait aimé une élection par acclamation réalisant, aujourd’hui, que c’est le seul moyen pour lui d’être élu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supérieur à tous les électeurs du comté.” (La Presse, 6 juillet 1953) Lapalme est malgré tout élu avec 56% des votes.

3) Claude Ryan (1979)
Les élections de 1976 sont remportées par le Parti québécois. Le premier ministre sortant, Robert Bourassa est remplacé comme chef du Parti libéral du Québec par Claude Ryan, qui n’est pas élu. Zoël Saindon, député d’Argenteuil, démissionne pour lui céder son siège. Choix audacieux: Saindon ne l’avait emporté que par une majorité de 1275 voix contre le candidat péquiste et le candidat de l’Union nationale les suivait de près. Le Parti québécois et l’Union nationale présentent tous deux un candidat contre Ryan, qui l’emporte malgré tout avec 64% des votes.

4) Robert Bourassa (1986)
En 1985, le Parti libéral du Québec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le député libéral Germain Leduc lui cède son siège dans Saint-Laurent. Neuf candidats s’opposent à Bourassa, mais le Parti québécois ne lui présente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comté était gagné d’avance. Bourassa est élu avec 80% des votes.

5) Lucien Bouchard (1996)
Jacques Parizeau a quitté la direction du Parti québécois suite à l’échec du référendum de 1995. Lucien Bouchard, chef du Bloc québécois, a quitté Ottawa pour devenir premier ministre du Québec. Francis Dufour, député de Jonquière, a quitté son siège pour permettre à Bouchard de faire son entrée à l’Assemblée nationale. Le Parti libéral ne présente aucun adversaire à Bouchard, qui est élu avec le score stalinien de 95% des votes.

6) André Boisclair (2006)
André Boisclair succède à Bernard Landry comme chef du Parti québécois en 2005, mais il ne siège pas à l’Assemblée nationale. Nicole Léger, qui avait appuyé Pauline Marois lors de la course à la chefferie, démissionne en 2006. Son comté de Pointe-aux-Trembles est relativement sûr: Nicole Léger l’avait emporté par une majorité de près de 5000 voix en 2003. Ni le Parti libéral, ni l’Action démocratique du Québec (ADQ), ne présentent de candidat contre Boisclair. Ses adversaires sont des candidats de Québec solidaire, du Parti vert et cinq indépendants. Boisclair l’emporte avec 71% des votes.

7) Pauline Marois (2007)
Pauline Marois est élue cheffe du PQ suite à la démission d’André Boisclair en 2007, mais elle a quitté l’Assemblée nationale en 2006. Rosaire Bertrand démissionne de son siège de Charlevoix pour lui céder sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux élections précédentes. Jean Charest n’oppose aucun adversaire à Pauline Marois. L’ADQ présente Conrad Harvey, candidat aux précédentes élections générales. Pauline Marois l’emporte avec 59% des votes.

8) Philippe Couillard (2013)
Philippe Couillard devient chef du Parti libéral du Québec en 2013. Raymond Bachand, son principal adversaire lors de la course à la chefferie, démissionne de son siège à Outremont. Couillard se présente pour le remplacer. Le Parti québécois et la Coalition Avenir Québec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majorité de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.

Faux cas: Gabriel Nadeau-Dubois (2017)
Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti québécois n’avait pas présenté de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncé dès février son intention de ne pas présenter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a été élu co-porte-parole de Québec solidaire. Il est à ce moment un candidat comme les autres. C’est d’ailleurs Manon Massé qui allait briguer le poste de première ministre aux élections générales de 2018.

En résumé, si on prétend s’appuyer sur une “tradition” pour réclamer que le chef d’un parti n’ayant jamais fait élire un seul député soit élu par acclamation, il faut ignorer l’histoire politique du Québec ou souhaiter à tout prix se présenter comme une victime des “élites” et du “système”. Je vous laisse choisir quel cas s’applique ici.

Au Brésil, la sécurité sociale sous IA ne fait pas mieux qu’ailleurs

Depuis 2018, l’administration brésilienne s’est mise à l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisées d’ici la fin 2025. Problème : au Brésil comme partout ailleurs, le système dysfonctionne et rejette de nombreuses demandes à tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les règles de calcul de la sécurité sociale à leur égard. « Les utilisateurs mécontents des décisions peuvent faire appel auprès d’un comité interne de ressources juridiques, ce qui doit également se faire via l’application de la sécurité sociale brésilienne. Le délai moyen d’attente pour obtenir une réponse est de 278 jours ».

Doge : la fin du cloisonnement des données

A l’heure où, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent à poursuivre les ressortissants étrangers pour les reconduire aux frontières, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux étrangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcé la surveillance des citoyens et plus encore des ressortissants d’origine étrangère. Le Brennan Center for Justice a publié en 2022 un rapport sur la montée de l’utilisation des réseaux sociaux dans ces activités de surveillance et rappelle que ceux-ci sont massivement mobilisés pour la surveillance des opposants politiques, notamment depuis Occupy et depuis 2014 pour le contrôle des demandes d’immigration et les contrôles aux frontières, rappelle The Verge

Le premier projet de loi du second mandat de Donald Trump était un texte concernant l’immigration clandestine, nous rappelle Le Monde. C’est un texte qui propose la détention automatique par les forces de l’ordre fédérales de migrants en situation irrégulière qui ont été accusés, condamnés ou inculpés pour certains délits, mêmes mineurs, comme le vol à l’étalage. 

La lutte contre l’immigration est au cœur de la politique du président américain, qui dénonce une “invasion” et annonce vouloir déporter 11 millions d’immigrants illégaux, au risque que le tissu social des Etats-Unis, nation d’immigrants, se déchire, rappelait The Guardian. Dès janvier, l’administration Trump a mis fin à l’application CBP One, seule voie pour les demandeurs d’asile désirant entrer légalement sur le territoire des Etats-Unis pour prendre rendez-vous avec l’administration douanière américaine et régulariser leur situation. La suppression unilatérale de l’application a laissé tous les demandeurs d’asile en attente d’un rendez-vous sans recours, rapportait Le Monde

Une opération de fusion des informations sans précédent

Cette politique est en train de s’accélérer, notamment en mobilisant toutes les données numériques à sa disposition, rapporte Wired. Le Doge est en train de construire une base de données dédiée aux étrangers, collectant les données de plusieurs administrations, afin de créer un outil de surveillance d’une portée sans précédent. L’enjeu est de recouper toutes les données disponibles, non seulement pour mieux caractériser les situations des étrangers en situation régulière comme irrégulière, mais également les géolocaliser afin d’aider les services de police chargés des arrestations et de la déportation, d’opérer. 

Jusqu’à présent, il existait d’innombrables bases de données disparates entre les différentes agences et au sein des agences. Si certaines pouvaient être partagées, à des fins policières, celles-ci n’ont jamais été regroupées par défaut, parce qu’elles sont souvent utilisées à des fins spécifiques. Le service de l’immigration et des douanes (ICE, Immigration and Customs Enforcement) et le département d’investigation de la sécurité intérieure (HSI, Homeland Security Investigations), par exemple, sont des organismes chargés de l’application de la loi et ont parfois besoin d’ordonnances du tribunal pour accéder aux informations sur un individu dans le cadre d’enquêtes criminelles, tandis que le service de citoyenneté et d’immigration des États-Unis (USCIS, United States Citizenship and Immigration Services) des États-Unis collecte des informations sensibles dans le cadre de la délivrance régulière de visas et de cartes vertes. 

Des agents du Doge ont obtenu l’accès aux systèmes de l’USCIS. Ces bases de données  contiennent des informations sur les réfugiés et les demandeurs d’asile, des données sur les titulaires de cartes vertes, les citoyens américains naturalisés et les bénéficiaires du programme d’action différée pour les arrivées d’enfants. Le Doge souhaite également télécharger des informations depuis les bases de données de myUSCIS, le portail en ligne où les immigrants peuvent déposer des demandes, communiquer avec l’USCIS, consulter l’historique de leurs demandes et répondre aux demandes de preuves à l’appui de leur dossier. Associées aux informations d’adresse IP des personnes qui consultent leurs données, elles pourraient servir à géolocaliser les immigrants. 

Le département de sécurité intérieur (DHS, Department of Homeland Security) dont dépendent certaines de ces agences a toujours été très prudent en matière de partage de données. Ce n’est plus le cas. Le 20 mars, le président Trump a d’ailleurs signé un décret exigeant que toutes les agences fédérales facilitent « le partage intra- et inter-agences et la consolidation des dossiers non classifiés des agences », afin d’entériner la politique de récupération de données tout azimut du Doge. Jusqu’à présent, il était historiquement « extrêmement difficile » d’accéder aux données que le DHS possédait déjà dans ses différents départements. L’agrégation de toutes les données disponibles « représenterait une rupture significative dans les normes et les politiques en matière de données », rappelle un expert. Les agents du Doge ont eu accès à d’innombrables bases, comme à Save, un système de l’USCIS permettant aux administrations locales et étatiques, ainsi qu’au gouvernement fédéral, de vérifier le statut d’immigration d’une personne. Le Doge a également eu accès à des données de la sécurité sociale et des impôts pour recouper toutes les informations disponibles. 

Le problème, c’est que la surveillance et la protection des données est également rendue plus difficile. Les coupes budgétaires et les licenciements ont affecté trois services clés qui constituaient des garde-fous importants contre l’utilisation abusive des données par les services fédéraux, à savoir le Bureau des droits civils et des libertés civiles (CRCL, Office for Civil Rights and Civil Liberties), le Bureau du médiateur chargé de la détention des immigrants et le Bureau du médiateur des services de citoyenneté et d’immigration. Le CRCL, qui enquête sur d’éventuelles violations des droits de l’homme par le DHS et dont la création a été mandatée par le Congrès est depuis longtemps dans le collimateur du Doge. 

Le 5 avril, le DHS a conclu un accord avec les services fiscaux (IRS) pour utiliser les données fiscales. Plus de sept millions de migrants travaillent et vivent aux États-Unis. L’ICE a également récemment versé des millions de dollars à l’entreprise privée Palantir pour mettre à jour et modifier une base de données de l’ICE destinée à traquer les immigrants, a rapporté 404 Media. Le Washington Post a rapporté également que des représentants de Doge au sein d’agences gouvernementales – du Département du Logement et du Développement urbain à l’Administration de la Sécurité sociale – utilisent des données habituellement confidentielles pour identifier les immigrants sans papiers. Selon Wired, au Département du Travail, le Doge a obtenu l’accès à des données sensibles sur les immigrants et les ouvriers agricoles. La fusion de toutes les données entre elles pour permettre un accès panoptique aux informations est depuis l’origine le projet même du ministère de l’efficacité américain, qui espère que l’IA va lui permettre de rendre le traitement omniscient

Le changement de finalités de la collecte de données, moteur d’une défiance généralisée

L’administration des impôts a donc accepté un accord de partage d’information et de données avec les services d’immigration, rapporte la NPR, permettant aux agents de l’immigration de demander des informations sur les immigrants faisant l’objet d’une ordonnance d’expulsion. Derrière ce qui paraît comme un simple accès à des données, il faut voir un changement majeur dans l’utilisation des dossiers fiscaux. Les modalités de ce partage d’information ne sont pas claires puisque la communication du cadre de partage a été expurgée de très nombreuses informations. Pour Murad Awawdeh, responsable de la New York Immigration Coalition, ce partage risque d’instaurer un haut niveau de défiance à respecter ses obligations fiscales, alors que les immigrants paient des impôts comme les autres et que les services fiscaux assuraient jusqu’à présent aux contribuables sans papiers la confidentialité de leurs informations et la sécurité de leur déclaration de revenus.

La NPR revient également sur un autre changement de finalité, particulièrement problématique : celle de l’application CBP One. Cette application lancée en 2020 par l’administration Biden visait à permettre aux immigrants de faire une demande d’asile avant de pénétrer aux Etats-Unis. Avec l’arrivée de l’administration Trump, les immigrants qui ont candidaté à une demande d’asile ont reçu une notification les enjoignants à quitter les Etats-Unis et les données de l’application ont été partagées avec les services de police pour localiser les demandeurs d’asile et les arrêter pour les reconduire aux frontières. Pour le dire simplement : une application de demande d’asile est désormais utilisée par les services de police pour identifier ces mêmes demandeurs et les expulser. Les finalités sociales sont transformées en finalités policières. La confidentialité même des données est détruite.

CBP One n’est pas la seule application dont la finalité a été modifiée. Une belle enquête du New York Times évoque une application administrée par Geo Group, l’un des principaux gestionnaires privés de centres pénitentiaires et d’établissements psychiatriques aux Etats-Unis. Une application que des étrangers doivent utiliser pour se localiser et s’identifier régulièrement, à la manière d’un bracelet électronique. Récemment, des utilisateurs de cette application ont été convoqués à un centre d’immigration pour mise à jour de l’application. En fait, ils ont été arrêtés. 

Geo Group a développé une activité lucrative d’applications et de bracelets électroniques pour surveiller les immigrants pour le compte du gouvernement fédéral qui ont tous été mis au service des procédures d’expulsion lancées par l’administration Trump, constatent nombre d’associations d’aides aux étrangers. “Alors même que M. Trump réduit les dépenses du gouvernement fédéral, ses agences ont attribué à Geo Group de nouveaux contrats fédéraux pour héberger des immigrants sans papiers. Le DHS envisage également de renouveler un contrat de longue date avec l’entreprise – d’une valeur d’environ 350 millions de dollars l’an dernier – pour suivre les quelque 180 000 personnes actuellement sous surveillance”. Ce programme “d’alternative à la détention en centre de rétention » que Noor Zafar, avocate principale à l’American Civil Liberties Union, estime relever plutôt d’une “extension à la détention”, consiste en des applications et bracelets électroniques. Les programmes de Geo Group, coûteux, n’ont pas été ouverts à la concurrence, rapporte le New York Times, qui explique également que ses programmes sont en plein boom. Ces applications permettent aux employés de Geo Group de savoir en temps réel où se trouvent leurs porteurs, leur permettent de délimiter des zones dont ils ne peuvent pas sortir sans déclencher des alertes. 

Une confiance impossible !

Ces exemples américains de changement de finalités sont emblématiques et profondément problématiques. Ils ne se posent pourtant pas que de l’autre côté de l’Atlantique. Utiliser des données produites dans un contexte pour d’autres enjeux et d’autres contextes est au cœur des fonctionnements des systèmes numériques, comme nous l’avions vu à l’époque du Covid. Les finalités des traitements des services numériques qu’on utilise sont rarement claires, notamment parce qu’elles peuvent être mises à jour unilatéralement et ce, sans garantie. Et le changement de finalité peut intervenir à tout moment, quelque soit l’application que vous utilisez. Remplir un simple questionnaire d’évaluation peut finalement, demain, être utilisé par le service qui le conçoit ou d’autres pour une toute autre finalité, et notamment pour réduire les droits des utilisateurs qui y ont répondu. Répondre à un questionnaire de satisfaction de votre banque ou d’un service public, qui semble anodin, peut divulguer des données qui seront utilisées pour d’autres enjeux. Sans renforcer la protection absolue des données, le risque est que ces exemples démultiplient la méfiance voire le rejet des citoyens et des administrés. A quoi va être utilisé le questionnaire qu’on me propose ? Pourra-t-il être utilisé contre moi ? Qu’est-ce qui me garantie qu’il ne le sera pas ? 

La confiance dans l’utilisation qui est faite des données par les services, est en train d’être profondément remise en question par l’exemple américain et pourrait avoir des répercussions sur tous les services numériques, bien au-delà des Etats-Unis. La spécialiste de la sécurité informatique, Susan Landau, nous l’avait pourtant rappelé quand elle avait étudié les défaillances des applications de suivi de contact durant la pandémie : la confidentialité est toujours critique. Elle parlait bien sûr des données de santé des gens, mais on comprend qu’assurer la confidentialité des données personnelles que les autorités détiennent sur les gens est tout aussi critique. Les défaillances de confidentialité sapent la confiance des autorités qui sont censées pourtant être les premières garantes des données personnelles des citoyens. 

Aurait-on oublié pourquoi les données sont cloisonnées ?

« Ces systèmes sont cloisonnés pour une raison », rappelle Victoria Noble, avocate à l’Electronic Frontier Foundation. « Lorsque vous centralisez toutes les données d’une agence dans un référentiel central accessible à tous les membres de l’agence, voire à d’autres agences, vous augmentez considérablement le risque que ces informations soient consultées par des personnes qui n’en ont pas besoin et qui les utilisent à des fins inappropriées ou répressives, pour les instrumentaliser, les utiliser contre des personnes qu’elles détestent, des dissidents, surveiller des immigrants ou d’autres groupes. »

« La principale inquiétude désormais est la création d’une base de données fédérale unique contenant tout ce que le gouvernement sait sur chaque personne de ce pays », estime Cody Venzke de l’Union américaine pour les libertés civiles (ACLU). « Ce que nous voyons est probablement la première étape vers la création d’un dossier centralisé sur chaque habitant.» Wired rapporte d’ailleurs que l’ACLU a déposé plainte contre l’Administration de la Sécurité Sociale (SSA) et le Département des Anciens Combattants (VA) qui ont ouvert des accès de données sensibles au Doge en violation de la loi sur la liberté d’information, après en avoir déjà déposé une en février contre le Trésor américain pour les mêmes raisons (alors que ce n’est pas nécessairement la seule manière de procéder. Confronté aux demandes du Doge, le régulateur des marchés financiers américains, rapporte Reuters, a pour l’instant pu créer une équipe de liaison spécifique pour répondre aux demandes d’information du Doge, afin que ses équipes n’aient pas accès aux données de l’autorité des marchés financiers). 

En déposant plainte, l’ACLU cherche notamment à obtenir des documents pour saisir exactement ce à quoi a accès le Doge. “Les Américains méritent de savoir qui a accès à leurs numéros de sécurité sociale, à leurs informations bancaires et à leurs dossiers médicaux”, explique une avocate de l’ACLU. 

Le cloisonnement des données, des bases, selon leurs finalités et les agences qui les administrent, est un moyen non seulement d’en préserver l’intégrité, mais également d’en assurer la sécurité et la confidentialité. Ce sont ces verrous qui sont en train de sauter dans toutes les administrations sous la pression du Doge, posant des questions de sécurité inédites, comme nous nous en inquiétons avec Jean Cattan dans une lettre du Conseil national du numérique. Ce sont les mesures de protection d’une démocratie numérique qui sont en train de voler en éclat

Pour Wired, Brian Barrett estime que les données qu’agrège le Doge ne sont pas tant un outil pour produire une hypothétique efficacité, qu’une arme au service des autorités. La question de l’immigration n’est qu’un terrain d’application parmi d’autres. La brutalité qui s’abat sur les étrangers, les plus vulnérables, les plus démunis, est bien souvent une préfiguration de son extension à toutes les autres populations, nous disait le philosophe Achille Mbembe dans Brutalisme

Et maintenant que les croisements de données sont opérationnels, que les données ont été récupérées par les équipes du Doge, l’enjeu va être de les faire parler, de les mettre en pratique. 

Finalement, le départ annoncé ou probable de Musk de son poste en première ligne du Doge ne signe certainement pas la fin de cette politique, toute impopulaire qu’elle soit (enfin, Musk est bien plus impopulaire que les économies dans les services publics qu’il propose), mais au contraire, le passage à une autre phase. Le Doge a pris le contrôle, et il s’agit désormais de rendre les données productives. L’efficacité n’est plus de réduire les dépenses publiques de 2 000 milliards de dollars, comme le promettait Musk à son arrivée. Il a lui-même reconnu qu’il ne visait plus que 150 milliards de dollars de coupe en 2025, soit 15 % de l’objectif initial, comme le soulignait Le Monde. Mais le débat sur les coupes et l’efficacité, sont d’abord un quolifichet qu’on agite pour détourner l’attention de ce qui se déroule vraiment, à savoir la fin de la vie privée aux Etats-Unis. En fait, la politique initiée par le Doge ne s’arrêtera pas avec le retrait probable de Musk. IL n’en a été que le catalyseur.

Elizabeth Lopatto pour The Verge explique elle aussi que l’ère du Doge ne fait que commencer. Malgré ses échecs patents et l’explosion des plaintes judiciaires à son encontre (Bloomberg a dénombré plus de 300 actions en justice contre les décisions prises par le président Trump : dans 128 affaires, ils ont suspendu les décisions de l’administration Trump). Pour elle, Musk ne va pas moins s’immiscer dans la politique publique. Son implication risque surtout d’être moins publique et moins visible dans ses ingérences, afin de préserver son égo et surtout son portefeuille. Mais surtout, estime-t-elle, les tribunaux ne sauveront pas les Américains des actions du Doge, notamment parce que dans la plupart des cas, les décisions tardent à être prises et à être effectives. Pourtant, si les tribunaux étaient favorables à « l’élimination de la fraude et des abus », comme le dit Musk – à ce stade, ils devraient surtout œuvrer à “éliminer le Doge” !

Ce n’est malgré tout pas la direction qui est prise, au contraire. Même si Musk s’en retire, l’administration continue à renforcer le pouvoir du Doge qu’à l’éteindre. C’est ainsi qu’il faut lire le récent hackathon aux services fiscaux ou le projet qui s’esquisse avec Palantir. L’ICE, sous la coupe du Doge, vient de demander à Palantir, la sulfureuse entreprise de Thiel, de construire une plateforme dédiée, explique Wired : “ImmigrationOS”, « le système d’exploitation de l’immigration » (sic). Un outil pour “choisir les personnes à expulser”, en accordant une priorité particulière aux personnes dont le visa est dépassé qui doivent, selon la demande de l’administration, prendre leurs dispositions pour “s’expulser elles-mêmes des Etats-Unis”. L’outil qui doit être livré en septembre a pour fonction de cibler et prioriser les mesures d’application, c’est-à-dire d’aider à sélectionner les étrangers en situation irrégulière, les localiser pour les arrêter. Il doit permettre de suivre que les étrangers en situation irrégulière prennent bien leur disposition pour quitter les Etats-Unis, afin de mesurer la réalité des départs, et venir renforcer les efforts des polices locales, bras armées des mesures de déportation, comme le pointait The Markup

De ImmigrationOS au panoptique américain : le démantèlement des mesures de protection de la vie privée

Dans un article pour Gizmodo qui donne la parole à nombre d’opposants à la politique de destructions des silos de données, plusieurs rappellent les propos du sénateur démocrate Sam Ervin, auteur de la loi sur la protection des informations personnelles suite au scandale du Watergate, qui redoutait le caractère totalitaire des informations gouvernementales sur les citoyens. Pour Victoria Noble de l’Electronic Frontier Foundation, ce contrôle pourrait conduire les autorités à « exercer des représailles contre les critiques adressées aux représentants du gouvernement, à affaiblir les opposants politiques ou les ennemis personnels perçus, et à cibler les groupes marginalisés. » N’oubliez pas qu’il s’agit du même président qui a qualifié d’« ennemis » les agents électoraux, les journalistes, les juges et, en fait, toute personne en désaccord avec lui. Selon Reuters, le Doge a déjà utilisé l’IA pour détecter les cas de déloyauté parmi les fonctionnaires fédéraux. Pour les défenseurs des libertés et de la confidentialité, il est encore temps de renforcer les protections citoyennes. Et de rappeler que le passage de la sûreté à la sécurité, de la défense contre l’arbitraire à la défense de l’arbitraire, vient de ce que les élus ont passé bien plus d’énergie à légiférer pour la surveillance qu’à établir des garde-fous contre celle-ci, autorisant toujours plus de dérives, comme d’autoriser la surveillance des individus sans mandats de justice.

Pour The Atlantic, Ian Bogost et Charlie Warzel estiment que le Doge est en train de construire le panoptique américain. Ils rappellent que l’administration est l’univers de l’information, composée de constellations de bases de données. Des impôts au travail, toutes les administrations collectent et produisent des données sur les Américains, et notamment des données particulièrement sensibles et personnelles. Jusqu’à présent, de vieilles lois et des normes fragiles ont empêché que les dépôts de données ne soient regroupés. Mais le Doge vient de faire voler cela en éclat, préparant la construction d’un Etat de surveillance centralisé. En mars, le président Trump a publié un décret visant à éliminer les silos de données qui maintiennent les informations séparément. 

Dans leur article, Bogost et Warzel listent d’innombrables bases de données maintenues par des agences administratives : bases de données de revenus, bases de données sur les lanceurs d’alerte, bases de données sur la santé mentale d’anciens militaires… L’IA promet de transformer ces masses de données en outils “consultables, exploitables et rentables”. Mais surtout croisables, interconnectables. Les entreprises bénéficiant de prêts fédéraux et qui ont du mal à rembourser, pourraient désormais être punies au-delà de ce qui est possible, par la révocation de leurs licences, le gel des aides ou de leurs comptes bancaires. Une forme d’application universelle permettant de tout croiser et de tout inter-relier. Elles pourraient permettre de cibler la population en fonction d’attributs spécifiques. L’utilisation actuelle par le gouvernement de ces données pour expulser des étrangers, et son refus de fournir des preuves d’actes répréhensibles reprochées à certaines personnes expulsées, suggère que l’administration a déjà franchi la ligne rouge de l’utilisation des données à des fins politiques

Le Doge ne se contente pas de démanteler les mesures de protection de la vie privée, il ignore qu’elles ont été rédigées. Beaucoup de bases ont été conçues sans interconnectivité par conception, pour protéger la vie privée. “Dans les cas où le partage d’informations ou de données est nécessaire, la loi sur la protection de la vie privée de 1974 exige un accord de correspondance informatique (Computer Matching Agreement, CMA), un contrat écrit qui définit les conditions de ce partage et assure la protection des informations personnelles. Un CMA est « un véritable casse-tête », explique un fonctionnaire, et constitue l’un des moyens utilisés par le gouvernement pour décourager l’échange d’informations comme mode de fonctionnement par défaut”

La centralisation des données pourrait peut-être permettre d’améliorer l’efficacité gouvernementale, disent bien trop rapidement Bogost et Warzel, alors que rien ne prouve que ces croisements de données produiront autre chose qu’une discrimination toujours plus étendue car parfaitement granulaire. La protection de la vie privée vise à limiter les abus de pouvoir, notamment pour protéger les citoyens de mesures de surveillance illégales du gouvernement

Derrière les bases de données, rappellent encore les deux journalistes, les données ne sont pas toujours ce que l’on imagine. Toutes les données de ces bases ne sont pas nécessairement numérisées. Les faire parler et les croiser ne sera pas si simple. Mais le Doge a eu accès à des informations inédites. “Ce que nous ignorons, c’est ce qu’ils ont copié, exfiltré ou emporté avec eux”. 

“Doge constitue l’aboutissement logique du mouvement Big Data” : les données sont un actif. Les collecter et les croiser est un moyen de leur donner de la valeur. Nous sommes en train de passer d’une administration pour servir les citoyens à une administration pour les exploiter, suggèrent certains agents publics. Ce renversement de perspective “correspond parfaitement à l’éthique transactionnelle de Trump”. Ce ne sont plus les intérêts des américains qui sont au centre de l’équation, mais ceux des intérêts commerciaux des services privés, des intérêts des amis et alliés de Trump et Musk.

La menace totalitaire de l’accaparement des données personnelles gouvernementales

C’est la même inquiétude qu’exprime la politiste Allison Stanger dans un article pour The Conversation, qui rappelle que l’accès aux données gouvernementales n’a rien à voir avec les données personnelles que collectent les entreprises privées. Les référentiels gouvernementaux sont des enregistrements vérifiés du comportement humain réel de populations entières. « Les publications sur les réseaux sociaux et les historiques de navigation web révèlent des comportements ciblés ou intentionnels, tandis que les bases de données gouvernementales capturent les décisions réelles et leurs conséquences. Par exemple, les dossiers Medicare révèlent les choix et les résultats en matière de soins de santé. Les données de l’IRS et du Trésor révèlent les décisions financières et leurs impacts à long terme. Les statistiques fédérales sur l’emploi et l’éducation révèlent les parcours scolaires et les trajectoires professionnelles. » Ces données là, capturées pour faire tourner et entraîner des IA sont à la fois longitudinales et fiables. « Chaque versement de la Sécurité sociale, chaque demande de remboursement Medicare et chaque subvention fédérale constituent un point de données vérifié sur les comportements réels. Ces données n’existent nulle part ailleurs aux États-Unis avec une telle ampleur et une telle authenticité. » « Les bases de données gouvernementales suivent des populations entières au fil du temps, et pas seulement les utilisateurs actifs en ligne. Elles incluent les personnes qui n’utilisent jamais les réseaux sociaux, n’achètent pas en ligne ou évitent activement les services numériques. Pour une entreprise d’IA, cela impliquerait de former les systèmes à la diversité réelle de l’expérience humaine, plutôt qu’aux simples reflets numériques que les gens projettent en ligne.«  A terme, explique Stanger, ce n’est pas la même IA à laquelle nous serions confrontés. « Imaginez entraîner un système d’IA non seulement sur les opinions concernant les soins de santé, mais aussi sur les résultats réels des traitements de millions de patients. Imaginez la différence entre tirer des enseignements des discussions sur les réseaux sociaux concernant les politiques économiques et analyser leurs impacts réels sur différentes communautés et groupes démographiques sur des décennies ». Pour une entreprise développant des IA, l’accès à ces données constituerait un avantage quasi insurmontable. « Un modèle d’IA, entraîné à partir de ces données gouvernementales pourrait identifier les schémas thérapeutiques qui réussissent là où d’autres échouent, et ainsi dominer le secteur de la santé. Un tel modèle pourrait comprendre comment différentes interventions affectent différentes populations au fil du temps, en tenant compte de facteurs tels que la localisation géographique, le statut socio-économique et les pathologies concomitantes. » Une entreprise d’IA qui aurait accès aux données fiscales, pourrait « développer des capacités exceptionnelles de prévision économique et de prévision des marchés. Elle pourrait modéliser les effets en cascade des changements réglementaires, prédire les vulnérabilités économiques avant qu’elles ne se transforment en crises et optimiser les stratégies d’investissement avec une précision impossible à atteindre avec les méthodes traditionnelles ». Explique Stanger, en étant peut-être un peu trop dithyrambique sur les potentialités de l’IA, quand rien ne prouve qu’elles puissent faire mieux que nos approches plus classiques. Pour Stanger, la menace de l’accès aux données gouvernementales par une entreprise privée transcende les préoccupations relatives à la vie privée des individus. Nous deviendrons des sujets numériques plutôt que des citoyens, prédit-elle. Les données absolues corrompt absolument, rappelle Stanger. Oubliant peut-être un peu rapidement que ce pouvoir totalitaire est une menace non seulement si une entreprise privée se l’accapare, mais également si un Etat le déploie. La menace d’un Etat totalitaire par le croisement de toutes les données ne réside pas seulement par l’accaparement de cette puissance au profit d’une entreprise, comme celles de Musk, mais également au profit d’un Etat. 

Nombre de citoyens étaient déjà résignés face à l’accumulation de données du secteur privé, face à leur exploitation sans leur consentement, concluent Bogost et Warzel. L’idée que le gouvernement cède à son tour ses données à des fins privées est scandaleuse, mais est finalement prévisible. La surveillance privée comme publique n’a cessé de se développer et de se renforcer. La rupture du barrage, la levée des barrières morales, limitant la possibilité à recouper l’ensemble des données disponibles, n’était peut-être qu’une question de temps. Certes, le pire est désormais devant nous, car cette rupture de barrière morale en annonce d’autres. Dans la kleptocratie des données qui s’est ouverte, celles-ci pourront être utilisées contre chacun, puisqu’elles permettront désormais de trouver une justification rétroactive voire de l’inventer, puisque l’intégrité des bases de données publiques ne saurait plus être garantie. Bogost et Warzel peuvent imaginer des modalités, en fait, désormais, les systèmes n’ont même pas besoin de corréler vos dons à des associations pro-palestiniennes pour vous refuser une demande de prêt ou de subvention. Il suffit de laisser croire que désormais, le croisement de données le permet. 

Pire encore, “les Américains sont tenus de fournir de nombreuses données sensibles au gouvernement, comme des informations sur le divorce d’une personne pour garantir le versement d’une pension alimentaire, ou des dossiers détaillés sur son handicap pour percevoir les prestations d’assurance invalidité de la Sécurité sociale”, rappelle Sarah Esty, ancienne conseillère principale pour la technologie et la prestation de services au ministère américain de la Santé et des Services sociaux. “Ils ont agi ainsi en étant convaincus que le gouvernement protégerait ces données et que seules les personnes autorisées et absolument nécessaires à la prestation des services y auraient accès. Si ces garanties sont violées, ne serait-ce qu’une seule fois, la population perdra confiance dans le gouvernement, ce qui compromettra à jamais sa capacité à gérer ces services”. C’est exactement là où l’Amérique est plongée. Et le risque, devant nous, est que ce qui se passe aux Etats-Unis devienne un modèle pour saper partout les garanties et la protection des données personnelles

Hubert Guillaud

Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre le Cabinet Louis Reynaud et moi.

Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.

J’avais alors formulé plusieurs souhaits :

  1. que des journalistes et des associations de défense des libertés numériques se saisissent de ces éléments et enquêtent.
  2. que d’autres associations ayant reçu de pareilles sollicitations me contactent ou publient aussi ces éléments.
  3. que les autorités indépendantes que sont la CNIL et l’ANSSI s’expriment sur ce sujet.

Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière 🙂 Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.

Côté presse d’abord.

Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein 🙂

Cela commence avec une brève (mais saignante) dans Stratégies du 23 Avril : « Du don de data organique contre la précarité. »

 

Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.

 

Cela continue avec un autre article, cette fois dans l’Humanité en date du 25 Avril : « Aide alimentaire contre données biométriques ? L’étrange deal proposé par le cabinet Louis Reynaud, spécialisé dans la cybersécurité, à une épicerie solidaire. »

 

Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf

 

Et Ouest-France à son tour sort un papier le 2 Mai : « Comment on a offert à des étudiants bénéficiaires d’une épicerie solidaire de ficher leur visage. »

 

Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).

 

Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).

Effet Streisand.

L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »

Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant 🙂 Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).

Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).

L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.

 

 

Je rappelle par ailleurs à toutes fins utiles, que ce blog ést doté depuis Juin 2012, par la Bibliothèque Nationale de France, d’un numéro ISSN, et qu’il est donc régulièrement archivé et conservé à titre patrimonial dans le cadre du dépôt légal numérique (parmi 4 millions d’autres sites).

Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.

J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.

Cherry On The Cake.

Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)

J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.

Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.

Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.

Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là 😉

Les médias sociaux ont envahi nos structures sociales pour les dissoudre

Si Zuck peut dire que les médias sociaux sont morts, c’est parce qu’il sait très bien qui a tenu le couteau : lui-même !, explique Kyle Chayka pour le New Yorker. Même constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer à la démanteler en tant que lieu de résistance à la commercialisation, à la marchandisation et à la médiatisation. Saboter le graphe social a été plus rémunérateur que l’exploiter, car les personnes isolées sont des consommateurs plus fiables” (…) “Les réseaux sociaux ont toujours voulu que vous détestiez vos amis”.

A l’heure des investissements « philosophiques »

Les grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques » ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marché qui opérationnalisent leurs convictions. Et tandis que les milliardaires de l’ère industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures érigent des fonds d’investissement qui font également office de forteresses idéologiques. » Evgeny Morozov sort la kalach pour montrer que leurs idées ne sont que des arguments pour défendre leurs positions ! « Ils ont colonisé à la fois le média et le message, le système et le monde réel ».

Pour les nouveaux législateurs de la tech, l’intellectuel archéologue d’hier est mort, il l’ont eux-mêmes remplacé. Experts en démolition, ils n’écrivent plus sur l’avenir, mais l’installe. Ils ne financent plus de think tank, mais les suppriment. Ils dirigent eux-mêmes le débat « dans une production torrentielle qui épuiserait même Balzac », à coups de mèmes sur X repris en Une des journaux internationaux. « Leur droit divin de prédire découle de leur divinité avérée ». « Leurs déclarations présentent l’ancrage et l’expansion de leurs propres programmes non pas comme l’intérêt personnel de leurs entreprises, mais comme la seule chance de salut du capitalisme ».

L’accélération et l’audace entrepreneuriale sont pour eux le seul antidote à la sclérose systémique. Leur objectif : réaligner l’intelligentsia technologique sur le pouvoir de l’argent traditionnel en purifiant ses rangs des pensées subversives. Dans le Washington de Trump, ils n’arrivent pas en invités, mais en architectes, pour faire ce qu’ils ne cessent de faire : manipuler la réalité. « En réécrivant les réglementations, en canalisant les subventions et en réajustant les attentes du public, les intellectuels oligarques transforment des rêves fiévreux – fiefs de la blockchain, fermes martiennes – en futurs apparemment plausibles ».

Reste que le déni de réalité risque bien de les rattraper, prédit Morozov.

Samah Karaki : « Le social est incalculable »

Samah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais à succès, Le talent est une fiction (JC Lattès, 2023) et L’empathie est politique (JC Lattès, 2024). La force des livres de Karaki consiste à remettre en perspective nos idées préconçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intègre à cette lecture des perspectives sociales et politiques, nous invitant à prendre du recul sur nos émotions et nos comportements pour mieux les politiser. Interview.

Dans les algorithmes : Dans vos deux derniers essais, vous ne faites pas qu’une lecture neuroscientifique de nos comportements, mais vous immergez les apports de la recherche en neuroscience et en psychologie de perspectives sociales et politiques. Dans l’un comme dans l’autre, vous nous invitez à prendre du recul sur nos émotions et nos comportements, pour mieux les politiser. Est-ce à dire que vous ne trouvez pas les apports des neurosciences suffisamment politiques ?

Samah Karaki : Effectivement, je trouve que les neurosciences s’intéressent peu aux facteurs sociaux. La lecture des comportements y est souvent faite d’une façon réductionniste, depuis des études en laboratoire, où les comportements ne ressemblent pas à ce qui se produit dans la vie réelle. Cela ne veut pas dire que ces apports ne peuvent pas être mis au service d’une lecture sociologique pour autant. Les neuroscientifiques n’ont jamais prétendu le contraire d’ailleurs… C’est souvent la vulgarisation scientifique qui fait des généralisations, qui souvent bâti un « pont trop loin », et passe, un peu facilement, de la cellule au comportement. Sans compter que le piège naturalisant de la biologie peut avoir tendance à ignorer certains facteurs visibles et invisibles, alors qu’ils peuvent influer sur des facteurs biologiques. Dans la formation même des biologistes, on ne rend pas toujours compte de la complexité de ces interactions. 

Ainsi, on a connu une phase monogénique jusque dans les années 90, où l’on cherchait les gènes de tels ou tels phénotypes ou de tels comportements. On s’est depuis éloigné de cette approche pour une approche plus polygénique où l’on admet qu’il y a des milliers de gènes qui peuvent donner un phénotype donné. Reste que l’impérialisme biologique qui a régné au XIXe siècle a parfois tendance à revenir, avec des propos de généticiens du comportement qui donnent une primauté sur l’explication des comportements par le biologique. 

La difficulté des neurosciences, c’est qu’on ne peut pas reproduire les facteurs sociologiques au sein d’un laboratoire. D’où l’importance de s’ouvrir aux lectures d’autres disciplines, d’éclairer les neurosciences d’autres disciplines. 

Dans les algorithmes : Cette discussion en tout cas, entre les apports des neurosciences et les apports de la sociologie, est souvent très riche dans vos livres. Ces deux essais nous montrent que les comportements des autres influencent profondément les nôtres. Dans Le talent est un fiction, vous nous dites que les comportements des éducateurs ont le plus d’effet sur nos capacités à croire en nos chances de réussite. Dans L’empathie est politique, vous nous dites également que celle-ci est très dépendante de nos représentations, de nos ancrages sociologiques, et que pour faire advenir des comportements pro-sociaux et dépasser nos réponses émotionnelles, nous devons dépasser les influences qui nous façonnent et les déconstruire. Les deux essais donnent l’impression que nous sommes des éponges sociales et que nous avons beaucoup de mal à nous en extraire. Que nos croyances et nos représentations nous façonnent bien plus qu’on le pense. En être conscient suffit-il à dépasser nos biais ?

Samah Karaki : Absolument pas, hélas. Aujourd’hui, on parle de cognition incarnée, qui est un paradigme qui règne de plus en plus sur la lecture que nous faisons de notre manière de penser. Cela signifie que la cognition n’existe pas que dans nos cerveaux mais aussi dans nos corps et que nos corps existent aussi dans notre rapport aux autres. Cela signifie que ma cognition est traversée par celle des autres. C’est bien sûr ce qui a facilité la survie de notre espèce. En tant qu’êtres physiquement vulnérables, nous avons besoin de récupérer des informations pour explorer un danger ou des opportunités. Et ces informations ne proviennent pas uniquement de notre traitement sensoriel, mais passent aussi par ce qu’on observe chez les autres. En fait, les autres aussi nous permettent de traiter l’information. Cela ne concerne pas que l’espèce humaine d’ailleurs, les plantes aussi construisent un traitement informationnel collectif pour pouvoir avoir des réactions au monde. La cognition incarnée permet de mieux saisir l’intersubjectivité par laquelle on comprend les interactions avec les autres. 

Reste à savoir si l’on peut transcender cette intersubjectivité. En fait, une fois que nous avons automatisé un apprentissage, on l’opère comme on respire. Quand un apprentissage a pris en nous, il devient de l’ordre de l’intuition. On peut certes regarder notre respiration de manière consciente, mais cette conscience là ne nous permet pas de faire autre chose en même temps. On a attribué une grande puissance à notre capacité à nous regarder penser, plus que ce qu’elle est vraiment. Or, détecter en nous une influence, ne signifie pas qu’on soit en capacité de la changer. C’est une approche spinoziste que certains neuroscientifiques rejoignent aujourd’hui : se rendre compte de ses déterminismes ne signifie pas qu’on va les transcender. 

Reste que cette prise de conscience nous permet de nous organiser pour pouvoir, peut-être ou parfois, changer l’influence à sa racine. On n’opère pas un changement au sein de sa propre cognition, par coertion cognitive, mais on peut s’organiser pour influer sur les systèmes qui nous déterminent. Il y a donc des brèches que nous pouvons opérer dans un déterminisme, mais il ne faut pas sur-exagérer la force de la volonté. Le libre-arbitre, dans l’état actuel des connaissances en neurosciences, n’existe pas vraiment. Nos automatismes sont beaucoup plus écrasants que notre force à les observer ou à y résister. 

Modérons cependant ces constats en rappelant que les études sur le libre-arbitre sont faites en laboratoire : on ne peut donc pas écarter qu’il n’y ait aucune résistance cognitive à soi-même. Les travaux sur la résistance cognitive et l’anticipation du regret montrent que ce sont des aptitudes mentales qui permettent de montrer que l’on sait observer ses influences et y résister. Mais cela a un coût énergétique important qui implique un ralentissement de l’action cognitive. Or, notre cognition ne peut pas se baser sur une résistance permanente à soi. Il est donc utopique et très optimiste de penser que nous aurions beaucoup de pouvoir sur notre propre pensée. 

Dans les algorithmes : Je suis frappé par le fait que vos deux essais questionnent profondément notre rapport à la domination. Notre désir de domination est-il impossible à rassasier ? D’où vient un tel besoin de domination ? 

Samah Karaki : Certes. Mais il ne faut pas croire que cela relèverait d’une forme de nature humaine. C’est le sens de mon prochain ouvrage : nous ne devons pas naturaliser la domination comme un trait biologique. Ce n’est ni Jean-Jacques Rousseau ni Hobbes ! L’homme n’est ni bon à l’état de nature, ni égoïste et tourné vers la domination à l’état de nature. Par contre, la domination est une façon de diviser et simplifier le réel. Comme on a besoin de créer des endogroupes et des exogroupes, de catégoriser les phénomènes, les personnes et les sujets autour de nous, la catégorisation, au niveau de la proximité de l’autre, se fait naturellement. Elle se fait déjà chez le bébé par exemple, qui va montrer une préférence pour les visages familiers et une anxiété et une méfiance vis-à-vis de ce qui lui est inconnu et étrange.. 

Reste que la catégorisation hiérarchique, verticale, est quelque chose qui s’impose surtout socialement… C’est là où l’on peut rejoindre un peu plus Jean-Jacques Rousseau, dans le sens où l’instinct de conservation nous pousse à entretenir nos hiérarchies. La société peut nous pousser à catégoriser dans les statuts sociaux une valeur sociale, qui dépend de nos intérêts économiques. Cela ne se fait pas tant à l’échelle individuelle, mais à l’échelle de systèmes hiérarchiques qui cherchent à assurer leur survie. Je ne fais pas partie des neuroscientifiques qui vont dire que le besoin d’acquérir du pouvoir ou de dominer ou de consommer (ce qui était aussi une théorie très répandue il y a quelques années sur le rapport à la crise climatique, qu’il serait dans notre nature d’user de la vitalité des autres pour soi-même) nous constitue… Pour moi, il n’y a besoin ni de pessimisme ni d’optimisme anthropologique. Mais d’observations de nos systèmes complexes, riches, différents, historiquement comme géographiquement, qui nous imposent des formes de domination. Sans compter toutes les récompenses qu’on peut obtenir en se positionnant dans les échelles de la hiérarchie de domination. 

Dans les algorithmes : Dans Le talent est une fiction, vous expliquez que le mérite est une justification a posteriori. “Dans une société inégalitaire, ceux qui arrivent au sommet veulent ou ont besoin de croire que leur succès est moralement justifié”, alors que ni le talent ni les efforts ne savent renverser la pesanteur du social. Nos propres progrès dépendent bien plus des autres, du contexte, et de notre rapport aux autres, que simplement de nous-mêmes, de notre talent ou de notre travail, qui sont en fait bien plus hérités qu’acquis. “Croire que notre mérite découle de nos talents et de notre travail personnel encourage l’égoïsme, la discrimination et l’indifférence face au sort des autres”. A quoi sert alors cette fiction du mérite, qui est partout autour de nous ?

Couverture du livre, Le talent est une fiction.

Samah Karaki : La fiction du mérite, que beaucoup de sociologues décrivent comme nécessaire car elle vient remplacer l’héritocratie de l’ancien régime, stipule que toute personne a un potentiel qu’elle nourrit par ses efforts et ses liens, dispose d’un principe d’émancipation, à l’image de la déclaration des Droits de l’Homme qui l’a érigée en principe. Chacun à le droit de tenter sa chance. En cela, cette fiction est rassurante, car elle paraît comme un ordre plus juste. C’est aussi une fiction sécurisante, car elle dit que les hommes de pouvoir ont les compétences pour occuper ces positions de pouvoir. Elle est aussi  rassurante pour ceux qui perdent dans ce système, puisqu’elle légitime aussi cette perte. La fiction de la méritocratie est finalement apaisante pour la société, car elle ne pousse pas à analyser les raisons des inégalités et donc à éventuellement les subvertir. La fiction du mérite, nous donne l’illusion que si on n’y arrive pas, c’est parce qu’on n’a pas le talent ou qu’on n’a pas assez travaillé. Elle permet finalement de stabiliser la société. 

Mais ce que je montre dans Le Talent est une fiction, c’est que la société repose toujours sur une héritocratie qui finit par se valider par elle-même. Certes, ce n’est pas parce qu’on a hérité qu’on n’a pas mérité. Mais l’héritage permet plus que le travail de faire fructifier son potentiel. Ceux qui disent que la méritocratie est un principe juste et émancipateur, disent souvent qu’on n’est pas dans une vraie méritocratie. Mais en fait, les personnes qui héritent finissent bien plus que d’autres par hériter d’une position de pouvoir parce qu’ils intègrent les bonnes formations et les opportunités qui leurs permettent de légitimer leur position d’arrivée. 

Dans les algorithmes : Nous devrions remettre en question notre “crédentialisme” – c’est-à-dire la croyance que les qualifications académiques ou autres identifiants prestigieux sont la meilleure mesure de l’intelligence ou de la capacité. Comment pourrions-nous réinventer nos croyances dans le mérite pour le rendre plus inclusif, pour qu’il accorde une place à d’autres formes de mérite que la seule réussite sociale ? Pensez-vous que ce soit un enjeu de société important aujourd’hui de réinventer le mérite ?

Samah Karaki : La méritocratie ne peut pas reposer que sur des critères de réussite, car on a aussi le droit de s’émanciper « sur place », sans élévation économique. Nous n’avons pas tous le culte de l’ambition. Et nous avons tous le droit à la dignité, au-delà de ce qu’on réalise ou pas. La concentration de certains types d’aptitudes qui seules mèneraient à la réussite a peut-être fonctionné à une époque où on avait besoin d’aptitudes liées au raisonnement abstrait, comme le proposaient les tests QI ou comme le valorise le système académique. L’aptitude de raisonnement abstrait – qui signifie principalement une rapidité et une aisance de processus mentaux logico-mathématiques – est en opposition avec d’autres types d’aptitudes comme celle de la résistance cognitive. Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. Cela nous dit que si nous n’avons pas assez développé cette réflexivité mentale et le doute de sa pensée, on peut avoir du mal face à l’incertitude, mais être très bons sur la résolution de problèmes. En fait, on n’a aucune idée, aucun indicateur sur l’entraînement de ces autres aptitudes, du talent lié au doute… Je propose d’ailleurs qu’on s’intéresse à ces autres aptitudes. On peut être à l’aise dans le raisonnement abstrait et mal à l’aise dans d’autres aptitudes. Cela nous rappelle d’ailleurs que le génie solitaire n’existe pas. C’est bien souvent les discordes dans nos façons de penser qui permettent de parvenir à des pensées complexes, notamment dans les situations incertaines. Même notre définition de l’intelligence artificielle s’appelle intelligence parce qu’on la compare à la nôtre dans un anthropomorphisme qui nous rappelle qu’on n’arrive pas à concevoir d’autres façons d’appréhender le monde. Or, aujourd’hui, on devrait définir l’intelligence autrement. En neuroscience, on parle d’ailleurs plutôt d’aptitudes que d’intelligence. 

« Penser vite est l’opposé de penser lentement, car penser lentement consiste comme on l’a dit à résister et remettre en question. »

Dans les algorithmes : Vous concluez Le Talent est une fiction par la nécessité de plus d’empathie et de diversité pour élargir la mesure de la réussite. Au regard de votre second livre, plus critique sur les limites de l’empathie, votre constat est-il toujours d’actualité ? 

Samah Karaki : Oui, parce que si on ne se projette pas dans d’autres façons de vivre le monde et dans d’autres conditions pour le vivre, on risque de rester camper sur une seule façon de lire les trajectoires. C’est pour cela que les procédures de sélection dans les formations se basent sur des critères éprouvés, celles des personnes qui sélectionnent et donc des personnes qui ont elles-mêmes réussi dans ces mêmes formations. Par cette empathie, je suggérais qu’on puisse s’ouvrir à d’autres trajectoires et inclure ces trajectoires dans les processus de sélection pour ne pas qu’ils ne se ferment, qu’ils favorisent l’entre-soi. Notre façon de vivre dans le monde n’est pas universelle. C’est ce que je disais sur la question de la réussite, c’est ce que je répète sur la question de la morale dans L’empathie est politique. Il n’y a pas une recette et une seule de ce qu’est d’avoir une vie réussie. Nous devons nous ouvrir à d’autres définitions, à d’autres formes d’attachements… Et nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ. C’est comme si nous étions invités à un concours de natation, jugés par des poissons. 

Je n’aime pas parler de personnes atypiques, qui me semble une forme d’essentialisation. La psychiatrie, heureusement, sort d’une définition déficitaire, où certaines personnes auraient des déficits par rapport à la norme et que la société doit les amener à cette norme. En psychiatrie, on parle plutôt de « spectre » désormais et de différences d’appréhension de l’apprentissage. C’est là un vrai progrès. Mais les systèmes scolaires et professionnels, eux, sont toujours dans une approche déficitaire. Nous avons encore besoin d’y diversifier la norme. Ce n’est pas que la norme n’est pas bonne d’ailleurs, mais elle est totalitaire, trop rigide. On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister. 

« Nous devons arrêter de déconsidérer les perdants de nos systèmes sociaux. Nos sociétés nous invitent trop souvent à réussir à un seul jeu selon une seule règle, alors que nous avons tous des habilités différentes au départ ». « On ne peut pas vivre en étant une espèce si complexe et si riche pour atteindre une seule forme normative d’exister ».

Couverture du livre, L’empathie est politique.

Dans les algorithmes : L’empathie est politique est incontestablement une suite et une réponse de votre précédent livre, puisqu’il interroge ce qui le concluait, l’empathie. Notre capacité d’empathie est très plastique, modulable, sélective. Le film de Jonathan Glazer, La Zone d’intérêt, le montre très bien, en soulignant la grande normalité d’une famille nazie qui parvient très bien à faire abstraction de l’horreur qui se déroule à côté d’eux, en étant compatissante pour les siens et indifférentes aux hurlements et aux coups de feux qui leur parvient de l’autre côté des murs de leur maison. L’empathie n’est pas une capacité universelle ou naturelle, mais sociale, orientée et orientable. Politique. Elle est biaisée par la proximité sociale : on se sent plus proche de ceux qui nous sont proches, socialement ou culturellement. Nous la convoquons pour nous donner l’illusion de compréhension des autres, mais « nous nous projetons bien plus dans l’autre que nous ne le comprenons », dites-vous. Aurions-nous une forme d’illusion à comprendre l’autre ?

Samah Karaki : Vous avez cité les trois limites que je pose à l’empathie. D’abord, qu’elle est mécaniquement sélective, car on n’a pas assez d’attention disponible pour se projeter dans les expériences de tout le monde. On réserve donc cette habilité à ceux qui nous sont proches, à ceux qui appartiennent à notre cercle, à notre endogroupe. Et en plus, elle est influencée par les cadrages culturels, politiques, médiatiques qui viennent positionner les groupes humains selon une hiérarchie de valeur. L’empathie est une aptitude qui cherche une similitude – « l’impérialisme du même », disait Lévinas -, c’est-à-dire qu’elle cherche en l’autre mon semblable – ce qui est sa force et sa limite. Cela signifie que si je ne trouve pas dans l’autre mon semblable je ne vais pas l’humaniser et lui attribuer de l’empathie. Cela nous montre qu’elle n’est pas très fiable. On peut décider que l’autre n’est pas notre semblable, comme nous le rappelle le film de Glazer justement. 

Enfin, on est attaché à ce qui nous ressemble, ce qui est une forme de narcissisme de l’espèce. Mais, cette impression de similitude est bien souvent factice. L’expérience de l’autre n’est bien souvent pas celle qu’on imagine qu’elle est. C’est la troisième limite à l’empathie. Même quand on arrive à s’identifier à l’autre, après plein d’examens de similitude morale et de traits de comportements ou de sensibilité intellectuelle… à la fin, on est dans l’illusion de la compréhension de l’autre, car on ne le voit que là où on s’y retrouve ! Si on est exclu d’une expérience par exemple, on l’analyse mal avec nos outils limités et tronqués car nous n’avons pas nécessairement les vies riches que nous imaginerions avoir. Avoir connu la souffrance par exemple ne signifie pas qu’on soit capable de comprendre celle des autres. Les expériences restent toujours singulières. 

Dans les algorithmes : Oui, vous dites que l’appartenance est une perception. Nous autoproduisons nos propres stéréotypes sociaux. Les étudiants blancs sont plus susceptibles d’interpréter une bousculade comme violente lorsqu’elle est causée par une personne noire que par une personne blanche. Notre interprétation semble toujours confirmer nos stéréotypes plutôt qu’elle ne les remet en cause. Et les informations qui confirment nos stéréotypes sont mieux mémorisées que celles qui les réfutent. Comment peut-on lutter contre nos représentations et nos stéréotypes, dans lesquels nous sommes englués ? 

Samah Karaki : En fait, les biais de confirmation nous simplifient notre lecture du monde. Nous avons envie d’avoir un favoritisme d’endogroupe au profit de notre groupe et de son image. Par recherche de cohérence, et d’efficience, on a tendance à préserver l’image de groupe qui miroite sur notre image de soi, et donc c’est pour cela qu’on a tendance à favoriser notre groupe. On explique et on pardonne bien mieux les comportements négatifs de nos proches que ceux des gens de l’exogroupe. On a plus de facilités à juger les groupes externes avec des caractéristiques très réductrices. Cela nous rassure sur notre position morale et notre image de nous-mêmes. Si on reprend l’exemple du film de Glazer, l’indifférence de cette famille s’explique aussi parce que ces personnes pensent qu’elles sont dans le camp du bien et que l’effacement du groupe humain qui est de l’autre côté des murs est une nécessité. Ces personnes ne sont pas que indifférentes. Elles sont persuadées que cet effacement est nécessaire pour la survie de leur propre groupe. Cette victimisation inversée sert le groupe, comme l’instrumentalisation des animaux nous sert à légitimer notre nourriture, notre agriculture. Il y a quelques siècles en arrière, l’instrumentalisation du corps des esclaves pour l’économie européenne était considérée comme une nécessité. En fait, l’empathie ne disparaît pas par simple indifférence, elle disparaît aussi par le sentiment d’être victime. L’effacement de l’autre devient une forme de légitime défense. 

Ce sont là des mécanismes qui nous simplifient le monde. On peut ramener ces mécanismes à leur biologie. On a besoin de simplifier le monde car on n’a pas assez d’énergie. Mais on a aussi besoin d’être en cohérence avec sa propre image. C’est là où s’intègrent les cadrages politiques et sociaux qui donnent à chaque groupe l’impression d’être dominé ou menacé par l’autre. C’est en cela que ces affects nous éloignent d’une lecture objective des situations. Je ne veux pas dire dans mon livre que tous les affects sont légitimes, bien au contraire. Tous sont réels et précis, mais ne sont pas objectivement situés au même endroit. Et c’est pour cela que nous avons besoin de quelque chose que nous avons produit, suite à la Shoah d’ailleurs, qui est le droit humanitaire international. C’est un moyen de nous protéger de notre propre raison et de notre propre définition de ce qui est moral. 

Dans les algorithmes : C’est le moyen que nous avons pour sortir du cercle infernal de l’empathie envers son endogroupe. Développer des règles qui s’appliquent à tous ? 

Samah Karaki : Oui. Ce sont des règles que nous avons construites avec notre organisation sociale. Ce sont des règles auxquelles on se conforme pour naviguer dans les interactions sociales qui nous lient. Des règles qui nous permettent de conserver nos droits, de ne pas céder à des affects et donc, ce sont des règles où tout le monde n’est pas gagnant de la même façon mais qui peuvent régir des biens collectifs supérieurs aux intérêts d’un groupe par rapport à d’autres. C’est pourquoi je suggère de sortir du lexique affectif qui revient souvent aujourd’hui et qui ne se concrétise pas en action politique, car il se suffirait à lui-même, justifiant même certaines inerties. L’affect nous évite de passer à des actions concrètes.

Dans les algorithmes : Vous êtes très critique sur la manière dont nous pouvons réparer l’empathie. Vous dites par exemple que ce ne sont pas les formations à l’empathie qui vont permettre de mettre fin à l’organisation hiérarchique des sociétés humaines. 

Samah Karaki : Les formations à l’empathie qui parlent de l’histoire des oppressions, de ce qu’ont vécu les groupes humains opprimés, permettent de modifier notre appréhension du monde. Éviter ces sujets ne donne pas des outils pour comprendre, pour questionner les raisons qui font que nous avons des biais racistes. Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Car le biais consiste à suivre un automatisme appris, comme quand on respire. Je ne pense pas que la bonne manière de faire consiste à résister à ces apprentissages, mais de les modifier, d’acquérir une autre lecture. 

En fait, je voudrais qu’on sorte un peu de notre fainéantise intellectuelle. Aujourd’hui, par exemple, trop souvent, quand on fait des films sur des populations opprimées, on ne prend pas le temps d’analyser, d’amener les personnes concernées, de modifier les conditions de production pour sortir du regard que l’on porte sur elles pour donner la voix à leurs propres regards. Et on justifie cette fainéantise intellectuelle par l’affect, l’intuition ou la création spontanée. Peut-être aussi par romantisme de notre nature, en expliquant qu’on comprendra par soi-même. C’est comme quand on dit que les enfants sont bons par nature. Ce n’est pas le cas pourtant. Le racisme est présent chez les enfants à partir de 3 ans si on ne leur explique pas les structures de suprématie qui structurent nos sociétés. J’invite à faire nôtre ce que la journaliste Douce Dibondo appelle « l’épistémologie de la connaissance contre celle de l’ignorance ». Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification. Nous ne nous identifions pas assez aux personnes qui ne nous ressemblent pas. Nous devons le dire et le répéter : nous avons une difficulté à nous identifier à certains comme nous n’entendons pas les sons sous une certaine fréquence. Les formations sur l’empathie par l’identification ne résoudront pas les problèmes de harcèlement scolaire ou de comportements de domination.

« Je ne pense pas que ce soit en sachant que nous sommes biaisés que nous pouvons résoudre les biais. Pour les modifier, il nous faut acquérir une autre lecture ». « Nous devons parler des sujets qui fâchent plutôt que de demander aux gens de travailler leur capacité d’identification »

Dans les algorithmes : Ce que vous dites, c’est que nous avons besoin d’une lecture plus politique de nos rapports sociaux ?

Samah Karaki : Oui. On a besoin d’une lecture historique en tout cas. Et nous devrions d’ailleurs beaucoup valoriser la lecture historique à l’heure où les tentatives d’effacement de certaines histoires se multiplient tout autour de nous. Nous devons défendre ce patrimoine. Cet attachement aux faits, au réel, doit nous permettre de nous éloigner des attitudes complotistes au monde. Nous avons un devoir de protéger cette discipline. 

Dans les algorithmes : Dans votre second livre, vous parlez un peu du numérique. Vous nous dites qu’on est confronté, sur les réseaux sociaux, à une empathie un peu factice. Que les algorithmes basés sur la viralité cherchent d’abord et avant tout à produire de l’émotion, de l’exacerbation de nos sensations, de nos sentiments. En analysant 430 milliards de vidéos, le facteur le plus puissant du succès viral est la réponse émotionnelle (“Plus l’intensité de l’émotion suscitée par le contenu sera grande, plus les gens auront tendance à le partager”). Vous dites même que le numérique favorise une forme de  « tourisme affectif »…

Samah Karaki : Si on prend la question en la ramenant à l’attention avant même de parler de réseaux sociaux, il nous faut observer ce que la prédiction des calculs produit. Que ce soit des sons ou des images, l’attention passe d’un niveau phasique à un niveau tonique, avec des changements de circulation électro-chimique dans le cerveau quand je suis dans ce que l’on appelle un écart de prédiction. Cet écart de prédiction, c’est ce qu’on appelle l’émotion. C’est ce qui nous surprend, nous émeut. Et nous avons besoin de réduire cet écart de prédiction en analysant cette information. Et ce travail d’analyse me fait dépenser de l’énergie. S’il ne se passe rien d’intéressant dans un échange, je peux perdre mon attention car je ne fais plus le travail qui fait que je suis en train de réduire les écarts de prédiction. C’est un peu comme cela qu’on apprend aussi. Face à une information nouvelle, on a un écart de prédiction : soit on rejette cette nouvelle information, soit on l’intègre dans nos prédictions, ce qui nous permet ensuite de revenir à ce que l’on appelle un monde émotionnellement neutre ou stable. 

Un contenu viral est donc un contenu qui va produire un écart de prédiction. C’est pourquoi ils sont souvent émotionnels. Ils captent notre attention et créent un attachement par rapport à ces contenus. Dans la vie intime, c’est le même processus qui nous fait nous attacher à certaines personnes plutôt qu’à d’autres, parce que ces personnes produisent en nous des déplacements. La viralité repose sur des objets qui attirent l’attention, qui produisent un travail émotionnel et ce travail nous fait créer un lien avec ces contenus. Faire reposer l’intérêt sur un travail émotionnel peut vite être pernicieux, car il nous empêche par exemple de saisir le contexte de ce que l’on regarde, car notre cognition est déjà sollicitée pour rétablir l’équilibre émotionnel qui nous atteint.

La seconde chose qui peut se produire, c’est que l’exposition à un même écart de répétition, finit par l’aplatir, comme quand on est exposé à un son répétitif qu’on finit par ne plus entendre. Face à des contenus émotionnels répétitifs, nous finissons par nous engourdir. Face au flux d’affect, les contenus viraux finissent par ne plus provoquer de réaction en nous. Beaucoup d’études montrent que l’exposition répétée à des contenus violents abaisse notre capacité à être ému par ces contenus. De même quand nous sommes exposés à des contenus de personnes en souffrance. Le risque, c’est que par leur répétition, nous normalisions des contenus qui devraient nous heurter, nous faire réagir. Les études montrent que cette exposition répétée peut conduire à la violence de certains et surtout à l’inertie. 

Le tourisme affectif est un troisième niveau. Quand on scroll ces contenus affectifs, nous faisons un travail, comme si nous les vivions à notre tour. Ces contenus nouveaux nous dépaysent, nous surprennent. Le tourisme, dans la vie réelle, consiste à chercher quelque chose qui nous déplace, qui ne corresponde pas à nos prédictions. Le problème, c’est que quand ce tourisme se fait sur la souffrance des autres, ce déplacement devient indécent, car alors, on instrumentalise ce que vivent les autres pour notre propre déplacement et notre propre émancipation. C’est pour cela que j’estime que nous ne devons pas nous suffire à l’émotion et à l’empathie. L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire. 

« L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nécessaire. » 

Dans les algorithmes : Le numérique était censé nous ouvrir à la diversité du monde, à nous rendre plus conscient des différences. On a l’impression à vous lire qu’il favorise surtout des comportements homophiles, réduits à notre endogroupe. danah boyd, disait “La technologie ne bouleverse pas les clivages sociaux. Au contraire, elle les renforce”. Partagez-vous ce constat ? Pourquoi sa promesse de diversité n’est-elle pas réalisée selon vous ? 

Samah Karaki : Cette amplification n’est pas dans la nature des technologies. C’est lié à leur usage surtout et le fait que nos technologies suivent nos biais, nos biais de confirmation, produisent des effets bulles… Mais la technologie peut aussi aider à faire circuler la connaissance nécessaire pour comprendre les oppressions. On peut aussi découvrir des pensées qui ne sont pas institutionnalisées, ou peu référencées. Elle peut aussi nous permettre de nous organiser, pour refuser ou questionner un système. Mais effectivement, elle peut aussi servir à confirmer nos stéréotypes et représentations : nous conforter dans notre façon de voir le monde. 

Les dernières élections américaines se sont beaucoup faites sur les réseaux sociaux. Il n’y a eu qu’un débat télévisé entre les deux candidats. La persuasion c’est faite aussi avec les outils. Pourtant, plus que de s’en méfier, nous devrions chercher à les comprendre pour les mettre au service d’une autre façon d’appréhender la connaissance. Le débat sur l’utilisation des technologies a toujours accompagné ses avancées. Souvent on est un peu naïf avec elles. On crée des outils qui nous ressemblent. Mais on peut toujours les transcender. Il y a aussi sur les réseaux sociaux des voies alternatives, subversives, subalternes qui existent. Nous devons questionner et nous méfier des algorithmes, comme on se méfie de la nicotine en précisant ce qu’elle nous fait. On est en devoir d’avoir une littératie des médias qui s’apprend à l’école comme tout autre outil de connaissance. Et c’est une fois que nous avons cette connaissance que nous pouvons juger de ce qu’on décide d’en faire collectivement. Aujourd’hui, trop peu de gens comprennent comment fonctionnent les algorithmes. Sur TikTok, la majorité des jeunes qui l’utilisent ne comprennent pas son fonctionnement, alors que c’est essentiel. La formation aux médias, cela devrait être une formation obligatoire pour s’en protéger et les utiliser pour la découverte intellectuelle nous permettant d’accéder à des personnes auxquelles nous n’aurions pas accès autrement. Mais aussi pour faire rebondir ses idées avec d’autres personnes distantes. C’est la question de l’usage et de la connaissance de ces outils que nous devons mener une bataille, en plus de celle de la transparence des algorithmes qui a lieu à l’échelle européenne. 

Dans les algorithmes : Quel regard portez-vous sur l’Intelligence artificielle ? D’autant que celle-ci semble avoir un rôle important sur nos représentations culturelles et nos stéréotypes. Pour ma part, j’ai l’impression que l’IA favorise et amplifie nos représentations culturelles les plus partagées. Ce qu’on pourrait appeler la « moyennisation culturelle de nos représentations » (comme quand on demande à une IA de produire l’image d’un mexicain et qu’elle va produire l’image d’un homme avec un sombrero). Le risque n’est-il pas que nos stéréotypes sociaux et comportementaux, demain, soient encore plus marqués qu’ils ne sont, plus indépétrables – alors que vous nous dites dans vos livres que nous devons les questionner, les déconstruire ?

Samah Karaki : Pour moi, l’IA nous confronte à ce qui ne va pas chez nous. Elle n’invente pas nos stéréotypes. Elle nous montre au contraire à quel point nous sommes réducteurs, à quels points nous sommes eurocentrés, hétérocentrés, validistes… L’IA nous expose ce que nous sommes. En exposant ce que nous sommes, elle montre aussi aux jeunes générations ce que le monde est, au risque de ne pas leur permettre de séparer la représentation du réel. Mais je trouve très intéressant que nous soyons confrontés au ridicule de nos représentations. Critiquer ce que les IA produisent, c’est un peu comme les formations à l’empathie qui ne veulent pas parler des problèmes qui structurent nos rapports de force. Alors que cela devrait nous inviter à comprendre avec quoi nous nourrissons ces machines, que ce soit nos représentations comme d’ailleurs toutes les études qui les défient. C’est comme si l’IA nous renvoyait un état des lieux de là où nous en sommes dans notre compréhension, qui sera toujours tronquée, car nous analysons ces représentations avec les mêmes cerveaux qui l’ont produit. Sans compter qu’avec l’IA, nous en restons à une définition de l’intelligence qui colle aux intérêts de l’homme. Quand nous attribuons à l’IA des intentions, nous le faisons parce que nous n’arrivons pas, dans les limites de notre intelligence, à nous imaginer autre chose que des intentions humaines. C’est aussi une des grandes limites de notre intelligence : d’être aussi obsédée par soi au point de ne pas voir dans ce qui se produit dans l’IA ce qui nous est incompréhensible ou parallèle. Elle nous permet de nous rappeler que notre espèce n’est peut-être pas centrale dans l’appréhension du monde, comme nous le rappelle aussi le reste du vivant. La puissance de l’IA nous permet de douter de soi, en tant qu’individu, mais aussi de notre espèce. Peut-être peut-elle nous aider à trouver un peu d’humilité épistémologique, en nous renvoyant à nous-mêmes et à nos propres limites. 

Nous n’avons pas à fermer les yeux parce que l’IA nous renvoie des mexicains stéréotypés ou des médecins qui sont toujours des hommes blancs. C’est l’occasion plutôt de poser des questions. Pourquoi avons-nous ces représentations ? Qui nourrit ces systèmes ? Quelle partie du monde les nourrit ? Comme dans les études en psychologie et neurosciences d’ailleurs, il y a un eurocentrisme et une lecture de la psychologie humaine à travers 25% de ceux qui la constituent.  

Dans les algorithmes : La question de l’incalculabité est le sujet de la conférence USI 2025 à laquelle vous allez participer. Pour une spécialiste des neurosciences, qu’est-ce qui est incalculable ? 

Samah Karaki : Pour moi, l’incalculabe, ce sont les interactions qui se sont produites dans notre cognition depuis notre vie intra-utérine en interaction avec notre patrimoine génétique, qui ne sont pas ni une addition ni une compétition, mais une interaction qui font de nous ce que nous sommes d’une manière incalculable et qui ridiculisent nos tentatives à quantifier l’humain. Que ce soit au niveau de nos compétences, de nos prises de décisions ou de nos jugements, on les pense rationnels et calculables, alors qu’ils reposent sur des écarts de prédiction extrêmement précis, mais sans avoir d’outils pour les démêler. C’est ce que je défends dans Le mérite est une fiction. Quand je vois un résultat, je ne peux pas remonter aux raisons qui l’expliquent. Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Cela nous dit de nous méfier de tout ce qu’on appelle talent, personnalité… Et cela nous invite enfin à admettre une forme d’incertitude constitutive de l’homme. 

« Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. » 

Propos recueillis par Hubert Guillaud.

Samah Karaki sera l’une des intervenantes de la conférence USI 2025 qui aura lieu lundi 2 juin à Paris et dont le thème est « la part incalculable du numérique » et pour laquelle Danslesalgorithmes.net est partenaire.

Des délires tarifaires au blocage économique

Le 2 avril 2025, le président américain a mis à exécution sa décision d’augmenter unilatéralement les droits de douane pour les produits étrangers entrant sur le sol américain. Trump a pourtant rapidement rétropédalé, mais sans annuler complètement les augmentations (voir le détail des mesures et revirements prises par l’administration américaine sur Wikipédia). Les tarifs ont été modérés depuis (sauf pour la Chine), notamment pour certains secteurs (dont les produits technologiques), abaissés voire figés pour 90 jours, mais avec la menace que les augmentations reprennent dans 3 mois. Suite à la panique boursière, à d’innombrables contestations (notamment judiciaires d’Etats américains) et représailles des pays touchés par ces nouvelles exigences tarifaires, les tarifs douaniers mondiaux sont devenus partout l’inconnu des perspectives économiques. Cette politique de sanctions commerciales et de protectionnisme a surtout déclenché une grande incertitude économique, non seulement tout autour de la planète, mais plus encore aux Etats-Unis. 

Partout, les économistes dénoncent une politique inconséquente, qui s’apprête surtout à ralentir les échanges, relancer l’inflation et ralentir l’innovation, plus que de protéger l’industrie américaine. Explications. 

Incertitude généralisée

L’escalade des tarifs et les revirements de Trump ont surtout produit ce que tout le monde déteste en économie : de l’incertitude. C’était particulièrement flagrant concernant les droits de douane des produits technologiques, dans un premier temps impactés par les évolutions tarifaires, puis soudainement exclues, visiblement sous la pression des entreprises de la tech qui ont su imposer un lobbying puissant sur le président Trump, ce qui est loin d’être le cas de nombre d’autres secteurs de l’économie qui n’ont pas l’oreille présidentielle pour les protéger. « Les va-et-vient de l’administration Trump concernant les droits de douane sur les produits technologiques sèment la confusion dans un secteur fortement dépendant des chaînes d’approvisionnement mondiales », explique The Hill. L’exemption des droits de douane sur les produits technologiques n’est annoncée que comme temporaire. Or, « Les entreprises apprécient la stabilité, la prévisibilité et la certitude de l’environnement commercial, et cela s’applique non seulement à la politique commerciale, mais aussi aux niveaux institutionnels, programmatiques, réglementaires, etc. » En fait, tant que l’issue des négociations sur l’évolution des tarifs restera floue, les investissements des entreprises risquent d’être freinés. Pour l’économiste Paul Krugman : l’exemption des produits électroniques des droits de douane n’est pas un retour à la raison de Trump ou de son administration, c’est surtout le signe qu’ils pilotent à vue sans savoir où ils vont. Le yoyo des tarifs est en train de générer une incertitude fatale pour les entreprises américaines, estime Krugman.

Comment les des droits de douane… vont favoriser les plus forts

Pour David Dayen de The American Prospect, les droits de douane imposés par Trump vont surtout favoriser les monopoles, notamment parce que les exemptions, comme vient de le connaître le secteur technologique, ne sont pas des solutions à la portée des petites entreprises. Aux Etats-Unis, le géant de l’alimentation Albertsons a annoncé qu’il refusera l’augmentation du coût des produits, invitant les producteurs à assumer seuls la charge de l’élévation des droits de douane, sans vouloir les faire porter sur les consommateurs finaux. Il est probable que les deux autres géants de la distribution, Walmart et Kroger, imposent les mêmes conditions à leurs fournisseurs. Mais les indépendants, eux, ne pourront pas imposer les mêmes règles. Le problème, explique Dayen, c’est que la guerre tarifaire est concomitante à l’affaiblissement des aides aux petites entreprises du fait du démantèlement des agences fédérales, à l’image de la Small Business Administration. Or, rappelle le Wall Street Journal, les petites entreprises américaines sont responsables d’un tiers des importations américaines et elles ne pourront pas éviter la hausse des coûts due aux droits de douane, ni en transférer la charge à quelqu’un d’autre. « La situation pourrait empirer avec l’annonce par la Chine d’imposer des contrôles à l’exportation de terres rares et d’aimants vers les États-Unis », qui pourrait paralyser des secteurs entiers de la production américaine, explique le New York Times.

Sans alternatives nationales pour rapatrier rapidement leur production aux Etats-Unis et avec peu de temps pour s’adapter, de nombreuses PME sont déjà en difficulté. Celles qui optent pour l’augmentation du prix de leurs produits se mettent à produire des « frais de douane » sur les factures de leurs clients pour accroître la pression populaire à leur contestation voire à leur suppression. Mais l’augmentation des tarifs risque surtout de rapidement détourner les consommateurs de produits devenus trop chers. Les droits de douane de Trump n’avaient peut-être pas l’objectif de favoriser la concentration de l’économie américaine, mais le fait que les plus grands acteurs puissent négocier des exemptions à leur avantage pourraient bien d’abord et avant tout renforcer certains monopoles. 

Pour un responsable de la division antitrust du ministère de la Justice, l’inflation de ces dernières années avait déjà permis à des entreprises de se livrer à des pratiques extrêmement néfastes pour la société… le risque est que les droits de douane permettent à nombre d’acteurs d’augmenter leurs tarifs au-delà du nécessaire, à l’image de la récente grippe aviaire qui a été une explication bien commode pour augmenter le prix des œufs aux Etats-Unis, ces derniers mois. En effet, aux Etats-Unis, le prix des œufs a augmenté de 53%. L’explication la plus communément avancée pour expliquer « l’eggflation » serait dû à la grippe aviaire et à l’abattage en masse qui en a résulté, explique Basel Musharbash dans sa newsletter, Big. Pourtant, souligne-t-il, la production d’oeufs n’a pas baissée : par rapport à 2021, la baisse de la production d’oeufs n’a été que de 3 à 5 %, alors que la consommation d’oeufs est passée de 206 oeufs par Américain et par an en 2021 à 190 oeufs en 2024 (-7,5%). Sans compter que l’exportation d’œufs a également reculé… L’augmentation des tarifs n’est donc pas liée à la baisse de production, comme on l’entend trop souvent, mais à la nouvelle concentration du marché. Cal-Maine Foods – le plus grand producteur d’œufs et le seul à publier ses données financières en tant que société cotée en bourse – a vu ses profits s’envoler avec l’épidémie de grippe aviaire, “dépassant le milliard de dollars pour la première fois de son histoire”. En fait, Cal-Maine a réalisé des marges sans précédent de 70 à 145 % sur les coûts de production agricoles. Pour Doctorow, l’oeuflation est typique d’une inflation de la cupidité, liée à l’établissement de monopoles sur les marchés. Pour nombre d’entreprises, la reprise de l’inflation pourrait bien être une aubaine pour continuer à augmenter leurs tarifs. 

L’augmentation des tarifs ne relocalisera pas la production

Wired explique pourquoi nombre de petites entreprises américaines ne peuvent pas produire aux Etats-Unis. Pour elles, bien souvent, il n’y a pas d’alternative à faire produire en Chine, quels que soient le niveau des droits de douane, notamment parce que l’appareil productif américain n’est plus disponible. En fait, la hausse des droits de douane à eux seuls ne suffiront pas à inciter les entreprises à s’implanter aux États-Unis, affirme Kyle Chan, chercheur spécialisé dans la politique industrielle à l’université de Princeton. Si les coûts bas sont une raison importante qui motive l’approvisionnement en Chine, la raison pour laquelle la production manufacturière en Chine est moins chère que dans d’autres régions n’est pas toujours liée au salaire des travailleurs ni à une moindre qualité. Au contraire. L’industrie chinoise est très qualifiée, spécialisée et intégrée. « La Chine est également un leader mondial dans la production d’outils industriels, ce qui signifie que les usines peuvent facilement adapter leurs machines aux besoins en constante évolution de leurs clients ». Non seulement la production chinoise sait s’adapter aux exigences, mais elle sait produire aussi tant en petites qu’en grosses quantités. Enfin, rapatrier la production aux Etats-Unis nécessiterait de construire des usines, voire de faire venir des spécialistes chinois pour cela, ce qui avec les politiques d’immigration mises en place s’avérerait désormais impossible. 

Dans un éditorial saignant, le modéré Financial Times n’a pas de mots assez durs contre la hausse des tarifs douaniers décidés par Trump qu’il qualifie de « pire acte d’autodestruction de l’histoire économique américaine ». Pour l’économie américaine, les effets les plus immédiats des mesures de Trump seront une hausse de l’inflation et un ralentissement de l’activité économique. Même son de cloche pour David Brooks dans le New York Times : « Trump construit des murs. Ses politiques commerciales entravent non seulement la circulation des biens, mais aussi celle des idées, des contacts, des technologies et des amitiés. Ses politiques d’immigration ont le même effet. Il s’en prend aux institutions et aux communautés les plus impliquées dans les échanges internationaux ». C’est oublier que les grandes nations sont des carrefours, rappelle Brooks. « Elles ont été des lieux où des gens du monde entier se sont rencontrés, ont échangé des idées et en ont inventé de nouvelles ensemble ». L’entrée en vigueur des droits de douane aux Etats-Unis n’est pas le « Jour de la Libération » de l’Amérique comme le clame Trump, mais risque bien plus d’être le « Jour de la Stagnation » et du déclin de l’empire américain.

La presse américaine se fait l’écho des effets très immédiats que les tarifs douaniers ont sur le commerce. Le New York Times par exemple explique que les droits de douane réduisent déjà les importations de voitures et paralysent les usines américaines, du fait de pièces indisponibles, comme aux pires temps de la pandémie. Avec les tarifs douaniers, Trump espère faire revivre l’industrie manufacturière d’après-guerre, qui, jusque dans les années 70, a employé plus de 20 millions d’Américains, rappelle le New York Times. Mais les pôles industriels ont largement périclité depuis. Les économistes eux-mêmes restent profondément sceptiques : pour eux, les droits de douane ne suffiront pas à rétablir l’industrie d’antan. Ils ne suffisent pas à faire une politique industrielle. 

Pour Wired, le gouvernement Trump, en même temps qu’il augmentait les droits de douane, a surtout arrêté de financer le programme qui a stimulé l’industrie américaine pendant des décennies, le Manufacturing Extension Partnership (MEP), un programme et un réseau d’aide à l’industrialisation pour les PME américaines. Dans une tribune, Brian Desse, ancien président du Conseil économique des Etats-Unis durant l’administration Biden, rappelle que l’industrie automobile américaine est désormais à la traîne dans la course à l’innovation. 60% des pièces qui constituent les véhicules américains sont importées et les droits de douane vont surtout venir renchérir les prix des véhicules des constructeurs nationaux. Mais Trump ne s’est pas attaqué qu’aux droits de douane. Son projet de réduire les incitations fiscales pour l’innovation et la production nationale de batteries par exemple a gelé les investissements des constructeurs américains : au premier trimestre 2025, les entreprises ont annulé plus de 6 milliards de dollars de projets de fabrication de batteries. Or, ces incitations fiscales ont permis de limiter le retard dans la production de batteries, qui est aujourd’hui le lieu de la course à l’innovation pour la voiture du futur. Trump enferme les Etats-Unis dans un piège luddiste, qui risque bien plus de pénaliser les entreprises américaines que de les aider à développer leurs capacités d’innovation et d’investissements. 

Le Financial Times semble assez inquiet de l’escalade des tarifs douaniers lancée par le président Américain. Les marchés également, qui anticipent plutôt un ralentissement économique mondial voire une récession. “Les droits de douane de Trump n’ont pas accéléré la croissance économique américaine. Au contraire, ils l’ont probablement stoppée”, rapporte Vox. Les entrepreneurs de la Tech, qui s’étaient ralliés massivement à Trump, sont en train de faire la grimace. Pourtant, pour l’instant, souligne The Verge, ils restent assez silencieux sur l’augmentation des tarifs malgré l’impact certain sur leur activité. Il faut dire que personne ne souhaite se mettre Trump à dos. 

Dans le New York Times, la journaliste Patricia Cohen estime que les perturbations économiques introduites par le gouvernement Trump seront difficiles à inverser, notamment parce que le reste du monde, lui, va rapidement s’y adapter. “Les chaînes d’approvisionnement seront réorganisées, de nouveaux partenariats seront conclus, et les étudiants, chercheurs et talents technologiques étrangers trouveront d’autres destinations où migrer.” 

Face au virage protectionniste de l’Amérique, Pékin se positionne déjà comme le défenseur du libre-échange et le nouveau leader du système commercial mondial. Comme le montrait un reportage du New York Times, les entreprises chinoises s’adaptent déjà et réorientent leurs marchés et leurs budgets publicitaires, quand ils ne se mettent pas à s’adresser directement aux Américains, explique la Technology Review, pour leur proposer des modalités de vente directe pour réduire les prix en tentant de contourner l’augmentation des tarifs, comme les commissions des grandes plateformes chinoises de B2B, qui mettent les fabricants en relation avec les entreprises américaines.

Les conséquences ne se font pas attendre. Les tarifs de la Fast Fashion ont augmenté de 300% et les sites Shein et Temu ont clairement affiché sur leurs sites l’impact des droits de douanes de chaque produit. Sur Amazon, Trump a appelé personnellement Jeff Bezos pour que celui-ci n’affiche pas, en plus du prix des produits, les droits de douane spécifiques de chacun, afin que les consommateurs ne voient pas l’impact des tarifs douaniers sur le prix des produits. Bezos a visiblement cédé très facilement. Le grand défenseur de la liberté et du libre marché, celui qui avait promis de mettre sa fortune en rempart contre les intimidations, n’a pas été plus courageux que les autres, ironise The Verge. Amazon a préféré faire pression sur ses fournisseurs pour que leurs prix n’augmentent pas et qu’ils absorbent eux-mêmes l’augmentation plutôt que de réduire les commissions que prélève sa plateforme. 

En s’intéressant aux conséquences sur une vaste gamme de produits, The Verge montre surtout que plus personne n’y comprend rien… Et que l’incompréhension génère un fort attentisme des entreprises américaines qui ralentissent leurs achats comme leurs investissements. L’évolution des tarifs va également “modifier les habitudes de consommation des Américains, ainsi que la production et les produits des entreprises américaines”. Les droits de douane ressemblent à une arme automatique qui tire dans tous les sens. Mais nul ne sait qui elle va abattre en premier. Ce qui est sûr, c’est que la guerre commerciale, elle, a déjà commencé. Et elle ne va bénéficier à personne, sauf aux plus grandes entreprises qui vont continuer d’imposer leurs conditions à toutes les autres.

La coalition pour son propre avenir

Vous vous souvenez de janvier 2021? Pour aider à faire passer la pilule du couvre-feu, les ministres caquistes publiaient des photos et vidéos des petits bonheurs de leur quotidien dans leur immense cour ou dans leur luxueux salon grand comme mon appartement. On y voyait entre autres le ministre André Lamontagne qui joue du piano en compagnie de son chien. En compagnie de son chien. J’insiste sur le compagnon canin parce que le couvre-feu prévoyait une exception pour les propriétaires de chien. Mais pas pour les itinérants. Plus de 150 itinérants ont reçu une amende pour non-respect du couvre-feu. Les propriétaires de chiens n’ont pas eu ce problème.

C’est une anecdote (merci à Josiane Cossette qui l’analyse et en souligne le caractère indécent dans son livre Raccommodements raisonnables), mais une anecdote qui selon moi révèle comment se prennent les décisions au gouvernement de la CAQ. Je peux facilement imaginer, au moment où François Legault annonce qu’il y aura un couvre-feu, le ministre Lamontagne qui lève la main pour dire « Oui mais moi il faut que j’amène mon chien faire sa promenade le soir. » « Okay André on va prévoir une exemption pour toi. Je veux dire: On va prévoir une exemption pour les propriétaires de chien. » Mais naturellement, il n’y avait pas d’itinérant autour de la table pour faire part de sa situation personnelle. Donc pour eux, l’exemption est seulement venue plus tard en raison de la pression populaire et médiatique.

C’est ça, la CAQ. Un groupe d’individus qui gouvernent pour eux-mêmes.

Cette année, le salaire minimum a augmenté de 15.75$ à 16.10$. Une augmentation de 2.2%, inférieure à l’inflation. Il n’y a évidemment pas beaucoup de gens autour de la table du conseil des ministres qui savent ce que c’est de travailler au salaire minimum. En revanche, 30% des ministres de la CAQ viennent du milieu des affaires. Il y avait donc beaucoup de gens pour rappeler que la prospérité des entreprises dépend d’un salaire minimum aussi bas que possible. Tant pis si ceux qui en arrachent doivent s’appauvrir un peu plus. Ce gouvernement travaille pour l’économie.

Pendant que le salaire minimum augmente de 2.2%, le gouvernement recommande des augmentations de loyer de 5.9% (minimum). Les ministres de la CAQ qui sont propriétaires d’un parc immobilier valant en moyenne 1.6 millions de dollars sont là pour rappeler qu’il faut tenir compte de l’augmentation des taxes municipales, des matériaux, des coûts des travaux, des coûts d’entretien… Malheureusement, très peu de locataires sont là pour faire remarquer qu’ils s’appauvrissent d’année en année avec ces hausses de loyer supérieures aux augmentations de salaire.

Évidemment, les augmentations de salaire ne sont pas un enjeu majeur pour les députés de la CAQ, qui se sont accordés à eux-mêmes une augmentation de 30% en 2023. Une augmentation nécessaire puisque les députés travaillent fort (mention honorable à Éric Lefebvre qui s’est plaint de travailler tellement qu’il n’a plus le temps de rendre visite à sa mère). Ce n’est pas comme ces paresseuses d’infirmières ou ces fainéants d’enseignants. Comme disait Bernard Drainville, « tu compares vraiment le job d’enseignant au job de député? Tu es en train de me dire que ça se compare? »

François Legault justifiait cette augmentation en disant qu’il ne voyait pas pourquoi le secteur privé paierait mieux que la politique. Imaginez-vous comme moi les députés de la CAQ se plaindre qu’ils ne gagnent pas assez cher et rappeler qu’ils avaient un meilleur salaire dans le privé, avant que l’équipe de M. Legault vienne les recruter? Pendant ce temps, les travailleurs du secteur public reçoivent une augmentation de 17.4% sur 5 ans. Et le gouvernement offre 12.7% d’augmentation sur 5 ans aux éducatrices. Faut-il souligner qu’il n’y a aucune éducatrice au conseil des ministres?

Ajoutons à tout cela l’éthique élastique de la CAQ. Éric Caire ne laissait rien passer lorsqu’il était dans l’opposition. Le gouvernement devait être plus blanc que blanc. Une fois au pouvoir, les caquistes se sont bien accommodés des NOMBREUX conflits d’intérêt de Pierre Fitzgibbon, dont le ministère accordait des subventions aux entreprises de ses amis et qui recevait des cadeaux de la part d’entrepreneurs qui font affaire avec le gouvernement. Ça n’inquiétait pas M. Legault parce que contrairement aux libéraux et aux péquistes, les caquistes sont honnêtes. C’est ce qu’il nous disait en 2020 lorsqu’il a assoupli les règles d’attribution des contrats d’infrastructure malgré toutes les voix qui lui disaient qu’il ouvrait grand la porte à l’émergence de la corruption et de la collusion. Il rappelait qu’il y avait dans son équipe Sonia Lebel, ancienne procureure en chef de la commission Charbonneau, Christian Dubé, qui est comptable agréé, et « même du monde qui ont milité à la CAQ parce qu’ils étaient tannés de la corruption dans d’autres partis ». Bref, la transparence et l’éthique, c’est pour les autres. Les gens honnêtes n’ont pas besoin de suivre les règles.

De toute façon, quel mal y a-t-il à aider ses amis? Dans une logique bien duplessiste, la CAQ s’occupe de ses amis d’abord et des autres ensuite. Québec solidaire a fait remarquer que les projets de construction d’école semblent déterminés en fonction de l’allégeance politique du député local. D’un extrême à l’autre, les investissements varieraient entre 4189$ par enfant dans une circonscription caquiste VS 1045$ par enfant dans une circonscription péquiste. Le ministre Bernard Drainville s’est défendu d’accorder le financement en fonction de critères partisans, mais il a refusé de rendre publiques les évaluations. « On a d’autres choses à faire. » Nous sommes trop occupés pour être transparents, alors vous allez devoir nous croire sur parole.

François Legault a affirmé franchement son clientélisme politique lorsqu’il a dit que « la CAQ, c’est un parti des régions » pour justifier son refus d’investir dans l’hôpital Maisonneuve-Rosemont. Si les gens de Maisonneuve-Rosemont voulaient un meilleur hôpital, ils n’avaient qu’à ne pas élire un député solidaire. Le gouvernement prétend en faire une question d’équité entre Montréal et les régions. Traduction: nos électeurs vont être en colère si on investit trop d’argent dans un hôpital de Montréal pendant que leurs propres hôpitaux ont aussi besoin de travaux. Alors les patients et le personnel de HMR vont devoir s’habituer aux chauve-souris.

Pendant que le premier ministre nous dit chercher désespérément 85 millions pour l’hôpital Maisonneuve-Rosemont, un contrat de 46 millions pour du soutien en ingénierie pour le troisième lien Québec – Lévis est accordé. Si le projet pharaonique que représente ce fameux pont finit par voir le jour, ce sera l’achat de votes le plus coûteux de l’histoire du Québec. Même Maurice Duplessis n’aurait jamais osé. Soyons honnêtes: la question ici n’a jamais été de mesurer les coûts VS l’utilité d’un troisième pont. La question a toujours été: qu’est-ce qui est le plus rentable électoralement, bien gérer les fonds publics ou céder aux pressions des radios de Québec? Apparemment les caquistes de la grande région de Québec ont parlé plus fort que les gestionnaires responsables et donc le troisième lien n’en finit plus d’être ressuscité.

Depuis 2018, les beaux principes de la CAQ sont tombés les uns après les autres. Vous vous souvenez de la promesse de réformer le mode de scrutin? C’était à l’époque où la CAQ obtenait 15% des sièges avec 27% des votes (élections générales de 2012). « Ce que je souhaite, c’est qu’il y ait moins de cynisme au Québec, qu’il y ait plus de confiance entre les citoyens et la classe politique. Et je pense que ça passe par un mode de scrutin proportionnel mixte », nous disait François Legault. Depuis, la CAQ a obtenu 59% des sièges avec 37% des votes (2018), ensuite 72% des sièges avec 41% des votes (2022). Réformer le mode de scrutin a sans surprise cessé d’être une priorité pour notre premier ministre. « Il n’y a personne qui se bat dans les autobus au Québec pour changer le mode de scrutin. » Traduction: « Beaucoup de mes députés ont peur de perdre leur siège si on change le mode de scrutin. »

René Lévesque disait de l’Union nationale de Maurice Duplessis que ce n’était pas un parti d’idées, mais un parti d’intérêts. Je dois faire le même constat à l’égard de la CAQ. Quand ce gouvernement prend des décisions, c’est forcément pour servir des intérêts caquistes. Intérêts électoraux, intérêts financiers ou intérêts personnels, mais intérêts tout de même.

Les seules personnes qui ont des raisons d’être satisfaites de ce gouvernement sont les millionnaires, les gros propriétaires et les patrons. Des personnes qui se sont enrichies depuis 2018 et qui vont continuer à le faire puisque la CAQ leur donne toujours davantage de moyens en plus de diminuer leur fardeau fiscal (on ne se pose pas de question sur la capacité à payer des Québécois quand vient le temps de baisser les impôts). Et comme par hasard, ces gens qui bénéficient du régime sont très bien représentés au conseil des ministres.

La « Coalition Avenir Québec » rassemble des anciens libéraux, des anciens péquistes et des anciens adéquistes. On y retrouve des indépendantistes, des nationalistes et des fédéralistes. Certains caquistes appartiennent à la droite économique pure, d’autres sont plus socio-démocrates. Qu’est-ce qui unit tous ces gens à part un appétit pour le pouvoir? Poser la question revient à y répondre. Cette coalition travaille pour un seul avenir: le sien.

Les effets de Tiktok sur les mineurs. Retour sur mon audition à l’assemblée nationale.

Le 29 Avril 2025 j’ai été (avec d’autres) auditionné à l’assemblée nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». L’ensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de l’assemblée.

Initialement invité en compagnie d’Aurélie Jean et de David Chavalarias qui ont finalement dû décliner (j’espère qu’ils pourront tout de même être entendus), le périmètre de cette audition a finalement réuni :

  • Mme Sihem Amer-Yahia, directrice de recherche au CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
  • Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
  • M. Marc Faddoul, directeur et cofondateur d’AI Forensics.
  • et moi 🙂

 

 

Pour préparer cette audition, on nous avait envoyé une liste de 18 questions. Je vous livre ci-dessous les réponses que j’y ai apportées et que j’ai également transmises à ladite commission. Comme j’aime bien partager ma vie avec mes étudiant.e.s du meilleur BUT Infocom de la galaxie connue, je leur avais raconté et annoncé cette audition et leur avais aussi demandé de répondre à quelques-unes des questions qui m’avaient été adressées, en le faisant depuis leur point de vue d’utilisateur et d’utilisatrice de la plateforme. J’en ai extrait (avec leur accord et en les anonymisant) quelques verbatims que vous trouverez en toute fin d’article.

A titre personnel cette expérience fut à la fois intéressante mais essentiellement frustrante. Il s’agit d’un dispositif « court » : nous étions ici 4 universitaires à être auditionnés sur un temps d’un peu plus d’une heure. Ajoutez-y les questions et les propos « liminaires » et cela reste court. Mais chaque commission auditionne énormément de personnes et il est donc normal et nécessaire de limiter la temporalité de ces temps d’échange. Il y a aussi une forme de solennité biaisée : nous sommes conviés en tant que praticiens et praticiennes spécialistes d’un sujet auquel nous avons consacré plusieurs dizaines d’années de recherche, de travaux, d’ouvrages et d’articles, mais nous nous adressons à la puissance publique dans un cadre dont il est difficile de déterminer quelle est la part attendue de l’analyse réflexive, et celle de l’opérationnalité immédiate exigée ; car à la fin, tout cela devra se traduire par des mesures concrètes susceptibles de produire ou d’orienter des cadres législatifs à l’origine de décisions politiques. Le dernier point de difficulté est que nous débarquons dans cette commission sans savoir quel est le niveau réel d’acculturation des députés aux éléments que nous allons présenter. J’avais de mon côté écouté l’ensemble des auditions précédentes pour tenter d’éviter les redites et produire un minimum de continuité dans les travaux de la commission, mais même en ayant pris le temps de le faire, l’exercice reste délicat.

Tout ça pour dire que je suis bien content de pouvoir, au calme, transmettre par écrit mes réflexions à cette commission, car si elle devait se fonder uniquement sur ce que je lui ai déclaré à l’oral (ainsi que mes camarades d’audition), je ne pense pas qu’elle serait très avancée ou informée 😉 J’espère donc surtout qu’elle pourra prendre le temps de lire tout cela (ainsi que la synthèse que j’en dresse à la fin en mode TLDR).

Cela a commencé ainsi.

[On nous demande d’abord de nous présenter brièvement et on nous laisse un « propos liminaire » de 5 minutes] Je suis enseignant chercheur en sciences de l’information. Si les universitaires qui étudient la sociologie se définissent comme sociologues, je peux me définir comme « médiologue ». J’étudie les médias numériques (moteurs de recherche, réseaux sociaux, plateformes) et ce qu’ils modifient dans notre rapport à l’information, à la connaissance, aux autres et à nous-mêmes. Depuis 25 ans je documente l’évolution de ces outils avec – essentiellement – des méthodes d’observation participante. Et si je devais résumer 25 ans de recherche en une seule phrase je dirai que tout est de la faute du modèle économique de ces plateformes. Ou pour reprendre le titre d’une conférence d’une collègue, Zeinep Tufekci : « nous avons construit une dystopie, juste pour obliger les gens à cliquer sur des publicités« .

[Propos liminaire 1] En guise de propos liminaires je veux rappeler et insister sur le fait que ces « réseaux sociaux » qui sont en fait des « médias sociaux » doivent être pensés et analysés comme des biotopes particuliers dans un écosystème général qui est celui de l’économie des médias (radio, télé, presse, etc.). Et que ces médias sociaux procèdent (en partie) comme des parasites qui vont littéralement venir phagogyter les autres écosystèmes médiatiques. Les exemples sont nombreux. Il y avait eu à l’époque (circa 2010) le fait que plein de sites de presse ou de médias avaient accepté d’installer sur leur site le bouton « Like » de Facebook qui avait fait d’eux de simples vassaux numériques et médiatiques de cette plateforme devenue hôte. J’écrivais alors et alertais : « Le Like tuera le lien« .

Aujourd’hui il y a toujours des liens d’écho, de résonance très forts entre différents écosystèmes médiatiques mais dans certains cas d’usages, auprès de certaines populations, pour certains segments d’âge ou d’éducation, les médias sociaux sont le premier biotope informationnel. C’est cette question qu’il faut adresser (pour TikTok comme pour les autres) et pour laquelle la part « éditoriale » de ce que l’on appelle « les algorithmes » doit être clarifiée, débattue, encadrée. Encadrée de manière contraignante.

[Propos liminaire 2] Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :

  1. D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
  2. Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
  3. Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »

[Propos liminaire 3] La question nous est posée de savoir si l’on peut « exiger des réseaux sociaux d’être entièrement transparents sur leur algorithme« . Oui. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un bouton like vaut 1 point et qu’un bouton colère vaut 5 points, nos comportements sont susceptibles de changer).

Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, dans des mondes « réels » ou dans d’autres « virtuels », etc.

Nous parlons d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.

Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.

Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.

Et a fortiori encore dans un monde où ces applications et plateformes sont devenues totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).

[Propos liminaire 4] Je veux citer ce que j’écrivais dans l’article « Ouvrir le code des algorithmes ne suffit plus »

Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. 

 

Les questions de la commission (et mes réponses).

Ces questions étaient organisées en cinq grandes parties :

  1. Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux.
  2. Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
  3. Sur la transparence des réseaux sociaux
  4. Sur l’éducation aux réseaux sociaux
  5. Questions générales
Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux

1. Quels sont les multiples facteurs pris en compte par les algorithmes utilisés par les réseaux sociaux, notamment pour déterminer les contenus présentés aux utilisateurs ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?

De manière générale les algorithmes de recommandation fonctionnent sur 4 critères.

  • Le premier est celui de la personnalisation déclarative (on dit ce que l’on aime ou ce que l’on n’aime pas).
  • Le second est celui de l’historique de navigation réel : indépendamment de ce que l’on dit aimer, les plateformes « voient » ce que l’on consomme réellement et ce sur quoi on est appétent.
  • Le troisième critère est celui de la moyenne statistique (comparativement à d’autres ayant déclaré les mêmes centres d’intérêt, et/ou dans le même groupe d’âge, de genre, etc.)
  • le quatrième critère est celui de la stochastique, de l’aléatoire. Depuis le début des systèmes de recommandation, les ingénieurs qui fabriquent ces algorithmes savent que si on ne sort pas de temps en temps de nos centres d’intérêt déclaratifs on va avoir des phénomènes de désintérêt ou de lassitude. Ils injectent donc un peu (ou beaucoup) d’aléatoire pour « affiner » et « ajuster » mais aussi pour (souvent) nous « ramener » des des contenus plus directement monétisables. La question c’est de savoir jusqu’où peut aller cet aléatoire (plus ou moins loin de nos habitudes de. navigation et de consultation) et de quelle manière et en quelles proportions il peut-être corrélé à d’autres moyennes statistiques.

Reste la particularité de l’algorithme de Tiktok qui est la question du rythme. Alors que la durée moyenne d’une vidéo TikTok est de 15 ou 16 secondes, toutes les 3, 4, 5 ou 6 secondes, donc sur des temps et des rythmes extrêmement courts, il y a une interaction, donc une documentation de notre pratique, donc une information pour l’algorithme.  La vitesse de consommation est en elle-même une information. Elle fonctionne comme un arc réflexe. Chaque vidéo, chaque contenu affiché est l’équivalent du petit coup de marteau sur votre genou pour déclencher l’arc réflexe. Sauf que cette fois l’arc réflexe recherché est un arc réflexe cognitif. Cette rythmique a été copiée par les autres plateformes : Reels sur Insta, Spotlights sur Snapchat, Shorts sur Youtube.

A cette rythmique s’ajoute aussi la multiplication des points d’entrée dans les logiques de recommandation : « Pour toi » mais aussi « abonnements » (« suivis »), « amis », « lives », « explorer ».

Et une stratégie du fou, de l’irrationalité : certains contenus mis en avant disposent de chiffres de visibilité et d’engagement hallucinants (plusieurs centaines de millions de vues) alors que d’autres beaucoup plus travaillés et pertinents ne décolleront jamais. La question des métriques est par ailleurs là aussi une spécificité de TikTok qui fonctionne comme un vertige, une ivresse de notoriété : la moindre vidéo peut atteindre des nombres de vues immensément plus important que sur d’autres plateformes. Comme sur les autres plateformes, absolument rien ne permet en revanche d’authentifier la sincérité de ces métriques.

 

2. Les algorithmes des réseaux sociaux peuvent-ils favoriser certains types de contenus ? Le font-ils effectivement ? Si oui, selon quels facteurs et quelles modalités ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?

Dans l’absolu la réponse est oui car la nature même d’un algorithme est de trier et d’organiser l’information et les contenus. Donc de hiérarchiser. Donc d’éditorialiser (cf « Un algorithme est un éditorialiste comme les autres« ). Ce qui est plus complexe c’est de documenter finement la manière dont ils procèdent. Mais on a eu un exemple indépassable avec le rachat de Twitter par Elon Musk et la manière dont du jour au lendemain la ligne éditoriale a totalement changé (cf mon article « ouvrir le code des algorithmes ne suffit plus« ).

[Nota-Bene] J’entends le terme « d’éditorialisation » comme le définit Marcello Vitali-Rosati : « L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »

L’autre enjeu c’est de comprendre à quels intérêts ces changements correspondent ; un algorithme étant nécessairement la décision de quelqu’un d’autre, qu’est-ce qui motive ces décisions ?

  • L’idéologie ? Exemples récents et récurrents de rétablissement de comptes masculinistes ou pro-avortement, prime donnée à ces contenus, etc.
  • La géopolitique ? Exemples récents de contenus plutôt pro-israëliens sur Facebook après le 7 Octobre (en tout cas invisibilisation de contenus pro-palestiniens) à l’inverse de contenus plutôt pro-palestiniens sur TikTok.
  • L’argent (recettes et monétisation publicitaire) ?

Un concept clé pour comprendre la favorisation de certains contenus c’est celui de la publicitarisation. La « publicitarisation » c’est une notion définie ainsi par Valérie Patrin-Leclère, enseignante au CELSA :

« une adaptation de la forme, des contenus, ainsi que d’un ensemble de pratiques professionnelles médiatiques à la nécessité d’accueillir la publicité. Cette adaptation consiste en un aménagement destiné à réduire la rupture sémiotique entre contenu éditorial et contenu publicitaire – elle se traduit, par exemple, par l’augmentation des contenus éditoriaux relevant des catégories « société » et « consommation » ou par le déploiement de formats facilitant l’intégration publicitaire, comme la « téléréalité » – mais aussi en un ménagement éditorial des acteurs économiques susceptibles d’apporter des revenus publicitaires au média (…) »

 

Cette publicitarisation est là encore très ancienne. Un des responsables partenariats de Google (David Eun) déclarait il y a plus de 20 ans : « Ads Are Content ». Traduction : « les publicités sont du contenu« , et par extension, « les publicités c’est le contenu« . Le résultat aujourd’hui c’est ce verbatim d’utilisateurs et d’utilisatrices pour qui « le fait que le contenu est sponsorisé n’est pas toujours explicite et même parfois volontairement dissimulé. Les publicitaires reprennent également les codes des influenceurs et les trends, ce qui floute la frontière entre une recommandation personnelle et un contenu sponsorisé. »

Concernant la dimension géopolitique ou idéologique, là où TikTok est un objet encore plus complexe c’est parce que lui-même est en quelque sorte le premier réseau social directement, presqu’ontologiquement géopolitique. Créé par la Chine, comme un facteur, vecteur, agent d’influence. Mais avec des déclinaisons différentes dans chaque pays ou zone : le TikTok Chinois n’est pas le TikTok américain qui lui-même n’est pas exactement le TikTok européen, etc.

Une autre particularité forte de l’algorithmie de TikTok (en plus de son rythme propre) c’est ce qu’on appelle le « beauty / pretty privilege » et qui fait que des phénomènes comme le SkinnyTok ont un impact majeur presqu’indépendamment du nombre d’utilisateurs actifs de la plateforme (saisine par Clara Chappaz de l’ARCOM et de la commission européenne à ce sujet). Et qui fait que certains corps (noirs, gros, trans, etc.) sont invisibilisés ou dénigrés.

Les réseaux et médias sociaux, via leurs décisions et tamis algorithmiques, sont essentiellement deux choses :

  • des machines à cash
  • des machines à fabriquer de la norme

Et plus il y aura de normes édictées par les médias sociaux, plus elles seront facilement suivies (public captif), plus elles seront publicitarisables, plus il y aura de cash, plus il y aura de nouveaux espaces de publicitarisation. Ad Libitum.

Et pour être ces machines à cash et à fabriquer de la norme, les algorithmes de ces plateformes ont un rapport particulier à la mémoire : ils sont structurellement dans une forme d’hypermnésie permanente (du fait de la conservation de nos historiques) mais sont conjoncturellement tout à fait capables d’amnésie lorsque cela les arrange ou le nécessite (par exemple pour nous re-proposer des contenus dont nous avons dit qu’ils ne nous intéressaient pas mais qui sont rentables pour la plateforme).

 

3. Quels sont les conséquences du modèle économique des réseaux sociaux et particulièrement de TikTok quant à la construction et la mise en œuvre des algorithmes utilisés ?

Ils cadrent tout. Au sens où le sociologue Erving Goffman parle des « cadres de l’expérience ».

Toute expérience humaine renvoie, selon Goffman, à un cadre donné, généralement partagé par toutes les personnes en présence ; ce cadre oriente leurs perceptions de la situation ainsi que les comportements qu’elles adoptent par rapport à elle. Ceci étant posé, l’auteur s’attache, selon son habitude, à classer les différents types de cadres, en distinguant d’abord les cadres primaires des cadres transformés. (Source)

 

Ces cadres vont ensuite être « modalisés », c’est à dire subir différentes transformations. Et donc la conséquence du modèle économique des réseaux sociaux c’est que la publicité, ou plus exactement la publicitarisation est la première modalisation de ce cadre d’expérience commun qu’est la navigation dans les contenus de chaque plateforme.

La publicitarisation fabrique littéralement de la consommation (au sens économique mais aussi informationnel et navigationnel), consommation qui elle-même fabrique des formes de compulsion (FOMO, etc.) qui elles-mêmes viennent nourrir et optimiser la rentabilité du cadre de la publicitarisation.

Sur ce sujet, je cite souvent l’exemple de la position des deux fondateurs du moteur de recherche Google, Serguei Brin et Larry Page; En 1998, ils publient un article scientifique pour expliquer le fonctionnement de l’algorithme Pagerank qui va révolutionner le monde de la recherche en ligne. Et dans une annexe de leur article scientifique ils écrivent :

« nous déclarons que les moteurs de recherche reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs. S’il est vrai qu’il est particulièrement difficile, même pour les experts du domaine, d’évaluer les moteurs de recherche, les biais qu’ils comportent sont particulièrement insidieux. Une nouvelle fois, le Google de ces dernières années en est un bon exemple puisque nous avons vendu à des entreprises le droit d’être listé en lien sponsorisé tout en haut de la page de résultats pour certaines requêtes. Ce type de biais est encore plus insidieux que la « simple » publicité parce qu’il masque l’intention à l’origine de l’affichage du résultat. Si nous persistons dans ce modèle économique, Google cessera d’être un moteur de recherche viable. »

Et ils concluent par :

 « Mais nous croyons que le modèle publicitaire cause un nombre tellement important d’incitations biaisées qu’il est crucial de disposer d’un moteur de recherche compétitif qui soit transparent et transcrive la réalité du monde. »

 

On a donc des plateformes qui « ontologiquement » ont pleine conscience et connaissance de la dénaturation opérée par leur modèle de régie publicitaire mais qui passent outre à la seule fin d’une rentabilité maximale. Cela pourrait être simplement considéré comme du cynisme. Mais à l’échelle des dégâts produits à la fois dans le débat public mais aussi dans la psyché de certains des plus jeunes ou des plus fragiles, c’est de l’irresponsabilité. Et c’est pénalement condamnable. Cela devrait l’être en tout cas.

 

4. Quelles sont les conséquences des opinions des concepteurs des algorithmes utilisés par les réseaux sociaux, et notamment de leurs éventuels biais, dans la construction et la mise en œuvre de ces algorithmes ?

J’ai déjà répondu plus haut avec l’exemple du rachat de Twitter par Musk et dans mon article « Ouvrir le code des algorithmes ne suffit plus« . Mais on peut aussi compléter par le récent changement de Zuckerberg qui impacte directement les contenus diffusés sur Facebook. Encore une fois : il n’y a pas d’algorithmes, juste la décision de quelqu’un d’autre. Très longtemps on a refusé de le voir. Aujourd’hui, plus le monde se clive, plus les conflits sont mondialisés dans leur médiatisation, plus les plateformes sont par nature ou par intérêt des outils de Soft Power, et plus l’opinion ou l’agenda de leurs concepteurs est déterminant et cadrant.

Ce qui est très frappant aujourd’hui c’est ce qu’écrivait Kate Crawford dans son Atlas de l’IA (2021) et qui s’applique tout particulièrement aux algorithmes en tant que systèmes de pouvoir et que facteurs de puissance.

(…) il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.

Pour les algorithmes, c’est exactement la même chose : il faut nous intéresser simultanément à leurs architectures matérielles, à leurs environnements contextuels et aux politiques qui les façonnent, et retracer la manière dont ils sont reliés. Un algorithme, aujourd’hui, n’est plus uniquement une suite d’instructions logico-mathématiques, c’est une suite de systèmes de pouvoirs entrelacés.

 

5. Faut-il considérer les algorithmes comme des objets statiques ? Comment un algorithme évolue-t-il ? Peut-il évoluer sans intervention humaine, en apprenant de son propre fonctionnement ? À votre connaissance, comment cela s’applique-t-il aux réseaux sociaux, et particulièrement à TikTok ?

Je reprends ici ce que j’indiquais dans mes propos liminaires. Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :

  1. D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
  2. Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
  3. Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »

L’algorithme de TikTok n’est pas plus intelligent, plus efficace ou plus machiavélique que d’autres ; simplement, nous passons beaucoup plus de temps à nous en occuper, et nous le faisons, du fait de sa rythmique propre, avec une fréquence beaucoup plus élevée et avec un soin sans commune mesure avec les autres. Notre rapport à l’algorithme de Tiktok relève littéralement d’une forme de clinique au sens étymologique du terme, c’est à dire emprunté au grec klinikos, « propre au médecin qui exerce son art près du lit de ses malades » (lui-même de klinê, « le lit »). Selon que nous adoptons le point de vue de la plateforme ou le notre, nous sommes le médecin ou le malade.

 

6. Comment les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok, s’adaptent-ils à des comportements humains parfois changeants d’un jour à l’autre ?

Par effet d’entrainement. Nous éduquons et entraînons les algorithmes au moins autant qu’ils ne nous formatent en retour. Et tout parciculièrement celui de TikTok comme je l’expliquais juste ci-dessus.

Et puis par leur rythme (cf supra). L’algorithme se moque de savoir si vous êtes de gauche aujourd’hui alors que vous étiez de droite hier, végétarien aujourd’hui alors que vous étiez végan hier. Ce qui intéresse les concepteurs de l’algorithme c’est la captation en temps réel de l’ensemble de ce qui définit votre surface informationnelle numérique. L’algorithme a pour objet de scanner en permanence et si possible en temps réel des éléments qui constituent à la fois votre surface informationnelle (ce qui vous intéresse), votre surface sociale (avec qui partagez-vous ces intérêts) et votre surface comportementale (« sur quoi » ou « avec qui » passez-vous plus ou moins de temps).

Le grand problème est d’ailleurs aussi celui de la personnalisation : c’est à dire que, sur certains types de requêtes en tout cas, plus personne ne voit la même chose en réponse à la même question (ceci vaut pour les plateformes dans lesquels on démarre la navigation par une recherche). Et pour les plateformes, comme TikTok, dans lesquelles il n’est besoin d’aucun amorçage mais uniquement de scroller, tout le monde à l’impression de voir des choses différentes (personnalisées) alors qu’en fait tout le monde voit pour l’essentiel la même chose ; mais cette « même chose » se réduit exclusivement à ce qui est bon économiquement pour la plateforme, c’est à dire soit ce qui fait le buzz et va vous obliger à réagir (polarisation émotionnelle), soit ce qui vous maintient attentionnellement captif et peut donc possiblement renforcer des troubles conatifs (« Symptômes liés à une réduction des capacités d’effort, d’initiative, et à une dégradation de la volonté et des tendances à l’action. Les formes majeures peuvent aboutir à une inactivité avec repli, parfois incurie et résistance aux sollicitations de l’entourage, voire indifférence affective.« )

Je ne sais pas si l’image vous parlera mais plutôt que l’idée des « bulles de filtres » d’Eli pariser (idée que les algorithmes enferment chacun d’entre nous dans une bulle informationnelle plus ou moins étanche) je parlais de mon côté d’un comportement d’autarcithécaires ; cette idée que, du point de vue des plateformes et de leurs algorithmes, il s’agit de nous faire croire que nous sommes en situation d’autarcie informationnelle, c’est à dire de nous donner l’impression que ce qu’elles nous donnent à voir est à la fois suffisant, complet et représentatif, précisément pour que nous perdions progressivement le besoin d’aller regarder ailleurs ou même simplement de considérer qu’il existe un ailleurs informationnel. Ou pour le dire d’une autre manière, comment nous faire passer de la peur de rater quelques chose (FOMO) à la certitude d’une non-nécessité d’aller voir ailleurs.

 

7. Peut-on envisager des algorithmes « éthiques », notamment eu égard aux enjeux de santé mentale ? Pouvez-vous expliquer le concept d’« informatique sociale » ?

Pour moi l’éthique algorithmique passe par le rendu public de l’ensemble des critères et métriques relevant de formes d’éditorialisation. Et pour répondre par une comparaison, bien sûr que oui, on peut tout à fait imaginer des algorithmes éthiques comme on peut imaginer des vêtements fabriquées de manière éthique, des aliments fabriqués de manière éthique et qui ne soient pas immensément transformés. La seule question est : pourquoi ne le faisons-nous pas ? Pourquoi lorsqu’il en existe parfois personne ne s’y intéresse ?

La réponse à ces questions est évidemment la même que pour l’agro-alimentaire ou les vêtements : c’est une question de coût (ce qui n’est pas éthique est moins cher) et de cadres sociétaux de consommation (où l’on minore et où l’on invisibilise les problèmes posés par cette absence d’éthique).

A chaque fois il faut des drames pour que la société parvienne à se réveiller temporairement. Comme lors de l’effondrement du Rana Plaza au Bangladesh en 2013 qui fait exploser le scandale de la fast fashion. Mais malheureusement à chaque fois au lendemain de ces réveils sociétaux il se produit deux choses : le pouvoir politique ne saisit pas l’opportunité impérieuse de légiférer, et lorsqu’il le fait, la puissance du lobbying et du pantouflage vient tout édulcorer ou tout remettre à plus tard.

En complément, il y a un point particulier d’une éthique algorithmique qui consiste à se mettre en situation (pour les plateformes), où à donner l’injonction (pour la puissance publique) de casser les chaînes de contamination virales. De ralentir. D’ajouter de la friction dans les possibilités de partage, etc. On a vu et on a documenté que cela marchait, et que les plateformes le savaient. Je cite ici, avec les exemples en lien, ce que j’écrivais en Mars 2022 dans mon article « Par-delà le Like et la colère » :

« Ensuite il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu’elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que l’on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu’elles permettaient d’aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s’ils avaient bien lu l’article qu’ils s’apprêtaient à partager avant que de le faire sous le coup de l’émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c’était Youtube qui annonçait supprimer l’affichage public du compteur des « dislikes » pour « protéger » les créateurs notamment de formes de harcèlement, un effet qu’il connaît et documente pourtant depuis déjà de longues années. »

 

 

Sur les données personnelles utilisées par les algorithmes des réseaux sociaux

8. Pouvez-vous expliquer le concept d’« identité numérique » ? Quelles données personnelles partageons-nous lorsque nous utilisons les réseaux ? Comment ces données sont-elles utilisées par les algorithmes des réseaux sociaux et particulièrement de TikTok ?

Pour reprendre, en l’actualisant, la définition que j’en donnais dans mon ouvrage éponyme paru en 2013, je dirai que :

L’identité numérique peut être définie comme la collection des traces (écrits, contenus audios ou vidéos, messages sur des forums, identifiants de connexion, navigations, éléments d’interactions, etc.) que nous laissons derrière nous, consciemment ou inconsciemment, au fil de nos activités connectées, et le reflet de cet ensemble de traces tel qu’il apparaît « remixé » par les moteurs de recherche ainsi que par les médias et les plateformes sociales, et qui sont autant d’éléments en capacité de nourrir des choix algorithmiques visant à mieux cibler les contenus qui nous seront proposés dans le cadre du modèle économique de la plateforme concernée.

(version actualisée de Ertzscheid, Olivier. Qu’est-ce que l’identité numérique ?. OpenEdition Press, 2013, https://doi.org/10.4000/books.oep.332.)

 

9. Est-il possible de limiter ce partage de données personnelles ? Est-il possible et souhaitable d’en limiter la collecte, par exemple par le paramétrage des réseaux sociaux ?

Concernant la première partie de la question (est-il possible d’en limiter le partage), et pour autant qu’elle s’adresse aux utilisateurs et utilisatrices de ces plateformes, je réponds oui pour les données personnelles « déclaratives » (nous pouvons disposer d’un tamis plus ou moins large). Mais je réponds « non » pour les données personnelles qui relèvent de la sphère comportementale (ce que l’on voit, ce avec quoi l’on interagit, etc.).

Si la question s’adresse aux plateformes, alors là c’est un oui pour les données personnelles déclaratives comme pour les données comportementales. Elles sont tout à fait en capacité d’en limiter la collecte (mais cela vient heurter leur modèle publicitaire) et sont tout autant en capacité d’en limiter les usages dans le temps.

Le problème principal tient au statut discursif ou énonciatif de l’ensemble de ce qui circule, se dit et se voit dans ces plateformes ou applications : nous ne savons jamais réellement si nous sommes dans un espace discursif ou médiatique intime (où il serait OK et parfois nécessaire de partager ces données personnelles), privé, ou public. Dès 2007, trois ans après le lancement de Facebook, danah boyd indiquait que le problème des réseaux sociaux est qu’ils étaient des espaces semi-publics et semi-privés (« la privauté de ces espaces publics ou semi-publics pose problème« ). Ce problème n’a jamais été résolu.

L’autre problème (et la grande responsabilité des plateformes) c’est qu’elles changent en permanence et sous plein de prétextes différents, le réglage de nos paramètres de confidentialité ou de navigation. Et qu’elles complexifient, par défaut, la possibilité de limiter ce partage de données personnelles (dark patterns, etc.)

Sur la deuxième partie de la question (est-ce possible et souhaitable de limiter cette collecte), je réponds que c’est possible, que c’est souhaitable, et que c’est, surtout, absolument nécessaire.

Il y a un grand récit marketing et technologique qui nous fait croire que plus on collecte de données personnelles, et plus on peut nous proposer de l’information et des contenus personnalisés, et plus ce serait donc intéressant pour nous. C’est une vaste et totale fumisterie. Le seul récit qui vaille est le suivant : plus on collecte de données personnelles, plus on propose des contenus personnalisés, plus on ne fait que « publicitariser » les expériences navigationnelles et informationnelles, et plus on efface la notion de référent commun sur tout un ensemble de sujets, plus on saborde à l’échelle d’une société la question des « régimes de vérité » (cf Foucault ci-dessous), et plus on crée donc à la fois de l’isolement, du conflit, et de la défiance.

« Chaque société a son régime de vérité, sa politique générale de la vérité : c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. » Michel Foucault

 

Longtemps la « personnalisation » n’a été que thématique et déclarative. Du genre : je préfère l’actualité sportive à l’actualité politique, et dans l’actualité sportive, je préfère le rugby au foot. Dès que la personnalisation a gommé cette dimension déclarative explicite, dès qu’elle a surtout été indexée sur nos propres croyances, comportements et opinions plutôt que sur des médias aux formes et aux pratiques d’éditorialisation transparentes, elle est devenue un instrument purement marketing avec un impact politique massivement délétère.

 

Sur la transparence des réseaux sociaux

10. Pensez-vous qu’il soit possible d’exiger des réseaux sociaux d’être entièrement transparents sur leur fonctionnement et les algorithmes qu’ils utilisent ?

Je reprends ici une partie de mes propos liminaires. Oui il est possible de l’exiger. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un like vaut 1 point et qu’une colère vaut 5 points, nos comportements sont susceptibles de changer mais pour autant il est impératif que chacun sache combien « vaut » chaque type d’interaction mobilisée).

Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, etc.

Et d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.

Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.

Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.

Et a fortiori encore dans un monde où elles sont devenus totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).

 

11. Est-on en mesure de contrôler cette transparence ? Comment, tant au niveau européen qu’au niveau français ?

Nous n’avons aujourd’hui plus besoin de produire des textes, lois et règlements. Nous avons besoin de faire appliquer ceux qui existent déjà (DSA, DMA, RGPD). Et d’organiser un cadre politique dans lequel la main de l’exécutif ne tremblera pas. Par exemple au titre de l’application du DSA, Twitter devenu X aurait pu et probablement dû être au moins temporairement fermé et interdit à l’échelle européenne (il l’a été au Brésil pendant plusieurs mois).

Nous sommes aujourd’hui pour la régulation de ces mass média en plein paradoxe de la tolérance tel qu’exprimé par Popper. A force d’être tolérants y compris avec les intolérants, nous courrons droit dans le mur. [« Popper affirme que si une société est tolérante sans limite, sa capacité à être tolérante est finalement détruite par l’intolérant. Il la décrit comme l’idée apparemment paradoxale que « pour maintenir une société tolérante, la société doit être intolérante à l’intolérance. » Wikipedia]

Il faut à ce titre aussi exiger des plateformes qu’elles appliquent leurs propres règles, et par exemple ne traitent pas différemment leurs « power users » car à ce jour ces plateformes, toutes ces plateformes, ont d’abord un immense problème de démocratie interne.

 

12.  Les apports du DSA sont-ils suffisants ?

Oui pour autant qu’il y ait la volonté politique de l’appliquer en chacun de ses termes.

 

13.  Est-ce techniquement possible, a minima, d’exiger des réseaux sociaux des garanties que leurs algorithmes ne comprennent pas de biais susceptibles d’avoir des conséquences néfastes (sur-représentation de contenus dangereux pour la santé mentale, propagation de fake news, discriminations, etc) ?

Je crois qu’on se trompe en plaçant cette question sous l’angle « technique ». Ce n’est pas à la « technique » d’arbitrer des questions qui relèvent de la santé publique ou de l’éthique. Je me permets une comparaison. Se poserait-on la question de savoir s’il est possible « techniquement » d’exiger d’une bibliothèque que son plan de classement de comprenne pas de biais ? Non. Parce que le problème ce n’est pas le plan de classement, ce sont les unités documentaires que l’on choisit de classer, donc de donner à voir, ou de ne pas classer. Les plateformes et leurs algorithmes sont « techniquement » en pleine capacité de faire respecter des règles a minima de représentativité sur un ensemble de sujets, y compris politiques, religieux ou sociétaux. Jamais en réalité nous n’avons disposé d’outils aussi puissants et aussi précis pour y parvenir. Si les plateformes (et leurs algorithmes) ne le font pas ce n’est en rien un problème technique. En rien. C’est un problème de choix économiques (business first). Et d’idéologies et d’interêts partisans (ou cyniquement opportunistes) de leurs propriétaires et de leurs actionnariats.

 

14.  Quelle méthodologie utilisez-vous pour étudier les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok ? Quelles difficultés rencontrez-vous ? Que signifierait, pour le monde de la recherche, la publicité des algorithmes utilisés par les réseaux sociaux ?

A titre personnel, dans mon domaine de recherche, soit on procède par enquête sociologique, soit par observation participante. Comme les sociologues allaient à l’usine pour documenter au plus près le travail concret des ouvriers, on va « aux algorithmes » pour documenter au plus près leurs effets.

Un des grands sujets de notre temps, c’est que nous avons perdu la maîtrise des corpus. Quand je dis « nous » je parle du monde universitaire et donc ensuite du monde de la décision politique. Tous les programmes partenariaux publics permettant à des universitaires d’avoir accès à l’immensité des corpus détenus par les plateformes, tous ces programmes partenariaux ont été fermés. La plupart des API supprimées. L’opacité, hier sur les algorithmes, aujourd’hui sur les données, est absolument totale. Et nous en sommes réduits à faire confiance aux chercheurs employés par ces plateformes (mauvaise idée), ou à attendre la prochaine fuite d’un repenti ou d’une lanceuse d’alerte (encore plus mauvaise idée). La puissance publique, les chercheurs et universitaires de la puissance publique, n’ont plus aucune entrée ou maîtrise des corpus (linguistiques, sociologiques, etc) qui circulent dans ces plateformes et qui les constituent. Et c’est non seulement très inquiétant, mais c’est surtout très inacceptable.

 

Sur l’éducation aux réseaux sociaux

15.  Le grand public est-il familiarisé avec le fonctionnement des algorithmes, et particulièrement de ceux utilisés par les réseaux sociaux ? Adapte-t-il son comportement en conséquence ?

Les travaux existants montrent qu’en effet, lorsqu’un fonctionnement algorithmique est suffisamment connu on a tendance à l’intégrer à notre pratique. Et en général les plateformes mettent donc en place des dispositifs pour contrer ces usages « non naturels » (exemple du Google Bombing). Aujourd’hui, même en connaissant certains « tips » agorithmiques, on ne s’en affranchit pas automatiquement. Et il est beaucoup plus difficile de connaître ou de tricher avec la « totalité » d’un algorithme aujourd’hui que cela ne l’était hier.

Par ailleurs, y compris les ingénieurs qui développent ces algorithmes sont de moins en moins nombreux à en connaître la totalité des fonctionnements. Et la capacité de tourner à plein sans supervision humaine des ces algorithmes n’a jamais cessé d’augmenter. Et cela ne vas pas s’arranger. Récemment le CEO de Google, Sundar Pinchai, confiait qu’environ 30% de l’ensemble du « code » informatique utilisé par l’ensemble des produits de la société Alphabet (maison mère de Google, Youtube, etc) était directement produite par des IA.

Quand à notre comportement adaptatif, il demeure très relatif. Nous ne l’adaptons que dans la mesure où nous avons l’impression que cette adaptation va servir directement (et rapidement) nos intérêts immédiats. Sur le reste, nous sommes plutôt d’une passivité totale, nous nous laissons algorithmiser parce que tout est fait pour fausser notre perception de la balance bénéfices / risques.

 

16.  Pensez-vous que les enfants et adolescents soient suffisamment outillés, notamment par leurs établissements scolaires, pour se protéger des risques que ces algorithmes présentent ? Pensez-vous que les parents soient suffisamment outillés pour en protéger leurs enfants ?

La question de l’accompagnement aux écrans est une question … complexe. Ce que les jeunes et adolescents cherchent dans ces espaces (cf notamment les travaux de danah boyd aux USA ou d’Anne Cordier en France) ce sont des espaces qui soient transgressifs, la première transgression étant cette d’être à l’abri du regard des parents et des adultes. Les espaces numériques sont aussi ces alcôves algorithmiques qui permettent à la fois de se mettre à l’abri (du regard de l’adulte), d’être ensemble (y compris parfois « seuls ensemble » comme l’explique Shirley Turckle), et d’être dans la transgression autant que dans la construction d’un intime. Et cela est tout à fait normal et ne doit sous aucun prétexte être condamné ou, pire, criminalisé. Le problème, le seul et le grand problème, c’est que la construction de cet intime est toujours scruté par des autorités qui ne sont plus « parentales » mais industrielles.

Bonne nouvelle : on observe déjà et très largement des pratiques de « sevrage » temporaire mises en place par les adolescents et jeunes adultes. Cela peut-être à l’approche d’un examen à la fac, du bac français, etc. Pratiques où ils et elles désinstallent temporairement l’application de leur smartphone. Cela veut dire (pour ces publics) qu’une bonne partie du travail de pédagogie est déjà fait. Il faut ensuite trouver un effet cliquet, qui permette d’éviter de délétères retours en arrière. Et c’est bien là le rôle de la puissance publique.

Rappeler aussi que l’enjeu n’est et ne doit pas être d’interdire les écrans, mais de disposer, dans le cadre de l’organisation de notre vie sociale, éducative, publique et citoyenne, d’espaces qui demeurent des espaces non nécessairement déconnectés ou sans écrans, mais à tout le moins sans écrans et connexions qui ne soient autres que collectives ou a minima duales.

A ce titre oui, je suis convaincu par exemple qu’à l’école et au collège, les smartphones devraient être totalement interdits, dans les cours (de récréation) comme en cours. Et vous savez quoi ? Accrochez-vous bien. BINGO. C’est déjà le cas 🙂

Et qu’au lycée et même à l’université, ils devraient continuer de l’être pendant les cours. Mais qu’il n’est pour cela ni utile ni nécessaire de passer par la loi. C’est à chaque enseignante ou enseignant et éventuellement à chaque université ou composante de le décider et surtout, surtout, surtout, de l’expliquer. Parce qu’il ne s’agit pas de faire oeuvre de censure ou de police. Mais parce que si l’on considère que la transmission de savoirs tout comme l’acquisition des sociabilités primaires et fondamentales, passe par un pacte attentionnel minimal aux autres et à celui ou celle en charge de vous les transmettre et de vous les faire acquérir, alors il faut aussi accepter que celui ou celle qui est en charge de cela, quelque soit son talent et sa détermination, ne sera jamais, absolument jamais, en situation de rivaliser attentionnellement avec un objet technologique qui contient à lui seul tous les savoirs et toutes les sociabilités du monde.

Rappeler aussi que la question de la santé mentale, notamment chez les jeunes, est toujours, toujours multi-factorielle : elle tient à la fois à des paramètres éducatifs, culturels, familiaux, économiques. Donc il peut y avoir aussi bien des corrélations que, dans certains contextes, des causalités entre l’usage de TikTok et les questions de santé mentale. Mais si l’on veut s’attaquer (et il le faut) aux questions de santé mentale qui affectent désormais de manière alarmante des générations entières, alors il faut aussi et surtout traiter la question des politiques de santé publiques.

Rappeler enfin qu’il existe des métiers (professeurs documentalistes) et des organismes (CLEMI) qui font ce travail formidable au long cours. Il faut en créer davantage et leur donner des moyens sans aucune commune mesure avec ceux actuels.

Questions générales

17.  De quels mécanismes de contrôle étrangers la France ou l’Europe devraient-elles, d’après-vous, s’inspirer ?

Je crois avoir déjà répondu plus haut que nous disposions de suffisamment de textes et règlements à l’échelle Européenne. Et qu’il reste à les appliquer entièrement.

 

18.  Avez-vous des recommandations à transmettre à la commission d’enquête ?

Ma première recommandation est un avertissement que je reprends de mes propos liminaires et d’un article que j’avais publié.

« Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes.

Nous avons aimé croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nécessiterait pas de mineurs de fond, que l’informatique en nuage (Cloud Computing) ne dissimulait pas la réalité d’une industrie lourde. Nous ne pouvons plus aujourd’hui nous réfugier dans ces mensonges. Sur les industries extractivistes de l’information, nous avons l’avantage d’en connaître déjà les mécanismes et les routines ; la chance d’en observer les infrastructures de marché (du Cloud Computing au High Frequency Trading en passant par la précarisation des différentes formes de Digital Labor) ; la chance d’être capables de documenter la toxicité de ces prismes dans le cadre de certains sujets de société ; la chance d’avoir pu documenter et prouver à de trop nombreuses reprises l’insincérité fondamentale et aujourd’hui fondatrice de toutes ces plateformes et de leurs créateurs et administrateurs. Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. »

 

Pour le dire en d’autres termes, connaître la recette exacte du Coca-Cola ne change rien au phénomène de l’obésité : la seule chose qui compte c’est de se doter de politiques de santé publique qui éduquent, régulent, contraignent et qui dépublicitarisent, qui démonétisent symboliquement ce qu’est et ce que représente le Coca-Cola.

De la même manière, connaître l’impact du pétrole sur le réchauffement climatique et la part qu’y jouent nos modes de transport et les industriels extractivistes ne changera rien à l’avenir de la planète si l’on n’a pas de politique publiques sur l’écologie capable de proposer des alternatives aux premiers mais aussi de contraindre les seconds, et là encore de dépublicitariser, de démonétiser tout cela.

Pour les algorithmes, y compris et a fortiori pour celui de TikTok, c’est exactement la même chose : connaître son mode exact de fonctionnement ne changera rien aux errances et aux effondrements affectifs, psychologiques, conatifs, informationnels qu’il alimente. Il nous faut des politiques publiques du numérique. Dont des politiques de santé publique numérique.

Et il faut davantage de postes de professeurs documentalistes dans les lycées et collèges, avec davantage d’heures de cours dédiées à la culture numérique. Et aussi il faut financer et multiplier les structures et opérateurs comme le CLEMI. Oui je l’ai déjà dit. Mais oui je le redis. Et le redirai sans cesse.

 

[Verbatim étudiantes et étudiants]

L’échantillon est d’une petite soixantaine d’étudiantes et d’étudiants, en 1ère année de BUT Information et Communication (donc en gros âgés de 18 ou 19 ans) et avec qui j’ai déjà effectué quelques heures de cours autour des questions de culture numérique, de l’histoire d’internet et du web, et aussi un peu des enjeux sociétaux des algorithmes. La seule consigne donnée était de partir de leur expérience personnelle de la plateforme pour répondre aux questions de la commmission.

De manière générale ils et elles soulignent l’importance (et le manque) de politiques de santé publique et de communication, dans l’espace public, sur ce sujet.

  • « On voir rarement de campagne de prévention dans l’espace public sur le lien entre utilisation RS et questions de santé mentale, alors même que jamais les jeunes n’ont autant parlé de l’importance et de la fragilité de la santé mentale« 
  • « il faut renforcer la communication publique, notamment dans le cadre scolaire« 

Ils et elles soulignent également l’importance de faire à ces sujets davantage de place au collège et au lycée et surtout, d’en parler autrement que sous le seul angle de la culpabilisation ou des dérives comme le cyberharcèlement.

  • « tout le monde accuse tiktok d’être dangereux mais personne ne parle réellement des risques qui y sont associés et comment on s’en protège« 
  • « intégrer ces questions dans les machins genre Pix« 
  • « la plupart du temps, au lycée ou au collègue, ces plateformes ne sont abordées que sous l’angle du cyberharcèlement, mais jamais sous l’angle des algorithmes, de leur côté addictif, chronophage, démotivant« .

Ils et elles ont aussi une grande maturité sur la nécessité d’un contrôle d’accès réel avec une vérification de l’âge qui soit autre chose qu’un bouton « oui promis j’ai 18 ans » :

  • « faire un vrai contrôle d’accès selon l’âge, comme sur blablacar avec présentation d’un document d’identité« 

Ils et elles ont des idées très concrètes de ce qu’il faudrait obliger Tiktok (et d’autres plateformes) à mettre en place :

  • « obliger TikTok à implémenter des fonctionnalités permettant de mieux gérer le temps d’écran et à sensibiliser ses utilisateurs aux risques d’une utilisation excessive« 
  • « être plus à l’écoute des signalements. Et plus vigilants sur les contenus de type suicide : personne n’aime regarder des vidéos de suicide (ou de comment se suicider) et personne ne devrait se voir recommander des vidéos comme ça« 

J’ai enfin été particulièrement frappé, dans leurs verbatims, d’une large majorité qui indique explicitement que les impacts et effets négatifs sur leur humeur sont plus importants que les aspects positifs. Et de la manière dont ils documentent et analysent cela. Le verbatim ci-dessous résume très bien ce que j’ai lu dans beaucoup de leurs réponses individuelles :

  • « À titre personnel, tik tok a plus d’impact négatif que positif. En effet, une fois que je suis sur l’application, il m’est presque impossible de réguler mon temps passé sur cette
    dernière. Une heure est ressentie comme 15 minutes et arrêter de scroller est très compliqué. De plus, lorsque mon application est active, l’heure ne s’affiche plus sur mon écran, ce qui biaise encore plus mon rapport au temps. Ce temps passé sur tik tok est perdu pour faire d’autre activité, et souvent, je repousse les tâches que j’ai à faire. Après avoir passé plusieurs heures sur tik tok je culpabilise énormément et me sens mal. J’ai remarqué que mon moral était affecté par mon utilisation de tik tok, plus je passe de temps à scroller moins je suis de bonne humeur.« 

[Et puis soudain Gabriel Attal]

Voilà je m’apprêtais à demander à ChatGPT une version synthétique de ce long texte en extrayant les éléments mobilisables immédiatement dans le cadre d’une proposition de loi et puis soudain, je tombe sur plusieurs éléments complémentaires.

Premier élément : Gabriel Attal. Qui s’allie au pédopsychiatre Marcel Ruffo pour proposer des mesures qui sont, pour l’essentiel, des caricatures au carré. Caricature d’une pensée magique où tout est, sans indistinction, la faute aux écrans et où leur suppression guérirait donc tous les maux, et où toute cette faute mériterait donc des régimes disciplinaires qui sont autant imbéciles qu’inapplicables et dangereux en démocratie. Voici donc ce qu’ils proposent :

  • une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde.
  • interdire l’accès des moins de 15 ans aux réseaux sociaux (et imposer une vérification d’âge sur ces plateformes).
  • imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h.
  • faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation.
  • création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes.
  • créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale.

J’ai donc immédiatement réfléchi à une critériologie assez fine permettant de caractériser chaque mesure proposée. Critériologie que voici :

  • « C’est complètement con » : 3C
  • « Inapplicable et Imbécile » : 2I.
  • « Pourquoi pas mais surtout … pourquoi ? » :  3P.

Revoici maintenant ces mesures à l’aune de mon analyse subtile.

  • une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde : 3P
  • interdire l’accès des moins de 15 ans aux réseaux sociaux : 3C2I
  • imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h : 3C2I
  • faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation. 3C3P
  • création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes. 3P

Je ne retiens donc que deux mesures :

  • « imposer une vérification d’âge sur ces plateformes. » Mais certainement pas pour « interdire » l’accès mais pour responsabiliser les plateformes qui organisent cet accès et font absolument n’importe quoi quelque soit l’âge réel de leurs utilisateurs et utilisatrices, âge réel que de leur côté elles sont la plupart du temps en pleine capacité de connaître (et donc d’en déduire la part d’utilisateurs et d’utilisatrices qui n’ont absolument rien à faire là puisqu’elles sont normalement interdites aux moins de 13 ans).
  • « créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale. » Là je dis oui, mais je dis surtout « seulement 2% ?! »

Pour le reste, je vous invite à lire la chronique et l’analyse impeccable de François Saltiel dont je partage chaque ligne et chaque mot.

Et je vous invite aussi, à chaque fois que vous entendrez diverses gesticulations politico-médiatiques sur une interdiction totale ou partielle des écrans chez les enfants et adolescents, à relire (notamment) cet article grand public et surtout de grande utilité publique d’Anne Cordier, publié en Mai 2024, et dans lequel elle rappelle la réalité de deux points fondamentaux, celui de la panique morale sur ce sujet, et celui de la réalité des études scientifiques sur ce même sujet :

Ce phénomène des paniques morales exprime une crainte quant à la déstabilisation des valeurs sociétales, et se cristallise autour des usages juvéniles desdits écrans et des conséquences de ces usages sur la santé mentale et sociale des enfants et adolescents, ainsi que sur leur développement cognitif et leur culture générale.

Pourtant une importante et robuste étude américaine, menée sur le long terme auprès de 12000 enfants entre 9 et 12 ans, conclut sans hésitation à l’absence de lien entre temps passé « devant les écrans » et incidence sur les fonctions cérébrales et le bien-être des enfants. Pourtant encore, en France, une enquête longitudinale d’envergure, déployée cette fois auprès de 18000 enfants depuis leur naissance, montre que ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant.

Malgré ces faits scientifiques, le débat autour de la place desdits écrans dans notre société se polarise, et se caractérise récemment par une ultraradicalisation des postures, ce qui a pour premier effet de porter préjudice à la compréhension de tout un chacun.

 

Je répète : « ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant. » La place et l’usage des écrans n’est que l’un de ces facteurs sociaux parmi d’autres bien plus essentiels.

[Et puis soudain le Pew Internet Research Center]

Le 22 Avril 2025 est sortie une étude du Pew Internet Research Center, pile poil sur le sujet qui nous occupe : « Teens, Social Media and Mental Health. » Elle est, comme souvent, fondamentale pour bien cerner les enjeux de ce sujet. Et j’en retire les éléments suivants.

D’abord si environ 40% émettent un avis plutôt « neutre » sur l’influence des médias sociaux sur leur santé mentale, les 60% d’adolescents restants (entre 13 et 17 ans) indiquent clairement que les effets négatifs sur leur santé mentale l’emportent sur les effets positifs.

Ensuite là où les parents considèrent que les médias sociaux sont la première cause des problèmes de santé mentale, du côté des adolescents, c’est tout autre chose : 22% des adolescents désignent les médias sociaux, 17% d’entre elles et eux les phénomènes de harcèlement (j’ai bien dit de harcèlement et pas seulement de cyber-harcèlement), et 16% les « pressures and expectations« , c’est à dire les attentes sociales et parentales vécues comme autant de pressions. Là est l’un des noeuds centraux du problème de la santé mentale des adolescentes et adolescents.

Autre point essentiel qui rend encore plus débile toute tentative d’interdiction, plus d’un tiers (34%) des adolescentes et adolescents interrogés indiquent s’informer sur les réseaux sociaux sur les questions de santé mentale. Et parmi ceux-là, plus de la moitié indiquent que c’est une source d’information importante.

Enfin, et c’est là aussi absolument déterminant pour comprendre ce qui se joue et comment le réguler, les adolescentes et adolescents identifient clairement l’impact délétère et toxiques des médias sociaux sur leur travail et leurs études, sur leur santé mentale, sur leur productivité et sur leur sommeil mais dans le même temps ils indiquent tout aussi clairement l’impact très positif sur leurs amitiés et leurs socialisations. Constat qui rejoint en effet tous les travaux universitaires sur ce point : ces espaces numériques de socialisation sont nécessaires et précieux dans la construction des identités (et des intimités) adolescentes à l’abri du regard des adultes. En revanche rien n’oblige à ce qu’ils soient traversés de contenus ne répondant qu’à des logiques commerciales et qui n’ont de considération que pour des dynamiques de viralité garantissant à tout prix des effets de rente attentionnelle. La responsabilité d’y faire le tri et le ménage et d’y injecter la dose minimale de responsabilité déontologique au regard des publics ciblés et des enjeux sociétaux concernés incombe donc entièrement aux plateformes elles-mêmes, et c’est à la puissance publique de le leur rappeler et de les y contraindre. Quoi qu’il en coûte.

 

One More Thing.

J’ai ensuite demandé à ChatGPT, sur la base de ce (long) texte (celui de mes réponses à la commission), de faire une liste de 10 propositions (ou plus) concrètes dont le législateur pourrait se saisir et de reformuler ces propositions dans un format destiné à une note parlementaire ou à une présentation en commission. Je vous en livre ici le résultat.

Liste de 10 propositions pour une prochaine loi ou cadrage législatif.

[c’est ChatGPT qui parle, enfin qui écrit]

Voici une liste de dix propositions et recommandations concrètes issues du document de contribution à la commission parlementaire, que le législateur pourrait saisir pour élaborer une nouvelle loi sur le numérique et l’accès aux réseaux sociaux :

🔐 Transparence et régulation algorithmique
  1. Exiger la transparence des algorithmes sur leur dimension éditoriale : rendre publics les critères et pondérations qui déterminent l’affichage des contenus, notamment en lien avec les réactions émotionnelles (likes, colère, etc.).

  2. Obliger les plateformes à ralentir les chaînes virales : limiter les fonctionnalités favorisant la viralité (nombre de partages simultanés, forwarding de messages, etc.) pour réduire les effets de masse sur la désinformation et le harcèlement.

  3. Supprimer l’affichage public de certaines métriques (likes, vues, dislikes) pour atténuer les effets de conformité sociale et limiter les impacts délétères sur la santé mentale.

🧠 Santé publique et usage responsable
  1. Instaurer des mécanismes de contrôle d’accès efficaces pour les mineurs (vérification d’identité, seuils d’âge vérifiés comme sur Blablacar), en évitant les simples déclarations « j’ai plus de 13/18 ans ».

  2. Imposer des limites d’usage paramétrables par défaut (temps d’écran, alertes de dépassement, pause obligatoire après un temps de scroll continu) intégrées directement dans les applications.

  3. Créer une politique de santé publique numérique : reconnaître les effets psychiques négatifs des réseaux sur les plus jeunes et y répondre par des campagnes nationales et des dispositifs de prévention dans les écoles et les médias.

📚 Éducation et formation
  1. Renforcer l’éducation au numérique dès le collège : intégrer des modules spécifiques sur les algorithmes, la captation attentionnelle, les risques informationnels et les logiques économiques des plateformes.

  2. Doter chaque collège et lycée d’un(e) professeur(e) documentaliste formé(e) aux enjeux numériques et augmenter leurs heures dédiées à l’éducation aux médias.

⚖ Pouvoirs publics et contrôle
  1. Faire appliquer strictement les lois existantes (RGPD, DSA, DMA) : prévoir des sanctions réellement dissuasives en cas de non-conformité et ne pas hésiter à suspendre ou interdire temporairement des services comme cela a été fait ailleurs.

  2. Créer un droit d’accès des chercheurs publics aux corpus algorithmiques : obliger les plateformes à ouvrir des API sécurisées permettant à la recherche indépendante d’analyser les effets sociaux, psychologiques et politiques de leurs systèmes.

La note parlementaire (faite par ChatGPT).

[c’est toujours ChatGPT qui parle, enfin qui écrit]

Voici une note parlementaire structurée présentant les propositions issues du document d’Olivier Ertzscheid, à destination d’un(e) député(e) souhaitant nourrir une réflexion législative sur le numérique et les réseaux sociaux.

Objet : Propositions pour une loi sur les usages numériques et l’accès aux réseaux sociaux
Auteur : Synthèse des travaux d’Olivier Ertzscheid, Maître de conférences en Sciences de l’information
Date : [à compléter]

Contexte général

Dans un environnement où les réseaux sociaux sont devenus des médias d’“hyper-masse”, leur impact sur les comportements, la santé mentale, la circulation de l’information et la démocratie est désormais massif, continu et documenté. L’urgence n’est plus de comprendre ces effets, mais de réguler concrètement les modèles qui les produisent. Cette note propose dix axes d’action législatifs concrets.

1. Transparence algorithmique et lutte contre la manipulation attentionnelle

1.1. Transparence des logiques éditoriales des algorithmes

Obligation pour les plateformes de rendre publics les critères et pondérations influençant la hiérarchisation des contenus (types de réactions, temps de visionnage, etc.), en particulier ceux relevant de la manipulation émotionnelle.

1.2. Ralentissement des chaînes virales

Limitation par la loi des mécanismes de partage automatisés ou massifs (groupes WhatsApp, forwardings, etc.) afin de freiner les phénomènes de désinformation, de harcèlement et de polarisation.

1.3. Encadrement des métriques visibles

Obligation pour les plateformes de masquer certains compteurs (likes, vues, partages) aux utilisateurs non-créateurs pour atténuer les effets de conformité sociale et d’addiction à la reconnaissance.

2. Santé publique et encadrement de l’usage

2.1. Vérification d’âge robuste à l’inscription

Mise en œuvre d’un dispositif réel de contrôle d’âge (type pièce d’identité) pour limiter l’accès des mineurs aux plateformes sans médiation.

2.2. Limites d’usage intégrées par défaut

Imposition à toutes les applications sociales d’une fonction de régulation du temps passé : alertes, pauses obligatoires, et tableaux de bord accessibles.

2.3. Lancement d’un plan national de santé publique numérique

Campagnes publiques et programmes éducatifs pour sensibiliser aux impacts psychologiques des réseaux sociaux, en particulier chez les jeunes.

3. Éducation aux médias et renforcement scolaire

3.1. Intégration obligatoire de modules sur les logiques des plateformes

Enseignement dès le collège sur le fonctionnement des algorithmes, la captation attentionnelle et les logiques économiques des contenus.

3.2. Déploiement renforcé de professeurs documentalistes et du CLEMI

Augmentation du nombre de professeurs documentalistes et du budget alloué au CLEMI, pour assurer un accompagnement continu et de qualité dans les établissements.

4. Régulation effective et contrôle public

4.1. Application sans compromis des règlements européens (RGPD, DSA, DMA)

Sanctions systématiques et dissuasives en cas de non-respect des règles ; possibilité d’interdiction temporaire d’un service comme dans d’autres pays (ex. X/Twitter au Brésil).

4.2. Accès aux corpus pour la recherche publique

Obligation légale pour les plateformes d’ouvrir aux chercheurs indépendants l’accès à des jeux de données anonymisés, via API, afin de permettre une évaluation scientifique indépendante des effets des algorithmes.

Conclusion

Ces propositions, réalistes, urgentes et largement documentées, peuvent constituer la base d’un cadre législatif de souveraineté numérique, de protection des jeunes publics et de régulation démocratique des puissances algorithmiques.

 

Argumentaire synthétique pour une intervention en commission.

Tant que j’y suis je vous livre aussi l’introduction et la conclusion du même ChatGPT lorsque je lui demande un argumentaire synthétique de sa note parlementaire pour une intervention en commission.

Introduction.

Mesdames et Messieurs les membres de la commission,

Nous sommes aujourd’hui face à des outils devenus centraux dans la vie sociale, affective, cognitive de millions de citoyens, notamment les plus jeunes. Ces outils sont à la fois des médias d’hyper-masse, des machines à fabriquer la norme et des systèmes de captation attentionnelle, dont les effets sur la santé mentale, la désinformation et les inégalités sont désormais documentés.

Il ne s’agit plus de produire des rapports ou des constats, mais d’agir, de légiférer, de protéger.

Conclusion : l’exigence du courage politique.

Ce que nous proposons n’est ni technophobe, ni moraliste. C’est une politique de santé publique, d’éducation, et de souveraineté.
Il faut démonétiser l’attention, dépublicitariser l’espace social, et remettre du sens dans nos usages.

L’histoire nous jugera comme elle a jugé ceux qui n’ont rien fait face au tabac ou au réchauffement climatique. Il est encore temps d’agir.

 

Voilà. Le boulot est fait de mon côté. J’ai transmis à la commission mon texte avec l’intégralité de mes réponses aux questions, et leur ai également adressé les 10 propositions pour une évolution du cadrage législatif (en précisant bien sûr qu’elles étaient formulées par ChatGPT sur la base de l’analyse de mon texte). Le reste appartient maintenant à ce truc formidable qu’on appelle la démocratie.

La coalition pour son propre avenir

Vous vous souvenez de janvier 2021? Pour aider à faire passer la pilule du couvre-feu, les ministres caquistes publiaient des photos et vidéos des petits bonheurs de leur quotidien dans leur immense cour ou dans leur luxueux salon grand comme mon appartement. On y voyait entre autres le ministre André Lamontagne qui joue du piano en compagnie de son chien. En compagnie de son chien. J’insiste sur le compagnon canin parce que le couvre-feu prévoyait une exception pour les propriétaires de chien. Mais pas pour les itinérants. Plus de 150 itinérants ont reçu une amende pour non-respect du couvre-feu. Les propriétaires de chiens n’ont pas eu ce problème.

C’est une anecdote (merci à Josiane Cossette qui l’analyse et en souligne le caractère indécent dans son livre Raccommodements raisonnables), mais une anecdote qui selon moi révèle comment se prennent les décisions au gouvernement de la CAQ. Je peux facilement imaginer, au moment où François Legault annonce qu’il y aura un couvre-feu, le ministre Lamontagne qui lève la main pour dire “Oui mais moi il faut que j’amène mon chien faire sa promenade le soir.” “Okay André on va prévoir une exemption pour toi. Je veux dire: On va prévoir une exemption pour les propriétaires de chien.” Mais naturellement, il n’y avait pas d’itinérant autour de la table pour faire part de sa situation personnelle. Donc pour eux, l’exemption est seulement venue plus tard en raison de la pression populaire et médiatique.

C’est ça, la CAQ. Un groupe d’individus qui gouvernent pour eux-mêmes.

Cette année, le salaire minimum a augmenté de 15.75$ à 16.10$. Une augmentation de 2.2%, inférieure à l’inflation. Il n’y a évidemment pas beaucoup de gens autour de la table du conseil des ministres qui savent ce que c’est de travailler au salaire minimum. En revanche, 30% des ministres de la CAQ viennent du milieu des affaires. Il y avait donc beaucoup de gens pour rappeler que la prospérité des entreprises dépend d’un salaire minimum aussi bas que possible. Tant pis si ceux qui en arrachent doivent s’appauvrir un peu plus. Ce gouvernement travaille pour l’économie.

Pendant que le salaire minimum augmente de 2.2%, le gouvernement recommande des augmentations de loyer de 5.9% (minimum). Les ministres de la CAQ qui sont propriétaires d’un parc immobilier valant en moyenne 1.6 millions de dollars sont là pour rappeler qu’il faut tenir compte de l’augmentation des taxes municipales, des matériaux, des coûts des travaux, des coûts d’entretien… Malheureusement, très peu de locataires sont là pour faire remarquer qu’ils s’appauvrissent d’année en année avec ces hausses de loyer supérieures aux augmentations de salaire.

Évidemment, les augmentations de salaire ne sont pas un enjeu majeur pour les députés de la CAQ, qui se sont accordés à eux-mêmes une augmentation de 30% en 2023. Une augmentation nécessaire puisque les députés travaillent fort (mention honorable à Éric Lefebvre qui s’est plaint de travailler tellement qu’il n’a plus le temps de rendre visite à sa mère). Ce n’est pas comme ces paresseuses d’infirmières ou ces fainéants d’enseignants. Comme disait Bernard Drainville, “tu compares vraiment le job d’enseignant au job de député? Tu es en train de me dire que ça se compare?”

François Legault justifiait cette augmentation en disant qu’il ne voyait pas pourquoi le secteur privé paierait mieux que la politique. Imaginez-vous comme moi les députés de la CAQ se plaindre qu’ils ne gagnent pas assez cher et rappeler qu’ils avaient un meilleur salaire dans le privé, avant que l’équipe de M. Legault vienne les recruter? Pendant ce temps, les travailleurs du secteur public reçoivent une augmentation de 17.4% sur 5 ans. Et le gouvernement offre 12.7% d’augmentation sur 5 ans aux éducatrices. Faut-il souligner qu’il n’y a aucune éducatrice au conseil des ministres?

Ajoutons à tout cela l’éthique élastique de la CAQ. Éric Caire ne laissait rien passer lorsqu’il était dans l’opposition. Le gouvernement devait être plus blanc que blanc. Une fois au pouvoir, les caquistes se sont bien accommodés des NOMBREUX conflits d’intérêt de Pierre Fitzgibbon, dont le ministère accordait des subventions aux entreprises de ses amis et qui recevait des cadeaux de la part d’entrepreneurs qui font affaire avec le gouvernement. Ça n’inquiétait pas M. Legault parce que contrairement aux libéraux et aux péquistes, les caquistes sont honnêtes. C’est ce qu’il nous disait en 2020 lorsqu’il a assoupli les règles d’attribution des contrats d’infrastructure malgré toutes les voix qui lui disaient qu’il ouvrait grand la porte à l’émergence de la corruption et de la collusion. Il rappelait qu’il y avait dans son équipe Sonia Lebel, ancienne procureure en chef de la commission Charbonneau, Christian Dubé, qui est comptable agréé, et “même du monde qui ont milité à la CAQ parce qu’ils étaient tannés de la corruption dans d’autres partis”. Bref, la transparence et l’éthique, c’est pour les autres. Les gens honnêtes n’ont pas besoin de suivre les règles.

De toute façon, quel mal y a-t-il à aider ses amis? Dans une logique bien duplessiste, la CAQ s’occupe de ses amis d’abord et des autres ensuite. Québec solidaire a fait remarquer que les projets de construction d’école semblent déterminés en fonction de l’allégeance politique du député local. D’un extrême à l’autre, les investissements varieraient entre 4189$ par enfant dans une circonscription caquiste VS 1045$ par enfant dans une circonscription péquiste. Le ministre Bernard Drainville s’est défendu d’accorder le financement en fonction de critères partisans, mais il a refusé de rendre publiques les évaluations. “On a d’autres choses à faire.” Nous sommes trop occupés pour être transparents, alors vous allez devoir nous croire sur parole.

François Legault a affirmé franchement son clientélisme politique lorsqu’il a dit que “la CAQ, c’est un parti des régions” pour justifier son refus d’investir dans l’hôpital Maisonneuve-Rosemont. Si les gens de Maisonneuve-Rosemont voulaient un meilleur hôpital, ils n’avaient qu’à ne pas élire un député solidaire. Le gouvernement prétend en faire une question d’équité entre Montréal et les régions. Traduction: nos électeurs vont être en colère si on investit trop d’argent dans un hôpital de Montréal pendant que leurs propres hôpitaux ont aussi besoin de travaux. Alors les patients et le personnel de HMR vont devoir s’habituer aux chauve-souris.

Pendant que le premier ministre nous dit chercher désespérément 85 millions pour l’hôpital Maisonneuve-Rosemont, un contrat de 46 millions pour du soutien en ingénierie pour le troisième lien Québec – Lévis est accordé. Si le projet pharaonique que représente ce fameux pont finit par voir le jour, ce sera l’achat de votes le plus coûteux de l’histoire du Québec. Même Maurice Duplessis n’aurait jamais osé. Soyons honnêtes: la question ici n’a jamais été de mesurer les coûts VS l’utilité d’un troisième pont. La question a toujours été: qu’est-ce qui est le plus rentable électoralement, bien gérer les fonds publics ou céder aux pressions des radios de Québec? Apparemment les caquistes de la grande région de Québec ont parlé plus fort que les gestionnaires responsables et donc le troisième lien n’en finit plus d’être ressuscité.

Depuis 2018, les beaux principes de la CAQ sont tombés les uns après les autres. Vous vous souvenez de la promesse de réformer le mode de scrutin? C’était à l’époque où la CAQ obtenait 15% des sièges avec 27% des votes (élections générales de 2012). “Ce que je souhaite, c’est qu’il y ait moins de cynisme au Québec, qu’il y ait plus de confiance entre les citoyens et la classe politique. Et je pense que ça passe par un mode de scrutin proportionnel mixte”, nous disait François Legault. Depuis, la CAQ a obtenu 59% des sièges avec 37% des votes (2018), ensuite 72% des sièges avec 41% des votes (2022). Réformer le mode de scrutin a sans surprise cessé d’être une priorité pour notre premier ministre. “Il n’y a personne qui se bat dans les autobus au Québec pour changer le mode de scrutin.” Traduction: “Beaucoup de mes députés ont peur de perdre leur siège si on change le mode de scrutin.”

René Lévesque disait de l’Union nationale de Maurice Duplessis que ce n’était pas un parti d’idées, mais un parti d’intérêts. Je dois faire le même constat à l’égard de la CAQ. Quand ce gouvernement prend des décisions, c’est forcément pour servir des intérêts caquistes. Intérêts électoraux, intérêts financiers ou intérêts personnels, mais intérêts tout de même.

Les seules personnes qui ont des raisons d’être satisfaites de ce gouvernement sont les millionnaires, les gros propriétaires et les patrons. Des personnes qui se sont enrichies depuis 2018 et qui vont continuer à le faire puisque la CAQ leur donne toujours davantage de moyens en plus de diminuer leur fardeau fiscal (on ne se pose pas de question sur la capacité à payer des Québécois quand vient le temps de baisser les impôts). Et comme par hasard, ces gens qui bénéficient du régime sont très bien représentés au conseil des ministres.

La “Coalition Avenir Québec” rassemble des anciens libéraux, des anciens péquistes et des anciens adéquistes. On y retrouve des indépendantistes, des nationalistes et des fédéralistes. Certains caquistes appartiennent à la droite économique pure, d’autres sont plus socio-démocrates. Qu’est-ce qui unit tous ces gens à part un appétit pour le pouvoir? Poser la question revient à y répondre. Cette coalition travaille pour un seul avenir: le sien.

Cher grand administrateur de Parcoursup, cher Mister T.

Cher grand administrateur de Parcoursup,

Cher Barracuda, cher Mister T., je vais t’appeler comme cela pour protéger ton anonymat mais aussi parce que c’est un peu comme le héros télévisuel éponyme que je te vois : un type plein de chaînes en or qui brillent et qui ne sait que faire jouer ses muscles en guise de négociation, et jouit en supplément de quelques compétences en mécanique, la mécanique étant ici celle de l’administration de cette saloperie de plateforme.

Je suis depuis un quart de siècle enseignant-chercheur en IUT, plus précisément dans le département Information et Communication de l’IUT de La Roche-sur-Yon, et depuis quelques années je suis aussi le responsable de ce département de formation et le directeur-adjoint de l’IUT.

Et si je devais être un personnage de l’agence tous risques, je me sentirais assez proche de Looping.

L’agence Parcoursup (allégorie).
[En bas avec un cigare, le discours ministériel en mode « vous allez voir comme j’aime les plans qui se déroulent sans accrocs » ; à gauche les petits futés de l’ingénierie qui déploient un algorithme de hiérarchisation des veux sans permettre la hiérarchisation des voeux ; à droite les gros malins qui sortent leurs muscles et leur fer à souder pour transformer une camionnette haut de gamme en char d’assaut pour défoncer les rêves d’une génération entière ; en haut les doux-dingues qui tentent encore de trouver une forme de cohérence dans toute cette merde.]

 

Voilà donc près q’un quart de siècle que j’enseigne et sélectionne des dossiers dans une formation qui est ce que l’on appelle une formation « sélective ». Certes, depuis 20 ans de mise à mort de l’université publique et d’alignement avec les logiques néo-managériales dont Parcoursup est l’instrument, toutes les formations sont devenues sélectives puisqu’il n’y a jamais assez de places pour accueillir dignement toutes celles et ceux qui demandent à l’être, mais disons que les IUT gardent cette particularité sélective affirmée.

Une particularité sélective qui s’est toujours différemment déclinée. Aujourd’hui et depuis maintenant 3 ans on nous demande et nous impose en complément de tout le reste, des quotas de sélection de bacs technologiques. Et pourquoi pas. On aurait pu penser différemment l’accueil de ces publics, le financer aussi pour leur permettre de compenser certains écarts dans les enseignements que reçoivent les bacheliers généraux, on ne l’a bien sûr pas fait, ou alors on nous a demandé de le faire « à moyens constants », mais bref.

Dans « mon » département information et communication, nous recevons énormément de dossiers. Enormément. Chaque année. Y compris depuis avant Parcoursup et même avant APB (Admission Post-Bac, ancêtre de Parcoursup). Enormément. Nous avons 60 places et nous recevions autour de 900 à 1000 dossiers complets, 1000 potentiels futurs étudiants qui, comme on dit, « maintiennent leurs voeux ». Et depuis un quart de siècle, y compris à l’époque des dossiers « papier », bah nous les regardons tous. Nous regardons tous les dossiers. Individuellement. En détail. Cela nous prenait et nous prend toujours un temps extrêmement important et dans des fourchettes calendaires de plus en plus ténues (a fortiori si l’on souhaite par exemple organiser des entretiens, procédure à laquelle nous avons renoncé pour cette année).

Cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, si je t’écris aujourd’hui c’est parce que je viens de t’envoyer ce même mail sur ton adresse universitaire et sur celle du ministère, et que je vais aussi t’envoyer, sur ces mêmes adresses, non pas les 900, non pas les 1000, mais les 1800 dossiers que nous avons reçu cette année.

Mais avant cela je vais t’expliquer la raison de mon courroux, de mon ire, de l’envie qui m’étreint d’enserrer tout élément de ton anatomie dans une presse hydraulique tout en te prodiguant des soins du corps à l’aide de matières abrasives pendant que tu serais contraint de chanter du Céline Dion en Wolof (mon côté Looping qui ressort hein)

Cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, voilà maintenant plus de 4 ans que chaque année, nous faisons appel à ta magnanimité pour nous autoriser, nous filière sélective, à faire un truc totalement dingue : demander aux candidats de joindre à leur dossier Parcoursup un compte-rendu d’entretien avec un ou une professionnelle du métier dans lequel ils s’imaginent aujourd’hui à l’issue de leur formation. C’est pour nous un document très important car face à des dossiers Parcoursup dont chaque élément (de la lettre de motivation à la fiche avenir en passant par l’inénarrable « activités et centres d’intérêts ») est de plus en plus stéréotypique et rédigé soit par la famille, soit par la famille de ChatGPT, et dans un contexte où les lycéennes et lycéens se voient en effet conseillés de multiplier leurs voeux (sans les hiérarchiser, ce qui est une autre coupable ânerie), et bah figure-toi que notre « compte-rendu d’entretien avec un ou une professionnelle » est une pièce important pour mesurer la pertinence, la sincérité, et l’engagement d’une candidature parmi 1000 autres semblables.

Mais toi, toi cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, toi cela ne te va pas. Tu trouves que cela « brise l’égalité républicaine ». Tu trouves que c’est même carrément, je te cite, discriminatoire. Et quand je t’interpelle sur le sujet tu m’expliques avec tes gros muscles et tes chaînes en or qui brillent, que « tu sais de quoi tu parles » et que toi aussi tu as déjà enseigné en IUT, et que demander cela privilégierait des jeunes issus de milieux aisés ou avec des familles qui pourraient les aider ou disposeraient de contacts et de réseaux dont d’autres ne bénéficient pas. Et moi depuis des années je te dis et t’explique (ainsi qu’aux services du rectorat et aux points d’entrée ministériels qui portent ta parole), que c’est n’importe quoi.

C’est n’importe quoi parce que primo nous sommes déjà une formation sélective et que le processus de sélection actuel comporte déjà un si grand nombre de biais liés au capital culturel, au capital social et au capital économique que Bourdieu est à deux doigts d’atteindre le noyau terrestre à force de se retourner dans sa tombe.

C’est n’importe quoi parce toutes les années où nous avons pu disposer de ce compte-rendu d’entretien, nous avons, comme pour tous les autres éléments du dossier, naturellement intégré cette question des biais liés au capital social et culturel et que nous n’avons jamais pénalisé celui qui était allé voir son libraire Cultura par rapport à celui qui avait contacté une maison d’édition élitiste parisienne, pas davantage que celui dont le daron lui avait négocié un entretien avec un grand responsable des politiques culturelles au ministère par rapport à celui ou celle qui était allé voir le ou la documentaliste de son lycée. Parce que figure-toi, cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, figure-toi que nous nous efforçons de manière continue d’oublier d’être totalement cons. Une routine à laquelle possiblement tu pourrais t’astreindre si tu en as le temps, l’envie et le loisir.

Alors voilà. Depuis maintenant 4 ans, c’est chaque année la guerre, et en plus de tout le reste, il faut chaque année t’écrire (enfin écrire au rectorat qui ensuite te transmets …), chaque année il faut réexpliquer tout cela, le réargumenter, chaque année tu nous expliques que non, chaque année on insiste, chaque année on essaie de poser la question dans les visios que tu organises et où se retrouvent plus de 200 personnes en même temps, et chaque année à la faveur d’un malentendu nous finissons par obtenir gain de cause. On s’y épuisait, on y perdait un temps et une énergie considérable, on s’ajoutait des niveaux de stress importants ainsi qu’à nos équipes de collègues, mais à la fin ça passait. Et tout allait aussi bien que possible.

Mais cette année, tu as serré la vis. Et pas simplement pour nous mais pour l’ensemble des IUT dont l’ensemble des BUT Information et communication. Interdiction formelle et définitive d’ajouter d’autres éléments que ceux demandés par Parcoursup (donc que des éléments moisis et caviardés). Pas de pièce complémentaire quelle qu’elle soit. Rien. Nib. Nada. Que Tchi. Que dalle. Peau de zob.

Donc pour nous, pas de « compte-rendu d’entretien avec un ou une professionnelle ». Alors avant de prendre cette décision, je t’avais dit ainsi qu’aux services rectoraux qui sont à tes ordres, que c’était n’importe quoi. Parce que si on enlève cette pièce additionnelle, le nombre de dossiers que l’on reçoit va littéralement exploser avec pour l’essentiel des candidatures « de remplissage », c’est à dire des lycéens et lycéennes qui mettent notre formation simplement pour épuiser leur nombre de voeux disponibles. Sauf que bah nous derrière notre recrutement ne change pas : nous continuons d’examiner en détail chacun des dossiers que nous recevons.

Et puis ce que je t’avais déjà dit et expliqué à l’époque où je n’étais responsable de rien et où nous nous emplumions en DM sur Twitter, c’est que c’était tout de même étonnant de considérer que pour des IUT (qui accueillent beaucoup de publics boursiers et de milieux plutôt modestes) cette pièce complémentaire était une rupture de l’égalité républicaine et une discrimination, alors que pour les écoles d’art dont je t’épargne la sociologie, le fait de demander des portfolio, des Books et des recommandations t’en touchait une sans te bousculer l’autre comme se plaisait à la verbaliser un ancien président de la république. Même chose pour toutes les formations (publiques !!) qui dans le cadre de Parcoursup demandent 50 ou 100 euros pour valider le voeux au titre du passage d’un concours (bisous les copains et copines en école d’ingénieurs), là aussi il n’y a visiblement rien qui ne vienne heurter ta sensibilité républicaine. Mais que l’on demande à des étudiants d’aller rencontrer des professionnels (même en visio ou par téléphone pour leur éviter des frais et pour celles et ceux qui sont loin des grands centres urbains) et d’en faire un court compte-rendu pour attester de leur engagmeent et de leur motivation autrement qu’avec 3 paragraphes rédigés par ChatGPT et qu’au travers d’un stage de troisième et des voyages extra-scolaires que leur famille aura été en capacité de leur offrir ou pas, alors là, pour toi cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, ça c’est un grand scandale inacceptable qui brise toute forme d’égalité républicaine à proportion de ce que ta position sur le sujet me brise les organes reproducteurs.

Mais bon dans toute lutte par mail contre l’administration du rectorat qui est à tes ordres et ne fait que véhiculer ta parole, nos défaites sont avant tout celles de l’épuisement. Mais j’avoue que nous avons, j’avoue que j’ai perdu. Cette année tu as été d’une fermeté toute Bétharamienne. Cette année nous n’avons pas pu demander de compte-rendu d’entretien. Cette année, comme je te l’avais expliqué et annoncé, nous avons donc reçu non pas autour de 900 dossiers complets et confirmés pour 60 places mais plus de 1800 dossiers. Le double. La mathématique est aussi implacable que la bêtise crasse de ton entêtement déplacé autant que malhonnête. Car évidemment parmi ces 1800 dossiers que nous commençons à terminer de traiter, jamais nous n’avions eu autant de candidatures de remplissage, sans aucune volonté réelle de venir dans notre formation, des candidatures bâclées, négligées, presqu’entièrement « fake », des candidatures « copiées-collées ». Des candidatures que nous n’avions jamais (ou de manière très marginale) les années où nous pouvions en toute impunité briser l’égalité républicaine.

Le truc c’est qu’en plus de s’acharner à continuer d’oublier d’être cons, nous continuons aussi à faire preuve de déontologie et d’honnêteté et que nous continuons donc de regarder chaque dossier. Donc cette année nous en regardons deux fois plus que les années précédentes. Mais comme il y a au moins la moitié des dossiers qui sont sans intérêt et que nous disposons du même temps que les années précédentes pour les analyser, le résultat est simple : nous disposons de deux fois moins de temps à passer à analyser des dossiers sincères et engagés. Et ça, cher Barracuda, cher Mister T., cher grand administrateur de Parcoursup, c’est ta pleine et entière responsabilité. Ta putain de pleine et entière responsabilité.

Alors voilà. Je vais maintenant t’envoyer la totalité de ces dossiers par mail. Il y en a 1800. J’espère que la capacité de ta boîte mail est adaptée. Je vais aussi t’adresser directement ce billet de blog. Et je vais conclure en te redisant ce que je t’avais déjà dit et écrit la première fois où nous avions, de manière disons « virile mais correcte » débattu de ce sujet : il n’y a que deux issues possibles dans ton travail. Seulement deux.

La première est de considérer les avis des équipes pédagogiques au plus près de l’analyse des dossiers comme des avis purement torcheculatoires et de nous amener à terme vers un système dans lequel les mêmes équipes finiront par totalement se désengager de l’analyse « humaine » des dossiers et laisseront la grande machine Parcoursup fonctionner comme une saloperie de machine à calculer : on prendra les notes, on appliquera des coefficients, et en un clic on aura un classement. Un classement de merde, un classement totalement arbitraire et profondément inégalitaire, mais un classement. Et on arrêtera de passer une semaine ou quinze jours à temps plein à regarder des dossiers (quand on a la chance d’avoir des équipes pédagogiques avec suffisamment d’enseignant.e.s permanent.e.s pour se le permettre, ce qui est de moins en moins le cas de toute façon).

La seconde issue possible consiste à considérer que les équipes pédagogiques savent ce qu’elles font, et à leur concéder la dernière part d’autonomie dont elles peuvent jouir dans un processus de recrutement et de sélection par ailleurs déjà presque totalement préempté par des cadres et des routines qui ne font qu’accroître les inégalités en automatisant les manières de les détecter, de les analyser et de les envisager.

Sur ce je te laisse parce que tu as un peu de pain sur la planche. Il te reste une quinzaine de jours pour analyser ces 1800 dossiers. Bon courage.

 

L’État au-dessus des lois

Une juge arrêtée. Un registre national des personnes sur le spectre de l’autisme. Des poursuites contre les médecins qui opèrent des transitions de genre et un portail web pour « dénoncer » les médecins, les cliniques et les hôpitaux qui opèrent des chirurgies de transition. Ouverture d’un camp de concentration au Salvador. Le mois d’avril a donné amplement de matériel pour comparer le trumpisme au nazisme. Je vais me contenter de vous parler de l’action T4, qui regroupe un peu tout ça.

L’obsession d’Adolf Hitler pour la pureté raciale impliquait l’élimination des personnes atteintes de maladies incurables, en particulier les maladies héréditaires. L’idée était simple: il fallait empêcher ces personnes de se reproduire pour que le peuple allemand devienne plus fort. Hitler n’était pas le seul dans les années 1920 à promouvoir la « destruction de la vie qui ne mérite pas de vivre ». Le débat avait cours au sein de la profession médicale, même si l’écrasante majorité des médecins s’y opposaient.

Après l’arrivée des nazis au pouvoir, le chef des médecins du Reich, Gerhard Wagner, demande à Hitler la permission de lancer un programme « d’euthanasie ». Hitler lui demande d’attendre le début de la guerre. Ce sera alors plus facile de rallier la population. En attendant, Wagner lance une campagne de propagande. Entre 1935 et 1939, il publie des statistiques sur le coût de l’entretien des malades mentaux et des victimes de maladies héréditaires. Des films sont produits. Wagner fait rêver à tout ce que les Allemands pourraient faire si de telles ressources n’étaient pas ainsi « gaspillées » pour entretenir des personnes qui souffrent de leur état. Difficile de ne pas faire un lien avec Robert F. Kennedy Jr. qui nous dit que les enfants autistes sont des fardeaux qui n’auront jamais d’emploi et ne paieront jamais d’impôts, qui ne joueront jamais au baseball et ne seront jamais amoureux.

Le premier meurtre a lieu en juillet 1939. Le père d’un enfant gravement handicapé (né aveugle avec un seul bras et une jambe difforme) demande la permission de « délivrer » son enfant par euthanasie. Karl Brandt, le médecin d’Hitler, examine l’enfant lui-même et autorise la mise à mort. Hitler donne la « permission » de faire de même dans d’autres situations. Les médecins, infirmières et sages-femmes sont désormais obligés de signaler les nouveaux-nés et les enfants de moins de trois ans présentant les symptômes d’un handicap physique ou mental grave. La « commission du Reich pour l’enregistrement scientifique des souffrances héréditaires et congénitales graves » aurait assassiné entre 5000 et 8000 enfants par injection.

En septembre 1939, alors que l’armée allemande envahit la Pologne, Hitler ordonne la mise en marche de l’action T4, qui consiste à identifier les malades incurables et à les transporter dans des asiles où ils seraient assassinés par les médecins. L’action T4 se déroule en-dehors de tout cadre légal. Aucune loi n’est adoptée. Aucun des ministres d’Hitler ne participe à l’élaboration du plan. Tout se fait par décret.

Le juge Lothar Kreyssig constate que les certificats de décès de personnes mentalement handicapées s’accumulent et commence à se douter de la vérité. Il proteste auprès du ministre de la Justice, Franz Gürtner, contre les prétendues euthanasies. Il lui dit que même la volonté d’Hitler ne peut transformer le mal en bien. Gürtner lui répond: « Si vous ne reconnaissez pas la volonté du Führer comme une source de loi, comme une base de la loi, vous ne sauriez rester juge. » Kreyssig est mis à la retraite peu de temps après. Encore une fois, le parallèle est facile. La volonté du chef d’État se substitue désormais à la loi et au droit. Les juges dont les décisions ne reflètent pas la vérité du Fuhrer / président sont des traîtres dont il faut se débarrasser. Pour l’anecdote, Kreyssig a caché des femmes juives sur sa ferme jusqu’à la fin de la guerre.

L’action T4 prend fin à l’automne 1941. Le gouvernement réalise que la guerre pourrait durer encore longtemps et on commence à craindre que l’opération ait un impact sur le moral de la population. Malgré tous les efforts pour garder l’action secrète, il commence à être difficile de cacher la mort des 70 000 à 90 000 patients « euthanasiés ». La plupart des protestations viennent des églises. Le cardinal von Galen, évêque de Münster, dénonce l’action d’euthanasie dans une série de sermons. Les nazis souhaitent le faire arrêter, mais Hitler craint de dresser les catholiques contre son gouvernement au moment où commence la guerre avec l’Union soviétique.

L’élimination systématique des personnes malades et handicapées va se poursuivre à l’extérieur du territoire allemand, dans les territoires où personne ne peut protester.

Chaque fois que je compare Donald Trump à Adolf Hitler, des trumpistes me répondent que la comparaison n’est pas valable puisque Hitler a fait tuer des millions de personnes. Comme si les chambres à gaz du camp d’Auschwitz avaient commencé à opérer le lendemain de l’accession d’Hitler au pouvoir. Il a d’abord fallu neutraliser l’État de droit et habituer toute une nation à considérer que la volonté du chef est le seul critère de ce qui est acceptable ou non. C’est bien ce qui se passe aux États-Unis depuis 100 jours.

L’État au-dessus des lois

Une juge arrêtée. Un registre national des personnes sur le spectre de l’autisme. Des poursuites contre les médecins qui opèrent des transitions de genre et un portail web pour “dénoncer” les médecins, les cliniques et les hôpitaux qui opèrent des chirurgies de transition. Ouverture d’un camp de concentration au Salvador. Le mois d’avril a donné amplement de matériel pour comparer le trumpisme au nazisme. Je vais me contenter de vous parler de l’action T4, qui regroupe un peu tout ça.

L’obsession d’Adolf Hitler pour la pureté raciale impliquait l’élimination des personnes atteintes de maladies incurables, en particulier les maladies héréditaires. L’idée était simple: il fallait empêcher ces personnes de se reproduire pour que le peuple allemand devienne plus fort. Hitler n’était pas le seul dans les années 1920 à promouvoir la “destruction de la vie qui ne mérite pas de vivre”. Le débat avait cours au sein de la profession médicale, même si l’écrasante majorité des médecins s’y opposaient.

Après l’arrivée des nazis au pouvoir, le chef des médecins du Reich, Gerhard Wagner, demande à Hitler la permission de lancer un programme “d’euthanasie”. Hitler lui demande d’attendre le début de la guerre. Ce sera alors plus facile de rallier la population. En attendant, Wagner lance une campagne de propagande. Entre 1935 et 1939, il publie des statistiques sur le coût de l’entretien des malades mentaux et des victimes de maladies héréditaires. Des films sont produits. Wagner fait rêver à tout ce que les Allemands pourraient faire si de telles ressources n’étaient pas ainsi “gaspillées” pour entretenir des personnes qui souffrent de leur état. Difficile de ne pas faire un lien avec Robert F. Kennedy Jr. qui nous dit que les enfants autistes sont des fardeaux qui n’auront jamais d’emploi et ne paieront jamais d’impôts, qui ne joueront jamais au baseball et ne seront jamais amoureux.

Le premier meurtre a lieu en juillet 1939. Le père d’un enfant gravement handicapé (né aveugle avec un seul bras et une jambe difforme) demande la permission de “délivrer” son enfant par euthanasie. Karl Brandt, le médecin d’Hitler, examine l’enfant lui-même et autorise la mise à mort. Hitler donne la “permission” de faire de même dans d’autres situations. Les médecins, infirmières et sages-femmes sont désormais obligés de signaler les nouveaux-nés et les enfants de moins de trois ans présentant les symptômes d’un handicap physique ou mental grave. La “commission du Reich pour l’enregistrement scientifique des souffrances héréditaires et congénitales graves” aurait assassiné entre 5000 et 8000 enfants par injection.

En septembre 1939, alors que l’armée allemande envahit la Pologne, Hitler ordonne la mise en marche de l’action T4, qui consiste à identifier les malades incurables et à les transporter dans des asiles où ils seraient assassinés par les médecins. L’action T4 se déroule en-dehors de tout cadre légal. Aucune loi n’est adoptée. Aucun des ministres d’Hitler ne participe à l’élaboration du plan. Tout se fait par décret.

Le juge Lothar Kreyssig constate que les certificats de décès de personnes mentalement handicapées s’accumulent et commence à se douter de la vérité. Il proteste auprès du ministre de la Justice, Franz Gürtner, contre les prétendues euthanasies. Il lui dit que même la volonté d’Hitler ne peut transformer le mal en bien. Gürtner lui répond: “Si vous ne reconnaissez pas la volonté du Führer comme une source de loi, comme une base de la loi, vous ne sauriez rester juge.” Kreyssig est mis à la retraite peu de temps après. Encore une fois, le parallèle est facile. La volonté du chef d’État se substitue désormais à la loi et au droit. Les juges dont les décisions ne reflètent pas la vérité du Fuhrer / président sont des traîtres dont il faut se débarrasser. Pour l’anecdote, Kreyssig a caché des femmes juives sur sa ferme jusqu’à la fin de la guerre.

L’action T4 prend fin à l’automne 1941. Le gouvernement réalise que la guerre pourrait durer encore longtemps et on commence à craindre que l’opération ait un impact sur le moral de la population. Malgré tous les efforts pour garder l’action secrète, il commence à être difficile de cacher la mort des 70 000 à 90 000 patients “euthanasiés”. La plupart des protestations viennent des églises. Le cardinal von Galen, évêque de Münster, dénonce l’action d’euthanasie dans une série de sermons. Les nazis souhaitent le faire arrêter, mais Hitler craint de dresser les catholiques contre son gouvernement au moment où commence la guerre avec l’Union soviétique.

L’élimination systématique des personnes malades et handicapées va se poursuivre à l’extérieur du territoire allemand, dans les territoires où personne ne peut protester.

Chaque fois que je compare Donald Trump à Adolf Hitler, des trumpistes me répondent que la comparaison n’est pas valable puisque Hitler a fait tuer des millions de personnes. Comme si les chambres à gaz du camp d’Auschwitz avaient commencé à opérer le lendemain de l’accession d’Hitler au pouvoir. Il a d’abord fallu neutraliser l’État de droit et habituer toute une nation à considérer que la volonté du chef est le seul critère de ce qui est acceptable ou non. C’est bien ce qui se passe aux États-Unis depuis 100 jours.

L’administration Trump compromet le développement de l’IA

L’avenir du leadership américain en matière d’IA est compromis, estime Matteo Wong pour The Atlantic. Les produits d’IA générative développés par les grandes entreprises de l’IA américaine s’appuient sur des travaux de recherche, alors que le financement des universités est attaqué par le gouvernement Trump. Si Trump se présente comme le défenseur de l’IA, notamment en finançant le projet Stargate, c’est oublier que « l’IA générative n’est pas seulement une industrie : c’est une technologie qui repose sur des innovations » et de la R&D. « L’industrie de l’IA a transformé des recherches fondamentales antérieures en avancées majeures, propulsant les modèles de génération de langage et d’images vers des sommets impressionnants. Mais si ces entreprises souhaitent aller au-delà des chatbots, leurs laboratoires d’IA ne peuvent fonctionner sans étudiants diplômés. »  « Aux États-Unis, on ne décroche pas de doctorat sans financement fédéral », rappelle le journaliste.

« De 2018 à 2022, le gouvernement a soutenu près de 50 milliards de dollars de projets universitaires liés à l’IA, qui ont simultanément reçu environ 14 milliards de dollars de subventions non fédérales, selon une étude menée par Julia Lane, économiste du travail à l’Université de New York. Une part importante des subventions est consacrée à la rémunération des professeurs, des étudiants de troisième cycle et des chercheurs postdoctoraux, qui enseignent généralement eux-mêmes en licence, puis travaillent ou créent des entreprises privées, apportant leur expertise et leurs idées nouvelles. Jusqu’à 49 % du coût de développement de modèles d’IA avancés, tels que Gemini et GPT-4, est reversé au personnel de recherche« . Dans un article pour Nature, Julia Lane tentait d’évaluer le poids des dépenses de recherche et des investissements publics dans l’IA, en soulignant la difficulté, notamment parce qu’elle ne se limite pas aux seuls laboratoires d’IA. Certains chercheurs estiment même que quatre cinquièmes des économies de certains pays avancés peuvent désormais être qualifiés de « difficiles à mesurer ».

« L’innovation est le fruit d’investissements fédéraux, c’est un investissement dans les personnes », explique Mme Lane. « Si les entreprises d’IA souhaitent appliquer leurs modèles à des problèmes scientifiques – par exemple en oncologie ou en physique des particules – ou construire des machines « superintelligentes », elles auront besoin de personnel doté d’une formation scientifique sur mesure qu’une entreprise privée ne peut tout simplement pas fournir. Réduire drastiquement le financement du NIH, de la NSF et d’autres organismes de financement de la recherche, ou retirer directement des fonds aux universités, pourrait entraîner une baisse de l’innovation, une diminution du nombre de chercheurs en IA formés aux États-Unis et, in fine, une industrie américaine moins prospère ».

Doge : la privatisation des services publics

Il reste difficile de suivre ce qui se déroule de l’autre côté de l’Atlantique depuis l’arrivée de Trump au pouvoir, ce démantèlement de l’Amérique, comme nous l’appelions. Nous avons tenté également de faire le point de ce qu’était le Doge, de quelle efficacité il était le nom, à savoir un piratage, un remplacement démocratique, une porte ouverte pour la corruption et l’escroquerie… Depuis, les articles s’accumulent encore. Un son de cloche complémentaire le présente souvent comme une privatisation inédite des services publics. Explorons cette piste. 

Une privatisation inédite : les délégataires aux commandes

Le Doge tient d’une privatisation inédite des services publics, assène Brett Heinz pour The American Prospect, rappelant que si Musk a dépensé 290 millions de dollars pour l’élection de Trump, ses entreprises ont reçu plus de 38 milliards de dollars d’aides gouvernementales au cours des deux dernières décennies. 

En fait, le Doge ne vise pas à accroître l’efficacité gouvernementale, mais bien à démanteler la fonction publique en ciblant les dépenses que Musk et Trump désapprouvent, tout en centralisant le pouvoir décisionnel à la Maison Blanche. Mais surtout, le Doge entérine une nouvelle stratégie : « l’accession de sous-traitants gouvernementaux comme Musk au rang de décideurs politiques ». Ce sont ceux qu’on appellerait en France les délégataires des services publics qui prennent les commandes. 

« La seule classe parasitaire qui profite de l’inefficacité du gouvernement est constituée de sous-traitants gouvernementaux à but lucratif comme Musk, qui s’enrichissent sur l’argent des contribuables en fournissant des services hors de prix pour compenser le manque de capacités de l’État, tout en utilisant leurs milliards pour manipuler le système à leur avantage. Permettre à des sous-traitants comme lui de décider de la façon dont le gouvernement dépense l’argent est à la fois un affront à la démocratie et une invitation ouverte à davantage de corruption », explique Heinz.

« La plupart des Américains ignorent à quel point leur gouvernement a déjà été privatisé. On estimait en 2017 que plus de 40 % des personnes travaillant pour le gouvernement ne sont pas réellement des fonctionnaires. Ce sont des sous-traitants d’entreprises privées, embauchés pour prendre en charge une tâche particulière du secteur public. Dans certains secteurs gouvernementaux, comme l’armée, le recours aux sous-traitants est monnaie courante : en 2019, on comptait 1,5 sous-traitant pour chaque soldat américain en Irak et en Afghanistan. »

Pour le dire autrement, le gouvernement fédéral ne souffre pas d’un effectif pléthorique, au contraire : il y a moins d’employés fédéraux en 2015 qu’en 1984. Par contre, la sous-traitance privée, elle, a explosé. « Entre 2013 et 2023, les dépenses totales consacrées à l’attribution de contrats fédéraux ont augmenté de près de 65 % »

La croyance dans l’efficacité de la sous-traitance privée n’a jamais été corroborée par des preuves solides, rappelle Heinz. Reste que, désormais, ces contractants ne veulent pas seulement résoudre pour plus cher les problèmes du secteur public, ils veulent aussi pouvoir décider, pour le gouvernement, de la nature du problème. « Les entrepreneurs ne veulent pas simplement obéir aux ordres du gouvernement, mais fonctionner comme un para-État capable d’influencer les ordres que le gouvernement leur donne. À l’instar du rêve de Musk de construire des voitures autonomes, l’industrie rêve d’un entrepreneur auto-contractant. Et Musk lui-même teste ce concept. » Brett Heinz rappelle que les rafles de données du Doge ont d’abord ciblé des agences fédérales où Musk avait des conflits d’intérêts. « En le qualifiant d’ailleurs d’« employé spécial du gouvernement », la Maison Blanche lui impose des normes éthiques moins strictes que la plupart des fonctionnaires qu’il licencie. » Et Musk n’est pas le seul sous-traitant du gouvernement à y étendre son pouvoir. « On entend souvent dire que le gouvernement devrait être géré « davantage comme une entreprise ». Le cas du Doge nous montre pourtant le contraire. Si nous voulions réellement un gouvernement plus efficace, il faudrait réduire le nombre de sous-traitants et embaucher davantage de fonctionnaires, souvent plus rentables et toujours plus responsables et transparents. Musk fait le contraire, offrant à ses entreprises et alliés davantage d’opportunités d’intervenir et de proposer des travaux surévalués et de qualité douteuse. »

L’effondrement des services publics

Le Washington Post raconte l’effondrement de la Sécurité sociale américaine. L’agence fédérale, qui verse 1 500 milliards de dollars par an en prestations sociales à 73 millions de retraités, à leurs survivants et aux Américains pauvres et handicapés a vu ses effectifs fondre. Son site web est souvent en panne depuis que le Doge a pris les commandes, empêchant de nombreux bénéficiaires de mettre à jour leurs demandes ou d’obtenir des informations sur des aides qui ne viennent plus. 12% des 57 000 employés ont été licenciés. Des milliers d’Américains s’inquiètent auprès de leurs députés ou de l’agence des versements à venir. « La sécurité sociale est la principale source de revenus d’environ 40 % des Américains âgés ». En sous-effectif et en manque de budgets de fonctionnement depuis longtemps, la purge est en train de laminer ce qu’il restait du service. Mais, face aux retraités inquiets, les employés ont peu de réponses à apporter, et ce alors que les escroqueries en ligne se multiplient, profitant de l’aubaine que l’inquiétude génère auprès d’eux. Certains bureaux estiment que les gens pourraient être privés de prestations pendant des mois. 

Wired rapporte que le Doge a décidé de réécrire le code du système de la Sécurité sociale américaine, afin de se débarrasser du langage Cobol avec lequel il a été écrit depuis l’origine et que peu de développeurs maîtrisent. Réécrire ce code en toute sécurité prendrait des années : le Doge souhaite que cela se fasse en quelques mois. Qu’importe si cela bloque les versements d’allocation de millions d’Américains. 

En 2020, pour Logic Mag, Mar Hicks avait exploré les enjeux du langage Cobol depuis lequel nombre d’applications des services publics sont construites (et pas seulement aux Etats-Unis, notamment parce que ces systèmes sont souvent anciens, héritages de formes de calcul précédant l’arrivée d’internet). Mar Hicks rappelait déjà que ce vieux langage de programmation avait été, durant la pandémie, un bouc-émissaire idéal pour expliquer la défaillance de nombre de services publics à répondre à l’accroissement des demandes d’aides des administrés. Pourtant depuis 6 décennies, les programmes écrits en Cobol se sont révélés extrêmement robustes, très transparents et très accessibles. C’est sa grande accessibilité et sa grande lisibilité qui a conduit les informaticiens à le dénigrer d’ailleurs, lui préférant des langages plus complexes, valorisant leurs expertises d’informaticiens. Le problème c’est que ces systèmes nécessitent surtout une maintenance constante. Or, c’est celle-ci qui a fait souvent défaut, notamment du fait des logiques d’austérité qui ont réduit le personnel en charge de la maintenance des programmes. “C’est ce manque d’investissement dans le personnel, dû à l’austérité, plutôt que la fiction répandue selon laquelle les programmeurs aux compétences obsolètes partaient à la retraite, qui a éliminé les programmeurs Cobol des années avant cette récente crise.“ Hicks souligne que nous ne manquons pas de programmeurs Cobol. En fait, explique-t-elle : “la technologie actuelle pourrait bénéficier davantage de la résilience et de l’accessibilité que Cobol a apportées à l’informatique, en particulier pour les systèmes à fort impact”. 

“Les systèmes anciens ont de la valeur, et construire constamment de nouveaux systèmes technologiques pour des profits à court terme au détriment des infrastructures existantes n’est pas un progrès. En réalité, c’est l’une des voies les plus régressives qu’une société puisse emprunter ». “Le bonheur et le malheur d’une bonne infrastructure, c’est que lorsqu’elle fonctionne, elle est invisible : ce qui signifie que trop souvent, nous n’y accordons pas beaucoup d’attention. Jusqu’à ce qu’elle s’effondre”.

Dégouverner ?

En 2021, après les confinements de la pandémie de Covid-19, la question des chaînes d’approvisionnement et de leur pilotage s’est reposée depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles être si vulnérables dans les tensions ?

Si le monde nous semble si incompréhensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero. Des chaînes d’approvisionnement automatisées aux échanges commerciaux à haute fréquence, la complexité rend le monde « inconnaissable » à toute intelligence humaine. Pire souligne-t-il, pour générer toujours plus de croissance, les systèmes automatisés doivent augmenter sans cesse leur complexité. Aucun humain n’est capable de comprendre ce qu’il se passe derrière les écrans : chaque jour, 82,2 ans de vidéo sont téléchargés sur YouTube ; 500 millions de tweets sont échangés, l’équivalent d’un livre de 10 millions de pages ! En 2014 déjà, l’écrivain a passé une semaine sur un porte-conteneur… Et ce qui l’a le plus frappé, c’était de constater combien chaque décision était prise par la technologie. Du grutier au capitaine, chacun recevait des instructions via des algorithmes de gestion, acceptés et respectés sans conteste par des professionnels compétents, quand bien même ces décisions ne se motivaient d’aucune explication. Ainsi, explique-t-il, le capitaine du bateau recevait régulièrement des courriels automatisés lui demandant de ralentir le navire, sans que la compagnie maritime lui en explique la raison. Comme si nous avions déjà lâché prise sur la motivation des décisions et l’explicabilité du monde…

Qu’importe, tant qu’il y a de la nourriture et des vêtements dans les magasins, de l’argent dans les distributeurs, des histoires sur notre Instagram… Tout semble désormais se faire tout seul, sans avoir besoin de s’en inquiéter ! Pourtant, ces systèmes complexes peuvent tomber en panne. 2020 par exemple, a permis de constater combien les chaînes d’approvisionnement pouvaient être sous pression, entraînant leurs lots de pénuries. Les chaînes d’approvisionnement subissent également régulièrement les offensives de logiciels malveillants… Pourtant, à ce jour, aucune défaillance n’a été réellement catastrophique, comme si l’effondrement lié à la complexité était finalement bien plus résilient qu’escompté. C’est à se demander si ces réseaux finalement ne fonctionnent pas trop bien, malgré leur opacité intrinsèque. Nous leur avons donné un grand pouvoir décisionnel pour atteindre leurs objectifs le plus efficacement possible et ils y arrivent relativement bien… pour autant qu’on ne les inspecte pas en détail, souligne Maughan, car ils ne sont pas dotés de capacité à prendre des décisions éthiques ou des jugements moraux sur ce qu’ils font – nous rappelant les propos de Miriam Posner sur les limites de la transformation logicielle de la chaîne logistique. En fait, rappelle Maughan, par sa conception même, le réseau de la chaîne d’approvisionnement mondial fait perdurer et accroît les inégalités : son rôle est de tirer parti des écarts de niveaux de vie pour faire produire dans les pays où cette production est la moins chère et expédier les marchandises à l’autre bout du monde pour les vendre à profit. Ces constats se prolongent jusqu’aux plateformes de streaming qui fournissent des contenus de divertissement illimités, au détriment des revenus de ceux qui les produisent. Tout comme le capitaine du porte-conteneur, nous avons de moins en moins de contrôle politique sur nos démocraties elles-mêmes, explique Maughan. Pour paraphraser le cinéaste Adam Curtis, au lieu d’élire des dirigeants visionnaires, nous ne faisons en fait que voter pour des cadres intermédiaires dans un système mondial complexe que personne ne contrôle entièrement. Le résultat de cette situation ressemble de plus en plus à un vide démocratique. Nous vivons à une époque où les électeurs ont un niveau record de méfiance envers les politiciens, en partie parce qu’ils peuvent sentir cette déconnexion, soutient Maughan : ils voient dans la réalité quotidienne que, malgré leurs revendications, les politiciens ne peuvent pas apporter de changements, comme si nul ne pouvait plus agir sur le système décisionnel automatisé. Pire, souligne Maughan, nombre de politiques pensent qu’on ne doit pas réparer le système, mais accélérer le processus de déréglementation, c’est-à-dire donner plus de pouvoir encore à l’automatisation en réseau.

Pour Maughan, il nous faut trouver des moyens pour accroître notre connaissance de l’inconnaissable et des stratégies pour contrer l’impuissance et l’anxiété que le système produit, conclut-il. Nous pourrions être tout à fait d’accord avec lui, si l’on ne constatait pas, avec le temps, que cette demande d’explication et d’éthique, à force d’être répétée, semble s’éloigner de nous à mesure que les systèmes se déploient et s’enracinent. Plutôt que d’exiger une transparence qui semble partout reculer à mesure qu’on la mobilise, ne faut-il pas mieux regarder ce qui l’empêche ? Pourquoi ces chaînes semblent-elles de plus en plus fortes et de moins en moins gouvernables ? Peut-être faut-il entendre qu’elles n’ont pas pour but d’être gouvernables justement – ou plus exactement que leur structuration (qui elle est bien gouvernée) tend surtout à produire, volontairement, de l’ingouvernabilité, c’est-à-dire à réduire la portée de ceux qui peuvent les gouverner…

Un monde sans gouvernance accessible ?

La revue juridique Transnational Legal Theory se saisissait justement dans un numéro récent du concept de « non-gouvernance » (ungovernance). Dans les différentes contributions à ce numéro, plusieurs sens ressortaient, montrant que le concept avait certainement encore besoin d’être affiné. Pour certains auteurs, la non-gouvernance semblait plutôt tenir d’une ingouvernabilité, d’une impossibilité à gouverner du fait de l’absence de structures et d’instruments pour se faire. Pour d’autres, la non-gouvernance semblait plutôt relever d’une dégouvernance, d’un recul de la gouvernementalité, comme le proposent les procédures reposant sur les algorithmes et l’intelligence artificielle par exemple (en suivant le concept de gouvernementalité algorithmique défini par Antoinette Rouvroy et Thomas Berns, qui est un changement de modalités de gouvernement justement visant à faire disparaître le « projet même de gouverner »).

Ainsi, les juristes Deval Desai et Andrew Lang, dans leur article introductif définissent la non-gouvernance comme des projets globaux qui poursuivent de grandes visions sous des revendications d’universalité sans pour autant proposer de prescriptions adéquates, sans possibilité de faire correspondre les structures institutionnelles aux résultats.

Plus précisément, expliquent-ils, la non-gouvernance globale ne signifie pas une absence de gouvernance, mais des tensions entre le fait que le côté mondial trouble la gouvernance et le fait que la gouvernance trouble son projet mondial. Pour eux, la non-gouvernance fonctionne dans un contexte de grandes visions (comme le marché ou l’État de droit) qui ne disposent pas de voies de recours adaptées… et qui donc souffrent d’une impossibilité d’action (c’est-à-dire que les structures institutionnelles ne peuvent pas matcher avec les résultats souhaités), ce qui conduit à la fois à poursuivre leur action et à en constater l’impossibilité, tant et si bien que le succès ne se mesure pas dans sa capacité à construire des institutions adaptées, mais plutôt à réarranger sans cesse les grandes visions initiales.

Pour leurs confrères Dimitri Van Den Meerssche et Geoff Gordon, le risque et la résilience sont la nouvelle architecture normative. En prenant l’exemple du fonctionnement de la banque mondiale, les deux chercheurs soulignent que le risque et la complexité ne sont plus considérés comme des conditions limitant un projet, mais comme des éléments constitutifs, visant à gouverner depuis des outils qui reposent sur l’inconnaissabilité. Un autre article signé Stephen Humpreys s’intéresse à la non-gouvernance de la question climatique. Pour ce dernier, le GIEC par exemple a souvent souligné que la gouvernance de la question climatique – ou plutôt son absence – était justement un obstacle majeur au règlement du problème climatique. Ou pour le dire autrement, que les structures de gouvernance existantes sont en elles-mêmes un obstacle à la gestion du climat. Pour Humphreys, la non-gouvernance signifie ici plutôt un refus provisoire, stratégique ou conscient de mécanismes de contrôles par rapport aux compétences institutionnelles existantes. Le régime de droit construit pour contenir le changement climatique est imparfait et complexe et s’inscrit dans un vaste réseau d’appareils réglementaires interconnectés. Si la question climatique est d’abord un problème de connaissance que le GIEC éclaire et cartographie, celui-ci ne gouverne pas la politique climatique qui est laissée aux décideurs politiques (ainsi qu’aux organisations internationales, aux institutions scientifiques, aux ONG voire même aux entreprises ou aux individus…). Quand on regarde certains secteurs par exemple, comme le pétrole ou l’aviation, toute la question est de savoir ce qui doit être régi, par qui et comment… et selon quelles pratiques réglementaires. La question de la non-gouvernance ne consiste pas à reconnaître la complexité ou l’incohérence des politiques, mais à comprendre comment leurs interactions peuvent être comprises comme quelque chose de nécessaire, de rationnel ou d’utile, plutôt que comme quelque chose de contingent, irrationnel, erroné ou inévitable.

Il distingue plusieurs modes de non-gouvernance : agnostique, expérimentale, inoculative ou catastrophique. Pour lui, explique-t-il, la non-gouvernance est le résultat accidentel ou fortuit d’un ensemble de décisions rationnelles, soutenues par un vaste appareil réglementaire, mais qui se révèle au final très sélectif et qui surtout intègre et présume l’incertitude à toute résolution. Pour Christine Belll’ingouvernance n’est pas hors du droit, mais dans ses failles, ses assemblages, ses mises à jour, ses dissonances… Pour Zinaida Millerla justice transitionnelle par exemple relève d’une forme de non-gouvernance où les objectifs de justice, d’apaisement, de vérité et réconciliation semblent plus importants que les solutions mobilisées (voir son article). Pour Michelle Burgis-Kasthala, les accords d’Oslo qui ont défini les modalités des rapports entre Israéliens et Palestiniens reposent beaucoup plus sur une absence de gouvernance que sur des modalités de gouvernements claires, qui ont permis aux acteurs d’y introduire d’innombrables perturbations (voir son article).

Le numéro de Transnational Legal Theory ne s’intéresse pas au numérique. Mais le concept de non-gouvernance voire de dégouvernance par les systèmes techniques mériteraient certainement d’être explorés et précisés plus avant. À l’heure où les systèmes techniques nous font entrer dans une gestion à vue, agile et réactive en continue, où les outillages de la décision n’ont jamais été aussi nourris pour modéliser le futur, ceux-ci peinent pourtant à dessiner un futur, comme le soulignait très justement le chercheur Olivier Ertzscheid en rendant compte d’une discussion avec Antoinette Rouvroy justement. « De fait, c’est peut-être précisément parce que les gouvernements sont noyés par les (en partie) fausses capacitations à prévoir « le » futur qu’ils se retrouvent aussi incapables de dessiner « un » futur. La quasi-certitude de pouvoir juguler la part d’incertitude du monde, diminue plus qu’elle n’augmente la capacité d’agir en situation d’incertitude. »

La désorganisation : mode de fonctionnement des organisations ?

Nous voici confrontés à des errements répétés que la crise sanitaire a d’autant plus amplifiés qu’elle a mis de côté les questions d’équité et d’égalité, au profit d’une efficacité qui serait seule essentielle quand tout le reste ne le serait plus. Reste que l’efficacité de la réponse à la pandémie a elle aussi buté sur les modalités de réponse, sur ses réponses opérationnelles, comme le soulignaient les chercheurs en sociologie des organisations, Henri BergeronOlivier BorrazPatrick Castel et François Dedieu dans leur très stimulant bilan de la pandémie Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020). Les chercheurs s’y interrogeaient : pourquoi les situations de crises donnent lieu à une telle créativité organisationnelle rendant les plans préparés avec tant d’attention caduque avant d’être mis en oeuvres ? Pourquoi ce foisonnement augmente-t-il les problèmes de coordination qu’ils sont censés résoudre ?

Pour les chercheurs, nous questionnons le poids des défaillances ou des mérites individuels et négligeons les dimensions collectives et organisationnelles des décisions. Nous minimisons les risques et signaux certainement parce que les organisations sont mal équipées pour les faire remonter. « La coopération et la coordination demeurent le maillon faible – le « peu-pensé » – des dispositifs organisationnels », d’où le fait qu’ils sortent des cadres en cas de crise, mais souvent au détriment de ce qui en est exclu (comme les considérations économiques exclues du cadrage très hospitalier de la crise). Dans un monde saturé d’organisations, nous peinons toujours à les organiser ! Certainement parce que cette organisation est intimement liée au pouvoir (ce qui n’est pas sans évoquer pour moi, les questions posées par Frédéric Laloux dans Reinventing organisations). Dans la gestion élitaire et sanitaire de la crise que nous connaissons, les organisations et protocoles créés ont favorisé une décision à courte vue, top-down, conflictuelle… expliquent-ils. Derrière leurs analyses, les auteurs consacrent tout un chapitre sur comment apprendre des crises, comment passer de la recherche de culpabilités à la réforme des causes structurelles, appelant à créer une sorte d’observatoire des crises pour en tirer des enseignements qui ne soient plus singuliers – car les crises ne le sont pas – mais systémiques. En dénonçant, avec rigueur, l’excès de confiance, la saturation désorganisationnelle, la gestion élitaire, l’exubérante créativité procédurale, l’épuisement décisionniste et contradictoire… les chercheurs soulignent néanmoins que ces défauts demeurent le lot commun de toutes nos organisations.

Le « command and control » autoritaire produit rarement ce qu’on en attend. Il produit surtout de la défiance. Finalement, à les lire, on se dit que la non-gouvernance, la désorganisation ou la production de l’ingouvernabilité… sont peut-être les diverses facettes d’une réponse à une même complexité. Sous cet angle, la non-gouvernance tiendrait plus d’une réponse infrastructurelle aux incertitudes. En ce sens, finalement, l’opacité, la coupure démocratique et l’absence d’éthique semblent plutôt tenir de réponses pour entretenir l’inactionnabilité du monde, un moyen pour réduire, même dans l’adversité, le nombre de ceux qui peuvent gouverner ? Ne pas gouverner n’est pas tant un moyen de désinnover, comme le prônait le philosophe Alexandre Monnin dans nos pages, mais plutôt un moyen pour assurer la continuité du monde. Dégouverner, tient du symptôme plus que du remède. Dégouverner, c’est assurément invisibiliser toute gouvernance.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 6 janvier 2021.

Du rôle du logiciel dans la chaîne d’approvisionnement

En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.

Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.

En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?

De l’abstraction des chaînes d’approvisionnements

Quand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.

Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.

Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.

Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.

L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »

« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »

De la distance spatiale, temporelle et informationnelle

Pour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.

L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.

Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »

Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.

Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité

« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.

Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.

Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.

« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »

Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».

La traçabilité de bout en bout ! Mais pour quelle transparence ?

Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.

La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.

Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.

En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.

Quel levier pour transformer l’approvisionnement ?

Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.

En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.

Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.

De la matérialisation des données

En 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.

La couverture du livre Stuff of bits.

Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).

Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?

Du rôle du tableur dans les organisations

Dans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).

Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.

Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.

Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).

Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.

Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.

On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.

Mourir pour des données, d’accord, mais de mort lente. Ou pourquoi pour la 1ère fois j’ai cédé à une menace de procès.

Suite à une mise en demeure d’avocats représentant les intérêts du cabinet dont je dénonçais les agissements dans un article, mise en demeure m’enjoignant de supprimer la totalité de cet article avant le 22 Avril, je fais le choix de m’y plier et de le retirer de la publication. Vous trouverez donc ci-dessous des éléments d’explication détaillés sur la justification de cette décision.

——————————

Voila plus de 20 ans que je tiens ce blog en mon seul nom et sous ma seule responsabilité éditoriale. Près de 3000 articles (une moyenne de douze par mois), avec beaucoup d’articles d’analyses, pas mal d’articles d’opinions, et quelques bons coups de gueule à valeur essentiellement cathartique (pour moi en tout cas).

En 20 ans je n’ai été menacé de procédure juridique qu’à 3 reprises.

La première fois c’était en 2015, lorsque j’avais diffusé le journal d’Anne Frank, dans sa version originale, à date de son entrée dans le domaine public. Les avocats du fonds Anne Frank m’avaient alors menacé d’une action en justice et d’une astreinte journalière de plusieurs milliers d’euros tant que je ne retirerai pas le texte. J’ai maintenu le texte original en ligne. D’autres, dont la députée Isabelle Attard m’ont rejoint et ont également partagé le texte. Et je n’ai plus eu de nouvelles des avocats du fonds Anne Frank.

La deuxième fois c’était en 2017 à l’occasion d’un article sur les dynamiques de haine en ligne, lorsque je revenais vers les premières dérives des campagnes Adwords avec Arnault Dassier à leur initiative lorsqu’il était responsable de la stratégie digitale de l’UMP. C’est lui qui me menaça de poursuites, ne supportant pas de voir son nom accolé à l’expression « marketing de la haine » dans mon article et considérant cela comme diffamatoire et m’enjoignant de supprimer son nom de l’article. Résultat : je vous laisse juges de ce qu’il advînt dans la mise à jour au début de l’article.

Et la troisième fois c’est donc cette semaine d’Avril 2025. Et c’est un cabinet « d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » qui, via un cabinet d’avocats, menace de me poursuivre en justice pour diffamation, injure publique, et violation du secret des correspondances. Au regard des critères éclairés de Maître Eolas, même si je suis totalement serein sur le fond de l’affaire, la forme du courrier du cabinet d’avocat ne laisse que peu de doute sur leur détermination de réellement me poursuivre si je ne retire pas l’article en question.

Pour rappel, ce « cabinet d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » a contacté l’association étudiante dont je m’occupe (la Ma’Yonnaise épicerie) et qui organise des distributions alimentaires pour les étudiant.e.s sur le campus de Nantes Université à La Roche-sur-Yon, pour nous proposer un scénario dans lequel nos bénéficiaires (donc des étudiant.e.s précaires) pourraient, contre rétribution versée à l’association, vendre leurs données biométriques à ce cabinet.

S’ensuivit un échange entre moi (depuis la boite mail de l’épicerie solidaire) et le cabinet en question. Echange auquel j’ai rapidement mis fin considérant l’activité de ce cabinet plus que suspecte sur le fond, totalement déplacée sur la forme, et considérant qu’accessoirement en droit français, la vente de données biométriques contre rémunération (a fortiori pour des populations précaires) ne peut et ne doit devenir ni un marché ni un horizon.

Je prends donc la décision de raconter toute cette affaire dans un article sur ce blog sous le titre « Etudiants en situation de précarité ? Vendez-nous vos données. De la biométrie et des cabinets vautour qui tournent autour. » J’y cite les échanges (non nominatifs bien sûr) avec mes deux interlocuteurs de ce cabinet (voilà pour la violation du secret des correspondances). Echanges qui, je le rappelle, ont démarré avec la proposition suivante :

« Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. En contrepartie, nous proposons de reverser un don de 15 € par participant ayant validé le test. Par exemple, pour 50 participants, votre association recevra un don de 750 €. Nous espérons que cette collaboration pourrait constituer une ressource financière supplémentaire pour soutenir vos activités et projets. »

 

J’agis et réagis avec ma casquette de responsable de l’association et surtout, surtout, avec ma casquette d’universitaire dont l’un des axes et terrains de recherche est précisément la question de notre vie privée numérique et les questions liées à l’exploitation de nos données personnelles.

Le ton est vif et j’assimile à plusieurs reprises les pratiques de ce cabinet à des pratiques de crapules et de vautours (voilà pour la diffamation et l’injure publique).

Et cette semaine, une dizaine de jours après la parution de mon article, je reçois le courrier suivant avec mise en demeure de retirer totalement l’article incriminé dans un délai de 5 jours (avant le 22 Avril).

 

Je joins ici le fichier pdf pour une lecture plus facile : 2025 04 15_ mise-en-demeure.pdf

L’intimidation et la tentative de procédure bâillon se caractérisent aussi par le fait de mettre en copie de ce courrier la présidente de Nantes Université au motif que, je cite « l’ensemble de ces propos a été tenu en votre qualité de Maitre de conférences de l’Université de Nantes« . Ce qui est faux (je me suis toujours exprimé au titre exclusif de co-responsable de l’association qui organise ces distributions alimentaires), et ce qui est aussi une vision assez trouble de ce que l’on nomme la liberté académique.

Si j’avais agi uniquement en mon nom propre ou au titre de Maître de conférences de l’université de Nantes, j’aurais, sans aucun souci ni autre questionnement, laissé l’article incriminé en ligne et attendu sereinement la suite en proposant simplement un droit de réponse au cabinet concerné. Je n’ai me concernant, absolument aucune crainte. Je n’ai pas cédé aux avocats du fonds Anne Frank dans une affaire où les enjeux se chiffraient en millions d’euros (le journal d’Anne Frank est l’un des livres les plus vendus de tous les temps et continue de l’être) et concernaient, en termes de droit d’auteur et de domaine public, l’ensemble des lois et règlementations internationales. Donc cette forme de menace et de procédure bâillon ne m’impressionne pas (même s’il n’est jamais agréable de recevoir un tel courrier).

Mon absence de crainte est d’autant plus forte qu’une nouvelle fois, sur le fond, je suis absolument certain de mon bon droit et du fait que ce « cabinet d’expertise technologique, normative et réglementaire » fait absolument n’importe quoi et que ce n’importe quoi cible et met en danger des populations précaires dans une forme d’intime matérialisée par la transaction commerciale proposée autour de données biométriques sans que jamais et à aucun moment ne soient indiqués les cadres d’usages, d’exploitation, de durée, etc. Pour rappel le seul cadre indiqué dans la sollicitation de ce cabinet était « Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. » 

Alors pourquoi obéir à l’injonction et à cette forme de procédure bâillon ? Parce que dans cette affaire, si elle se porte jusqu’à un tribunal, je ne veux qu’en aucune manière l’association dont je m’occupe puisse être impactée financièrement, moralement, ou même symboliquement en voyant son nom associé à une procédure en justice. Et si cela devait tout de même se produire, la responsabilité en incomberait donc uniquement à ce cabinet puisqu’en effet et selon les termes de leurs avocats, ce retrait n’engage pas nécessairement la fin de la procédure de leur côté. Je les en laisse désormais juges et continue d’espérer désormais au moins trois choses.

Premièrement que des journalistes et des associations de défense des libertés numériques se saisiront de ces éléments et iront enquêter sur ces pratiques, celles de ce cabinet en particulier mais aussi celles d’autres probablement semblables.

Deuxièmement que si d’autres associations ont reçu de telles sollicitations, elle n’hésitent pas à me contacter ou à rendre publics ces éléments.

J’espère, troisièmement, que les autorités indépendantes que sont la CNIL et l’ANSSI, jusqu’ici silencieuses, se saisiront des éléments de ce dossier pour faire toute la lumière sur les pratiques de ces cabinets dans le domaine de la sollicitation de vente de données biométriques auprès de populations précaires, d’autant que lesdits cabinets se prévalent d’autorisations de leur part.

J’espère enfin, que cette « petite histoire », aura pour intérêt de rappeler dans le débat public que ce genre de dérives déjà largement présentes ailleurs dans le monde, sont et seront, en France, de plus en plus essentielles à documenter et à combattre. Je vous en parlais déjà via la chasse aux corps des plus pauvres à des fins d’exploitation biométrique, au moment où déjà près de cinq millions de personnes (dont un million d’argentins) ont malheureusement accepté pour atténuer un peu leur misère. Et cette semaine encore, les alertes de cette dépêche AFP ou cette chronique d’un monde connecté sur France Culture, devraient nous mobiliser toutes et tous car le futur qu’elles dessinent est au-delà de l’alarmant sur le plan sociétal comme sur le plan politique (je rappelle par exemple que ce cabinet qui me menace d’un procès indique sur son site intervenir notamment dans des « Systèmes de gestion de contrôle aux frontières (Gates, entry-exit). »

Pour le dire d’une phrase : ce dont nous devons absolument parler et ce que nous devons absolument combattre c’est un capitalisme de malfrats avec la marchandisation des données biométriques des plus précaires comme poste avancé.

Parce que tous ces êtres humains, toutes ces populations, le plus souvent précaires, que l’on dévisage en leur jetant l’aumône, ne nous laissent collectivement envisager aucun futur désirable.

 

Le Parti républicain du Canada

Pierre Poilièvre aura beau critiquer Donald Trump pour flatter l’électorat canadien, il demeure que les deux chefs ont beaucoup en commun. Nous avons toutes les raisons de croire qu’un gouvernement conservateur dirigerait le Canada de la même façon que le Parti républicain dirige les États-Unis à l’heure actuelle.

L’accès à l’information
Le Parti conservateur a refusé d’admettre les journalistes dans son autobus de campagne. On comprend que l’objectif est le contrôle du message. La désinformation est mise sur un pied d’égalité avec l’information. Contrairement aux autres chefs, Pierre Poilièvre n’a aucune objection à répondre aux questions des « journalistes » de Rebel News et autres « médias » qui sont en fait des instruments de propagande. Il souhaite même que ces pseudo journalistes aient accès à la tribune de la presse au Parlement. Ajoutons à ça qu’il souhaite mettre la hache dans CBC.

Cela s’ajoute à la campagne d’intimidation qui a eu raison de Rachel Gilmore. Pour rappel, Rachel Gilmore est cette journaliste dont la vérification de faits dérangeait les conservateurs parce qu’elle faisait la lumière sur leurs mensonges. Le directeur des relations publiques de Pierre Poilièvre, Sebastian Skamski, a accusé Gilmore de faire de la « désinformation ». Les militants conservateurs ont protesté en ligne jusqu’à ce que CTV mette fin à sa collaboration avec Gilmore.

Voilà à quoi ressemble l’information dans un Canada conservateur. Quand Pierre Poilièvre dit qu’il pleut, la journaliste qui regarde par la fenêtre se fait accuser de désinformation. Et ceux qui confirment qu’il pleut sans regarder par la fenêtre sont des « médias alternatifs » auxquels il faut donner une voix.

Les contre-pouvoirs
Quand Pierre Poilièvre nous dit qu’il va utiliser la clause dérogatoire pour pouvoir imposer des peines plus lourdes aux criminels, ce qu’il nous dit réellement, c’est qu’il ne reconnaît pas la validité de la constitution canadienne. Ce qu’il nous dit, c’est que son gouvernement devrait être libre d’ignorer les lois lorsqu’il juge que c’est pour le bien commun. La Charte des droits et libertés existe précisément pour protéger les Canadiens contre leur gouvernement, mais Poilièvre prétend vouloir l’ignorer pour protéger les Canadiens contre eux-mêmes. Difficile de ne pas faire un parallèle avec Donald Trump. Un gouvernement conservateur ne se laissera contrarier ni par la constitution, ni par les journalistes, ni par les tribunaux. À bas les contre-pouvoirs.

La censure
L’avocat Neil Oberman, candidat conservateur dans Mont-Royal, a été catégorique. À l’image de Trump, il promet que son gouvernement va couper le financement des universités qui « n’en font pas assez pour combattre l’antisémitisme sur leur campus ». Il promet aussi de déporter les étudiants étrangers qui « participent activement à la destruction des minorités, des communautés ». Un langage merveilleusement flou qui ne peut que conduire aux mêmes dérives auxquelles on assiste aux États-Unis, où même Harvard est ciblée par le gouvernement. Les conservateurs ouvrent ici la porte à un Canada où les universités pourraient se voir contraindre à adhérer à l’idéologie du gouvernement ou perdre leur financement de l’État.

L’avortement
Oui, Pierre Poilièvre a affirmé et répété qu’il était en faveur de la liberté de choix pour les femmes et que la position du Parti conservateur est très claire. Mais la position du Parti conservateur, c’est aussi que les députés sont libres de déposer des projets de loi d’initiative parlementaire et que sur les questions de conscience, les votes sont libres.

Poilièvre promet qu’un gouvernement conservateur « ne soutiendra pas de loi visant à régir l’avortement ». La formulation est importante. Il ne soutiendra pas, mais il n’interdira pas non plus. Ça signifie que rien n’empêcherait les députés conservateurs de présenter des projets de loi au Parlement pour limiter le droit à l’avortement et ensuite de voter « selon leur conscience ».

En rappel:
2013: Un député conservateur ontarien demande la création d’un comité parlementaire pour examiner si la définition d’un être humain du Code criminel devrait inclure les foetus. 86 conservateurs votent pour.
2020: Une député conservatrice propose un projet de loi pour criminaliser les avortements basés sur le sexe du foetus. 80 conservateurs votent pour.
2023: La même députée conservatrice propose des peines plus sévères lorsqu’une femme enceinte est tuée. Traduction: l’assassin a tué deux personnes plutôt qu’une seule. Porte ouverte à considérer le foetus comme une personne. Tous les députés conservateurs appuient la proposition, dont Pierre Poilièvre.
2024: Un député conservateur dépose une pétition pour demander une loi protégeant la vie des foetus.

La position personnelle de Pierre Poilièvre n’a pas d’importance. Nous ne sommes pas dans un régime présidentiel. Si une majorité de députés conservateurs sont résolus à adopter une loi pour régir l’avortement, le gouvernement ne pourra pas l’empêcher. En 2004, le gouvernement de Paul Martin a failli tomber parce que des dizaines de députés libéraux n’ont pas soutenu sa proposition de participer au bouclier anti-missiles américain. Ironiquement, ce sont les conservateurs qui l’ont sauvé. Rien ne dit qu’un tel scénario ne pourrait pas se reproduire sous un gouvernement conservateur.

Et soyons honnêtes, la position personnelle pro-choix de Poilièvre ne l’empêche pas d’avoir des dizaines de personnes anti-choix parmi ses candidats. Ça donne une idée de la force de ses convictions.

Je vais m’arrêter ici, mais les exemples sont encore nombreux. Comme Trump, Poilièvre soutient l’État g é n o cidaire i s raélien. Comme Trump, il veut mettre fin à l’aide internationale pour mieux financer l’armée. Comme Trump, il soutient les manifestations violentes lorsqu’elles sont de son côté (manifestation des camionneurs à Ottawa). Il emploie le terme « woke » à outrance ». « Canada First ». Etc. Etc.

Voter conservateur, c’est voter pour le Parti républicain du Canada. Rien de plus, rien de moins.

Le Parti républicain du Canada

Pierre Poilièvre aura beau critiquer Donald Trump pour flatter l’électorat canadien, il demeure que les deux chefs ont beaucoup en commun. Nous avons toutes les raisons de croire qu’un gouvernement conservateur dirigerait le Canada de la même façon que le Parti républicain dirige les États-Unis à l’heure actuelle.

L’accès à l’information
Le Parti conservateur a refusé d’admettre les journalistes dans son autobus de campagne. On comprend que l’objectif est le contrôle du message. La désinformation est mise sur un pied d’égalité avec l’information. Contrairement aux autres chefs, Pierre Poilièvre n’a aucune objection à répondre aux questions des “journalistes” de Rebel News et autres “médias” qui sont en fait des instruments de propagande. Il souhaite même que ces pseudo journalistes aient accès à la tribune de la presse au Parlement. Ajoutons à ça qu’il souhaite mettre la hache dans CBC.

Cela s’ajoute à la campagne d’intimidation qui a eu raison de Rachel Gilmore. Pour rappel, Rachel Gilmore est cette journaliste dont la vérification de faits dérangeait les conservateurs parce qu’elle faisait la lumière sur leurs mensonges. Le directeur des relations publiques de Pierre Poilièvre, Sebastian Skamski, a accusé Gilmore de faire de la “désinformation”. Les militants conservateurs ont protesté en ligne jusqu’à ce que CTV mette fin à sa collaboration avec Gilmore.

Voilà à quoi ressemble l’information dans un Canada conservateur. Quand Pierre Poilièvre dit qu’il pleut, la journaliste qui regarde par la fenêtre se fait accuser de désinformation. Et ceux qui confirment qu’il pleut sans regarder par la fenêtre sont des “médias alternatifs” auxquels il faut donner une voix.

Les contre-pouvoirs
Quand Pierre Poilièvre nous dit qu’il va utiliser la clause dérogatoire pour pouvoir imposer des peines plus lourdes aux criminels, ce qu’il nous dit réellement, c’est qu’il ne reconnaît pas la validité de la constitution canadienne. Ce qu’il nous dit, c’est que son gouvernement devrait être libre d’ignorer les lois lorsqu’il juge que c’est pour le bien commun. La Charte des droits et libertés existe précisément pour protéger les Canadiens contre leur gouvernement, mais Poilièvre prétend vouloir l’ignorer pour protéger les Canadiens contre eux-mêmes. Difficile de ne pas faire un parallèle avec Donald Trump. Un gouvernement conservateur ne se laissera contrarier ni par la constitution, ni par les journalistes, ni par les tribunaux. À bas les contre-pouvoirs.

La censure
L’avocat Neil Oberman, candidat conservateur dans Mont-Royal, a été catégorique. À l’image de Trump, il promet que son gouvernement va couper le financement des universités qui “n’en font pas assez pour combattre l’antisémitisme sur leur campus”. Il promet aussi de déporter les étudiants étrangers qui “participent activement à la destruction des minorités, des communautés”. Un langage merveilleusement flou qui ne peut que conduire aux mêmes dérives auxquelles on assiste aux États-Unis, où même Harvard est ciblée par le gouvernement. Les conservateurs ouvrent ici la porte à un Canada où les universités pourraient se voir contraindre à adhérer à l’idéologie du gouvernement ou perdre leur financement de l’État.

L’avortement
Oui, Pierre Poilièvre a affirmé et répété qu’il était en faveur de la liberté de choix pour les femmes et que la position du Parti conservateur est très claire. Mais la position du Parti conservateur, c’est aussi que les députés sont libres de déposer des projets de loi d’initiative parlementaire et que sur les questions de conscience, les votes sont libres.

Poilièvre promet qu’un gouvernement conservateur “ne soutiendra pas de loi visant à régir l’avortement”. La formulation est importante. Il ne soutiendra pas, mais il n’interdira pas non plus. Ça signifie que rien n’empêcherait les députés conservateurs de présenter des projets de loi au Parlement pour limiter le droit à l’avortement et ensuite de voter “selon leur conscience”.

En rappel:
2013: Un député conservateur ontarien demande la création d’un comité parlementaire pour examiner si la définition d’un être humain du Code criminel devrait inclure les foetus. 86 conservateurs votent pour.
2020: Une député conservatrice propose un projet de loi pour criminaliser les avortements basés sur le sexe du foetus. 80 conservateurs votent pour.
2023: La même députée conservatrice propose des peines plus sévères lorsqu’une femme enceinte est tuée. Traduction: l’assassin a tué deux personnes plutôt qu’une seule. Porte ouverte à considérer le foetus comme une personne. Tous les députés conservateurs appuient la proposition, dont Pierre Poilièvre.
2024: Un député conservateur dépose une pétition pour demander une loi protégeant la vie des foetus.

La position personnelle de Pierre Poilièvre n’a pas d’importance. Nous ne sommes pas dans un régime présidentiel. Si une majorité de députés conservateurs sont résolus à adopter une loi pour régir l’avortement, le gouvernement ne pourra pas l’empêcher. En 2004, le gouvernement de Paul Martin a failli tomber parce que des dizaines de députés libéraux n’ont pas soutenu sa proposition de participer au bouclier anti-missiles américain. Ironiquement, ce sont les conservateurs qui l’ont sauvé. Rien ne dit qu’un tel scénario ne pourrait pas se reproduire sous un gouvernement conservateur.

Et soyons honnêtes, la position personnelle pro-choix de Poilièvre ne l’empêche pas d’avoir des dizaines de personnes anti-choix parmi ses candidats. Ça donne une idée de la force de ses convictions.

Je vais m’arrêter ici, mais les exemples sont encore nombreux. Comme Trump, Poilièvre soutient l’État g é n o cidaire i s raélien. Comme Trump, il veut mettre fin à l’aide internationale pour mieux financer l’armée. Comme Trump, il soutient les manifestations violentes lorsqu’elles sont de son côté (manifestation des camionneurs à Ottawa). Il emploie le terme “woke” à outrance”. “Canada First”. Etc. Etc.

Voter conservateur, c’est voter pour le Parti républicain du Canada. Rien de plus, rien de moins.

❌