❌

Vue lecture

Superman, un film anti-Trump qui fait du bien

Aveu: Je n’avais pas l’intention d’aller voir le nouveau Superman au cinĂ©ma. Comme le dernier Captain America, j’avais l’intention de le regarder lorsqu’il serait disponible en ligne. Puis j’ai vu la grosse polĂ©mique « Superwoke Â» et je me suis dit que si les endormis (ou anti-wokes, si vous prĂ©fĂ©rez) dĂ©testent autant ce film, il doit avoir des qualitĂ©s. Je n’ai pas Ă©tĂ© déçu! De mon point de vue, le film est clairement anti-Trump, anti-Musk et anti-Netanyahu.

Était-ce intentionnel? Probablement. En 2018, le rĂ©alisateur James Gunn a Ă©tĂ© « cancellĂ© Â» aprĂšs s’ĂȘtre moquĂ© de l’administration Trump en ligne. Des trumpistes sont allĂ©s fouiller dans les poubelles de Twitter pour trouver des blagues de mauvais goĂ»t vieilles de 10 ans et Disney a retirĂ© Gunn du projet des Gardiens de Galaxie 3. Il a fallu une immense pression populaire et interne pour le ramener. Pour l’anecdote, l’ancien PDG de Marvel, Ike Perlmutter, et sa femme Laura, ont financĂ© les trois campagnes prĂ©sidentielles de Donald Trump. Ils ont donnĂ© 10 millions pour la campagne de 2024.

C’est le genre de film que je regarde en prenant des notes (je vous ai dit que je prĂ©parais une histoire sociale des super-hĂ©ros?). Voici donc ce que j’ai retenu:

  • Superman reprĂ©sente le bon immigrant poursuivi injustement par ICE. Le gouvernement amĂ©ricain ne lui reconnaĂźt aucun droit parce qu’il est nĂ© sur une autre planĂšte. Il est arrĂȘtĂ© sans justification et l’habeas corpus n’est pas respectĂ©. Au cas oĂč la figure de style ne serait pas suffisamment claire, Superman l’affirme carrĂ©ment Ă  la fin du film: « Je suis aussi humain que vous tous. Â»
  • Le mĂ©chant du film, Lex Luthor, reprĂ©sente Elon Musk (avant sa rupture avec Trump). C’est un milliardaire, magnat de la technologie, qui en mĂšne large auprĂšs du gouvernement amĂ©ricain. Ultra Ă©motif, violent avec sa conjointe et encore plus avec ses ex. Besoin dĂ©mesurĂ© d’ĂȘtre aimĂ© et adulĂ©, d’oĂč sa jalousie envers Superman. MĂ©galomane: Son projet implique la crĂ©ation d’un nouveau pays qui porterait son nom et dont il serait le roi.
  • Lex Luthor dĂ©couvre un enregistrement des parents kryptoniens de Superman qui l’encouragent Ă  prendre le contrĂŽle de la planĂšte Terre afin de protĂ©ger les Terriens de leur propre barbarie. Superman n’a jamais vu cet enregistrement avant que Luthor le diffuse. Les gens deviennent convaincus que Superman est venu sur Terre pour les conquĂ©rir, mĂȘme si ce n’est pas du tout conforme avec ses actions. Est-ce un message aux gens qui citent des passages du Coran pour montrer que les musulmans sont venus s’installer en Europe ou en AmĂ©rique pour nous asservir? C’est l’impression que j’ai eue, surtout avec cette rĂ©plique du pĂšre adoptif de Superman: « Peu importe ce qu’ils voulaient communiquer Ă  travers ce message, ça n’aura jamais autant d’importance que comment toi, tu le reçois. Â» Tout est dit.
  • L’intrigue politique du film tourne principalement autour du conflit entre deux pays fictifs, Boravia et Jarhanpur. Pour moi, il n’y a pas de doute possible: Boravia reprĂ©sente IsraĂ«l et Jarhanpur est une habile combinaison de Gaza et de l’Iran. Au dĂ©but du film, Superman empĂȘche une agression de Boravia contre Jarhanpur. Une agression qui devait tuer un maximum de civils. L’intervention de Superman enrage le gouvernement amĂ©ricain, parce que Boravia est alliĂ© aux États-Unis alors que Jarhanpur est une nation ennemie. D’un cĂŽtĂ©, le gouvernement de Boravia prĂ©tend vouloir libĂ©rer les habitants de Jarhanpur de son gouvernement tyrannique. De l’autre cĂŽtĂ©, le prĂ©sident de Boravia fait des dĂ©clarations clairement gĂ©nocidaires: « Nous ne dormirons pas tant que les rues ne seront pas inondĂ©es du sang de tous les Jarhanpuriens. Â» Difficile de ne pas faire un lien avec les intentions gĂ©nocidaires affirmĂ©es des dirigeants israĂ©liens. Et comme Donald Trump prĂ©voit l’ouverture d’une station balnĂ©aire Ă  Gaza, Lex Luthor parle des magasins qu’il veut ouvrir dans la nouvelle Jarhanpur une fois la population Ă©radiquĂ©e.
  • Il y a bien d’autres parallĂšles Ă  faire. Je ne les ai peut-ĂȘtre pas tous relevĂ©s. Lex Luthor inonde les rĂ©seaux sociaux avec des messages de propagande. Un rĂ©seau tĂ©lĂ©visĂ© « d’information Â» appuie sans preuve les rumeurs absurdes, comme celle voulant que Superman ait un harem de femmes capturĂ©es sur Terre qu’il utilise pour crĂ©er une nouvelle race supĂ©rieure (au moins personne ne l’a accusĂ© de manger des chiens). Les superhĂ©ros savent que Superman est innocent, mais ils n’interviennent pas parce qu’ils ne veulent pas perdre l’appui du gouvernement amĂ©ricain. Du dĂ©but Ă  la fin, j’ai eu l’impression que le rĂ©alisateur cherchait Ă  inscrire son film dans la rĂ©alitĂ©.

ALERTE AU DIVULGÂCHEUR
Le film finit bien. Si comme moi vous voyez les figures de style, votre coeur fond en voyant la conclusion. Elon Musk est arrĂȘtĂ©. Bibi est tuĂ© par une superhĂ©roĂŻne. Green Lantern empĂȘche les soldats israĂ©liens de massacrer des enfants gazaouĂŻs. Et la bande de Gaza est libĂ©rĂ©e. Du moins, c’est mon interprĂ©tation.
FIN DE L’ALERTE AU DIVULGÂCHEUR

Bref, je comprends que les trumpistes et les endormis n’aient pas aimĂ© le film. L’insulte suprĂȘme: le seul superhĂ©ros (autre que Superman) qui ait des principes et qui soit montrĂ© comme vraiment compĂ©tent est le seul Afro-AmĂ©ricain de l’équipe.

Pour les personnes qui accusent James Gunn d’avoir « wokisĂ© Â» Superman: Les superhĂ©ros ont toujours Ă©tĂ© politiques. Ils cassaient la gueule d’Adolf Hitler avant mĂȘme que les États-Unis entrent en guerre contre l’Allemagne en 1941. La plupart des crĂ©ateurs Ă©taient Juifs et voulaient sensibiliser les AmĂ©ricains aux Ă©vĂ©nements europĂ©ens. En 1943, Superman se battait contre le Ku Klux Klan. Il y a toujours eu des messages d’intĂ©rĂȘts publics dans les aventures de Superman, invitant les AmĂ©ricains Ă  se rassembler indĂ©pendamment de leurs diffĂ©rences. Donc non, James Gunn a parfaitement compris le personnage de Superman.

Dans un contexte politique et mondial incroyablement anxiogĂšne, un film oĂč le hĂ©ros affronte de vrais mĂ©chants et oĂč les gentils gagnent Ă  la fin fait du bien Ă  l’ñme. Je vous encourage Ă  aller le voir si ce n’est pas dĂ©jĂ  fait.

Superman, un film anti-Trump qui fait du bien

Aveu: Je n’avais pas l’intention d’aller voir le nouveau Superman au cinĂ©ma. Comme le dernier Captain America, j’avais l’intention de le regarder lorsqu’il serait disponible en ligne. Puis j’ai vu la grosse polĂ©mique “Superwoke” et je me suis dit que si les endormis (ou anti-wokes, si vous prĂ©fĂ©rez) dĂ©testent autant ce film, il doit avoir des qualitĂ©s. Je n’ai pas Ă©tĂ© déçu! De mon point de vue, le film est clairement anti-Trump, anti-Musk et anti-Netanyahu.

Était-ce intentionnel? Probablement. En 2018, le rĂ©alisateur James Gunn a Ă©tĂ© “cancellĂ©â€ aprĂšs s’ĂȘtre moquĂ© de l’administration Trump en ligne. Des trumpistes sont allĂ©s fouiller dans les poubelles de Twitter pour trouver des blagues de mauvais goĂ»t vieilles de 10 ans et Disney a retirĂ© Gunn du projet des Gardiens de Galaxie 3. Il a fallu une immense pression populaire et interne pour le ramener. Pour l’anecdote, l’ancien PDG de Marvel, Ike Perlmutter, et sa femme Laura, ont financĂ© les trois campagnes prĂ©sidentielles de Donald Trump. Ils ont donnĂ© 10 millions pour la campagne de 2024.

C’est le genre de film que je regarde en prenant des notes (je vous ai dit que je prĂ©parais une histoire sociale des super-hĂ©ros?). Voici donc ce que j’ai retenu:

  • Superman reprĂ©sente le bon immigrant poursuivi injustement par ICE. Le gouvernement amĂ©ricain ne lui reconnaĂźt aucun droit parce qu’il est nĂ© sur une autre planĂšte. Il est arrĂȘtĂ© sans justification et l’habeas corpus n’est pas respectĂ©. Au cas oĂč la figure de style ne serait pas suffisamment claire, Superman l’affirme carrĂ©ment Ă  la fin du film: “Je suis aussi humain que vous tous.”
  • Le mĂ©chant du film, Lex Luthor, reprĂ©sente Elon Musk (avant sa rupture avec Trump). C’est un milliardaire, magnat de la technologie, qui en mĂšne large auprĂšs du gouvernement amĂ©ricain. Ultra Ă©motif, violent avec sa conjointe et encore plus avec ses ex. Besoin dĂ©mesurĂ© d’ĂȘtre aimĂ© et adulĂ©, d’oĂč sa jalousie envers Superman. MĂ©galomane: Son projet implique la crĂ©ation d’un nouveau pays qui porterait son nom et dont il serait le roi.
  • Lex Luthor dĂ©couvre un enregistrement des parents kryptoniens de Superman qui l’encouragent Ă  prendre le contrĂŽle de la planĂšte Terre afin de protĂ©ger les Terriens de leur propre barbarie. Superman n’a jamais vu cet enregistrement avant que Luthor le diffuse. Les gens deviennent convaincus que Superman est venu sur Terre pour les conquĂ©rir, mĂȘme si ce n’est pas du tout conforme avec ses actions. Est-ce un message aux gens qui citent des passages du Coran pour montrer que les musulmans sont venus s’installer en Europe ou en AmĂ©rique pour nous asservir? C’est l’impression que j’ai eue, surtout avec cette rĂ©plique du pĂšre adoptif de Superman: “Peu importe ce qu’ils voulaient communiquer Ă  travers ce message, ça n’aura jamais autant d’importance que comment toi, tu le reçois.” Tout est dit.
  • L’intrigue politique du film tourne principalement autour du conflit entre deux pays fictifs, Boravia et Jarhanpur. Pour moi, il n’y a pas de doute possible: Boravia reprĂ©sente IsraĂ«l et Jarhanpur est une habile combinaison de Gaza et de l’Iran. Au dĂ©but du film, Superman empĂȘche une agression de Boravia contre Jarhanpur. Une agression qui devait tuer un maximum de civils. L’intervention de Superman enrage le gouvernement amĂ©ricain, parce que Boravia est alliĂ© aux États-Unis alors que Jarhanpur est une nation ennemie. D’un cĂŽtĂ©, le gouvernement de Boravia prĂ©tend vouloir libĂ©rer les habitants de Jarhanpur de son gouvernement tyrannique. De l’autre cĂŽtĂ©, le prĂ©sident de Boravia fait des dĂ©clarations clairement gĂ©nocidaires: “Nous ne dormirons pas tant que les rues ne seront pas inondĂ©es du sang de tous les Jarhanpuriens.” Difficile de ne pas faire un lien avec les intentions gĂ©nocidaires affirmĂ©es des dirigeants israĂ©liens. Et comme Donald Trump prĂ©voit l’ouverture d’une station balnĂ©aire Ă  Gaza, Lex Luthor parle des magasins qu’il veut ouvrir dans la nouvelle Jarhanpur une fois la population Ă©radiquĂ©e.
  • Il y a bien d’autres parallĂšles Ă  faire. Je ne les ai peut-ĂȘtre pas tous relevĂ©s. Lex Luthor inonde les rĂ©seaux sociaux avec des messages de propagande. Un rĂ©seau tĂ©lĂ©visĂ© “d’information” appuie sans preuve les rumeurs absurdes, comme celle voulant que Superman ait un harem de femmes capturĂ©es sur Terre qu’il utilise pour crĂ©er une nouvelle race supĂ©rieure (au moins personne ne l’a accusĂ© de manger des chiens). Les superhĂ©ros savent que Superman est innocent, mais ils n’interviennent pas parce qu’ils ne veulent pas perdre l’appui du gouvernement amĂ©ricain. Du dĂ©but Ă  la fin, j’ai eu l’impression que le rĂ©alisateur cherchait Ă  inscrire son film dans la rĂ©alitĂ©.

ALERTE AU DIVULGÂCHEUR
Le film finit bien. Si comme moi vous voyez les figures de style, votre coeur fond en voyant la conclusion. Elon Musk est arrĂȘtĂ©. Bibi est tuĂ© par une superhĂ©roĂŻne. Green Lantern empĂȘche les soldats israĂ©liens de massacrer des enfants gazaouĂŻs. Et la bande de Gaza est libĂ©rĂ©e. Du moins, c’est mon interprĂ©tation.
FIN DE L’ALERTE AU DIVULGÂCHEUR

Bref, je comprends que les trumpistes et les endormis n’aient pas aimĂ© le film. L’insulte suprĂȘme: le seul superhĂ©ros (autre que Superman) qui ait des principes et qui soit montrĂ© comme vraiment compĂ©tent est le seul Afro-AmĂ©ricain de l’équipe.

Pour les personnes qui accusent James Gunn d’avoir “wokisĂ©â€ Superman: Les superhĂ©ros ont toujours Ă©tĂ© politiques. Ils cassaient la gueule d’Adolf Hitler avant mĂȘme que les États-Unis entrent en guerre contre l’Allemagne en 1941. La plupart des crĂ©ateurs Ă©taient Juifs et voulaient sensibiliser les AmĂ©ricains aux Ă©vĂ©nements europĂ©ens. En 1943, Superman se battait contre le Ku Klux Klan. Il y a toujours eu des messages d’intĂ©rĂȘts publics dans les aventures de Superman, invitant les AmĂ©ricains Ă  se rassembler indĂ©pendamment de leurs diffĂ©rences. Donc non, James Gunn a parfaitement compris le personnage de Superman.

Dans un contexte politique et mondial incroyablement anxiogĂšne, un film oĂč le hĂ©ros affronte de vrais mĂ©chants et oĂč les gentils gagnent Ă  la fin fait du bien Ă  l’ñme. Je vous encourage Ă  aller le voir si ce n’est pas dĂ©jĂ  fait.

Entretiens d’embauche chatbotisĂ©s

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en Ă©voquant l’essor des entretiens avec des systĂšmes d’IA. L’expĂ©rience avec ces robots intervieweurs, comme ceux dĂ©veloppĂ©s par Ribbon AI, Talently ou Apriora, se rĂ©vĂšle trĂšs dĂ©shumanisante, tĂ©moignent ceux qui y sont confrontĂ©s. Les questions sont souvent un peu creuses et les chatbots ne savent pas rĂ©pondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces Ă©lĂ©ments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil Ă  un poste, la RHTech scie assurĂ©ment sa propre utilitĂ©. Quant aux biais sĂ©lectifs de ces outils, parions qu’ils sont au moins aussi dĂ©faillants que les outils de recrutements automatisĂ©s qui peinent dĂ©jĂ  Ă  faire des correspondances adaptĂ©es. La course au pire continue !

ScannĂ©s par l’IA

Le loueur de voiture Hertz a commencĂ© Ă  dĂ©ployer des scanneurs de voitures dĂ©veloppĂ©es par UVeye pour inspecter les vĂ©hicules aprĂšs leur location afin de vĂ©rifier leur Ă©tat, explique The Drive (voir Ă©galement cet article). ProblĂšme : le systĂšme est trop prĂ©cis et surcharge les clients de frais pour des accrocs microscopiques qu’un ĂȘtre humain n’aurait pas remarquĂ©.  

Les tensions n’ont pas manquĂ© d’éclater, et elles sont d’autant plus nombreuses qu’il est trĂšs difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de vĂ©hicule automatisĂ©, et que cela est impossible via le portail applicatif oĂč les clients peuvent consulter et rĂ©gler les dommages attribuĂ©s Ă  leurs locations. Des incidents d’usure mineurs ou indĂ©pendants des conducteurs, comme un Ă©clat liĂ© Ă  un gravillon, sont dĂ©sormais parfaitement dĂ©tectĂ©s et facturĂ©s. Le problĂšme, c’est le niveau de granularitĂ© et de prĂ©cision qui a tendance a surdiagnostiquer les Ă©raflures. DĂ©cidĂ©ment, adapter les faux positifs Ă  la rĂ©alitĂ© est partout une gageure ou un moyen pour gĂ©nĂ©rer des profits inĂ©dits.

L’IA, un nouvel internet
 sans condition

Tous les grands acteurs des technologies ont entamĂ© leur mue. Tous se mettent Ă  intĂ©grer l’IA Ă  leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche Ă  sa fin, prĂ©dit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthĂ©tique, le web artificiel oĂč tous les contenus sont appelĂ©s Ă  ĂȘtre gĂ©nĂ©rĂ©s en permanence, Ă  la volĂ©e, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir
 avec le risque de faire disparaĂźtre le web que nous avons connu, construit, façonnĂ©. 

Jusqu’à prĂ©sent, le web reposait sur un marchĂ© simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web rĂ©fĂ©rencĂ©s. « On estime que 68 % de l’activitĂ© Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce systĂšme a Ă©tĂ© celui que nous avons connu depuis les origines du web. L’intĂ©gration de l’IA, pour le meilleur ou pour le pire, promet nĂ©anmoins de transformer radicalement cette expĂ©rience. ConfrontĂ© Ă  une nette dĂ©gradation des rĂ©sultats de la recherche, notamment due Ă  l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « rĂ©invention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à prĂ©sent, le mode IA va remplacer complĂštement les rĂ©sultats de recherche traditionnels. DĂ©sormais, un chatbot va crĂ©er un article pour rĂ©pondre aux questions. En cours de dĂ©ploiement et facultatif pour l’instant, Ă  terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montrĂ© que, les aperçus IA gĂ©nĂ©raient dĂ©jĂ  beaucoup moins de trafic vers le reste d’internet (de 30 % Ă  70 %, selon le type de recherche. Des analyses ont Ă©galement rĂ©vĂ©lĂ© qu’environ 60 % des recherches Google depuis le lancement des aperçus sont dĂ©sormais « zĂ©ro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les Ă©tudes respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrĂ©tise, cela pourrait anĂ©antir le modĂšle Ă©conomique du web tel que nous le connaissons. Google estime que ces inquiĂ©tudes sont exagĂ©rĂ©es, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversitĂ© de sites web » et le trafic serait de « meilleure qualitĂ© » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnĂ©e pour Ă©tayer ces affirmations. 

Google et ses dĂ©tracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe mĂȘme du web qui est menacĂ©, celui oĂč chacun peut crĂ©er un site librement accessible et rĂ©fĂ©rencĂ©. 

L’article de la BBC remarque, trĂšs pertinemment, que cette menace de la mort du web a dĂ©jĂ  Ă©tĂ© faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des rĂ©seaux sociaux avaient dĂ©jĂ  suscitĂ© des prĂ©dictions apocalyptiques qui ne se sont pas rĂ©alisĂ©es. Cela n’empĂȘche pas les experts d’ĂȘtre soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la rĂ©ponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre Ă  un bibliothĂ©caire et qu’il vous en parle plutĂŽt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncĂ©e pourrait faire la diffĂ©rence entre une entreprise d’édition viable
 et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliquĂ©s. Selon le cabinet d’analyse de donnĂ©es BrightEdge, les aperçus IA ont entraĂźnĂ© une augmentation de 49 % des impressions sur le web, mais les clics ont chutĂ© de 30 %, car les utilisateurs obtiennent leurs rĂ©ponses directement de l’IA. « Google a Ă©crit les rĂšgles, créé le jeu et rĂ©compensĂ© les joueurs », explique l’une des expertes interrogĂ©e par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans Â». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a dĂ©clarĂ© qu’il pensait que demain, les Ă©diteurs alimenteraient directement les modĂšles d’IA avec leurs contenus, sans plus avoir Ă  se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur gĂ©nĂ©ral de Cloudflare, le problĂšme dans ce web automatisĂ©, c’est que « les robots ne cliquent pas sur les publicitĂ©s ». « Si l’IA devient l’audience, comment les crĂ©ateurs seront-ils rĂ©munĂ©rĂ©s ? » La rĂ©munĂ©ration directe existe dĂ©jĂ , comme le montrent les licences de contenus que les plus grands Ă©diteurs de presse nĂ©gocient avec des systĂšmes d’IA pour qu’elles s’entraĂźnent et exploitent leurs contenus, mais ces revenus lĂ  ne compenseront pas la chute d’audience Ă  venir. Et ce modĂšle ne passera certainement pas l’échelle d’une rĂ©tribution gĂ©nĂ©ralisĂ©e. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les rĂ©seaux sociaux pour tenter de compenser les pertes de revenus. Mais lĂ  aussi, les caprices algorithmiques et le dĂ©veloppement de l’IA gĂ©nĂ©rative risquent de ne pas suffire Ă  compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les rĂ©actions aux aperçus IA laissent prĂ©sager que le mode IA sera extrĂȘmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs rĂ©sultats et effectuent des recherches plus souvent », a dĂ©clarĂ© Pichai lors de la confĂ©rence des dĂ©veloppeurs de Google. Autrement dit, Google affirme que cela amĂ©liore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, prĂ©sidente de News/Media Alliance, un groupement professionnel reprĂ©sentant plus de 2 200 journalistes et mĂ©dias, les rĂ©ponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grĂące Ă  notre contenu et nous ne recevons rien en retour ». Le problĂšme, c’est que Google n’a pas laissĂ© beaucoup de choix aux Ă©diteurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous ĂȘtes dĂ©sindexĂ© des deux. La recherche est bien souvent l’une des premiĂšres utilisations de outils d’IA. Les inquiĂ©tudes sur les hallucinations, sur le renforcement des chambres d’échos dans les rĂ©ponses que vont produire ces outils sont fortes (on parle mĂȘme de « chambre de chat » pour Ă©voquer la rĂ©verbĂ©ration des mĂȘmes idĂ©es et liens dans ces outils). Pour Cory Doctorow, « Google s’apprĂȘte Ă  faire quelque chose qui va vraiment mettre les gens en colĂšre »  et appelle les acteurs Ă  capitaliser sur cette colĂšre Ă  venir. Matthew Prince de Cloudflare prĂŽne, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, Ă  moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley Ă  nĂ©gocier. « Ma version trĂšs optimiste », explique Prince, « est celle oĂč les humains obtiennent du contenu gratuitement et oĂč les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposĂ© l’annĂ©e derniĂšre quelque chose d’assez similaire : expliquant que les droits dĂ©rivĂ©s liĂ©s Ă  l’exploitation des contenus par l’IA devraient donner lieu Ă  rĂ©tribution – mais Ă  nouveau, une rĂ©tribution qui restera par nature insuffisante, comme l’expliquait FrĂ©dĂ©ric Fillioux

MĂȘme constat pour le Washington Post, qui s’inquiĂšte de l’effondrement de l’audience des sites d’actualitĂ© avec le dĂ©ploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminuĂ© de 55 % entre avril 2022 et avril 2025, selon les donnĂ©es de Similarweb ». Dans la presse amĂ©ricaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clĂ©s et du tri des liens proposĂ©s. « Nous entrons dans l’ùre de la recherche conversationnelle » dont la fonction mĂȘme vise Ă  « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposĂ© des amĂ©liorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessĂ© de s’amĂ©liorer pour fournir de meilleures rĂ©ponses. Mais ce qui s’apprĂȘte Ă  changer avec l’intĂ©gration de l’IA, c’est que les sources ne sont plus nĂ©cessairement accessibles et que les rĂ©ponses sont gĂ©nĂ©rĂ©es Ă  la volĂ©e, aucune n’étant identique Ă  une autre. 

L’intĂ©gration de l’IA pose Ă©galement la question de la fiabilitĂ© des rĂ©ponses. L’IA de Google a par exemple expliquĂ© que la Technology Review avait Ă©tĂ© mise en ligne en 2022
 ce qui est bien sĂ»r totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir gĂ©nĂ©ratif promet avant tout de fabriquer des rĂ©ponses Ă  la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidĂ©o expliquant comment rĂ©parer un Ă©lĂ©ment de mon vĂ©lo. La vidĂ©o n’existe pas, mais l’information, elle, existe. La recherche gĂ©nĂ©rative assistĂ©e par l’IA pourrait thĂ©oriquement trouver cette information en ligne – dans un manuel d’utilisation cachĂ© sur le site web d’une entreprise, par exemple – et crĂ©er une vidĂ©o pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire trĂšs mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet gĂ©nĂ©ratif pourrait se composer Ă  la demande, quelque soit ses dĂ©faillances. 

MĂȘmes constats pour Matteo Wrong dans The Atlantic : avec la gĂ©nĂ©ralisation de l’IA, nous retournons dans un internet en mode bĂȘta. Les services et produits numĂ©riques n’ont jamais Ă©tĂ© parfaits, rappelle-t-il, mais la gĂ©nĂ©ralisation de l’IA risque surtout d’amplifier les problĂšmes. Les chatbots sont trĂšs efficaces pour produire des textes convaincants, mais ils ne prennent pas de dĂ©cisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractĂ©ristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dĂ©railler de maniĂšre inattendue, de s’effondrer Ă  la moindre tĂąche et d’ĂȘtre mal utilisĂ©e avec un minimum de frictions ». Les quelques rĂ©ussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. PlutĂŽt que des utilisations ciblĂ©es et prudentes, nombreux sont ceux qui utilisent l’IA gĂ©nĂ©rative pour toutes les tĂąches imaginables, encouragĂ©s par les gĂ©ants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est lĂ  que rĂ©side le problĂšme : l’IA gĂ©nĂ©rative est une technologie suffisamment performante pour que les utilisateurs en deviennent dĂ©pendants, mais pas suffisamment fiable pour ĂȘtre vĂ©ritablement fiable ». Nous allons vers un internet oĂč chaque recherche, itinĂ©raire, recommandation de restaurant, rĂ©sumĂ© d’évĂ©nement, rĂ©sumĂ© de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vĂ©rifier ses fonctionnements. Bienvenue dans « l’ñge de la paranoĂŻa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicitĂ© Ă©galement. C’est ainsi qu’il faut entendre les dĂ©clarations de Mark Zuckerberg pour automatiser la crĂ©ation publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose dĂ©jĂ  des outils d’IA capables de gĂ©nĂ©rer des variantes de publicitĂ©s existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite dĂ©sormais aider les marques Ă  crĂ©er des concepts publicitaires de A Ă  Z ». La publicitĂ© reprĂ©sente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élĂšve en 2024 Ă  164 milliards de dollars). Chez Meta les contenus gĂ©nĂ©ratifs produisent dĂ©jĂ  ce qu’on attend d’eux. Meta a annoncĂ© une augmentation de 8 % du temps passĂ© sur Facebook et de 6 % du temps passĂ© sur Instagram grĂące aux contenus gĂ©nĂ©ratifs. 15 millions de publicitĂ©s par mois sur les plateformes de Meta sont dĂ©jĂ  gĂ©nĂ©rĂ©es automatiquement. « GrĂące aux outils publicitaires dĂ©veloppĂ©s par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnĂ©e d’un objectif budgĂ©taire. L’IA crĂ©erait alors l’intĂ©gralitĂ© de la publicitĂ©, y compris les images, la vidĂ©o et le texte. Le systĂšme dĂ©ciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la gĂ©olocalisation des utilisateurs, la publicitĂ© pourrait s’adapter en contexte, crĂ©ant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquĂ©rir un nouveau client, le montant qu’elle est prĂȘte Ă  payer pour chaque rĂ©sultat, et connecter son compte bancaire ; nous nous occuperons du reste », a dĂ©clarĂ© Zuckerberg lors de l’assemblĂ©e gĂ©nĂ©rale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rĂ©dac chef de The Verge, parle de « crĂ©ativitĂ© infinie ». C’est d’ailleurs la mĂȘme idĂ©e que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines Ă  IA » qui gĂ©nĂ©reront le web demain. Si toutes les grandes entreprises et les agences de publicitĂ© ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent dĂ©jĂ , Ă  l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grĂące Ă  son partenariat avec Nvidia. « Unilever a dĂ©clarĂ© avoir rĂ©alisĂ© jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir rĂ©duit les dĂ©lais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idĂ©e finalement trĂšs partagĂ©e par tous les gĂ©ants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaĂźt par un autre. Une sous-couche gĂ©nĂ©rative qu’il maĂźtriseraient, capable de produire un web Ă  leur profit, qu’ils auraient avalĂ© et digĂ©rĂ©. 

Vers des revenus génératifs ?

Nilay Patel Ă©tait l’annĂ©e derniĂšre l’invitĂ© du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le dĂ©truire ou le sauver. Dans cette discussion parfois un peu dĂ©cousue, Klein rappelle que l’IA se dĂ©veloppe d’abord lĂ  oĂč les produits n’ont pas besoin d’ĂȘtre trĂšs performants. Des tĂąches de codage de bas niveau aux devoirs des Ă©tudiants, il est Ă©galement trĂšs utilisĂ© pour la diffusion de contenus mĂ©diocres sur l’internet. Beaucoup des contenus d’internet ne sont pas trĂšs performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des rĂ©seaux sociaux, internet est surtout un ensemble de contenus Ă  indexer pour dĂ©livrer de la publicitĂ© elle-mĂȘme bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont dĂ©sormais inondĂ©es de contenus sans intĂ©rĂȘts, de spams, de slops, de contenus de remplissage Ă  la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amĂ©lioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un Ă  l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, oĂč n’aurons nous accĂšs plus qu’à des contenus gĂ©nĂ©ratifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le dĂ©truisent. En augmentant Ă  l’infini l’offre de contenu, le systĂšme s’apprĂȘte Ă  s’effondrer sur lui-mĂȘme : « Les algorithmes de recommandation s’effondrent, notre capacitĂ© Ă  distinguer le vrai du faux s’effondre Ă©galement, et, plus important encore, les modĂšles Ă©conomiques d’Internet s’effondrent complĂštement ». Les contenus n’arrivent plus Ă  trouver leurs publics, et inversement. L’exemple Ă©clairant pour illustrer cela, c’est celui d’Amazon. Face Ă  l’afflux de livres gĂ©nĂ©rĂ©s par l’IA, la seule rĂ©ponse d’Amazon a Ă©tĂ© de limiter le nombre de livres dĂ©posables sur la plateforme Ă  trois par jour. C’est une rĂ©ponse parfaitement absurde qui montre que nos systĂšmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est Ă  peine s’ils savent restreindre le flot

Avec l’IA gĂ©nĂ©rative, l’offre ne va pas cesser d’augmenter. Elle dĂ©passe dĂ©jĂ  ce que nous sommes capables d’absorber individuellement. Pas Ă©tonnant alors que toutes les plateformes se transforment de la mĂȘme maniĂšre en devenant des plateformes de tĂ©lĂ©achats ne proposant plus rien d’autre que de courtes vidĂ©os.

« Toutes les plateformes tendent vers le mĂȘme objectif, puisqu’elles sont soumises aux mĂȘmes pressions Ă©conomiques ». Le produit des plateformes c’est la pub. Elles mĂȘmes ne vendent rien. Ce sont des rĂ©gies publicitaires que l’IA promet d’optimiser depuis les donnĂ©es personnelles collectĂ©es. Et demain, nos boĂźtes mails seront submergĂ©es de propositions marketing gĂ©nĂ©rĂ©es par l’IA
 Pour Patel, les gĂ©ants du net ont arrĂȘtĂ© de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicitĂ©s. Google ActualitĂ©s rĂ©fĂ©rence des articles Ă©crits par des IA sans que cela ne soit un critĂšre discriminant pour les rĂ©fĂ©renceurs de Google, expliquait 404 mĂ©dia (voir Ă©galement l’enquĂȘte de Next sur ce sujet qui montre que les sites gĂ©nĂ©rĂ©s par IA se dĂ©multiplient, « pour faire du fric »). Pour toute la chaĂźne, les revenus semblent ĂȘtre devenus le seul objectif.

Et Klein de suggĂ©rer que ces contenus vont certainement s’amĂ©liorer, comme la gĂ©nĂ©ration d’image et de texte n’a cessĂ© de s’amĂ©liorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment rĂ©pondre Ă  la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour rĂ©pondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit gĂ©nĂ©rĂ© par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, rĂ©pond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un Ɠuf, l’IA de Google peut vous le dire
 Mais, c’est oublier que cette IA gĂ©nĂ©rative ne sera pas plus neutre que les rĂ©sultats de Google aujourd’hui. Elle sera elle aussi façonnĂ©e par la publicitĂ©. L’enjeu demain ne sera plus d’ĂȘtre dans les 3 premiers rĂ©sultats d’une page de recherche, mais d’ĂȘtre citĂ©e par les rĂ©ponses construites par les modĂšles de langages. « Votre client le plus important, dĂ©sormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont dĂ©jĂ  nombreux. Une Ă©tude montre que les marques internationales sont souvent perçues comme Ă©tant de meilleures qualitĂ©s que les marques locales. Si vous demandez Ă  un chatbot de recommander des cadeaux aux personnes vivant dans des pays Ă  revenu Ă©levĂ©, il suggĂ©rera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays Ă  faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, Ă  dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs rĂ©sultats financiers. Le marketing a assurĂ©ment trouvĂ© un nouveau produit Ă  vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes trĂšs affaibli, polluĂ© de spams et de contenus sans intĂ©rĂȘts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprĂ©cient, mais bien plus un internet que les gens utilisent Ă  leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprĂ©cier, bien au contraire, mais un internet qui profite aux grands acteurs plutĂŽt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne Ă  se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numĂ©rique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web Ă  leur seul profit, et c’est assurĂ©ment la puissance (et surtout la puissance financiĂšre) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurĂ©ment la consĂ©quence de « notre longue dĂ©possession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthĂ©tique est lĂ  pour rester. Et la perspective qui se dessine, c’est que nous avons Ă  nous y adapter, sans discussion. Ce n’est pas une situation trĂšs stimulante, bien au contraire. A mesure que les gĂ©ants de l’IA conquiĂšrent le numĂ©rique, c’est nos marges de manƓuvres qui se rĂ©duisent. Ce sont elles que la rĂ©gulation devrait chercher Ă  rĂ©ouvrir, dĂšs Ă  prĂ©sent. Par exemple en mobilisant trĂšs tĂŽt le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ©, pour forcer les acteurs Ă  proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, trĂšs facilement, de refuser leur implĂ©mentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit Ă  la concurrence et Ă  l’interopĂ©rabilitĂ© au plus tĂŽt. Afin que dĂ©fendre le web que nous voulons ne s’avĂšre pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet Ă©dito a Ă©tĂ© originellement publiĂ© dans la premiĂšre lettre d’information de CafĂ©IA le 27 juin 2025.

Le pire gouvernement de l’histoire?

Cliquer ici pour le bilan détaillé.

Dans les derniĂšres annĂ©es, j’ai souvent entendu dire que le gouvernement Trudeau Ă©tait le pire de l’histoire du Canada. Une affirmation qui m’a toujours fait lever les yeux au ciel. Parce que je sais que dans 99.9% des cas, si je demande de comparer Justin Trudeau Ă  Arthur Meighen ou Ă  R. B. Bennett, je n’aurai aucune rĂ©ponse.

J’ai aussi souvent entendu dire que le gouvernement Legault Ă©tait le pire de l’histoire du QuĂ©bec. LĂ , je l’avoue, j’ai plus de difficultĂ© Ă  rĂ©pondre. Pas parce que je crois que les gens rĂ©pĂ©tant cette affirmation pourraient comparer François Legault Ă  John Jones Ross ou Ă  Simon-NapolĂ©on Parent, mais parce que j’aurais de la difficultĂ© Ă  relativiser.

Depuis 2018, on a souvent comparĂ© la CAQ de François Legault Ă  l’Union nationale de Maurice Duplessis. Effectivement, les points de comparaison n’ont jamais arrĂȘtĂ© de se multiplier: la prĂ©tention d’incarner la « nation Â», la posture farouchement anti-syndicale, la mĂ©fiance face Ă  l’immigration, le discours alarmiste (vous vous souvenez de la menace de la « louisianisation Â» du QuĂ©bec?), le favoritisme Ă©hontĂ©, le gaspillage de fonds publics au profit des amis du rĂ©gime, le nationalisme dĂ©fenseur et rĂ©actionnaire, la rĂ©sistance Ă  toute forme de changement


Pourtant, je considĂšre la comparaison injuste. Pour l’Union nationale. MalgrĂ© toutes les critiques (trĂšs justifiĂ©es) qu’on peut adresser au gouvernement de Maurice Duplessis, c’est aussi un gouvernement qui a bĂąti. Le CrĂ©dit agricole et l’électrification des campagnes ont permis la modernisation de l’agriculture quĂ©bĂ©coise, qui en avait bien besoin. Le rĂ©seau d’Hydro-QuĂ©bec a triplĂ© sa taille entre 1944 et 1960. L’UniversitĂ© Laval s’est dĂ©veloppĂ©e, l’UniversitĂ© de Sherbrooke a Ă©tĂ© fondĂ©e et les bases de l’UniversitĂ© du QuĂ©bec Ă  Trois-RiviĂšres ont Ă©tĂ© posĂ©es.

L’Union nationale a créé l’impĂŽt provincial, une mesure dĂ©terminante au niveau des relations fĂ©dĂ©ral – provincial. À lui seul, le gouvernement du QuĂ©bec venait mettre un frein Ă  l’offensive centralisatrice du gouvernement d’Ottawa. Soudainement, les provinces retrouvaient (partiellement) le contrĂŽle de leurs revenus, cĂ©dĂ©s au gouvernement fĂ©dĂ©ral depuis la Seconde Guerre mondiale. Encore plus remarquable: ce n’était pas une mesure populaire. MalgrĂ© toutes les tentatives de l’Union nationale de prĂ©senter l’impĂŽt provincial comme une mesure patriotique, le discours public adhĂ©rait Ă  l’argument de l’opposition libĂ©rale: un nouvel impĂŽt. Un nouvel impĂŽt, c’est un suicide Ă©lectoral. Ce n’est que grĂące Ă  une corruption historique que l’Union nationale a survĂ©cu aux Ă©lections de 1956. Il faudrait avoir l’esprit particuliĂšrement tordu pour prĂ©senter l’impĂŽt provincial comme une mesure Ă©lectoraliste.

Finalement, rappelons que Duplessis a laissĂ© le QuĂ©bec dans une santĂ© financiĂšre exceptionnelle. Si la RĂ©volution tranquille a Ă©tĂ© possible, c’est beaucoup grĂące Ă  la gestion de l’Union nationale. À moins d’un miracle, on se doute que le gouvernement qui succĂ©dera Ă  la CAQ n’hĂ©ritera pas d’une situation budgĂ©taire enviable. Le surplus du gouvernement Couillard (obtenu grĂące Ă  quatre annĂ©es d’austĂ©ritĂ©, rappelons-le) s’est transformĂ© en dĂ©ficit historique et ce n’est pas parce que la CAQ a rĂ©investi dans les services.

Quel hĂ©ritage la Coalition Avenir QuĂ©bec laissera-t-elle Ă  l’histoire?

  • On retiendra peut-ĂȘtre la gestion de la pandĂ©mie de COVID-19, bien que le plus grand succĂšs soit celui des relations publiques.
  • Les partisans d’une laĂŻcitĂ© hostile Ă  toute manifestation religieuse retiendront la loi 21 et les mesures subsĂ©quentes.
  • Les entreprises et les personnes assez riches pour utiliser le systĂšme de santĂ© privĂ©e et envoyer leurs enfants Ă  l’école privĂ©e peuvent honnĂȘtement dire que les politiques fiscales de la CAQ leur ont profitĂ©. En revanche, le CAQ lĂšgue des dĂ©ficits historiques qui vont plomber l’État quĂ©bĂ©cois pour plusieurs annĂ©es.
  • Certaines initiatives sont apprĂ©ciables, comme la crĂ©ation du Tribunal spĂ©cialisĂ© en matiĂšre de violence sexuelle et de violence conjugale ou le cours de CitoyennetĂ© et culture quĂ©bĂ©coise. Il est toutefois trop tĂŽt pour juger s’ils atteindront leurs objectifs.

En revanche, on retiendra certainement :

  • La sourde oreille aux revendications des enseignants, des infirmiĂšres et des Ă©ducatrices, qui dĂ©sertent leur profession.
  • Les dĂ©ficits et la dĂ©cote du QuĂ©bec par les agences de notation.
  • Le gaspillage de fonds publics dans SAAQClic, Northvolt, le mythique 3e lien et autres fantaisies.
  • L’abandon de la promesse de rĂ©forme du mode de scrutin, un bidon d’essence versĂ© sur les flammes du cynisme.
  • La mise en place des Centres de services scolaires, dont l’inefficacitĂ© a Ă©tĂ© dĂ©montrĂ©e par la crise de l’école Bedford.
  • Le sacrifice de l’intĂ©rĂȘt collectif au profit des intĂ©rĂȘts privĂ©s, en particulier au niveau environnemental (pensons Ă  la fonderie Horne et Ă  Stablex).
  • L’amplification de la crise du logement par des mesures qui favorisent les propriĂ©taires au dĂ©triment des locataires.
  • La loi 89 pour limiter le droit de grĂšve, ce qui couronne le bilan d’un gouvernement fĂ©rocement anti-syndical.
  • L’utilisation Ă©hontĂ©e de l’immigration, des musulmans et des minoritĂ©s de genre comme paravents et comme bouc Ă©missaires pour grappiller des votes et faire oublier les consĂ©quences de la mauvaise gestion gouvernementale.
  • Le rejet de la science au profit de l’électoralisme (gestion de la pandĂ©mie, 3e lien, comitĂ© de sages sur l’identitĂ© de genre, etc.)

Le prochain gouvernement mettra des annĂ©es (s’il le souhaite) Ă  simplement rĂ©parer les dommages infligĂ©s Ă  l’État quĂ©bĂ©cois et Ă  rebĂątir le lien de confiance avec la population. François Legault n’a aucune raison d’ĂȘtre fier de « son legs Â». Ses rĂ©alisations suffoquent sous les dĂ©combres de tout ce que son gouvernement a dĂ©truit.

La gestion de la COVID-19

Positif : Quand je demande aux gens de me citer un succĂšs de la CAQ, c’est celui qui revient le plus souvent. Il est vrai que certains dossiers ont Ă©tĂ© bien menĂ©s, en particulier celui de la vaccination. Le plus grand succĂšs a probablement Ă©tĂ© celui des relations publiques. François Legault, Christian DubĂ© et Horacio Arruda ont fait du bon travail pour nous rassurer dans une pĂ©riode de grande inquiĂ©tude et d’incertitude.

NĂ©gatif : Tout le reste. La gestion de la pandĂ©mie par le gouvernement caquiste a Ă©tĂ© un grand numĂ©ro d’improvisation guidĂ© par l’électoralisme et les intĂ©rĂȘts du milieu des affaires. La nĂ©gligence du gouvernement a conduit Ă  l’hĂ©catombe dans les CHSLD. Des mesures sorties de nulle part comme le couvre-feu et un refus bornĂ© de mesures recommandĂ©es par la science comme les Ă©changeurs d’air dans les Ă©coles. Pour une liste dĂ©taillĂ©e des Ă©checs et des ratĂ©s sur ce plan, on lira l’ouvrage collectif Traitements-chocs et tartelettes : Bilan critique de la gestion de la COVID-19 au QuĂ©bec de Josiane Cossette et Julien Simard.

La loi 21

Positif : C’est le deuxiĂšme point qui revient le plus souvent. Pour bien des nationalistes et plusieurs militants en faveur d’une laĂŻcitĂ© stricte, la Loi sur la laĂŻcitĂ© de l’État (adoptĂ©e sur division, sous bĂąillon et aprĂšs avoir entendu un minimum d’intervenants, rappelons-le) est devenue un symbole de notre affirmation nationale. Les personnes qui me connaissent savent que je n’en fais pas partie.

NĂ©gatif : Qu’on soit d’accord ou non avec le principe, je pense qu’on peut s’entendre que la loi n’a pas atteint ses objectifs. La CAQ prĂ©tendait mettre fin au dĂ©bat sur la laĂŻcitĂ©. Six ans plus tard, la discussion est toujours aussi acrimonieuse. La saga de l’école Bedford a bien montrĂ© qu’interdire le port de signes religieux ostentatoires n’assurait pas une Ă©ducation laĂŻque, loin s’en faut. L’interdiction du port de signes religieux par les enseignants continue Ă  diviser. C’était Ă  prĂ©voir, surtout quand on se souvient la façon dont le premier ministre Legault nous avait prĂ©sentĂ© la mesure : « Au QuĂ©bec, c’est comme ça qu’on vit. Â» Quel meilleur moyen de tracer la ligne entre le « nous Â» et le « eux Â» ?

Famille

Positif : C’est le domaine sur lequel le gouvernement semble avoir rĂ©alisĂ© le meilleur bilan.

  • Retour du tarif unique pour les garderies en 2019 (le gouvernement libĂ©ral de Philippe Couillard avais mis en place des tarifs modulables en fonction du revenu des parents).
  • Mesures encourageant le partage du congĂ© parental (4 semaines supplĂ©mentaires au total si les deux parents prennent au moins 10 semaines chacun).
  • RĂ©forme du droit de la famille.
  • CrĂ©ation du patrimoine familial pour les conjoints de fait avec enfants. CrĂ©ation du rĂ©gime d’union parentale.
  • CrĂ©ation du SupplĂ©ment pour enfant handicapĂ© nĂ©cessitĂ© des soins (SEHNSE).

NĂ©gatif : Le gouvernement se fait tirer l’oreille pour amĂ©liorer les salaires dĂ©risoires et les conditions de travail des Ă©ducatrices en garderie alors qu’elles dĂ©sertent leur profession et qu’il n’y a pas de relĂšve.

Finances

Positif : Avec les baisses d’impĂŽts, le « bouclier anti-inflation Â» (les fameux chĂšques de 400$ Ă  600$ envoyĂ©s en 2022, annĂ©e Ă©lectorale) et la baisse de la taxe scolaire, on peut objectivement dire que les QuĂ©bĂ©cois ont « plus d’argent dans leurs poches Â».

NĂ©gatif : DĂ©ficits historiques. DĂ©cote du QuĂ©bec par les agences de notation. La rĂ©duction de la taxe scolaire a considĂ©rablement diminuĂ© l’autonomie financiĂšre des Ă©coles. Gaspillage de quelques 700 millions de dollars dans les dĂ©passements de coĂ»ts de SAAQClic. Le prochain gouvernement va hĂ©riter d’un triste contexte budgĂ©taire.

Racisme

Positif : La CAQ est le premier gouvernement Ă  avoir confiĂ© Ă  un ministre la responsabilitĂ© de la lutte contre le racisme.

NĂ©gatif : Le gouvernement rejette le concept de racisme systĂ©mique pourtant mis en lumiĂšre par la Commission d’enquĂȘte sur les relations entre les Autochtones et certains services publics au QuĂ©bec (commission Viens). Il est prĂȘt Ă  aller jusqu’en Cour suprĂȘme pour dĂ©fendre les interpellations « alĂ©atoires Â» par les policiers bien qu’il ait Ă©tĂ© dĂ©montrĂ© Ă  maintes reprises que celles-ci visent les minoritĂ©s visibles de façon disproportionnĂ©e.

Refus de reconnaßtre le principe de Joyce (autrement dit de reconnaßtre les particularités des nations et cultures autochtones). Refus de reconnaßtre la souveraineté politique des nations autochtones (démontré de maniÚre éloquente avec le nouveau régime forestier).

Loin de lutter contre le racisme, le gouvernement le nourrit en pointant du doigt l’immigration pour pratiquement tous les problĂšmes du QuĂ©bec, que ceux-ci aient des causes plus profondes ou qu’ils aient carrĂ©ment Ă©tĂ© causĂ©s par l’inaction de nos dirigeants. On relĂšvera Ă©galement la fĂącheuse tendance Ă  utiliser les enjeux de laĂŻcitĂ© comme paravent, au risque de stigmatisĂ© des communautĂ©s dĂ©jĂ  marginalisĂ©es.

Immigration

Positif : Pour les employeurs, le bilan du premier mandat Legault a Ă©tĂ© trĂšs positif. Pour les personnes qui voulaient travailler ou migrer au QuĂ©bec Ă©galement. AprĂšs une diminution temporaire de 20% de l’immigration permanente en 2019,  le gouvernement est revenu aux chiffres du gouvernement Couillard pour les dĂ©passer en 2022. L’ironie, c’est que ce gouvernement qui a battu des records en matiĂšre d’immigration lors de son premier mandat nous dit aujourd’hui que tous nos problĂšmes sont causĂ©s par une trop forte immigration.

NĂ©gatif : Restriction des critĂšres d’admission au Programme de l’ExpĂ©rience quĂ©bĂ©coise (programme qui facilite l’obtention de la rĂ©sidence permanente pour les Ă©tudiants Ă©trangers). Les dĂ©marches pour les regroupements familiaux sont labyrinthiques et les dĂ©lais sont de 36 mois (en comparaison de 10 mois dans d’autres provinces canadiennes). Fermeture des classes de francisation.

Santé

Positif : Retour du programme d’accĂšs Ă  la fĂ©condation in vitro. StratĂ©gie pour Ă©liminer progressivement le recours aux agences de placement.

NĂ©gatif : C’était la crise en 2018 et c’est toujours la crise en 2025. On rĂ©alisera peut-ĂȘtre dans 20 ans que la crĂ©ation de l’agence SantĂ© QuĂ©bec Ă©tait la meilleure dĂ©cision des derniĂšres dĂ©cennies, mais pour l’instant, les rĂ©sultats se font attendre. Bras de fer avec les mĂ©decins. Sourde oreille aux demandes des infirmiĂšres Ă  qui on exige toujours davantage de « mobilitĂ© Â» et de « flexibilitĂ© Â» malgrĂ© le fait qu’elles dĂ©sertent leur profession.

Éducation

Positif : Pour les gens qui dĂ©testaient le cours d’éthique et culture religieuse, sa disparition est Ă©videmment considĂ©rer comme un pas dans la bonne direction. Le cours de Culture et citoyennetĂ© quĂ©bĂ©coise (CCQ) peut ĂȘtre considĂ©rĂ© comme une bonne innovation malgrĂ© ses critiques qui le considĂšrent « woke Â».

NĂ©gatif : On ne peut pas dire que remplacer les commissions scolaires francophones par les centres de services scolaires ait Ă©tĂ© bĂ©nĂ©fique. La CAQ prĂ©tendait vouloir dĂ©centraliser la gouvernance scolaire, mais on n’a jamais eu un ministre de l’Éducation aussi omniprĂ©sent dans la prise de dĂ©cisions que Bernard Drainville. Ce qui est arrivĂ© Ă  Bedford a illustrĂ© les nombreuses failles de notre modĂšle de gestion des Ă©coles. Et rien n’indique qu’on se dirige vers une solution Ă  la pĂ©nurie d’enseignants, malgrĂ© les critĂšres qui sont sans cesse revus Ă  la baisse (on se souvient de la promesse du « un adulte dans chaque classe Â»).

Enseignement supérieur

Positif : La loi sur la libertĂ© acadĂ©mique.

NĂ©gatif : Ironiquement, ingĂ©rences de la ministre de l’Enseignement supĂ©rieur pour dĂ©fendre les intĂ©rĂȘts de l’État d’IsraĂ«l et empĂȘcher les discussions sur le gĂ©nocide Ă  Gaza.

Diversité de genre et sexuelle

Positif : Le nouveau cours Culture et citoyennetĂ© quĂ©bĂ©coise prĂ©sente la diversitĂ© de genre aux Ă©lĂšves, s’attaque aux prĂ©jugĂ©s et distingue les notions de sexe et de genre.

NĂ©gatif : Le comitĂ© de sages sur l’identitĂ© de genre qui ne contenait aucune personne trans et dont le rapport ne peut que nourrir le discours dĂ©favorable aux femmes trans.

Le développement économique

Le fiasco Northvolt risque d’éclipser tout le positif, s’il y en a. 240 millions de dollars pour l’achat du terrain Ă  Luc Poirier et Ă  ses amis (terrain achetĂ© 20 millions en 2015, rappelons-le). 270 millions pour le financement des activitĂ©s prĂ©liminaires.

Transports

Positif : Le budget pour l’entretien des infrastructures routiĂšres est un des rares domaines qui n’a pas eu Ă  se plaindre de coupures. Les deux tiers des investissements en transport au QuĂ©bec sont dirigĂ©s vers le rĂ©seau routier (Ă  l’inverse de l’Ontario, oĂč les deux tiers sont consacrĂ©s au transport en commun).

NĂ©gatif : Politique entiĂšrement dĂ©vouĂ©e Ă  l’auto solo. RĂ©duction du financement des sociĂ©tĂ©s de transport en commun. Sous-financement des programmes d’entretien des infrastructures de transport collectif. Les chantiers du REM de l’Est et du tramway de QuĂ©bec sont retardĂ©s depuis des annĂ©es. La ministre GeneviĂšve Guilbault promet de faire en sorte que le prochain gouvernement ne puisse pas annuler le projet pharaonique du troisiĂšme lien QuĂ©bec – LĂ©vis, dont le coĂ»t est Ă©valuĂ© Ă  une dizaine de milliards par les Ă©valuations les plus conservatrices, et dont personne n’a jamais su dĂ©montrer la nĂ©cessitĂ©.

Environnement

Positif : Interdiction des voitures Ă  essence Ă  partir de 2035 (d’abord annoncĂ©e pour 2030). Depuis 2022, il est interdit sur tout le territoire quĂ©bĂ©cois de rechercher et de produire des hydrocarbures. Un grand pas vers la transition Ă©nergĂ©tique et pour la protection de notre territoire. Depuis, François Legault s’est dit ouvert Ă  la construction d’un olĂ©oduc sur la CĂŽte-Nord. Ce point positif pourrait donc possiblement disparaĂźtre.

Politique nationale d’architecture et d’amĂ©nagement du territoire : Modernisation bien nĂ©cessaire des pratiques (la derniĂšre loi datait de 1990). On tient compte ici des zones inondables, de la densification des quartiers, de la protection des milieux humides, de la mise en valeur des milieux naturels et des terres agricoles et on prend en compte les changements climatiques.

NĂ©gatif : Le ministĂšre de l’Environnement devrait ĂȘtre rebaptisĂ© ministĂšre de la Pollution, parce que c’est ce Ă  quoi il a Ă©tĂ© rĂ©duit: distribuer des permis de polluer. Donner aux entreprises la permission de ne pas respecter les lois environnementales. Glencore et Stablex sont particuliĂšrement satisfaites du bon travail de BenoĂźt Charette. La premiĂšre a convaincu le gouvernement d’élever le seuil acceptable d’émissions d’arsenic pour la fonderie Horne et de nickel pour le port de QuĂ©bec. La deuxiĂšme a reçu le droit de dĂ©truire des milieux naturels sur le territoire de Blainville pour permettre l’enfouissement de dĂ©chets dangereux. De maniĂšre gĂ©nĂ©rale, le ministĂšre de l’Environnement a montrĂ© Ă  chaque occasion que les intĂ©rĂȘts de l’entreprise privĂ©e primaient sur tout.

Politique

Positif : Abolition du serment Ă  la couronne pour la dĂ©putation.

NĂ©gatif : Abandon de la promesse de rĂ©former le mode de scrutin.

Justice

Positif : Le tribunal spĂ©cialisĂ© en matiĂšre de violence conjugale et sexuelle.

NĂ©gatif : Poursuites abandonnĂ©es Ă  cause du sous-financement de la Justice (349 dossiers abandonnĂ©s entre septembre 2023 et avril 2025). ProcĂšs annulĂ©s parce que les victimes abandonnent le processus ou parce que les dĂ©lais sont dĂ©passĂ©s. Peines bonbon pour Ă©viter l’annulation de procĂšs.

Culture et patrimoine

Positif : Augmentation du financement annuel du Conseil des arts et des lettres du QuĂ©bec. CrĂ©ation du MusĂ©e national de l’histoire du QuĂ©bec. Projet nĂ© dans la controverse, mais qui est porteur d’espoir pour certains.

NĂ©gatif : Les espaces bleus, projet mort nĂ©. Les Conseils rĂ©gionaux de la culture crient famine. Coupure des fonds pour la prĂ©servation des Ă©glises.

Habitation

Positif : Le programme d’Allocation-logement, aide financiĂšre accordĂ©e aux personnes dont une trop grande part du revenu est consacrĂ©e au logement, est passĂ©e de 80$ (montant qui n’avait jamais augmentĂ© depuis sa crĂ©ation dans les annĂ©es 1990) Ă  150$. TrĂšs bien. Mais soyons honnĂȘtes, cette augmentation de 70$ par mois n’a rien Ă  voir avec les hausses de loyer depuis 2018. Bonification de la loi Françoise David pour protĂ©ger les locataires aĂźnĂ©s contre les Ă©victions. Certaines rĂ©gions ont Ă©tĂ© ENFIN connectĂ©es Ă  internet haute vitesse grĂące au soutien financier du gouvernement.

NĂ©gatif : La crise du logement Ă©tait dĂ©jĂ  en cours Ă  l’arrivĂ©e au pouvoir de la CAQ et rien n’a Ă©tĂ© fait pour y mettre un terme. Au contraire, ce gouvernement a tout fait pour favoriser les intĂ©rĂȘts des propriĂ©taires au dĂ©triment des locataires. RĂ©forme des mĂ©canismes de cession de bail. Nouveau calcul pour le taux d’augmentation des loyers qui encourage des augmentations encore plus Ă©levĂ©es. Coupure dans le programme RĂ©noRĂ©gion (subvention Ă  la rĂ©novation pour les propriĂ©taires Ă  faible revenu). Coupure dans les programmes pour adapter les rĂ©sidences aux situations de handicap.

Travail

Positif : Loi sur le travail des enfants (interdiction avant 14 ans et limitation des heures pendant la pĂ©riode scolaire).

NĂ©gatif : François Legault n’a jamais cachĂ© son biais anti-syndicats. Les syndicats de la fonction publique doivent se battre continuellement pour obtenir des augmentations proportionnelles Ă  l’inflation. Le fait que les Ă©ducatrices, les infirmiĂšres et les enseignants quittent leur profession n’affecte aucunement la volontĂ© du gouvernement d’amĂ©liorer les conditions de travail. Quant au secteur privĂ©, la CAQ a fait tout son possible pour rĂ©duire le pouvoir de nĂ©gociation des syndicats. La loi 89, qui vient limiter le droit de grĂšve, rejoindra probablement les lois Duplessis parmi les lois les plus anti-syndicales de l’histoire du QuĂ©bec.

Le pire gouvernement de l’histoire?

Cliquer ici pour le bilan détaillé.

Dans les derniĂšres annĂ©es, j’ai souvent entendu dire que le gouvernement Trudeau Ă©tait le pire de l’histoire du Canada. Une affirmation qui m’a toujours fait lever les yeux au ciel. Parce que je sais que dans 99.9% des cas, si je demande de comparer Justin Trudeau Ă  Arthur Meighen ou Ă  R. B. Bennett, je n’aurai aucune rĂ©ponse.

J’ai aussi souvent entendu dire que le gouvernement Legault Ă©tait le pire de l’histoire du QuĂ©bec. LĂ , je l’avoue, j’ai plus de difficultĂ© Ă  rĂ©pondre. Pas parce que je crois que les gens rĂ©pĂ©tant cette affirmation pourraient comparer François Legault Ă  John Jones Ross ou Ă  Simon-NapolĂ©on Parent, mais parce que j’aurais de la difficultĂ© Ă  relativiser.

Depuis 2018, on a souvent comparĂ© la CAQ de François Legault Ă  l’Union nationale de Maurice Duplessis. Effectivement, les points de comparaison n’ont jamais arrĂȘtĂ© de se multiplier: la prĂ©tention d’incarner la “nation”, la posture farouchement anti-syndicale, la mĂ©fiance face Ă  l’immigration, le discours alarmiste (vous vous souvenez de la menace de la « louisianisation Â» du QuĂ©bec?), le favoritisme Ă©hontĂ©, le gaspillage de fonds publics au profit des amis du rĂ©gime, le nationalisme dĂ©fenseur et rĂ©actionnaire, la rĂ©sistance Ă  toute forme de changement


Pourtant, je considĂšre la comparaison injuste. Pour l’Union nationale. MalgrĂ© toutes les critiques (trĂšs justifiĂ©es) qu’on peut adresser au gouvernement de Maurice Duplessis, c’est aussi un gouvernement qui a bĂąti. Le CrĂ©dit agricole et l’électrification des campagnes ont permis la modernisation de l’agriculture quĂ©bĂ©coise, qui en avait bien besoin. Le rĂ©seau d’Hydro-QuĂ©bec a triplĂ© sa taille entre 1944 et 1960. L’UniversitĂ© Laval s’est dĂ©veloppĂ©e, l’UniversitĂ© de Sherbrooke a Ă©tĂ© fondĂ©e et les bases de l’UniversitĂ© du QuĂ©bec Ă  Trois-RiviĂšres ont Ă©tĂ© posĂ©es.

L’Union nationale a créé l’impĂŽt provincial, une mesure dĂ©terminante au niveau des relations fĂ©dĂ©ral – provincial. À lui seul, le gouvernement du QuĂ©bec venait mettre un frein Ă  l’offensive centralisatrice du gouvernement d’Ottawa. Soudainement, les provinces retrouvaient (partiellement) le contrĂŽle de leurs revenus, cĂ©dĂ©s au gouvernement fĂ©dĂ©ral depuis la Seconde Guerre mondiale. Encore plus remarquable: ce n’était pas une mesure populaire. MalgrĂ© toutes les tentatives de l’Union nationale de prĂ©senter l’impĂŽt provincial comme une mesure patriotique, le discours public adhĂ©rait Ă  l’argument de l’opposition libĂ©rale: un nouvel impĂŽt. Un nouvel impĂŽt, c’est un suicide Ă©lectoral. Ce n’est que grĂące Ă  une corruption historique que l’Union nationale a survĂ©cu aux Ă©lections de 1956. Il faudrait avoir l’esprit particuliĂšrement tordu pour prĂ©senter l’impĂŽt provincial comme une mesure Ă©lectoraliste.

Finalement, rappelons que Duplessis a laissĂ© le QuĂ©bec dans une santĂ© financiĂšre exceptionnelle. Si la RĂ©volution tranquille a Ă©tĂ© possible, c’est beaucoup grĂące Ă  la gestion de l’Union nationale. À moins d’un miracle, on se doute que le gouvernement qui succĂ©dera Ă  la CAQ n’hĂ©ritera pas d’une situation budgĂ©taire enviable. Le surplus du gouvernement Couillard (obtenu grĂące Ă  quatre annĂ©es d’austĂ©ritĂ©, rappelons-le) s’est transformĂ© en dĂ©ficit historique et ce n’est pas parce que la CAQ a rĂ©investi dans les services.

Quel hĂ©ritage la Coalition Avenir QuĂ©bec laissera-t-elle Ă  l’histoire?

  • On retiendra peut-ĂȘtre la gestion de la pandĂ©mie de COVID-19, bien que le plus grand succĂšs soit celui des relations publiques.
  • Les partisans d’une laĂŻcitĂ© hostile Ă  toute manifestation religieuse retiendront la loi 21 et les mesures subsĂ©quentes.
  • Les entreprises et les personnes assez riches pour utiliser le systĂšme de santĂ© privĂ©e et envoyer leurs enfants Ă  l’école privĂ©e peuvent honnĂȘtement dire que les politiques fiscales de la CAQ leur ont profitĂ©. En revanche, le CAQ lĂšgue des dĂ©ficits historiques qui vont plomber l’État quĂ©bĂ©cois pour plusieurs annĂ©es.
  • Certaines initiatives sont apprĂ©ciables, comme la crĂ©ation du Tribunal spĂ©cialisĂ© en matiĂšre de violence sexuelle et de violence conjugale ou le cours de CitoyennetĂ© et culture quĂ©bĂ©coise. Il est toutefois trop tĂŽt pour juger s’ils atteindront leurs objectifs.

En revanche, on retiendra certainement :

  • La sourde oreille aux revendications des enseignants, des infirmiĂšres et des Ă©ducatrices, qui dĂ©sertent leur profession.
  • Les dĂ©ficits et la dĂ©cote du QuĂ©bec par les agences de notation.
  • Le gaspillage de fonds publics dans SAAQClic, Northvolt, le mythique 3e lien et autres fantaisies.
  • L’abandon de la promesse de rĂ©forme du mode de scrutin, un bidon d’essence versĂ© sur les flammes du cynisme.
  • La mise en place des Centres de services scolaires, dont l’inefficacitĂ© a Ă©tĂ© dĂ©montrĂ©e par la crise de l’école Bedford.
  • Le sacrifice de l’intĂ©rĂȘt collectif au profit des intĂ©rĂȘts privĂ©s, en particulier au niveau environnemental (pensons Ă  la fonderie Horne et Ă  Stablex).
  • L’amplification de la crise du logement par des mesures qui favorisent les propriĂ©taires au dĂ©triment des locataires.
  • La loi 89 pour limiter le droit de grĂšve, ce qui couronne le bilan d’un gouvernement fĂ©rocement anti-syndical.
  • L’utilisation Ă©hontĂ©e de l’immigration, des musulmans et des minoritĂ©s de genre comme paravents et comme bouc Ă©missaires pour grappiller des votes et faire oublier les consĂ©quences de la mauvaise gestion gouvernementale.
  • Le rejet de la science au profit de l’électoralisme (gestion de la pandĂ©mie, 3e lien, comitĂ© de sages sur l’identitĂ© de genre, etc.)

Le prochain gouvernement mettra des annĂ©es (s’il le souhaite) Ă  simplement rĂ©parer les dommages infligĂ©s Ă  l’État quĂ©bĂ©cois et Ă  rebĂątir le lien de confiance avec la population. François Legault n’a aucune raison d’ĂȘtre fier de « son legs Â». Ses rĂ©alisations suffoquent sous les dĂ©combres de tout ce que son gouvernement a dĂ©truit.

La gestion de la COVID-19

Positif : Quand je demande aux gens de me citer un succĂšs de la CAQ, c’est celui qui revient le plus souvent. Il est vrai que certains dossiers ont Ă©tĂ© bien menĂ©s, en particulier celui de la vaccination. Le plus grand succĂšs a probablement Ă©tĂ© celui des relations publiques. François Legault, Christian DubĂ© et Horacio Arruda ont fait du bon travail pour nous rassurer dans une pĂ©riode de grande inquiĂ©tude et d’incertitude.

NĂ©gatif : Tout le reste. La gestion de la pandĂ©mie par le gouvernement caquiste a Ă©tĂ© un grand numĂ©ro d’improvisation guidĂ© par l’électoralisme et les intĂ©rĂȘts du milieu des affaires. La nĂ©gligence du gouvernement a conduit Ă  l’hĂ©catombe dans les CHSLD. Des mesures sorties de nulle part comme le couvre-feu et un refus bornĂ© de mesures recommandĂ©es par la science comme les Ă©changeurs d’air dans les Ă©coles. Pour une liste dĂ©taillĂ©e des Ă©checs et des ratĂ©s sur ce plan, on lira l’ouvrage collectif Traitements-chocs et tartelettes : Bilan critique de la gestion de la COVID-19 au QuĂ©bec de Josiane Cossette et Julien Simard.

La loi 21

Positif : C’est le deuxiĂšme point qui revient le plus souvent. Pour bien des nationalistes et plusieurs militants en faveur d’une laĂŻcitĂ© stricte, la Loi sur la laĂŻcitĂ© de l’État (adoptĂ©e sur division, sous bĂąillon et aprĂšs avoir entendu un minimum d’intervenants, rappelons-le) est devenue un symbole de notre affirmation nationale. Les personnes qui me connaissent savent que je n’en fais pas partie.

NĂ©gatif : Qu’on soit d’accord ou non avec le principe, je pense qu’on peut s’entendre que la loi n’a pas atteint ses objectifs. La CAQ prĂ©tendait mettre fin au dĂ©bat sur la laĂŻcitĂ©. Six ans plus tard, la discussion est toujours aussi acrimonieuse. La saga de l’école Bedford a bien montrĂ© qu’interdire le port de signes religieux ostentatoires n’assurait pas une Ă©ducation laĂŻque, loin s’en faut. L’interdiction du port de signes religieux par les enseignants continue Ă  diviser. C’était Ă  prĂ©voir, surtout quand on se souvient la façon dont le premier ministre Legault nous avait prĂ©sentĂ© la mesure : « Au QuĂ©bec, c’est comme ça qu’on vit. Â» Quel meilleur moyen de tracer la ligne entre le « nous Â» et le « eux Â» ?

Famille

Positif : C’est le domaine sur lequel le gouvernement semble avoir rĂ©alisĂ© le meilleur bilan.

  • Retour du tarif unique pour les garderies en 2019 (le gouvernement libĂ©ral de Philippe Couillard avais mis en place des tarifs modulables en fonction du revenu des parents).
  • Mesures encourageant le partage du congĂ© parental (4 semaines supplĂ©mentaires au total si les deux parents prennent au moins 10 semaines chacun).
  • RĂ©forme du droit de la famille.
  • CrĂ©ation du patrimoine familial pour les conjoints de fait avec enfants. CrĂ©ation du rĂ©gime d’union parentale.
  • CrĂ©ation du SupplĂ©ment pour enfant handicapĂ© nĂ©cessitĂ© des soins (SEHNSE).

NĂ©gatif : Le gouvernement se fait tirer l’oreille pour amĂ©liorer les salaires dĂ©risoires et les conditions de travail des Ă©ducatrices en garderie alors qu’elles dĂ©sertent leur profession et qu’il n’y a pas de relĂšve.

Finances

Positif : Avec les baisses d’impĂŽts, le « bouclier anti-inflation Â» (les fameux chĂšques de 400$ Ă  600$ envoyĂ©s en 2022, annĂ©e Ă©lectorale) et la baisse de la taxe scolaire, on peut objectivement dire que les QuĂ©bĂ©cois ont « plus d’argent dans leurs poches Â».

NĂ©gatif : DĂ©ficits historiques. DĂ©cote du QuĂ©bec par les agences de notation. La rĂ©duction de la taxe scolaire a considĂ©rablement diminuĂ© l’autonomie financiĂšre des Ă©coles. Gaspillage de quelques 700 millions de dollars dans les dĂ©passements de coĂ»ts de SAAQClic. Le prochain gouvernement va hĂ©riter d’un triste contexte budgĂ©taire.

Racisme

Positif : La CAQ est le premier gouvernement Ă  avoir confiĂ© Ă  un ministre la responsabilitĂ© de la lutte contre le racisme.

NĂ©gatif : Le gouvernement rejette le concept de racisme systĂ©mique pourtant mis en lumiĂšre par la Commission d’enquĂȘte sur les relations entre les Autochtones et certains services publics au QuĂ©bec (commission Viens). Il est prĂȘt Ă  aller jusqu’en Cour suprĂȘme pour dĂ©fendre les interpellations « alĂ©atoires Â» par les policiers bien qu’il ait Ă©tĂ© dĂ©montrĂ© Ă  maintes reprises que celles-ci visent les minoritĂ©s visibles de façon disproportionnĂ©e.

Refus de reconnaßtre le principe de Joyce (autrement dit de reconnaßtre les particularités des nations et cultures autochtones). Refus de reconnaßtre la souveraineté politique des nations autochtones (démontré de maniÚre éloquente avec le nouveau régime forestier).

Loin de lutter contre le racisme, le gouvernement le nourrit en pointant du doigt l’immigration pour pratiquement tous les problĂšmes du QuĂ©bec, que ceux-ci aient des causes plus profondes ou qu’ils aient carrĂ©ment Ă©tĂ© causĂ©s par l’inaction de nos dirigeants. On relĂšvera Ă©galement la fĂącheuse tendance Ă  utiliser les enjeux de laĂŻcitĂ© comme paravent, au risque de stigmatisĂ© des communautĂ©s dĂ©jĂ  marginalisĂ©es.

Immigration

Positif : Pour les employeurs, le bilan du premier mandat Legault a Ă©tĂ© trĂšs positif. Pour les personnes qui voulaient travailler ou migrer au QuĂ©bec Ă©galement. AprĂšs une diminution temporaire de 20% de l’immigration permanente en 2019,  le gouvernement est revenu aux chiffres du gouvernement Couillard pour les dĂ©passer en 2022. L’ironie, c’est que ce gouvernement qui a battu des records en matiĂšre d’immigration lors de son premier mandat nous dit aujourd’hui que tous nos problĂšmes sont causĂ©s par une trop forte immigration.

NĂ©gatif : Restriction des critĂšres d’admission au Programme de l’ExpĂ©rience quĂ©bĂ©coise (programme qui facilite l’obtention de la rĂ©sidence permanente pour les Ă©tudiants Ă©trangers). Les dĂ©marches pour les regroupements familiaux sont labyrinthiques et les dĂ©lais sont de 36 mois (en comparaison de 10 mois dans d’autres provinces canadiennes). Fermeture des classes de francisation.

Santé

Positif : Retour du programme d’accĂšs Ă  la fĂ©condation in vitro. StratĂ©gie pour Ă©liminer progressivement le recours aux agences de placement.

NĂ©gatif : C’était la crise en 2018 et c’est toujours la crise en 2025. On rĂ©alisera peut-ĂȘtre dans 20 ans que la crĂ©ation de l’agence SantĂ© QuĂ©bec Ă©tait la meilleure dĂ©cision des derniĂšres dĂ©cennies, mais pour l’instant, les rĂ©sultats se font attendre. Bras de fer avec les mĂ©decins. Sourde oreille aux demandes des infirmiĂšres Ă  qui on exige toujours davantage de « mobilitĂ© Â» et de « flexibilitĂ© Â» malgrĂ© le fait qu’elles dĂ©sertent leur profession.

Éducation

Positif : Pour les gens qui dĂ©testaient le cours d’éthique et culture religieuse, sa disparition est Ă©videmment considĂ©rer comme un pas dans la bonne direction. Le cours de Culture et citoyennetĂ© quĂ©bĂ©coise (CCQ) peut ĂȘtre considĂ©rĂ© comme une bonne innovation malgrĂ© ses critiques qui le considĂšrent « woke Â».

NĂ©gatif : On ne peut pas dire que remplacer les commissions scolaires francophones par les centres de services scolaires ait Ă©tĂ© bĂ©nĂ©fique. La CAQ prĂ©tendait vouloir dĂ©centraliser la gouvernance scolaire, mais on n’a jamais eu un ministre de l’Éducation aussi omniprĂ©sent dans la prise de dĂ©cisions que Bernard Drainville. Ce qui est arrivĂ© Ă  Bedford a illustrĂ© les nombreuses failles de notre modĂšle de gestion des Ă©coles. Et rien n’indique qu’on se dirige vers une solution Ă  la pĂ©nurie d’enseignants, malgrĂ© les critĂšres qui sont sans cesse revus Ă  la baisse (on se souvient de la promesse du « un adulte dans chaque classe Â»).

Enseignement supérieur

Positif : La loi sur la libertĂ© acadĂ©mique.

NĂ©gatif : Ironiquement, ingĂ©rences de la ministre de l’Enseignement supĂ©rieur pour dĂ©fendre les intĂ©rĂȘts de l’État d’IsraĂ«l et empĂȘcher les discussions sur le gĂ©nocide Ă  Gaza.

Diversité de genre et sexuelle

Positif : Le nouveau cours Culture et citoyennetĂ© quĂ©bĂ©coise prĂ©sente la diversitĂ© de genre aux Ă©lĂšves, s’attaque aux prĂ©jugĂ©s et distingue les notions de sexe et de genre.

NĂ©gatif : Le comitĂ© de sages sur l’identitĂ© de genre qui ne contenait aucune personne trans et dont le rapport ne peut que nourrir le discours dĂ©favorable aux femmes trans.

Le développement économique

Le fiasco Northvolt risque d’éclipser tout le positif, s’il y en a. 240 millions de dollars pour l’achat du terrain Ă  Luc Poirier et Ă  ses amis (terrain achetĂ© 20 millions en 2015, rappelons-le). 270 millions pour le financement des activitĂ©s prĂ©liminaires.

Transports

Positif : Le budget pour l’entretien des infrastructures routiĂšres est un des rares domaines qui n’a pas eu Ă  se plaindre de coupures. Les deux tiers des investissements en transport au QuĂ©bec sont dirigĂ©s vers le rĂ©seau routier (Ă  l’inverse de l’Ontario, oĂč les deux tiers sont consacrĂ©s au transport en commun).

NĂ©gatif : Politique entiĂšrement dĂ©vouĂ©e Ă  l’auto solo. RĂ©duction du financement des sociĂ©tĂ©s de transport en commun. Sous-financement des programmes d’entretien des infrastructures de transport collectif. Les chantiers du REM de l’Est et du tramway de QuĂ©bec sont retardĂ©s depuis des annĂ©es. La ministre GeneviĂšve Guilbault promet de faire en sorte que le prochain gouvernement ne puisse pas annuler le projet pharaonique du troisiĂšme lien QuĂ©bec – LĂ©vis, dont le coĂ»t est Ă©valuĂ© Ă  une dizaine de milliards par les Ă©valuations les plus conservatrices, et dont personne n’a jamais su dĂ©montrer la nĂ©cessitĂ©.

Environnement

Positif : Interdiction des voitures Ă  essence Ă  partir de 2035 (d’abord annoncĂ©e pour 2030). Depuis 2022, il est interdit sur tout le territoire quĂ©bĂ©cois de rechercher et de produire des hydrocarbures. Un grand pas vers la transition Ă©nergĂ©tique et pour la protection de notre territoire. Depuis, François Legault s’est dit ouvert Ă  la construction d’un olĂ©oduc sur la CĂŽte-Nord. Ce point positif pourrait donc possiblement disparaĂźtre.

Politique nationale d’architecture et d’amĂ©nagement du territoire : Modernisation bien nĂ©cessaire des pratiques (la derniĂšre loi datait de 1990). On tient compte ici des zones inondables, de la densification des quartiers, de la protection des milieux humides, de la mise en valeur des milieux naturels et des terres agricoles et on prend en compte les changements climatiques.

NĂ©gatif : Le ministĂšre de l’Environnement devrait ĂȘtre rebaptisĂ© ministĂšre de la Pollution, parce que c’est ce Ă  quoi il a Ă©tĂ© rĂ©duit: distribuer des permis de polluer. Donner aux entreprises la permission de ne pas respecter les lois environnementales. Glencore et Stablex sont particuliĂšrement satisfaites du bon travail de BenoĂźt Charette. La premiĂšre a convaincu le gouvernement d’élever le seuil acceptable d’émissions d’arsenic pour la fonderie Horne et de nickel pour le port de QuĂ©bec. La deuxiĂšme a reçu le droit de dĂ©truire des milieux naturels sur le territoire de Blainville pour permettre l’enfouissement de dĂ©chets dangereux. De maniĂšre gĂ©nĂ©rale, le ministĂšre de l’Environnement a montrĂ© Ă  chaque occasion que les intĂ©rĂȘts de l’entreprise privĂ©e primaient sur tout.

Politique

Positif : Abolition du serment Ă  la couronne pour la dĂ©putation.

NĂ©gatif : Abandon de la promesse de rĂ©former le mode de scrutin.

Justice

Positif : Le tribunal spĂ©cialisĂ© en matiĂšre de violence conjugale et sexuelle.

NĂ©gatif : Poursuites abandonnĂ©es Ă  cause du sous-financement de la Justice (349 dossiers abandonnĂ©s entre septembre 2023 et avril 2025). ProcĂšs annulĂ©s parce que les victimes abandonnent le processus ou parce que les dĂ©lais sont dĂ©passĂ©s. Peines bonbon pour Ă©viter l’annulation de procĂšs.

Culture et patrimoine

Positif : Augmentation du financement annuel du Conseil des arts et des lettres du QuĂ©bec. CrĂ©ation du MusĂ©e national de l’histoire du QuĂ©bec. Projet nĂ© dans la controverse, mais qui est porteur d’espoir pour certains.

NĂ©gatif : Les espaces bleus, projet mort nĂ©. Les Conseils rĂ©gionaux de la culture crient famine. Coupure des fonds pour la prĂ©servation des Ă©glises.

Habitation

Positif : Le programme d’Allocation-logement, aide financiĂšre accordĂ©e aux personnes dont une trop grande part du revenu est consacrĂ©e au logement, est passĂ©e de 80$ (montant qui n’avait jamais augmentĂ© depuis sa crĂ©ation dans les annĂ©es 1990) Ă  150$. TrĂšs bien. Mais soyons honnĂȘtes, cette augmentation de 70$ par mois n’a rien Ă  voir avec les hausses de loyer depuis 2018. Bonification de la loi Françoise David pour protĂ©ger les locataires aĂźnĂ©s contre les Ă©victions. Certaines rĂ©gions ont Ă©tĂ© ENFIN connectĂ©es Ă  internet haute vitesse grĂące au soutien financier du gouvernement.

NĂ©gatif : La crise du logement Ă©tait dĂ©jĂ  en cours Ă  l’arrivĂ©e au pouvoir de la CAQ et rien n’a Ă©tĂ© fait pour y mettre un terme. Au contraire, ce gouvernement a tout fait pour favoriser les intĂ©rĂȘts des propriĂ©taires au dĂ©triment des locataires. RĂ©forme des mĂ©canismes de cession de bail. Nouveau calcul pour le taux d’augmentation des loyers qui encourage des augmentations encore plus Ă©levĂ©es. Coupure dans le programme RĂ©noRĂ©gion (subvention Ă  la rĂ©novation pour les propriĂ©taires Ă  faible revenu). Coupure dans les programmes pour adapter les rĂ©sidences aux situations de handicap.

Travail

Positif : Loi sur le travail des enfants (interdiction avant 14 ans et limitation des heures pendant la pĂ©riode scolaire).

NĂ©gatif : François Legault n’a jamais cachĂ© son biais anti-syndicats. Les syndicats de la fonction publique doivent se battre continuellement pour obtenir des augmentations proportionnelles Ă  l’inflation. Le fait que les Ă©ducatrices, les infirmiĂšres et les enseignants quittent leur profession n’affecte aucunement la volontĂ© du gouvernement d’amĂ©liorer les conditions de travail. Quant au secteur privĂ©, la CAQ a fait tout son possible pour rĂ©duire le pouvoir de nĂ©gociation des syndicats. La loi 89, qui vient limiter le droit de grĂšve, rejoindra probablement les lois Duplessis parmi les lois les plus anti-syndicales de l’histoire du QuĂ©bec.

Renverser le pouvoir artificiel

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie Ă  un avenir Ă©conomique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systĂšmes plus obscurs pour ceux qu’ils affectent, dĂ©valorise notre savoir-faire, compromet notre sĂ©curitĂ© et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre Ă  nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA dĂ©fendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques gĂ©ants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irrĂ©flĂ©chi d’OpenAI, liĂ© au monopole de Microsoft et au modĂšle Ă©conomique de l’économie technologique, est bĂ©nĂ©fique Ă  la sociĂ©tĂ©â€

“L’avĂšnement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutĂŽt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancrĂ© dans la perpĂ©tuation des intĂ©rĂȘts des entreprises qui ont bĂ©nĂ©ficiĂ© du laxisme rĂ©glementaire et des faibles taux d’intĂ©rĂȘt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du dĂ©mantĂšlement des gouvernements au pillage des donnĂ©es, de la dĂ©valorisation du travail pour le rendre compatible Ă  l’IA, Ă  la rĂ©orientation des infrastructures Ă©nergĂ©tiques en passant par le saccage de l’information et de la dĂ©mocratie
 l’avĂšnement de l’IA exige le dĂ©mantĂšlement de nos infrastructures sociales, politiques et Ă©conomiques au profit des entreprises de l’IA. L’IA remet au goĂ»t du jour des stratĂ©gies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du dĂ©veloppement de leurs empires. 

Mais pourquoi la sociĂ©tĂ© accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut ĂȘtre perturbĂ©, notamment parce qu’il est plus fragile qu’il n’y paraĂźt. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coĂ»t de l’IA Ă  grande Ă©chelle va ĂȘtre trĂšs Ă©levĂ© au risque qu’une bulle d’investissement ne finisse par Ă©clater. L’affirmation de la rĂ©volution de l’IA gĂ©nĂ©rative, elle, contraste avec la grande banalitĂ© de ses intĂ©grations et les difficultĂ©s qu’elle engendre : de la publicitĂ© automatisĂ©e chez Meta, Ă  la production de code via Copilot (au dĂ©triment des compĂ©tences des dĂ©veloppeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intĂ©gration automatique de fonctionnalitĂ©s IA
 tout en laissant les clients se dĂ©brouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliquĂ©s en contexte rĂ©el les systĂšmes d’IA Ă©chouent profondĂ©ment mĂȘme sur des tĂąches Ă©lĂ©mentaires, rappellent les auteurs du rapport : les fonctionnalitĂ©s de l’IA relĂšvent souvent d’illusions sur leur efficacitĂ©, masquant bien plus leurs dĂ©faillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est dĂ©ployĂ©e par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilitĂ© de se retirer ou de demander rĂ©paration en cas d’erreur.

L’IA : un outil dĂ©faillant au service de ceux qui la dĂ©ploie

Pour l’AI Now Institute, les avantages de l’IA sont Ă  la fois surestimĂ©s et sous-estimĂ©s, des traitements contre le cancer Ă  une hypothĂ©tique croissance Ă©conomique, tandis que certains de ses dĂ©fauts sont rĂ©els, immĂ©diats et se rĂ©pandent. Le solutionnisme de l’IA occulte les problĂšmes systĂ©miques auxquels nos Ă©conomies sont confrontĂ©es, occultant la concentration Ă©conomique Ă  l’oeuvre et servant de canal pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous prĂ©texte d’efficacitĂ©, Ă  l’image du trĂšs problĂ©matique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont Ă©tĂ© investis dans des solutions d’IA dĂ©faillantes. “Le mythe de la productivitĂ© occulte une vĂ©ritĂ© fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillĂ©s, rĂ©duisant l’autonomie au lieu de l’accroĂźtre”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procĂ©dures rĂ©guliĂšres Ă  l’image de l’essor dĂ©bridĂ© de l’utilisation de l’IA dans le contrĂŽle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des donnĂ©es ainsi que celui sur l’IA gĂ©nĂ©rative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux dĂ©faillances de l’IA. Pour les thurifĂ©raires de l’IA, celle-ci est appelĂ©e Ă  guĂ©rir tous nos maux, permettant Ă  la fois de transformer la science, la logistique, l’éducation
 Mais, si les gĂ©ants de la tech veulent que l’IA soit accessible Ă  tous, alors l’IA devrait pouvoir bĂ©nĂ©ficier Ă  tous. C’est loin d’ĂȘtre le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, Ă  terme, Ă  guĂ©rir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en amĂ©liorant le dĂ©pistage, la dĂ©tection et le diagnostic. Il est probable cependant que loin d’ĂȘtre une rĂ©volution, les amĂ©liorations soient bien plus incrĂ©mentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothĂšse selon laquelle ces avancĂ©es scientifiques nĂ©cessitent la croissance effrĂ©nĂ©e des hyperscalers du secteur de l’IA. Or, c’est prĂ©cisĂ©ment le lien que ces dirigeants d’entreprise tentent d’établir. « Le prĂ©texte que l’IA pourrait rĂ©volutionner la santĂ© sert Ă  promouvoir la dĂ©rĂ©glementation de l’IA pour dynamiser son dĂ©veloppement Â». Les perspectives scientifiques montĂ©es en promesses inĂ©luctables sont utilisĂ©es pour abattre les rĂ©sistances Ă  discuter des enjeux de l’IA et des transformations qu’elle produit sur la sociĂ©tĂ© toute entiĂšre.

Or, dans le rĂ©gime des dĂ©faillances de l’IA, bien peu de leurs promesses relĂšvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un rĂ©gime de “vĂ©ritude” comme s’en moque l’humoriste Stephen Colbert, c’est-Ă -dire sur des recherches qui ne sont pas validĂ©es par les pairs, Ă  l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmiĂšres elles-mĂȘmes
 Une affirmation qui ne reposait que sur une Ă©tude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA gĂ©nĂ©rative. En l’absence de benchmarks indĂ©pendants et largement reconnus pour mesurer des attributs clĂ©s tels que la prĂ©cision ou la qualitĂ© des rĂ©ponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent Ă  la fois le produit et les plateformes de validation des benchmarks au mĂȘme client. Par exemple, Scale AI dĂ©tient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modĂšles d’IA destinĂ©s au dĂ©ploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira Ă  Ă©valuer la prĂ©cision des modĂšles d’IA destinĂ©s aux agences de dĂ©fense. Fournir la solution et son Ă©valuation est effectivement bien plus simple. 

Autre dĂ©faillance systĂ©mique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la dĂ©mocratisation de l’accĂšs aux cours. Il n’en a rien Ă©tĂ©. DĂ©sormais, le technosolutionnisme promet la dĂ©mocratisation par l’IA gĂ©nĂ©rative via des offres dĂ©diĂ©es comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalitĂ© mĂȘme de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptĂ©e par des administrateurs, sans discussion ni implication des concernĂ©s. A l’universitĂ©, les administrateurs achĂštent des solutions non Ă©prouvĂ©es et non testĂ©es pour des sommes considĂ©rables afin de supplanter les technologies existantes gĂ©rĂ©es par les services technologiques universitaires. MĂȘme constat dans ses dĂ©ploiements au travail, oĂč les pĂ©nuries de main d’Ɠuvre sont souvent Ă©voquĂ©es comme une raison pour dĂ©velopper l’IA, alors que le problĂšme n’est pas tant la pĂ©nurie que le manque de protection ou le rĂ©gime austĂ©ritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au dĂ©triment des travailleurs et des bĂ©nĂ©ficiaires. L’IA sert souvent de vecteur pour le dĂ©ploiement de mesures d’austĂ©ritĂ© sous un autre nom. Les systĂšmes d’IA appliquĂ©s aux personnes Ă  faibles revenus n’amĂ©liorent presque jamais l’accĂšs aux prestations sociales ou Ă  d’autres opportunitĂ©s, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohĂ©rent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les dĂ©faillances du Doge (que nous avons nous-mĂȘmes documentĂ©s). Cela n’empĂȘche pourtant pas le solutionnisme de prospĂ©rer. L’objectif du chatbot newyorkais par exemple, “n’est peut-ĂȘtre pas, en rĂ©alitĂ©, de servir les citoyens, mais plutĂŽt d’encourager et de centraliser l’accĂšs aux donnĂ©es des citoyens ; de privatiser et d’externaliser les tĂąches gouvernementales ; et de consolider le pouvoir des entreprises sans mĂ©canismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, trĂšs opposĂ© au projet.

Le mythe de la productivitĂ© enfin, que rĂ©pĂštent et anĂŽnnent les dĂ©veloppeurs d’IA, nous fait oublier que les bĂ©nĂ©fices de l’IA vont bien plus leur profiter Ă  eux qu’au public. « La productivitĂ© est un euphĂ©misme pour dĂ©signer la relation Ă©conomique mutuellement bĂ©nĂ©fique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariĂ©s. Non seulement les salariĂ©s ne bĂ©nĂ©ficient pas des gains de productivitĂ© liĂ©s Ă  l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bĂ©nĂ©ficie pas aux salariĂ©s, mais dĂ©grade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivitĂ© individuels et collectifs. Les entreprises utilisent la logique des gains de productivitĂ© de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivitĂ© des entreprises mĂšnera inĂ©vitablement Ă  une prospĂ©ritĂ© partagĂ©e est profondĂ©ment erronĂ©e. Par le passĂ©, lorsque l’automatisation a permis des gains de productivitĂ© et des salaires plus Ă©levĂ©s, ce n’était pas grĂące aux capacitĂ©s intrinsĂšques de la technologie, mais parce que les politiques des entreprises et les rĂ©glementations Ă©taient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrĂšs (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgrĂ© les craintes de pertes d’emplois, les politiques fĂ©dĂ©rales et le renforcement du mouvement ouvrier ont protĂ©gĂ© les intĂ©rĂȘts des travailleurs et exigĂ© des salaires plus Ă©levĂ©s pour les ouvriers utilisant les nouvelles machines. Les entreprises ont Ă  leur tour mis en place des politiques pour fidĂ©liser les travailleurs, comme la redistribution des bĂ©nĂ©fices et la formation, afin de rĂ©duire les turbulences et Ă©viter les grĂšves. « MalgrĂ© l’automatisation croissante pendant cette pĂ©riode, la part des travailleurs dans le revenu national est restĂ©e stable, les salaires moyens ont augmentĂ© et la demande de travailleurs a augmentĂ©. Ces gains ont Ă©tĂ© annulĂ©s par les politiques de l’ùre Reagan, qui ont donnĂ© la prioritĂ© aux intĂ©rĂȘts des actionnaires, utilisĂ© les menaces commerciales pour dĂ©prĂ©cier les normes du travail et les normes rĂ©glementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquĂ©rir une domination du marchĂ© et un contrĂŽle sur des ressources clĂ©s. L’industrie de l’IA est un produit dĂ©cisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires Ă  la baisse. D’innombrables pratiques sont mobilisĂ©es pour isoler les salariĂ©s et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tĂąches routiniĂšres est devenue un point central du dĂ©veloppement de produits, mĂȘme si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opĂ©rer. Enfin, nous interagissons de plus en plus frĂ©quemment avec des technologies d’IA utilisĂ©es non pas par nous, mais sur nous, qui façonnent notre accĂšs aux ressources dans des domaines allant de la finance Ă  l’embauche en passant par le logement, et ce au dĂ©triment de la transparence et au dĂ©triment de la possibilitĂ© mĂȘme de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libĂ©rer. Par exemple, l’intĂ©gration de l’IA dans les agences chargĂ©es de l’immigration, malgrĂ© l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondĂ©ment contournĂ©s, comme le montrait le rapport sur la dĂ©portation automatisĂ©e aux Etats-Unis du collectif de dĂ©fense des droits des latino-amĂ©ricains, Mijente. Les Services de citoyennetĂ© et d’immigration des États-Unis (USCIS) utilisent des outils prĂ©dictifs pour automatiser leurs prises de dĂ©cision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de dĂ©terminer celles qui sont frauduleuses. Ces outils ont dĂ©montrĂ©, entre autres dĂ©fauts, des taux Ă©levĂ©s d’erreurs de classification lorsqu’ils sont utilisĂ©s sur des personnes dont l’anglais n’est pas la langue maternelle. Les consĂ©quences d’une identification erronĂ©e de fraude sont importantes : elles peuvent entraĂźner l’expulsion, l’interdiction Ă  vie du territoire amĂ©ricain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernĂ©es par ces systĂšmes est plus que limitĂ©e, sans possibilitĂ© de se dĂ©sinscrire ou de demander rĂ©paration lorsqu’ils sont utilisĂ©s pour prendre des dĂ©cisions erronĂ©es, et, tout aussi important, peu de preuves attestent que l’efficacitĂ© de ces outils a Ă©tĂ©, ou peut ĂȘtre, amĂ©liorĂ©e »

MalgrĂ© la lĂ©galitĂ© douteuse et les failles connues de nombre de ces systĂšmes que le rapport documente, l’intĂ©gration de l’IA dans les contrĂŽles d’immigration ne semble vouĂ©e qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivitĂ© qui masque non seulement un racisme et une xĂ©nophobie flagrants, mais aussi la forte pression politique exercĂ©e sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fĂ©dĂ©rales de mener des contrĂŽles d’immigration de maniĂšre profondĂ©ment et de plus en plus opaque, ce qui complique encore davantage la tĂąche des personnes susceptibles d’ĂȘtre arrĂȘtĂ©es ou accusĂ©es Ă  tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais mĂȘme une fois connus, nous disposons de trĂšs peu d’informations sur leur Ă©talonnage ou sur les donnĂ©es sur lesquelles ils sont basĂ©s, ce qui rĂ©duit encore davantage la capacitĂ© des individus Ă  faire valoir leurs droits Ă  une procĂ©dure rĂ©guliĂšre. Ces outils s’appuient Ă©galement sur une surveillance invasive du public, allant du filtrage des publications sur les rĂ©seaux sociaux Ă  l’utilisation de la reconnaissance faciale, de la surveillance aĂ©rienne et d’autres techniques de surveillance, Ă  l’achat massif d’informations publiques auprĂšs de courtiers en donnĂ©es ». Nous sommes Ă  la fois confrontĂ©s Ă  des systĂšmes coercitifs et opaques, fonciĂšrement dĂ©faillants. Mais ces dĂ©faillances se dĂ©ploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La derniĂšre partie du rapport de l’AI Now Institute tente de dĂ©ployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrĂšs”, expliquent les auteurs qui invitent Ă  “reprendre le contrĂŽle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport prĂ©sente 5 leviers pour reprendre du pouvoir sur l’IA

DĂ©montrer que l’IA agit contre les intĂ©rĂȘts des individus et de la sociĂ©tĂ©

Le premier objectif, pour reprendre la main, consiste Ă  mieux dĂ©montrer que l’industrie de l’IA agit contre les intĂ©rĂȘts des citoyens ordinaires. Mais ce discours est encore peu partagĂ©, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux dĂ©connectĂ©s des rĂ©alitĂ©s matĂ©rielles des individus. Pour l’AI Now Institute, “nous devons donner la prioritĂ© aux enjeux politiques ancrĂ©s dans le vĂ©cu des citoyens avec l’IA”, montrer les systĂšmes d’IA comme des infrastructures invisibles qui rĂ©gissent les vies de chacun. En cela, la rĂ©sistance au dĂ©mantĂšlement des agences publiques initiĂ©e par les politiques du Doge a justement permis d’ouvrir un front de rĂ©sistance. La rĂ©sistance et l’indignation face aux coupes budgĂ©taires et Ă  l’accaparement des donnĂ©es a permis de montrer qu’amĂ©liorer l’efficacitĂ© des services n’était pas son objectif, que celui-ci a toujours Ă©tĂ© de dĂ©manteler les services gouvernementaux et centraliser le pouvoir. La dĂ©gradation des services sociaux et la privation des droits est un moyen de remobilisation Ă  exploiter.

La construction des data centers pour l’IA est Ă©galement un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, Ă  l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le dĂ©veloppements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de fĂ©vrier qui invitait Ă  l’interdiction pure et simple de la surveillance individualisĂ©e des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste Ă  faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intĂ©ressent sĂ©rieusement Ă  la maniĂšre dont l’IA transforme la nature du travail et s’engagent rĂ©solument par le biais de nĂ©gociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la maniĂšre dont leurs employeurs dĂ©veloppent et dĂ©ploient ces technologies. Les campagnes syndicales visant Ă  contester l’utilisation de l’IA gĂ©nĂ©rative Ă  Hollywood, les mobilisations pour dĂ©noncer la gestion algorithmique des employĂ©s des entrepĂŽts de la logistique et des plateformes de covoiturage et de livraison ont jouĂ© un rĂŽle essentiel dans la sensibilisation du public Ă  l’impact de l’IA et des technologies de donnĂ©es sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepĂŽts ou celles des chauffeurs menĂ©es par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la prĂ©caritĂ© organisĂ©e par les plateformes
 Pour cela, il faut Ă  la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre Ă  l’image de ce qu’à accompli le syndicat des infirmiĂšres qui a montrĂ© que le dĂ©ploiement de l’IA affaiblit le jugement clinique des infirmiĂšres et menace la sĂ©curitĂ© des patients. Cette lutte a donnĂ© lieu Ă  une « DĂ©claration des droits des infirmiĂšres et des patients », un ensemble de principes directeurs visant Ă  garantir une application juste et sĂ»re de l’IA dans les Ă©tablissements de santĂ©. Les infirmiĂšres ont stoppĂ© le dĂ©ploiement d’EPIC Acuity, un systĂšme qui sous-estimait l’état de santĂ© des patients et le nombre d’infirmiĂšres nĂ©cessaires, et ont contraint l’entreprise qui dĂ©ployait le systĂšme Ă  crĂ©er un comitĂ© de surveillance pour sa mise en Ɠuvre. 

Une autre tactique consiste Ă  contester le dĂ©ploiement d’IA austĂ©ritaires dans le secteur public Ă  l’image du rĂ©seau syndicaliste fĂ©dĂ©ral, qui mĂšne une campagne pour sauver les services fĂ©dĂ©raux et met en lumiĂšre l’impact des coupes budgĂ©taires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le dĂ©ploiement de solutions d’IA gĂ©nĂ©ratives dans les services publics. 

Une autre tactique consiste Ă  mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le dĂ©mantĂšlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services Ă  la police, les questions Ă©cologiques liĂ©es au dĂ©ploiement des plateformes logistiques ainsi que l’impact des systĂšmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de dĂ©fense de la vie privĂ©e Ă  celles Ɠuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisĂ©es sur ces enjeux. Mais Ă©galement de l’étendre Ă  l’ensemble de la chaĂźne de valeur et d’approvisionnement de l’IA, au-delĂ  des questions amĂ©ricaines, mĂȘme si pour l’instant “aucune tentative sĂ©rieuse d’organisation du secteur impactĂ© par le dĂ©ploiement de l’IA Ă  grande Ă©chelle n’a Ă©tĂ© menĂ©e”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les diffĂ©rences de traitement entre les employĂ©s et les travailleurs contractuels). 

Nous avons dĂ©sespĂ©rĂ©ment besoin de projets de lutte plus ambitieux et mieux dotĂ©s en ressources, constate le rapport. Les personnes qui construisent et forment les systĂšmes d’IA – et qui, par consĂ©quent, les connaissent intimement – ​​ont une opportunitĂ© particuliĂšre d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la maniĂšre dont ces systĂšmes sont utilisĂ©s. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siĂšcle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numĂ©riques au service de l’intĂ©rĂȘt public et oblige le pouvoir irresponsable d’aujourd’hui Ă  rendre des comptes.”

Confiance zĂ©ro envers les entreprises de l’IA !

Le troisiĂšme levier que dĂ©fend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zĂ©ro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient dĂ©jĂ  “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour Ă©tablir ce programme, le rapport Ă©graine 6 leviers Ă  activer.

Tout d’abord, le rapport plaide pour “des rĂšgles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de dĂ©terminer si, dans quels contextes et comment, les systĂšmes d’IA seront utilisĂ©s. “ComparĂ©es aux cadres reposant sur des garanties basĂ©es sur les processus (comme les audits d’IA ou les rĂ©gimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance Ă  renforcer les pouvoirs des leaders du secteur et Ă  s’appuyer sur une solide capacitĂ© rĂ©glementaire pour une application efficace, ces rĂšgles claires prĂ©sentent l’avantage d’ĂȘtre facilement administrables et de cibler les prĂ©judices qui ne peuvent ĂȘtre ni Ă©vitĂ©s ni rĂ©parĂ©s par de simples garanties”. Pour l’AI Now Institute, l’IA doit ĂȘtre interdite pour la reconnaissance des Ă©motions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, gĂ©nĂ©rer des deepfakes. Et les donnĂ©es de surveillance des travailleurs ne doivent pas pouvoir pas ĂȘtre vendues Ă  des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de rĂ©glementer tout le cycle de vie de l’IA. L’IA doit ĂȘtre rĂ©glementĂ©e tout au long de son cycle de dĂ©veloppement, de la collecte des donnĂ©es au dĂ©ploiement, en passant par le processus de formation, le perfectionnement et le dĂ©veloppement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une rĂ©glementation efficace, la rĂ©sistante des entreprises est forte, tout le long des dĂ©veloppements, des donnĂ©es d’entraĂźnement utilisĂ©es, aux fonctionnement des applications. La transparence et l’explication devraient ĂȘtre proactives, suggĂšre le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les dĂ©veloppeurs documentent et rendent publiques leurs techniques d’attĂ©nuation des risques, et que le rĂ©gulateur exige la divulgation de tout risque anticipĂ© qu’ils ne sont pas en mesure d’attĂ©nuer, afin que cela soit transparent pour les autres acteurs de la chaĂźne d’approvisionnement”. Le rapport recommande Ă©galement d’inscrire un « droit de dĂ©rogation » aux dĂ©cisions et l’obligation d’intĂ©grer des conseils d’usagers pour qu’ils aient leur mot Ă  dire sur les dĂ©veloppements et l’utilisation des systĂšmes. 

Le rapport rappelle Ă©galement que la supervision des dĂ©veloppements doit ĂȘtre indĂ©pendante. Ce n’est pas Ă  l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intĂ©rĂȘts en jeu et mobilisent des mĂ©thodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les donnĂ©es acquises illĂ©galement et les modĂšles entraĂźnĂ©s sur ces donnĂ©es (certains chercheurs parlent d’effacement de modĂšles et de destruction algorithmique !) ; limiter la conservation des donnĂ©es pour le rĂ©entraĂźnement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose Ă©galement de construire une boĂźte Ă  outils pour favoriser la concurrence. De nombreuses enquĂȘtes pointent les limites des grandes entreprises de la tech Ă  assurer le respect du droit Ă  la concurrence, mais les poursuites peinent Ă  s’appliquer et peinent Ă  construire des changements lĂ©gislatifs pour renforcer le droit Ă  la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marchĂ© est toujours dĂ©noncĂ© par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande sĂ©paration structurelle des activitĂ©s (les entreprises du cloud ne doivent pas pouvoir participer au marchĂ© des modĂšles fondamentaux de l’IA par exemple, interdiction des reprĂ©sentations croisĂ©es dans les conseils d’administration des startups et des dĂ©veloppeurs de modĂšles, etc.). Interdire aux fournisseurs de cloud d’exploiter les donnĂ©es qu’ils obtiennent de leurs clients en hĂ©bergeant des infrastructures pour dĂ©velopper des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du dĂ©veloppement et de l’exploitation des centres de donnĂ©es, alors que les entreprises qui les dĂ©veloppent se voient exonĂ©rĂ©es de charge et que leurs riverains en subissent des impacts disproportionnĂ©s (concurrence sur les ressources, augmentation des tarifs de l’électricité ). Les communautĂ©s touchĂ©es ont besoin de mĂ©canismes de transparence et de protections environnementales solides. Les rĂ©gulateurs devraient plafonner les subventions en fonction des protections concĂ©dĂ©es et des emplois créés. Initier des rĂšgles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problĂšme qu’il faut lever. C’est le cas notamment de l’obsession Ă  la sĂ©curitĂ© nationale qui justifient Ă  la fois des mesures de rĂ©gulation et des programmes d’accĂ©lĂ©ration et d’expansion du secteur et des infrastructures de l’IA. Mais pour dĂ©cloisonner, il faut surtout venir perturber le processus de surveillance Ă  l’Ɠuvre et renforcer la vie privĂ©e comme un enjeu de justice Ă©conomique. La montĂ©e de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privĂ©e (tels que le consentement, les options de retrait, les finalitĂ©s non autorisĂ©es et la minimisation des donnĂ©es) au cƓur de la mise en place de conditions Ă©conomiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les donnĂ©es des travailleurs devraient ĂȘtre considĂ©rĂ©es comme du « capital capturĂ© » par les entreprises : leurs donnĂ©es sont  utilisĂ©es pour former des technologies qui finiront par les remplacer (ou crĂ©er les conditions pour rĂ©duire leurs salaires), ou vendues au plus offrant via un rĂ©seau croissant de courtiers en donnĂ©es, sans contrĂŽle ni compensation. Des travailleurs ubĂ©risĂ©s aux travailleurs du clic, l’exploitation des donnĂ©es nĂ©cessite de repositionner la protection de la vie privĂ©e des travailleurs au cƓur du programme de justice Ă©conomique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent ĂȘtre “la cible appropriĂ©e de la rĂ©sistance”, car ils seront instrumentalisĂ©s contre les intĂ©rĂȘts des travailleurs. Sur le plan rĂ©glementaire, cela pourrait impliquer de privilĂ©gier des rĂšgles de minimisation des donnĂ©es qui restreignent la collecte et l’utilisation des donnĂ©es, renforcer la confidentialitĂ© (par exemple en interdisant le partage de donnĂ©es sur les salariĂ©s avec des tiers), le droit Ă  ne pas consentir, etc. Renforcer la minimisation, sĂ©curiser les donnĂ©es gouvernementales sur les individus qui sont de haute qualitĂ© et particuliĂšrement sensibles, est plus urgent que jamais. 

“Nous devons nous rĂ©approprier l’agenda positif de l’innovation centrĂ©e sur le public, et l’IA ne devrait pas en ĂȘtre le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public alors que l’espace de solutions alternatives se rĂ©duit. Nous devons rejeter le paradigme d’une IA Ă  grande Ă©chelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt public, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique Ă  l’achat de solutions privĂ©es, mais dĂ©veloppe ses propres capacitĂ©s d’IA, rĂ©investisse sa capacitĂ© d’expertise pour ne pas cĂ©der au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des mĂ©thodes d’implication des publics et aussi en Ă©largissant l’intĂ©rĂȘt de l’Etat Ă  celui de l’intĂ©rĂȘt collectif et pas seulement Ă  ses intĂ©rĂȘts propres (par exemple en conditionnant Ă  la promotion des objectifs climatiques, au soutien syndical et citoyen
), ainsi qu’à redĂ©finir les conditions concrĂštes du financement public de l’IA, en veillant Ă  ce que les investissements rĂ©pondent aux besoins des communautĂ©s plutĂŽt qu’aux intĂ©rĂȘts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait ĂȘtre centrĂ©e sur les besoins des publics et que l’IA ne devrait pas en ĂȘtre le centre. Le dĂ©veloppement de l’IA devrait ĂȘtre guidĂ© par des impĂ©ratifs non marchands et les capitaux publics et philanthropiques devraient contribuer Ă  la crĂ©ation d’un Ă©cosystĂšme d’innovation extĂ©rieur Ă  l’industrie, comme l’ont rĂ©clamĂ© Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania
  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sĂ©curitĂ© nationale et de compĂ©titivitĂ©, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axĂ©e sur le marchĂ©, est prĂ©judiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas Ă  relever le dĂ©fi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA Ă  grande Ă©chelle est nĂ©cessaire pour lutter contre les asymĂ©tries d’information et de pouvoir inhĂ©rentes Ă  l’IA. C’est la partie cachĂ©e qu’il faut exprimer haut et fort. C’est la rĂ©alitĂ© Ă  laquelle nous devons faire face si nous voulons rassembler la volontĂ© et la crĂ©ativitĂ© nĂ©cessaires pour façonner la situation diffĂ©remment Â». Un rapport du National AI Research Resource (NAIRR) amĂ©ricain de 2021, d’une commission indĂ©pendante prĂ©sidĂ©e par l’ancien PDG de Google, Eric Schmidt, et composĂ©e de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulĂ© le risque : « la consolidation du secteur de l’IA menace la compĂ©titivitĂ© technologique des États-Unis. Â» Et la commission proposait de crĂ©er des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le dĂ©bat sur des trajectoires alternatives pour l’IA, structurellement plus alignĂ©es sur l’intĂ©rĂȘt gĂ©nĂ©ral, et garantir que tout financement public dans ce domaine soit conditionnĂ© Ă  des objectifs d’intĂ©rĂȘt gĂ©nĂ©ral Â». Un projet de loi californien a rĂ©cemment relancĂ© une proposition de cluster informatique public, hĂ©bergĂ© au sein du systĂšme de l’UniversitĂ© de Californie, appelĂ© CalCompute. L’État de New York a lancĂ© une initiative appelĂ©e Empire AI visant Ă  construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privĂ©s. Ces deux initiatives crĂ©ent des espaces de plaidoyer importants pour garantir que leurs ressources rĂ©pondent aux besoins des communautĂ©s et ne servent pas Ă  enrichir davantage les ressources des gĂ©ants de la technologie.

Et le rapport de se conclure en appelant Ă  dĂ©fendre l’IA publique, en soutenant les universitĂ©s, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes dĂ©favorisĂ©s disposent d’une autoritĂ© dans ces projets. Nous devons cultiver une communautĂ© de pratique autour de l’innovation d’intĂ©rĂȘt gĂ©nĂ©ral. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent dĂ©jĂ  dans des projets politiques, qui peinent Ă  s’interelier et Ă  se structurer. Des luttes qui sont souvent invisibilisĂ©es, tant la parole est toute entiĂšre donnĂ©e aux promoteurs de l’IA. Le rapport est extrĂȘmement riche et rassemble une documentation Ă  nulle autre pareille. 

« L’IA ne nous promet ni de nous libĂ©rer du cycle incessant de guerres, des pandĂ©mies et des crises environnementales et financiĂšres qui caractĂ©risent notre prĂ©sent Â», conclut le rapport  L’IA ne crĂ©e rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun Ă  l’IA rend cet avenir plus difficile Ă  rĂ©aliser, car cela nous enferme dans une voie rĂ©solument sombre, nous privant non seulement de la capacitĂ© de choisir quoi construire et comment le construire, mais nous privant Ă©galement de la joie que nous pourrions Ă©prouver Ă  construire un avenir diffĂ©rent”. L’IA comme seule perspective d’avenir “nous Ă©loigne encore davantage d’une vie digne, oĂč nous aurions l’autonomie de prendre nos propres dĂ©cisions et oĂč des structures dĂ©mocratiquement responsables rĂ©partiraient le pouvoir et les infrastructures technologiques de maniĂšre robuste, responsable et protĂ©gĂ©e des chocs systĂ©miques”. L’IA ne fait que consolider et amplifier les asymĂ©tries de pouvoir existantes. “Elle naturalise l’inĂ©galitĂ© et le mĂ©rite comme une fatalitĂ©, ​tout en rendant les schĂ©mas et jugements sous-jacents qui les façonnent impĂ©nĂ©trables pour ceux qui sont affectĂ©s par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA Ă  grande Ă©chelle. Nous ne devons pas oublier que l’opinion publique s’oppose rĂ©solument au pouvoir bien Ă©tabli des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concĂšdent les chercheurs de l’AI Now Institute. Cela ne les empĂȘche pas de faire des propositions, comme d’adopter un programme politique de « confiance zĂ©ro » pour l’IA. Adopter un programme politique fondĂ© sur des rĂšgles claires qui restreignent les utilisations les plus nĂ©fastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crĂ©e et exploite actuellement l’IA ne soit pas laissĂ©e Ă  elle-mĂȘme pour s’autorĂ©guler et s’autoĂ©valuer. Repenser les leviers traditionnels de la confidentialitĂ© des donnĂ©es comme outils clĂ©s dans la lutte contre l’automatisation et la lutte contre le pouvoir de marchĂ©.

Revendiquer un programme positif d’innovation centrĂ©e sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succĂšs n’est pas inĂ©luctable. En nous libĂ©rant de l’idĂ©e que l’IA Ă  grande Ă©chelle est inĂ©vitable, nous pouvons retrouver l’espace nĂ©cessaire Ă  une vĂ©ritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouvernĂ© par notre volontĂ© collective Â».

La trajectoire actuelle de l’IA vers sa suprĂ©matie ne nous mĂšnera pas au monde que nous voulons. Sa suprĂ©matie n’est pourtant pas encore lĂ . “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir oĂč l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir oĂč l’IA favoriserait des salaires justes et dĂ©cents, au lieu de les dĂ©prĂ©cier ; oĂč l’IA garantirait aux travailleurs le contrĂŽle de l’impact des nouvelles technologies sur leur carriĂšre, au lieu de saper leur expertise et leur connaissance de leur propre travail ; oĂč nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois Ă©largissant le filet de sĂ©curitĂ© sociale – au lieu de promoteurs de l’IA qui se vantent auprĂšs des actionnaires des Ă©conomies rĂ©alisĂ©es grĂące Ă  l’automatisation ; oĂč des prestations sociales et des politiques de congĂ©s solides garantissent le bien-ĂȘtre Ă  long terme des employĂ©s, au lieu que l’IA soit utilisĂ©e pour surveiller et exploiter les travailleurs Ă  tout va ; oĂč l’IA contribue Ă  protĂ©ger les employĂ©s des risques pour la santĂ© et la sĂ©curitĂ© au travail, au lieu de perpĂ©tuer des conditions de travail dangereuses et de fĂ©liciter les employeurs qui exploitent les failles du marchĂ© du travail pour se soustraire Ă  leurs responsabilitĂ©s ; et oĂč l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliĂ©nation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospĂ©ritĂ© partagĂ©e, et ce n’est pas la direction que prennent les empires de l’IA. La prolifĂ©ration de toute nouvelle technologie a le potentiel d’accroĂźtre les opportunitĂ©s Ă©conomiques et de conduire Ă  une prospĂ©ritĂ© partagĂ©e gĂ©nĂ©ralisĂ©e. Mais cette prospĂ©ritĂ© partagĂ©e est incompatible avec la trajectoire actuelle de l’IA, qui vise Ă  maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mĂšnera Ă  la « productivitĂ© » pour tous, alors qu’il s’agit en rĂ©alitĂ© de la productivitĂ© d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif Ă©conomique. MĂȘme les politiques gouvernementales bien intentionnĂ©es, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinĂ©es Ă  revitaliser l’industrie de la fabrication de puces Ă©lectroniques ont Ă©tĂ© contrecarrĂ©es par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou Ă  la crĂ©ation d’emplois. Et malgrĂ© quelques initiatives significatives pour enquĂȘter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrĂŽlĂ©es, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de dĂ©manteler les grandes entreprises, de restructurer la structure de financement financĂ©e par le capital-risque afin que davantage d’entreprises puissent prospĂ©rer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dĂ©pendent pas des grandes entreprises privĂ©es, et d’accroĂźtre les investissements institutionnels pour intĂ©grer une plus grande diversitĂ© de personnes – et donc d’idĂ©es – au sein de la main-d’Ɠuvre technologique.”

“Nous mĂ©ritons un avenir technologique qui soutienne des valeurs et des institutions dĂ©mocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protĂšgent les intĂ©rĂȘts du public contre l’oligarchie. Cela nĂ©cessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrĂŽler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

Pour lutter contre la désinformation, il faut reconstruire du social

L’Institut Nicod publie un court et trĂšs stimulant rapport sur la dĂ©sinformation signĂ© GrĂ©goire Darcy. Non seulement celui-ci dĂ©bogue la simplicitĂ© des rĂ©ponses cognitives que les politiques publiques ont tendance Ă  proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la dĂ©sinformation n’est pas seulement un problĂšme d’irrationnalitĂ© et de crĂ©dulitĂ©. Il invite Ă  sortir de l’approche rĂ©active qui se concentre sur les symptĂŽmes et qui se focalise bien trop sur les modalitĂ©s de diffusion oubliant les mĂ©canismes affectifs et sociaux qui expliquent l’adhĂ©sion aux rĂ©cits trompeurs. La lutte contre la dĂ©sinformation repose sur une vision simpliste de la psychologie humaine : « la dĂ©sinformation rĂ©pond Ă  des besoins sociaux, Ă©motionnels et identitaires plus qu’à de simples dĂ©ficits de rationalitĂ©. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces rĂ©cits socialement fonctionnels. Â» La dĂ©sinformation n’est que le symptĂŽme de la dĂ©gradation globale de l’écosystĂšme informationnel. « Les vulnĂ©rabilitĂ©s face Ă  la dĂ©sinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, Ă©conomiques et mĂ©diatiques spĂ©cifiques : isolement social, prĂ©caritĂ©, homogamie idĂ©ologique et dĂ©fiance institutionnelle sont des facteurs clĂ©s expliquant l’adhĂ©sion, bien au-delĂ  des seuls algorithmes ou biais cognitifs Â».

“Tant que les politiques publiques se contenteront de rĂ©ponses rĂ©actives, centrĂ©es sur les symptĂŽmes visibles et ignorantes des dynamiques cognitives, sociales et structurelles Ă  l’Ɠuvre, elles risquent surtout d’aggraver ce qu’elles prĂ©tendent corriger. En cause : un modĂšle implicite, souvent naĂŻf, de la psychologie humaine – un schĂ©ma linĂ©aire et individualisant, qui rĂ©duit l’adhĂ©sion aux contenus trompeurs Ă  un simple dĂ©ficit d’information ou de rationalitĂ©. Ce cadre conduit Ă  des politiques fragmentĂ©es, peu efficaces, parfois mĂȘme contre-productive.” 

Les rĂ©ponses les plus efficientes Ă  la dĂ©sinformation passent par une transformation structurelle de l’écosystĂšme informationnel, que seule l’action publique peut permettre, en orchestrant Ă  la fois la rĂ©gulation algorithmique et le renforcement des mĂ©dias fiables. La rĂ©duction des vulnĂ©rabilitĂ©s sociales, Ă©conomiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la dĂ©sinformation, en s’attaquant aux facteurs qui nourrissent la rĂ©ceptivitĂ© aux contenus trompeurs – prĂ©caritĂ©, marginalisation, polarisation et dĂ©fiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite Ă  une rĂ©gulation forte des rĂ©seaux sociaux permettant de « restituer la maĂźtrise du fil par une transparence algorithmique accrue et une possibilitĂ© de maĂźtriser Â» les contenus auxquels les gens accĂšdent : « rendre visibles les critĂšres de recommandation et proposer par dĂ©faut un fil chronologique permettrait de rĂ©duire les manipulations attentionnelles sans recourir Ă  la censure Â». Le rapport recommande Ă©galement « d’assurer un financement stable pour garantir l’indĂ©pendance des mĂ©dias et du service public d’information Â». Il recommande Ă©galement de renforcer la protection sociale et les politiques sociales pour renforcer la stabilitĂ© propice Ă  l’analyse critique. D’investir dans le dĂ©veloppement d’espace de sociabilitĂ© et de favoriser une circulation apaisĂ©e de l’information en renforçant l’intĂ©gritĂ© publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

La santé au prisme de son abandon

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derriĂšre les discours d’efficience, d’autonomie et de prĂ©vention, un glissement insidieux s’opĂšre : celui d’une mĂ©decine qui renonce Ă  soigner”. Le soin est en train de devenir conditionnel, rĂ©servĂ© aux existences jugĂ©es “optimisables”. La stratĂ©gie de non-soin, n’est pas que la consĂ©quence des restrictions budgĂ©taires ou de la dĂ©sorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme amĂ©ricain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coĂ»ts liĂ©s au soin, ou la loi sur le droit Ă  mourir rĂ©cemment adoptĂ©e en France, dĂ©noncĂ©e par les collectifs antivalidistes comme une maniĂšre d’acter l’impossibilitĂ© de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derriĂšre les mots d’efficacitĂ©, d’autonomie, de prĂ©vention, voire de soutenabilitĂ©. Il s’appuie sur des cadres comme le paradigme One Health, censĂ© penser la santĂ© de maniĂšre systĂ©mique Ă  l’échelle des Ă©cosystĂšmes mais qui, en pratique, contribue Ă  diluer les responsabilitĂ©s et Ă  rendre invisibles les enjeux de justice sociale.” Nous entrons dans une mĂ©dicalisation sans soins, oĂč l’analyse de santĂ© se dĂ©tache de toute thĂ©rapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une Ăšre de “soft eugenics”, d’eugĂ©nisme doux. Le self-care propose dĂ©sormais Ă  chacun de mesurer sa santĂ© pour en reprendre le contrĂŽle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la SantĂ© amĂ©ricain, critiquant Ă  la fois la surmĂ©dicalisation et la montĂ©e des maladies chroniques renvoyĂ©es Ă  des comportements individuels. En mettant l’accent sur la prĂ©vention et la modification des modes de vies, cet abandon de la santĂ© renvoie les citoyens vers leurs responsabilitĂ©s et la santĂ© publique vers des solutions privĂ©es, en laissant sur le carreau les populations vulnĂ©rables. Cette mĂ©decine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiquĂ©s proches du quantified self, “vidĂ©e de toute relation clinique”. “Ces technologies alimentent des systĂšmes d’optimisation oĂč l’important n’est plus la guĂ©rison, mais la conformitĂ© aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet Ă  accompagner. La plateformisation du soin rĂ©organise en profondeur les rĂ©gimes d’accĂšs Ă  la santĂ©. La mĂ©decine n’est alors plus un service public mais une logistique de gestion diffĂ©renciĂ©e des existences.”

C’est le cas du paradigme One Health, qui vise Ă  remplacer le soin par une idĂ©alisation holistique de la santĂ©, comme un Ă©tat d’équilibre Ă  maintenir, oĂč l’immunitĂ© naturelle affaiblit les distinctions entre pathogĂšne et environnement et favorise une dĂ©mission institutionnelle. “Face aux dĂ©gradations Ă©cologiques, le rĂ©flexe n’est plus de renforcer les capacitĂ©s collectives de soin. Il s’agit dĂ©sormais de retrouver une forme de puretĂ© corporelle ou environnementale perdue. Cette quĂȘte se traduit par l’apologie du jeĂ»ne, du contact avec les microbes, de la « vitalitĂ© » naturelle – et la dĂ©nonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre mĂ©decine industrielle et mĂ©decine publique, et reformule le soin comme une purification individuelle. LĂ  encore, le paradigme du non-soin prospĂšre non pas en contradiction avec l’écologie, mais bien davantage au nom d’une Ă©cologie mal pensĂ©e, orientĂ©e vers le refus de l’artifice plutĂŽt que vers l’organisation solidaire de la soutenabilitĂ©.” “L’appel Ă  « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus mĂ©ritants dans un monde saturĂ© de toxicitĂ©s (et de modernitĂ©).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnĂ©rables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisĂ© s’infiltre partout, pour distinguer les populations et mettre de cĂŽtĂ© ceux qui ne peuvent ĂȘtre soignĂ©s. “La santĂ© publique cesse d’ĂȘtre pensĂ©e comme un bien commun, et devient une performance individuelle, mesurĂ©e, scorĂ©e, marchandĂ©e. La mĂ©decine elle-mĂȘme, soumise Ă  l’austĂ©ritĂ©, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prĂ©venir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment mĂ©ritants.” Pour Monnin, cet accent mis sur la prĂ©vention pourrait ĂȘtre louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santĂ© publique qui se renforce mais une responsabilitĂ© individualisĂ©e du « bien se porter » qui lĂ©gitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prĂ©vention devient une rhĂ©torique de la culpabilitĂ©, oĂč le soin est indexĂ© sur la conformitĂ© Ă  un mode de vie puissamment normĂ©â€.

Pour le philosophe, le risque est que le soin devienne une option, un privilĂšge.

Le problĂšme est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prĂ©vention, alors qu’elles ne parlent que de responsabilitĂ© individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun Ă  l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaĂźtre l’inĂ©gale capacitĂ© des individus Ă  le faire”. Un monde oĂč ”la surveillance remplace l’attention, la donnĂ©e remplace la relation, le test remplace le soin”. DerriĂšre le tri, se profile “une santĂ© sans soin, une mĂ©decine sans clinique – une Ă©cologie sans solidaritĂ©â€.

“L’État ne disparaĂźt pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, Ă©metteur d’appels Ă  projets. En matiĂšre de santĂ©, cela signifie le financement de dispositifs de prĂ©vention algorithmique, l’encouragement de solutions « innovantes » portĂ©es par des start-ups, ou encore le remboursement indirect de produits encore non Ă©prouvĂ©s. Ce nouveau rĂ©gime n’est pas une absence de soin, c’est une dĂ©lĂ©gation programmĂ©e du soin Ă  des acteurs dont l’objectif premier n’est pas le soin mais la rentabilitĂ©. L’État ne s’efface pas en totalitĂ© : il administre la privatisation du soin.”

IA et éducation (2/2) : du dilemme moral au malaise social

Suite de notre dossier sur IA et éducation (voir la premiÚre partie).

La bataille éducative est-elle perdue ?

Une grande enquĂȘte de 404 media montre qu’à l’arrivĂ©e de ChatGPT, les Ă©coles publiques amĂ©ricaines Ă©taient totalement dĂ©munies face Ă  l’adoption gĂ©nĂ©ralisĂ©e de ChatGPT par les Ă©lĂšves. Le problĂšme est d’ailleurs loin d’ĂȘtre rĂ©solu. Le New York Mag a rĂ©cemment publiĂ© un article qui se dĂ©sole de la triche gĂ©nĂ©ralisĂ©e qu’ont introduit les IA gĂ©nĂ©ratives Ă  l’école. De partout, les Ă©lĂšves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, rĂ©sumer des livres ou des articles, planifier et rĂ©diger leurs essais, rĂ©soudre les exercices qui leurs sont demandĂ©s. Le plafond de la triche a Ă©tĂ© pulvĂ©risĂ©, explique un Ă©tudiant. “Un nombre considĂ©rable d’étudiants sortiront diplĂŽmĂ©s de l’universitĂ© et entreront sur le marchĂ© du travail en Ă©tant essentiellement analphabĂštes”, se dĂ©sole un professeur qui constate le court-circuitage du processus mĂȘme d’apprentissage. La triche semblait pourtant dĂ©jĂ  avoir atteint son apogĂ©e, avant l’arrivĂ©e de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des rĂ©ponses Ă  toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grĂące aux 150 000 experts diplĂŽmĂ©s de l’enseignement supĂ©rieur qu’elle employait, principalement en Inde”

Chaque Ă©cole a proposĂ© sa politique face Ă  ces nouveaux outils, certains prĂŽnant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, Ă  condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux Ă©lĂšves de dĂ©tailler la maniĂšre dont ils l’ont utilisĂ©. Mais cela ne dessine pas nĂ©cessairement de limites claires Ă  leurs usages. L’article souligne que si les professeurs se croient douĂ©s pour dĂ©tecter les Ă©crits gĂ©nĂ©rĂ©s par l’IA, des Ă©tudes ont dĂ©montrĂ© qu’ils ne le sont pas. L’une d’elles, publiĂ©e en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entiĂšrement gĂ©nĂ©rĂ©s par l’IA dans les piles de correction des professeurs d’une universitĂ© britannique. Les professeurs n’ont pas signalĂ© 97 % des essais gĂ©nĂ©ratifs. En fait, souligne l’article, les professeurs ont plutĂŽt abandonnĂ© l’idĂ©e de pouvoir dĂ©tecter le fait que les devoirs soient rĂ©digĂ©s par des IA. “De nombreux enseignants semblent dĂ©sormais dĂ©sespĂ©rĂ©s”. “Ce n’est pas ce pour quoi nous nous sommes engagĂ©s”, explique l’un d’entre eux. La prise de contrĂŽle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. DĂ©sormais, les Ă©lĂšves ne tentent mĂȘme plus de se battre contre eux-mĂȘmes. Ils se replient sur la facilitĂ©. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis Ă  jour les dĂ©faillances du systĂšme Ă©ducatif. Bien sĂ»r, l’idĂ©al de l’universitĂ© et de l’école comme lieu de dĂ©veloppement intellectuel, oĂč les Ă©tudiants abordent des idĂ©es profondes a disparu depuis longtemps. La perspective que les IA des professeurs Ă©valuent dĂ©sormais les travaux produits par les IA des Ă©lĂšves, finit de rĂ©duire l’absurditĂ© de la situation, en laissant chacun sans plus rien Ă  apprendre. Plusieurs Ă©tudes (comme celle de chercheurs de Microsoft) ont Ă©tabli un lien entre l’utilisation de l’IA et une dĂ©tĂ©rioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA gĂ©nĂ©rative compromet dĂ©jĂ  la crĂ©ativitĂ© et l’intelligence. “La bataille est perdue”, se dĂ©sole un autre professeur

Reste Ă  savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquĂȘte pour le New Yorker, le journaliste Hua Hsu constate que tous les Ă©tudiants qu’il a interrogĂ© pour comprendre leur usage de l’IA ont commencĂ© par l’utiliser pour se donner des idĂ©es, en promettant de veiller Ă  un usage responsable et ont trĂšs vite basculĂ© vers des usages peu modĂ©rĂ©s, au dĂ©triment de leur rĂ©flexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des Ă©tudiants, Anthropic a montrĂ© que la moitiĂ© des interactions des Ă©tudiants avec son outil serait extractive, c’est-Ă -dire servent Ă  produire des contenus. 404 media est allĂ© discuter avec les participants de groupes de soutien en ligne de gens qui se dĂ©clarent comme “dĂ©pendants Ă  l’IA”. Rien n’est plus simple que de devenir accro Ă  un chatbot, confient des utilisateurs de tout Ăąge. OpenAI en est conscient, comme le pointait une Ă©tude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remĂšdes.

Comment apprendre aux enfants Ă  faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en Ă©ducation Ă  la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA amĂ©liore-t-elle l’éducation ou la remplace-t-elle ? “Chaque annĂ©e, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le rĂ©sultat d’un cours est constituĂ© de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expĂ©rience Ă©tudiante”. Un devoir n’a de valeur que ”pour stimuler l’effort et la rĂ©flexion de l’élĂšve”. “L’utilitĂ© des devoirs Ă©crits repose sur deux hypothĂšses : la premiĂšre est que pour Ă©crire sur un sujet, l’élĂšve doit comprendre le sujet et organiser ses pensĂ©es. La seconde est que noter les Ă©crits d’un Ă©lĂšve revient Ă  Ă©valuer l’effort et la rĂ©flexion qui y ont Ă©tĂ© consacrĂ©s”. Avec l’IA gĂ©nĂ©rative, la logique de cette proposition, qui semblait pourtant Ă  jamais inĂ©branlable, s’est complĂštement effondrĂ©e

Pour Shirky, il ne fait pas de doute que l’IA gĂ©nĂ©rative peut ĂȘtre utile Ă  l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les Ă©tudiants peuvent rĂ©diger un devoir et demander des commentaires, voir Ă  quoi ressemble une réécriture Ă  diffĂ©rents niveaux de lecture, ou encore demander un rĂ©sumĂ© pour vĂ©rifier la clartĂ©â€â€Š “Mais le fait que l’IA puisse aider les Ă©tudiants Ă  apprendre ne garantit pas qu’elle le fera”. Pour le grand thĂ©oricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant Ă  apprendre”. “Face Ă  l’IA gĂ©nĂ©rative dans nos salles de classe, la rĂ©ponse Ă©vidente est d’inciter les Ă©tudiants Ă  adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations nĂ©fastes. Notre problĂšme est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se dĂ©sole-t-il. Les Ă©tudiants eux aussi sont dĂ©boussolĂ©s et finissent par se demander oĂč l’utilisation de l’IA les mĂšne. Shirky fait son mea culpa. L’utilisation engagĂ©e de l’IA conduit Ă  son utilisation paresseuse. Nous ne savons pas composer avec les difficultĂ©s. Mais c’était dĂ©jĂ  le cas avant ChatGPT. Les Ă©tudiants dĂ©clarent rĂ©guliĂšrement apprendre davantage grĂące Ă  des cours magistraux bien prĂ©sentĂ©s qu’avec un apprentissage plus actif, alors que de nombreuses Ă©tudes dĂ©montrent l’inverse. “Un outil qui amĂ©liore le rendement mais dĂ©grade l’expĂ©rience est un mauvais compromis”. 

C’est le sens mĂȘme de l’éducation qui est en train d’ĂȘtre perdu. Le New York Times revenait rĂ©cemment sur le fait que certaines Ă©coles interdisent aux Ă©lĂšves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une Ă©tude auprĂšs de 1800 enseignants de l’enseignement supĂ©rieur, 18 % dĂ©claraient utiliser frĂ©quemment ces outils pour faire leur cours, l’annĂ©e derniĂšre – un chiffre qui aurait doublĂ© depuis. Les Ă©tudiants ne lisent plus ce qu’ils Ă©crivent et les professeurs non plus. Si les profs sont prompts Ă  critiquer l’usage de l’IA par leurs Ă©lĂšves, nombre d’entre eux l’apprĂ©cient pour eux-mĂȘmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les Ă©lĂšves, rĂ©pondent MagicSchool et Brisk Teaching qui proposent dĂ©jĂ  des produits d’IA qui fournissent un retour instantanĂ© sur les Ă©crits des Ă©lĂšves. L’Etat du Texas a signĂ© un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisĂ©e des Ă©crits des Ă©lĂšves. 

Pour Jason Koebler de 404 media : “la sociĂ©tĂ© dans son ensemble n’a pas trĂšs bien rĂ©sistĂ© Ă  l’IA gĂ©nĂ©rative, car les grandes entreprises technologiques s’obstinent Ă  nous l’imposer. Il est donc trĂšs difficile pour un systĂšme scolaire public sous-financĂ© de contrĂŽler son utilisation”. Pourtant, peu aprĂšs le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel Ă  des consultants pro-IA pour produire des formations et des prĂ©sentations “encourageant largement les enseignants Ă  utiliser l’IA gĂ©nĂ©rative en classe”, mais “aucun n’anticipait des situations aussi extrĂȘmes que celles dĂ©crites dans l’article du New York Mag, ni aussi problĂ©matiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains Ă©lĂšves dĂ©sormais sont totalement dĂ©pendants de ChatGPT”. Les documents rassemblĂ©s par 404media montrent surtout que les services d’éducation amĂ©ricains ont tardĂ© Ă  rĂ©agir et Ă  proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandĂ© Ă  des professeurs amĂ©ricains d’expliquer ce que l’IA a changĂ© Ă  leur travail. Les innombrables tĂ©moignages recueillis montrent que les professeurs ne sont pas restĂ©s les bras ballants, mĂȘme s’ils se sentent trĂšs dĂ©pourvus face Ă  l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures Ă  corriger des devoirs que les Ă©lĂšves mettent quelques secondes Ă  produire. Tous dressent un constat similaire fait d’incohĂ©rences, de confusions, de dĂ©moralisations, entre prĂ©occupations et exaspĂ©rations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectĂ©es ? “Je ne veux pas que les Ă©tudiants qui n’utilisent pas de LLM soient dĂ©savantagĂ©s. Et je ne veux pas donner de bonnes notes Ă  des Ă©tudiants qui ne font pratiquement rien”, tĂ©moigne un prof. Beaucoup ont dĂ©sormais recours Ă  l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passĂ©s de la curiositĂ© au rejet catĂ©gorique de ces outils. Beaucoup pointent que leur mĂ©tier est plus difficile que jamais. “ChatGPT n’est pas un problĂšme isolĂ©. C’est le symptĂŽme d’un paradigme culturel totalitaire oĂč la consommation passive et la rĂ©gurgitation de contenu deviennent le statu quo.”

L’IA place la dĂ©qualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraĂźtre Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la vĂ©ritable menace que reprĂ©sente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle dĂ©courage l’apprentissage”. Pour Carr, lorsque les gens utilisent une machine pour rĂ©aliser une tĂąche, soit leurs compĂ©tences augmentent, soit elles s’atrophient, soit elles ne se dĂ©veloppent jamais. C’est la piste qu’il avait d’ailleurs explorĂ© dans Remplacer l’humain (L’échapĂ©e, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrĂštement les mĂ©tiers, des architectes aux pilotes d’avions). “Si un travailleur maĂźtrise dĂ©jĂ  l’activitĂ© Ă  automatiser, la machine peut l’aider Ă  dĂ©velopper ses compĂ©tences” et relever des dĂ©fis plus complexes. Dans les mains d’un mathĂ©maticien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compĂ©tence exige une pratique frĂ©quente, combinant dextĂ©ritĂ© manuelle et mentale, alors l’automatisation peut menacer le talent mĂȘme de l’expert. C’est le cas des pilotes d’avion confrontĂ©s aux systĂšmes de pilotage automatique qui connaissent un “affaissement des compĂ©tences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tĂąche avant que la personne qui l’utilise n’ait acquis l’expĂ©rience de la tĂąche en question. “C’est l’histoire du phĂ©nomĂšne de « dĂ©qualification » du dĂ©but de la rĂ©volution industrielle. Les artisans qualifiĂ©s ont Ă©tĂ© remplacĂ©s par des opĂ©rateurs de machines non qualifiĂ©s. Le travail s’est accĂ©lĂ©rĂ©, mais la seule compĂ©tence acquise par ces opĂ©rateurs Ă©tait celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compĂ©tence. Supprimez la machine, et le travail s’arrĂȘte”

Bien Ă©videmment que les Ă©lĂšves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une trĂšs Ă©paisse Ă©tude du MIT (synthĂ©tisĂ©e par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutĂŽt que le calcul mental vont moins se souvenir des opĂ©rations qu’ils ont effectuĂ©es. Mais le problĂšme est surtout que ceux qui les utilisent sont moins mĂ©fiants de leurs rĂ©sultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement Ă  ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problĂšme de l’usage des LLM Ă  l’école, c’est Ă  la fois qu’il empĂȘche d’apprendre Ă  faire, mais plus encore que leur usage nĂ©cessite des compĂ©tences pour les Ă©valuer. 

L’IA gĂ©nĂ©rative Ă©tant une technologie polyvalente permettant d’automatiser toutes sortes de tĂąches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scĂ©narios de compĂ©tences dans les annĂ©es Ă  venir, estime Carr. Mais l’utilisation de l’IA par les lycĂ©ens et les Ă©tudiants pour rĂ©aliser des travaux Ă©crits, pour faciliter ou Ă©viter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de dĂ©qualification au cƓur de l’éducation. Automatiser l’apprentissage revient Ă  le subvertir”

En Ă©ducation, plus vous effectuez de recherches, plus vous vous amĂ©liorez en recherche, et plus vous rĂ©digez d’articles, plus vous amĂ©liorez votre rĂ©daction. “Cependant, la valeur pĂ©dagogique d’un devoir d’écriture ne rĂ©side pas dans le produit tangible du travail – le devoir rendu Ă  la fin du devoir. Elle rĂ©side dans le travail lui-mĂȘme : la lecture critique des sources, la synthĂšse des preuves et des idĂ©es, la formulation d’une thĂšse et d’un argument, et l’expression de la pensĂ©e dans un texte cohĂ©rent. Le devoir est un indicateur que l’enseignant utilise pour Ă©valuer la rĂ©ussite du travail de l’étudiant – le travail d’apprentissage. Une fois notĂ© et rendu Ă  l’étudiant, le devoir peut ĂȘtre jetĂ©â€

L’IA gĂ©nĂ©rative permet aux Ă©tudiants de produire le produit sans effectuer le travail. Le travail remis par un Ă©tudiant ne tĂ©moigne plus du travail d’apprentissage qu’il a nĂ©cessitĂ©. “Il s’y substitue Â». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les Ă©tudiants ont toujours cherchĂ© des raccourcis bien sĂ»r, mais l’IA gĂ©nĂ©rative est diffĂ©rente, pas son ampleur, par sa nature. “Sa rapiditĂ©, sa simplicitĂ© d’utilisation, sa flexibilitĂ© et, surtout, sa large adoption dans la sociĂ©tĂ© rendent normal, voire nĂ©cessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. GrĂące Ă  l’IA gĂ©nĂ©rative, un Ă©lĂšve mĂ©diocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe trĂšs justement Carr, “la consĂ©quence ironique de cette perte d’apprentissage est qu’elle empĂȘche les Ă©lĂšves d’utiliser l’IA avec habiletĂ©. RĂ©diger une bonne consigne, un prompt efficace, nĂ©cessite une comprĂ©hension du sujet abordĂ©. Le dispensateur doit connaĂźtre le contexte de la consigne. Le dĂ©veloppement de cette comprĂ©hension est prĂ©cisĂ©ment ce que la dĂ©pendance Ă  l’IA entrave”. “L’effet de dĂ©qualification de l’outil s’étend Ă  son utilisation”. Pour Carr, “nous sommes obnubilĂ©s par la façon dont les Ă©tudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous prĂ©occuper davantage, c’est la façon dont l’IA trompe les Ă©tudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant Ă  avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), rĂ©vĂ©lateur, comme le souligne l’obsession sur la « triche Â» des Ă©lĂšves. Mais plus qu’un dilemme moral, peut-ĂȘtre faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (premiĂšre et seconde partie). 

Pour Benbouzid, l’IA gĂ©nĂ©rative Ă  l’universitĂ© Ă©branle les fondements de « l’auctorialitĂ© Â», c’est-Ă -dire qu’elle modifie la position d’auteur et ses repĂšres normatifs et dĂ©ontologiques. Dans le monde de l’enseignement supĂ©rieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a Ă©tĂ© « perçu » trĂšs tĂŽt comme une transgression morale. TrĂšs tĂŽt, les utiliser Ă  Ă©tĂ© associĂ© Ă  de la triche, d’autant qu’on ne peut pas les citer, contrairement Ă  tout autre matĂ©riel Ă©crit. 

Face Ă  leur statut ambiguĂ«, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel lĂ©gitime Ă  fournir pour ses Ă©tudes ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la premiĂšre partie de ce dossier ? Comment contrĂŽler et s’assurer d’une utilisation active et Ă©thique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une rĂ©flexion Ă©thique sur le rapport Ă  soi qui nĂ©cessite d’ĂȘtre authentique. Mais peut-on ĂȘtre authentique lorsqu’on se construit, interroge le sociologue, en Ă©voquant le fait que les Ă©tudiants doivent d’abord acquĂ©rir des compĂ©tences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour rĂ©sumer ou copier. Pour Benbouzid, comme pour Mollick, bien employĂ©e, elle peut-ĂȘtre un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais rĂ©elle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacitĂ© de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donnĂ© lieu Ă  un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (mĂȘme si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indĂ©chiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce dĂ©placement, s’il est intĂ©ressant (et peut-ĂȘtre peu adaptĂ© Ă  l’IA gĂ©nĂ©rative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA gĂ©nĂ©ratives qui bousculent le cadre ancien de rĂ©gulation des textes acadĂ©miques. Reste que l’auteur d’un texte doit toujours en rĂ©pondre, rappelle Benbouzid, et c’est dĂ©sormais bien plus le cas des Ă©tudiants qui utilisent l’IA que de ceux qui dĂ©ploient ces systĂšmes d’IA. L’autonomie qu’on attend d’eux est Ă  la fois un idĂ©al Ă©ducatif et une obligation morale envers soi-mĂȘme, permettant de dĂ©velopper ses propres capacitĂ©s de rĂ©flexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compĂ©tence instrumentale. Il devient un acte de formation Ă©thique ». Le problĂšme, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalitĂ© morale de l’éducation n’est pas la mĂȘme que celle qui permet Ă  un Ă©tudiant de dĂ©cider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les Ă©tudiants ont donc obligation morale de ne pas utiliser ChatGPT, car Ă©crire soi-mĂȘme ses textes est essentiel Ă  la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilitĂ© envers soi-mĂȘme oĂč Ă©crire par soi-mĂȘme n’est pas seulement une tĂąche scolaire, mais Ă©galement un moyen d’assurer sa dignitĂ© morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanitĂ© en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes rĂ©sument bien le choix cornĂ©lien des Ă©tudiants et des enseignants. Elle leur impose une libertĂ© de ne pas utiliser. Mais cette libertĂ© de ne pas utiliser, elle, ne relĂšve-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA gĂ©nĂ©rative ne sera pas le grand Ă©galisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui Ă  recours Ă  l’IA et pourquoi, le sociologue permet d’entrouvrir une autre rĂ©ponse que la rĂ©ponse morale. Ceux qui promeuvent l’usage de l’IA pour les Ă©tudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une Ă©galiseur de chances, permettant de rĂ©duire les diffĂ©rences cognitives entre les Ă©lĂšves. C’est lĂ  une rĂ©fĂ©rence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expĂ©rience, permet la montĂ©e en compĂ©tence accĂ©lĂ©rĂ©e des travailleurs et rĂ©duit les Ă©carts de compĂ©tence des travailleurs (une thĂ©orie qui a Ă©tĂ© en partie critiquĂ©e, notamment parce que ces avantages sont compensĂ©s par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontĂ©s Ă  une homogĂ©nĂ©isation des performances d’écritures ? N’assiste-t-on pas plutĂŽt Ă  un renforcement des inĂ©galitĂ©s entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA gĂ©nĂ©rative et les moins pourvus socialement ? 

Pour John Danaher, l’IA gĂ©nĂ©rative pourrait redĂ©finir pas moins que l’égalitĂ©, puisque les compĂ©tences traditionnelles (rĂ©daction, programmation, analyses
) permettraient aux moins dotĂ©s d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalitĂ© soit alors relĂ©guĂ©e au second plan : « d’autres valeurs comme l’efficacitĂ© Ă©conomique ou la libertĂ© individuelle prendraient le dessus, entraĂźnant une acceptation accrue des inĂ©galitĂ©s. L’efficacitĂ© Ă©conomique pourrait ĂȘtre mise en avant si l’IA permet une forte augmentation de la productivitĂ© et de la richesse globale, mĂȘme si cette richesse est inĂ©galement rĂ©partie. Dans ce scĂ©nario, plutĂŽt que de chercher Ă  garantir une rĂ©partition Ă©quitable des ressources, la sociĂ©tĂ© pourrait accepter des Ă©carts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inĂ©galitĂ© sous prĂ©texte que la technologie gĂ©nĂšre globalement des bĂ©nĂ©fices pour tous, mĂȘme si ces bĂ©nĂ©fices ne sont pas partagĂ©s de maniĂšre Ă©gale. De la mĂȘme maniĂšre, la libertĂ© individuelle pourrait ĂȘtre privilĂ©giĂ©e si l’IA permet Ă  chacun d’accĂ©der Ă  des outils puissants qui augmentent ses capacitĂ©s, mais sans garantir que tout le monde en bĂ©nĂ©ficie de maniĂšre Ă©quivalente. Certains pourraient considĂ©rer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, mĂȘme si cela crĂ©e de nouvelles hiĂ©rarchies basĂ©es sur l’usage diffĂ©renciĂ© de l’IA ». Pour Danaher comme pour Benbouzid, l’intĂ©gration de l’IA dans l’enseignement doit poser la question de ses consĂ©quences sociales !

Les LLM ne produisent pas un langage neutre mais tendent Ă  reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisĂ©s », rappelle Bilel Benbouzid. Une Ă©tude comparant les lettres de motivation d’étudiants avec des textes produits par des IA gĂ©nĂ©ratives montre que ces derniĂšres correspondent surtout Ă  des productions de CSP+. Pour Benbouzid, le risque est que la dĂ©lĂ©gation de l’écriture Ă  ces machines renforce les hiĂ©rarchies existantes plus qu’elles ne les distribue. D’oĂč l’enjeu d’une enquĂȘte en cours pour comprendre l’usage de l’IA gĂ©nĂ©rative des Ă©tudiants et leur rapport social au langage. 

Les premiers rĂ©sultats de cette enquĂȘte montrent par exemple que les Ă©tudiants rechignent Ă  copier-collĂ© directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les Ă©tudiants comparent souvent ChatGPT Ă  l’aide parentale. On comprend que la lĂ©gitimitĂ© ne rĂ©side pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximitĂ© culturelle qui la rend acceptable, voire valorisante, lĂ  oĂč l’assistance algorithmique est perçue comme une rupture avec le niveau acadĂ©mique et leur propre maĂźtrise de la langue ». Et effectivement, la perception de l’apport des LLM dĂ©pend du capital culturel des Ă©tudiants. Pour les plus dotĂ©s, ChatGPT est un outil utilitaire, limitĂ© voire vulgaire, qui standardise le langage. Pour les moins dotĂ©s, il leur permet d’accĂ©der Ă  des Ă©lĂ©ments de langages valorisĂ©s et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de gĂ©nĂ©ration, pointe un rapport social Ă  la langue, Ă  l’écriture, Ă  l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problĂšme moral qu’un dilemme social. « Ces pratiques, loin d’ĂȘtre homogĂšnes, traduisent une appropriation diffĂ©renciĂ©e de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social Ă  l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la maniĂšre dont les Ă©tudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiĂ©rarchies culturelles et sociales de l’universitĂ©. » En fait, les Ă©tudiants utilisent les outils non pas pour se dĂ©passer, comme l’estime Mollick, mais pour produire un contenu socialement lĂ©gitime. « En dĂ©lĂ©guant systĂ©matiquement leurs compĂ©tences de lecture, d’analyse et d’écriture Ă  ces modĂšles, les Ă©tudiants peuvent contourner les processus essentiels d’intĂ©riorisation et d’adaptation aux normes discursives et Ă©pistĂ©mologiques propres Ă  chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de dĂ©velopper authentiquement son propre capital culturel acadĂ©mique, substituĂ© par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalitĂ© instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inĂ©galitĂ© structurelle accrue. Les outils creusant l’écart entre des Ă©tudiants qui ont dĂ©jĂ  internalisĂ© les normes dominantes et ceux qui les singent. Le fait que les textes gĂ©nĂ©rĂ©s manquent d’originalitĂ© et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les Ă©tudiants Ă©gaux face Ă  ces outils. D’un cĂŽtĂ©, les grandes Ă©coles renforcent les compĂ©tences orales et renforcent leurs exigences d’originalitĂ© face Ă  ces outils. De l’autre, d’autres devront y avoir recours par nĂ©cessitĂ©. « Pour les mieux Ă©tablis, l’IA reprĂ©sentera un outil optionnel d’optimisation ; pour les plus prĂ©caires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, mĂȘme si l’IA profitera relativement davantage aux moins qualifiĂ©s, cette amĂ©lioration pourrait simultanĂ©ment accentuer une forme de dĂ©pendance technologique parmi les populations les plus dĂ©favorisĂ©es, creusant encore le fossĂ© avec les Ă©lites, mieux armĂ©es pour exercer un discernement critique face aux contenus gĂ©nĂ©rĂ©s par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une maniĂšre Ă©gale. On le constate trĂšs bien ailleurs. Le fait d’ĂȘtre capable de rĂ©diger un courrier administratif est loin d’ĂȘtre partagĂ©. Si ces outils amĂ©liorent les courriers des moins dotĂ©s socialement, ils ne renversent en rien les diffĂ©rences sociales. C’est le mĂȘme constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maĂźtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mĂ©mĂ©tiques et les utilisateurs productifs. Ces outils, qui se prĂ©sentent comme des outils qui seraient capables de dĂ©passer les inĂ©galitĂ©s sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter Ă  chacun, il semble que l’IA donne des superpouvoirs d’apprentissage Ă  ceux qui maĂźtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincĂ©e dans le droit

Les questions de l’usage de l’IA Ă  l’école que nous avons tentĂ© de dĂ©rouler dans ce dossier montrent l’enjeu Ă  dĂ©battre d’une politique publique d’usage de l’IA gĂ©nĂ©rative Ă  l’école, du primaire au supĂ©rieur. Mais, comme le montre notre enquĂȘte, toute la communautĂ© Ă©ducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiĂ©e Ă  François TaddĂ©i et Sarah Cohen-Boulakia sur les pratiques pĂ©dagogiques de l’IA dans l’enseignement supĂ©rieur, rapportait le Monde

Un premier cadre d’usage de l’IA Ă  l’école vient pourtant d’ĂȘtre publiĂ© par le ministĂšre de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout Ă  la hauteur des enjeux. Le document consiste surtout en un rappel des rĂšgles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA gĂ©nĂ©rative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux Ă©lĂšves d’utiliser des services d’IA grand public impliquant la crĂ©ation d’un compte personnel Â» rappelle le document. La note recommande Ă©galement de ne pas utiliser l’IA gĂ©nĂ©rative avec les Ă©lĂšves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle gĂ©nĂ©rative pour rĂ©aliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation Ă  partir des contenus produits, constitue une fraude Â». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’ĂȘtre un cadre de dĂ©veloppement ouvert Ă  l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer Ă  produire du dĂ©ni, tentant de rappeler des rĂšgles sur des usages qui les dĂ©bordent dĂ©jĂ  trĂšs largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privĂ© suisse, Ă©tait trĂšs heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de lĂ©galitĂ© et de confidentialitĂ©, les professeurs ne devraient pas utiliser les services d’IA gĂ©nĂ©ratives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les Ă©lĂšves peut-ĂȘtre classĂ©e comme un usage Ă  haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de dĂ©saccord sur une Ă©valuation, sans compter que le professeur doit Ă©galement ĂȘtre transparent sur ce qu’il utilise pour rester en conformitĂ© et l’inscrire au registre des traitements. Bref, d’un cĂŽtĂ© comme de l’autre, tant du cĂŽtĂ© des Ă©lĂšves qui sont renvoyĂ© Ă  la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, trĂšs contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont Ă©tĂ© publiĂ©s. comme celui de l’inspection gĂ©nĂ©rale, du SĂ©nat ou de la Commission europĂ©enne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement Ă  l’IA devrait ĂȘtre, plus que de donner un cadre aux dĂ©bordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste Ă  construire, avec les professeurs
 et avec les Ă©lĂšves.  

Hubert Guillaud

Accords de confidentialitĂ© : l’outil de silenciation des effets du numĂ©rique

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de dĂ©fense des droits Equidem, estiment que les accords de confidentialitĂ© sont devenus l’outil qui permet de rĂ©duire au silence tous les travailleurs du numĂ©rique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent dĂ©sormais Ă  toute la chaĂźne de production des systĂšmes, jusqu’aux travailleurs du clic. Le systĂšme tout entier vise Ă  contraindre les travailleurs Ă  se taire. Ils ne concernent plus les accords commerciaux, mais interdisent Ă  tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thĂ©rapeutes. Ils rendent toute enquĂȘte sur les conditions de travail trĂšs difficile, comme le montre le rapport d’Equidem sur la modĂ©ration des contenus. Partout, les accords de confidentialitĂ© ont créé une culture de la peur et imposĂ© le silence, mais surtout “ils contribuent Ă  maintenir un systĂšme de contrĂŽle qui spolie les travailleurs tout en exonĂ©rant les entreprises technologiques et leurs propriĂ©taires milliardaires de toute responsabilitĂ©â€, puisqu’ils les rendent inattaquables pour les prĂ©judices qu’ils causent, empĂȘchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la nĂ©gociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialitĂ© Ă  leur objectif initial, Ă  savoir la protection des donnĂ©es propriĂ©taires, et non Ă  l’interdiction gĂ©nĂ©rale de parler des conditions de travail. Le recours aux accords de confidentialitĂ© dans le secteur technologique, en particulier dans les pays du Sud, reste largement dĂ©rĂ©glementĂ© et dangereusement incontrĂŽlĂ©.

IA et Ă©ducation (1/2) : plongĂ©e dans l’IApocalypse Ă©ducative

A l’étĂ© 2023, Ethan Mollick, professeur de management Ă  Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraĂźtre en français chez First), dĂ©crivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait Ă©tait qu’il ne serait plus possible pour les enseignants de donner des devoirs Ă  leurs Ă©lĂšves Ă  cause de l’IA, redoutant une triche gĂ©nĂ©ralisĂ©e

Pourtant, rappelait-il, la triche est lĂ  depuis longtemps. Une Ă©tude longitudinale de 2020 montrait dĂ©jĂ  que de moins en moins d’élĂšves bĂ©nĂ©ficiaient des devoirs qu’ils avaient Ă  faire. L’étude, menĂ©e par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les Ă©lĂšves faisaient leurs devoirs en 2008, cela amĂ©liorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’amĂ©liorer les notes que de 45% des Ă©lĂšves. Pourquoi ? Parce que plus de la moitiĂ© des Ă©lĂšves copiaient-collaient les rĂ©ponses Ă  leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre Ă©tude soulignait mĂȘme que 15% des Ă©lĂšves avaient payĂ© quelqu’un pour faire leur devoir, gĂ©nĂ©ralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était dĂ©jĂ  facile avant sa gĂ©nĂ©ralisation

Les calculatrices n’ont pas tuĂ© les mathĂ©matiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion mĂȘme de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformĂ© l’enseignement des mathĂ©matiques. Dans un prĂ©cĂ©dent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a Ă©tĂ© introduite dans les Ă©coles, les rĂ©actions ont Ă©tĂ© Ă©tonnamment proches des inquiĂ©tudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les Ă©lĂšves. En s’appuyant sur une thĂšse signĂ©e Sarah Banks, Mollick rappelle que dĂšs les annĂ©es 70, certains professeurs Ă©taient impatients d’intĂ©grer l’usage des calculatrices dans leurs classes, mais c’était loin d’ĂȘtre le cas de tous. La majoritĂ© regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiĂ©tude que leurs enfants n’oublient les bases des maths. Au dĂ©but des annĂ©es 80, les craintes des enseignants s’étaient inversĂ©es, mais trĂšs peu d’écoles fournissaient de calculatrices Ă  leurs Ă©lĂšves. Il faut attendre le milieu des annĂ©es 1990, pour que les calculatrices intĂšgrent les programmes scolaires. En fait, un consensus pratique sur leur usage a Ă©tĂ© atteint. Et l’enseignement des mathĂ©matiques ne s’est pas effondrĂ© (mĂȘme si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la gĂ©nĂ©ralisation des calculatrices).

Pour Mollick, l’intĂ©gration de l’IA Ă  l’école suivra certainement un chemin similaire. « Certains devoirs nĂ©cessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinĂ©s Ă  des examens Ă©crits, permettront aux Ă©lĂšves d’acquĂ©rir les compĂ©tences rĂ©dactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intĂ©grer l’IA au processus d’apprentissage sans compromettre le dĂ©veloppement des compĂ©tences essentielles. Tout comme les calculatrices n’ont pas remplacĂ© l’apprentissage des mathĂ©matiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensĂ©e critique. Cela prendra peut-ĂȘtre du temps, mais nous y parviendrons Â», explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolùtes ?

Mais l’impact de l’IA ne se limite pas Ă  l’écriture, estime Mollick. Elle peut aussi ĂȘtre un vulgarisateur trĂšs efficace et ChatGPT peut rĂ©pondre Ă  bien des questions. L’arrivĂ©e de l’IA remet en cause les mĂ©thodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succĂšs escomptĂ©. « Les cours magistraux ont tendance Ă  reposer sur un apprentissage passif, oĂč les Ă©tudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la rĂ©solution de problĂšmes ni la pensĂ©e critique. Dans ce format, les Ă©tudiants peuvent avoir du mal Ă  retenir l’information, car leur attention peut facilement faiblir lors de longues prĂ©sentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des diffĂ©rences et des capacitĂ©s individuelles, ce qui conduit certains Ă©tudiants Ă  prendre du retard tandis que d’autres se dĂ©sintĂ©ressent, faute de stimulation Â». Mollick est plutĂŽt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les Ă©tudiants Ă  participer au processus d’apprentissage par le biais d’activitĂ©s telles que la rĂ©solution de problĂšmes, le travail de groupe et les exercices pratiques. Dans cette approche, les Ă©tudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une mĂ©thode que plusieurs Ă©tudes valorisent comme plus efficaces, mĂȘme si les Ă©tudiants ont aussi besoin d’enseignements initiaux appropriĂ©s. 

La solution pour intĂ©grer davantage d’apprentissage actif passe par les classes inversĂ©es, oĂč les Ă©tudiants doivent apprendre de nouveaux concepts Ă  la maison (via des vidĂ©os ou des ressources numĂ©riques) pour les appliquer ensuite en classe par le biais d’activitĂ©s, de discussions ou d’exercices. Afin de maximiser le temps consacrĂ© Ă  l’apprentissage actif et Ă  la pensĂ©e critique, tout en utilisant l’apprentissage Ă  domicile pour la transmission du contenu. 

Pourtant, reconnaĂźt Mollick, l’apprentissage actif peine Ă  s’imposer, notamment parce que les professeurs manquent de ressources de qualitĂ© et de matĂ©riel pĂ©dagogique inversĂ© de qualitĂ©. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe oĂč des tuteurs IA personnalisĂ©s viendraient accompagner les Ă©lĂšves, adaptant leur enseignement aux besoins des Ă©lĂšves tout en ajustant les contenus en fonction des performances des Ă©lĂšves, Ă  la maniĂšre du manuel Ă©lectronique dĂ©crit dans L’ñge de diamant de Neal Stephenson, emblĂšme du rĂȘve de l’apprentissage personnalisĂ©. Face aux difficultĂ©s, Mollick Ă  tendance Ă  toujours se concentrer « sur une vision positive pour nous aider Ă  traverser les temps incertains Ă  venir Â». Pas sĂ»r que cela suffise. 

Dans son article d’aoĂ»t 2023, Mollick estime que les Ă©lĂšves vont bien sĂ»r utiliser l’IA pour tricher et vont l’intĂ©grer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question Ă  laquelle nous allons devoir rĂ©pondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolĂštes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprĂ©sente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacitĂ© Ă  raisonner et Ă  structurer son raisonnement. Le problĂšme, c’est que les dissertations sont trĂšs faciles Ă  gĂ©nĂ©rer avec l’IA gĂ©nĂ©rative. Les dĂ©tecteurs de leur utilisation fonctionnent trĂšs mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans Ă©crans, nous n’avons plus de moyens pour dĂ©tecter si un travail est rĂ©alisĂ© par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte Ă  grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les Ă©coles et les enseignants vont devoir rĂ©flĂ©chir sĂ©rieusement Ă  l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des rĂ©fĂ©rences ou des explications ? Qu’est-ce qui peut-ĂȘtre autorisĂ© et comment les utiliser ? 

Pour les Ă©tudiants du supĂ©rieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, Ă  condition que les modalitĂ©s d’utilisation et les consignes donnĂ©es soient prĂ©cisĂ©es. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activitĂ© Ă©ducative primordiale reste la lecture. « Qu’il s’agisse de rĂ©diger des comptes rendus de lecture, de rĂ©sumer des chapitres ou de rĂ©agir Ă  des articles, toutes ces tĂąches reposent sur l’attente que les Ă©lĂšves assimilent la lecture et engagent un dialogue avec elle Â». Or, l’IA est lĂ  encore trĂšs performante pour lire et rĂ©sumer. Mollick suggĂšre de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthĂšses
 Pas sĂ»r que la perspective apaise la panique morale qui se dĂ©verse dans la presse sur le fait que les Ă©tudiants ne lisent plus. Du New Yorker (« Les humanitĂ©s survivront-elles Ă  ChatGPT ? Â» ou « Est-ce que l’IA encourage vraiement les Ă©lĂšves Ă  tricher ? ») Ă  The Atlantic (« Les Ă©tudiants ne lisent plus de livres Â» ou « La gĂ©nĂ©ration Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les Ă©tudiants ne lisent plus c’est parce que les compĂ©tences ne sont plus valorisĂ©es nulles part), la perturbation que produit l’arrivĂ©e de ChatGPT dans les Ă©tudes se double d’une profonde chute de la lecture, qui semble ĂȘtre devenue d’autant plus inutile que les machines les rendent disponibles. MĂȘmes inquiĂ©tudes dans la presse de ce cĂŽtĂ©-ci de l’Atlantique, du Monde Ă  MĂ©diapart en passant par France Info


Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi trĂšs bien rĂ©soudre les problĂšmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thurifĂ©raires de l’IA, c’est Ă  l’école et Ă  l’enseignement de s’adapter aux perturbations gĂ©nĂ©rĂ©es par l’IA, qu’importe si la sociĂ©tĂ© n’a pas demandĂ© le dĂ©ploiement de ces outils. D’ailleurs, soulignait-il trĂšs rĂ©cemment, nous sommes dĂ©jĂ  dans une Ă©ducation postapocalyptique. Selon une enquĂȘte de mai 2024, aux Etats-Unis 82 % des Ă©tudiants de premier cycle universitaire et 72 % des Ă©lĂšves de la maternelle Ă  la terminale ont dĂ©jĂ  utilisĂ© l’IA. Une adoption extrĂȘmement rapide. MĂȘme si les Ă©lĂšves ont beau dos de ne pas considĂ©rer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’ĂȘtre humain est douĂ© pour trouver comment se soustraire ce qu’il ne souhaite pas faire et Ă©viter l’effort mental. Et plus les tĂąches mentales sont difficiles, plus nous avons tendance Ă  les Ă©viter. Le problĂšme, reconnaĂźt Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble ĂȘtre dans le dĂ©ni et l’illusion. Les enseignants croient pouvoir dĂ©tecter facilement l’utilisation de l’IA et donc ĂȘtre en mesure de fixer les barriĂšres. Ils se trompent trĂšs largement. Une Ă©criture d’IA bien stimulĂ©e est mĂȘme jugĂ©e plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste Ă  revenir Ă  l’écriture en classe, ce qui nĂ©cessite du temps qu’ils n’ont pas nĂ©cessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les Ă©lĂšves aussi sont dans l’illusion. « Ils ne rĂ©alisent pas rĂ©ellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». AprĂšs tout, ils reçoivent des conseils et des rĂ©ponses de l’IA qui les aident Ă  rĂ©soudre des problĂšmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les Ă©tudiants sont conscients que leur stratĂ©gie de devoirs diminue leur note Ă  l’examen
 ils en dĂ©duisent, de maniĂšre logique, que toute stratĂ©gie d’étude augmentant leur note Ă  un devoir augmente Ă©galement leur note Ă  l’examen ». En fait, comme le montre une autre Ă©tude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance Ă  baisser de 17% en moyenne quand les Ă©lĂšves sont laissĂ©s seuls avec l’outil. Par contre, quand ils sont accompagnĂ©s pour comprendre comment l’utiliser comme coach plutĂŽt qu’outil de rĂ©ponse, alors l’outil les aide Ă  la fois Ă  amĂ©liorer leurs notes aux devoirs comme Ă  l’examen. Une autre Ă©tude, dans un cours de programmation intensif Ă  Stanford, a montrĂ© que l’usage des chatbots amĂ©liorait plus que ne diminuait les notes aux examens.

Une majoritĂ© de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, rĂ©flĂ©chir Ă  des idĂ©es, rafraĂźchir ses connaissances, obtenir un retour, des conseils
 Mais c’est peut-ĂȘtre oublier de sa part, d’oĂč il parle et combien son expertise lui permet d’avoir un usage trĂšs Ă©voluĂ© de ces outils. Ce qui n’est pas le cas des Ă©lĂšves.

Encourager la réflexion et non la remplacer

Pour que les Ă©tudiants utilisent l’IA pour stimuler leur rĂ©flexion plutĂŽt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-ĂȘtre va-t-il falloir nous intĂ©resser aux professeurs, pour l’instant laissĂ©s bien dĂ©pourvus face Ă  ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages amĂ©ricains, trois quart des enseignants utiliseraient dĂ©sormais l’IA dans leur travail, mais nous connaissons encore trop peu les mĂ©thodes efficaces qu’ils doivent mobiliser. Une Ă©tude qualitative menĂ©e auprĂšs d’eux a montrĂ© que ceux qui utilisaient l’IA pour aider leurs Ă©lĂšves Ă  rĂ©flĂ©chir, pour amĂ©liorer les explications obtenaient de meilleurs rĂ©sultats. Pour Mollick, la force de l’IA est de pouvoir crĂ©er des expĂ©riences d’apprentissage personnalisĂ©es, adaptĂ©es aux Ă©lĂšves et largement accessibles, plus que les technologies Ă©ducatives prĂ©cĂ©dentes ne l’ont jamais Ă©tĂ©. Cela n’empĂȘche pas Mollick de conclure par le discours lĂ©nifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera trĂšs facile ou accessible, pour les professeurs, comme pour les Ă©lĂšves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le rĂ©sultat« . Or, l’IA fait Ă  tous la promesse inverse. En matiĂšre d’éducation, cela risque d’ĂȘtre dramatique, surtout si nous continuons Ă  valoriser le rĂ©sultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre mĂ©ritocratie actuelle. C’est peut-ĂȘtre par lĂ  qu’il faudrait d’ailleurs commencer, pour rĂ©soudre l’IApocalypse Ă©ducative


Pour Mollick cette Ă©volution « exige plus qu’une acceptation passive ou une rĂ©sistance futile Â». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intĂ©grante du paysage Ă©ducatif, nos prioritĂ©s doivent Ă©voluer. L’objectif n’est pas de dĂ©jouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour amĂ©liorer l’éducation tout en attĂ©nuant ses inconvĂ©nients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour crĂ©er un environnement d’apprentissage plus efficace, plus Ă©quitable et plus stimulant pour tous ». Plus facile Ă  dire qu’à faire. ExpĂ©rimenter prend du temps, trouver de bons exercices, changer ses pratiques
 pour nombre de professeurs, ce n’est pas si Ă©vident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dĂ©diĂ©e Ă  l’accompagnement des Ă©lĂšves (Claude for Education) qui ne cherche pas Ă  fournir des rĂ©ponses, mais produit des modalitĂ©s pour accompagner les Ă©lĂšves Ă  saisir les raisonnements qu’ils doivent Ă©chafauder, est certes stimulante, mais il n’est pas sĂ»r qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutĂŽt comme Mollick et qui ont du temps pour s’occuper de leurs Ă©lĂšves, qui vont pouvoir faire des Ă©valuations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supĂ©rieur en France, rapportait le Monde). Et les autres, plus circonspects sur les Ă©volutions en cours, oĂč de plus en plus souvent des Ă©lĂšves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA
 On voit bien en tout cas, que la question de l’IA gĂ©nĂ©rative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des Ă©lĂšves, Ă  charge Ă  eux de s’en dĂ©brouiller.

Hubert Guillaud

La seconde partie est par lĂ .

25 juin : DLA en fĂȘte !

Mercredi 25 juin Ă  18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e Ă  Paris, pour fĂȘter la premiĂšre annĂ©e d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et prĂ©sident de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la premiĂšre annĂ©e d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changĂ©, nous nous interrogerons pour comprendre de quelle information sur le numĂ©rique avons-nous besoin, Ă  l’heure oĂč l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fĂȘter notre premiĂšre bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. DĂ©couvrez le programme !

Ecrire le code du numérique

C’est une formidable histoire que raconte le Code du numĂ©rique. Un livre Ă©ditĂ© par les Habitant.es des images ASBL et la Cellule pour la rĂ©duction des inĂ©galitĂ©s sociales et de la lutte contre la pauvretĂ© de Bruxelles. Ce livre est le rĂ©sultat de trois annĂ©es d’action nĂ©es des difficultĂ©s qu’ont Ă©prouvĂ© les plus dĂ©munis Ă  accĂ©der Ă  leurs droits durant la pandĂ©mie. En rĂ©action Ă  la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancĂ© un groupe de travail pour visibiliser le vĂ©cu collectif des souffrances individuelles des plus prĂ©caires face au dĂ©ploiement du numĂ©rique, donnant naissance au ComitĂ© humain du numĂ©rique. “La digitalisation de la sociĂ©tĂ© n’a pas entraĂźnĂ© une amĂ©lioration gĂ©nĂ©ralisĂ©e des compĂ©tences numĂ©riques”, rappelle le ComitĂ© en s’appuyant sur le baromĂštre de l’inclusion numĂ©rique belge

Le ComitĂ© humain du numĂ©rique s’installe alors dans les quartiers et, avec les habitants, dĂ©cide d’écrire un Code de loi : “Puisque l’Etat ne nous protĂšge pas, Ă©crivons les lois Ă  sa place”. Rejoints par d’autres collectifs, le ComitĂ© humain se met Ă  Ă©crire la loi avec les habitants, depuis les tĂ©moignages de ceux qui n’arrivent pas Ă  accomplir les dĂ©marches qu’on leur demande. Manifestations, sĂ©ances d’écriture publique, dĂ©libĂ©rations publiques, parlement de rues
 Le ComitĂ© implique les habitants, notamment contre l’ordonnance Bruxelles numĂ©rique qui veut rendre obligatoire les services publics digitalisĂ©s, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnĂ©e par le collectif Lire et Ă©crire et plus de 200 associations. Devant le Parlement belge, le ComitĂ© humain organise des parlements humains de rue pour rĂ©clamer des guichets ! Suite Ă  leur action, l’ordonnance Bruxelles numĂ©rique est amendĂ©e d’un nouvel article qui dĂ©termine des obligations pour les administrations Ă  prĂ©voir un accĂšs par guichet, tĂ©lĂ©phone et voie postale – mais prĂ©voit nĂ©anmoins la possibilitĂ© de s’en passer si les charges sont disproportionnĂ©es. Le collectif Ɠuvre dĂ©sormais Ă  attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numĂ©rique.

Mais l’essentiel n’est pas que dans la victoire Ă  venir, mais bien dans la force de la mobilisation et des propositions rĂ©alisĂ©es. Le Code du numĂ©rique ce sont d’abord 8 articles de lois amendĂ©s et discutĂ©s par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problĂšme”. Que cet accĂšs doit ĂȘtre sans condition, c’est-Ă -dire gratuit, avec des temps d’attente limitĂ©s, “sans rendez-vous”, sans obligation de maĂźtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coĂ»t ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller Ă  cette accessibilitĂ© humaine et qu’il doit proposer aux citoyen.nes des procĂ©dures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est Ă  l’Etat d’évaluer l’utilitĂ© et l’efficacitĂ© des nouveaux outils numĂ©riques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrĂŽler. Que cette Ă©valuation doit associer les utilisateurs, que leurs impacts doivent ĂȘtre contrĂŽlĂ©s, limitĂ©s et non centralisĂ©s. L’article 3 rappelle que l’Etat doit crĂ©er ses propres outils et que les dĂ©marches administratives ne peuvent pas impliquer le recours Ă  un service privĂ©. L’article 4 suggĂšre de bĂątir des alternatives aux solutions numĂ©riques qu’on nous impose. L’article 5 suggĂšre que leur utilisation doit ĂȘtre contrainte et restreinte, notamment selon les lieux ou les Ăąges et souligne que l’apprentissage comme l’interaction entre parents et Ă©coles ne peut ĂȘtre conditionnĂ©e par des outils numĂ©riques. L’article 6 en appelle Ă  la crĂ©ation d’un label rendant visible le niveau de dangerositĂ© physique ou mentale des outils, avec des possibilitĂ©s de signalement simples. L’article 7 milite pour un droit Ă  pouvoir se dĂ©connecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compĂ©tences humaines et de la rencontre physique, notamment dans le cadre de l’accĂšs aux soins. “Tout employĂ©.e/Ă©tudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face Ă  face un responsable sur un lieu physique”. L’introduction de nouveaux outils numĂ©riques doit ĂȘtre dĂ©veloppĂ©e et validĂ©e par ceux qui devront l’utiliser.

DerriĂšre ces propositions de lois, simples, essentielles
 la vraie richesse du travail du ComitĂ© humain du numĂ©rique est de proposer, de donner Ă  lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontĂ©s Ă  la transformation numĂ©rique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protĂ©ger de tout ça.” Anthony : “Internet devait ĂȘtre une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numĂ©rique me surresponsabilise et rend le public surdĂ©pendant de moi. Je suis le dernier maillon de la chaĂźne, l’échec social passe par moi. Je le matĂ©rialise”. Amina : “Je ne sais pas lire, je ne sais pas Ă©crire. Mais je sais parler. Le numĂ©rique ne me laisse pas parler”. AĂŻssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numĂ©rique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numĂ©rique est utilisĂ© pour dĂ©courager les dĂ©marches”, puisque bien souvent on ne peut mĂȘme pas rĂ©pondre Ă  un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numĂ©risĂ©es, car elles n’entrent pas dans les cases. La passation d’information est devenue trĂšs difficile”
 Le Code du numĂ©rique nous “redonne Ă  entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numĂ©rique nous rappelle que dĂ©sormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nĂ©cessaire pour presque la moitiĂ© de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrĂȘter derriĂšre un tĂ©lĂ©phone qui sonne dans le vide. Que “la digitalisation des services publics et privĂ©s donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prĂ©dĂ©finies.Le Code du numĂ©rique n’est pas qu’une expĂ©rience spĂ©cifique et situĂ©e, rappellent ses porteurs. “Il est lĂ  pour que vous vous en empariez”. Les lois proposĂ©es sont faites pour ĂȘtre dĂ©battues, modifiĂ©es, amendĂ©es, adaptĂ©es. Les auteurs ont créé un jeu de cartes pour permettre Ă  d’autres d’organiser un Parlement humain du numĂ©rique. Il dĂ©taille Ă©galement comment crĂ©er son propre ComitĂ© humain, invite Ă  Ă©crire ses propres lois depuis le recueil de tĂ©moignages des usagers, en ouvrant le dĂ©bat, en Ă©crivant soi-mĂȘme son Code, ses lois, Ă  organiser son parlement et documente nombre de mĂ©thodes et d’outils pour interpeller, mobiliser, intĂ©grer les contributions. Bref, il invite Ă  ce que bien d’autres Code du numĂ©rique essaiment, en Belgique et bien au-delĂ  ! A chacun de s’en emparer.

Cet article a Ă©tĂ© publiĂ© originellement pour la lettre d’information du Conseil national du numĂ©rique du 23 mai 2025.

Le Code du numérique.

Chatbots, une adoption sans impact ?

Dans sa derniĂšre newsletter, Algorithm Watch revient sur une Ă©tude danoise qui a observĂ© les effets des chatbots sur le travail auprĂšs de 25 000 travailleurs provenant de 11 professions diffĂ©rentes oĂč des chatbots sont couramment utilisĂ©s (dĂ©veloppeurs, journalistes, professionnels RH, enseignants
). Si ces travailleurs ont notĂ© que travailler avec les chatbots leur permettait de gagner du temps, d’amĂ©liorer la qualitĂ© de leur travail, le gain de temps s’est avĂ©rĂ© modeste, reprĂ©sentant seulement 2,8% du total des heures de travail. La question des gains de productivitĂ© de l’IA gĂ©nĂ©rative dĂ©pend pour l’instant beaucoup des Ă©tudes rĂ©alisĂ©es, des tĂąches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus Ă©levĂ©s pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiĂ©s ni incitations supplĂ©mentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutÎt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

Pour une science de la subjectivité

« J’aimerais vous confronter Ă  un problĂšme de calcul difficile Â», attaque Albert Moukheiber sur la scĂšne de la confĂ©rence USI 2025. « Dans les sciences cognitives, on est confrontĂ© Ă  un problĂšme qu’on n’arrive pas Ă  rĂ©soudre : la subjectivitĂ© ! Â» 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary Ă©ditions 2019) et de Neuromania (Allary Ă©ditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

OĂč est le neurone ?

« Contrairement Ă  d’autres organes, un cerveau mort n’a rien Ă  dire sur son fonctionnement. Et pendant trĂšs longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau Â». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activitĂ©, sont assez rĂ©centes et demeurent bien peu prĂ©cises. Pour cela, il faut ĂȘtre capable de mesurer son activitĂ©, de voir oĂč se font les afflux d’énergie et l’activitĂ© chimique. C’est seulement assez rĂ©cemment, depuis les annĂ©es 1990 surtout, qu’on a dĂ©veloppĂ© des technologies pour Ă©tudier cette activitĂ©, avec les Ă©lectro-encĂ©phalogrammes, puis avec l’imagerie par rĂ©sonance magnĂ©tique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les mĂ©decins vous prescrivent. Elle mesure la matiĂšre cĂ©rĂ©brale permettant de crĂ©er une image en noir et blanc pour identifier des maladies, des lĂ©sions, des tumeurs. Mais elle ne dit rien de l’activitĂ© neuronale. Seule l’IRM fonctionnelle observe l’activitĂ©, mais il faut comprendre que les images que nous en produisons sont peu prĂ©cises et demeurent probabilistes. Les images de l’IRMf font apparaĂźtre des couleurs sur des zones en activitĂ©, mais ces couleurs ne dĂ©signent pas nĂ©cessairement une activitĂ© forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentĂ©es en oxygĂšne et en sang. L’IRMf fonctionne par soustraction des images passĂ©es. Le patient dont on mesure l’activitĂ© cĂ©rĂ©brale est invitĂ© Ă  faire une tĂąche en limitant au maximum toute autre activitĂ© que celle demandĂ©e et les scientifiques comparent  ces images Ă  des prĂ©cĂ©dentes pour dĂ©terminer quelles zones sont affectĂ©es quand vous fermez le poing par exemple. « On applique des calculs de probabilitĂ© aux soustractions pour tenter d’isoler un signal dans un ocĂ©an de bruits Â», prĂ©cise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cĂ©rĂ©brale pour une tĂąche donnĂ©e, mais « une reconstruction a posteriori de la probabilitĂ© qu’une aire soit impliquĂ©e dans cette tĂąche Â». En fait, les couleurs indiquent des probabilitĂ©s. « Ces couleurs n’indiquent donc pas une intensitĂ© d’activitĂ©, mais une probabilitĂ© d’implication Â». Enfin, les mesures que nous rĂ©alisons n’ont rien de prĂ©cis, rappelle le chercheur. La prĂ©cision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygĂšne, alors que la circulation sanguine est bien plus lente que les Ă©changes chimiques de nos neurones. Enfin, le traitement de donnĂ©es est particuliĂšrement complexe. Une Ă©tude a chargĂ© plusieurs Ă©quipes d’analyser un mĂȘme ensemble de donnĂ©es d’IRMf et n’a pas conduit aux mĂȘmes rĂ©sultats selon les Ă©quipes. Bref, pour le dire simplement, le neurone est l’unitĂ© de base de comprĂ©hension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications Ă©tablies Ă  partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance rĂ©elle qu’autre chose. D’oĂč l’enjeu Ă  prendre les rĂ©sultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses Ă  l’imagerie cĂ©rĂ©brale Â» et c’est assurĂ©ment ce qui explique qu’elle soit si utilisĂ©e.

Les données ne suffisent pas

Dans les annĂ©es 50-60, le courant de la cybernĂ©tique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait Ă©tudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modĂ©liser le cerveau Ă  l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idĂ©es d’une thĂ©orie de l’information qui va permettre de crĂ©er des « neurones artificiels Â», qui ne portent ce nom que parce qu’ils ont Ă©tĂ© créés pour fonctionner sur le modĂšle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considĂ©rĂ© comme la premiĂšre machine Ă  utiliser un rĂ©seau neuronal artificiel. Mais on a bien plus appliquĂ© le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « rĂ©seaux de neurones Â» n’a plus rien Ă  voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider Ă  faire des prothĂšses adaptĂ©es comme les BCI, Brain Computer Interfaces

DĂ©sormais, faire de la science consiste Ă  essayer de comprendre comment fonctionne le monde naturel depuis un modĂšle. Jusqu’à rĂ©cemment, on pensait qu’il fallait des thĂ©ories pour savoir quoi faire des donnĂ©es, mais depuis l’avĂšnement des traitements probabilistes et du Big Data, les modĂšles thĂ©oriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de mĂȘme demandĂ© si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. MalgrĂ© l’arsenal d’outils Ă  leur disposition, les chercheurs qui s’y sont essayĂ© ont Ă©tĂ© incapables de produire un modĂšle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nĂ©cessite pas seulement des informations techniques ou des donnĂ©es, mais avant tout des concepts pour les organiser. En fait, avoir accĂšs Ă  une quantitĂ© illimitĂ©e de donnĂ©es ne suffit pas Ă  comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposĂ© une expĂ©rience de pensĂ©e avec son article « Quel effet ça fait d’ĂȘtre une chauve-souris ? Â». MĂȘme si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’ĂȘtre une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intĂ©rieure d’autrui. Que la subjectivitĂ© des autres nous Ă©chappe toujours. C’est lĂ  le difficile problĂšme de la conscience. 

Albert Moukheiber sur la scùne d’USI 2025.

La subjectivité nous échappe

Une Ă©motion dĂ©signe trois choses distinctes, rappelle Albert Moukheiber. C’est un Ă©tat biologique qu’on peut tenter d’objectiver en trouvant des modalitĂ©s de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs trĂšs diffĂ©rentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nĂ©cessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent ĂȘtre Ă©mues par un mĂȘme coucher de soleil, mais sont-elles Ă©mues de la mĂȘme maniĂšre ? Â» 

Notre rĂ©ductionnisme objectivant est lĂ  confrontĂ© Ă  des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problĂšmes, notamment dans le monde de l’entreprise comme dans celui de la santĂ© mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariĂ©s et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scĂšne. Les notes des Ă©tudiants leurs rappellent que le but est de rĂ©ussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liĂ©s au nombre d’opĂ©rations rĂ©ussies, les chirurgiens rĂ©alisent bien plus d’opĂ©rations faciles que de compliquĂ©es. Quand on mesure les humains, ils ont tendance Ă  modifier leur comportement pour se conformer Ă  la mesure, ce qui n’est pas sans effets rebond, Ă  l’image du cĂ©lĂšbre effet cobra, oĂč le rĂ©gime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les Ă©radiquer, mais qui a poussĂ© Ă  leur dĂ©multiplication pour toucher la prime. En entreprises, nombre de mesures rĂ©alisĂ©es perdent ainsi trĂšs vite de leur effectivitĂ©. Moukheiber rappelle que les innombrables tests de personnalitĂ© ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisĂ© reste le MBTI qui a Ă©tĂ© dĂ©veloppĂ© dans les annĂ©es 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre thĂ©orique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques annĂ©es), mais surtout, « ce sont nos croyances qui sont dĂ©phasĂ©es. Beaucoup de personnes pensent que la personnalitĂ© des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs Ă©tait surtout un bel enfoirĂ© ! Â», comme nombre de ces « grands Â» entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mĂȘmes, la recherche montre en effet que les tests de personnalitĂ©s peinent Ă  mesurer la performance au travail et que celle-ci a d’ailleurs peu Ă  voir avec la personnalitĂ©. « Ces tests nous demandent d’y rĂ©pondre personnellement, quand ce devrait ĂȘtre d’abord Ă  nos collĂšgues de les passer pour nous Â», ironise Moukheiber. Ils supposent surtout que la personnalitĂ© serait « stable Â», ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-ĂȘtre bien plus d’importance que la personnalitĂ© : les compĂ©tences, le fait de bien s’entendre avec les autres, le niveau de rĂ©munĂ©ration, le cadre de travail
 Mais surtout, ils ont tous un effet « barnum Â» : n’importe qui est capable de se reconnaĂźtre dedans. Dans ces tests, les rĂ©sultats sont toujours positifs, mĂȘme les gens les plus sadiques seront flattĂ©s des rĂ©sultats. Bref, vous pouvez les passer Ă  la broyeuse. 

Dans le domaine de la santĂ© mentale, la mesure de la subjectivitĂ© est trĂšs difficile et son absence trĂšs handicapante. La santĂ© mentale est souvent vue comme une discipline objectivable, comme le reste de la santĂ©. Le modĂšle biomĂ©dical repose sur l’idĂ©e qu’il suffit d’îter le pathogĂšne pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogĂšne. Bien sĂ»r, ce n’est pas le cas. « Imaginez un moment, vous ĂȘtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise oĂč vous ĂȘtes trĂšs valorisĂ©e. Vous ĂȘtes dĂ©bauchĂ© par la concurrence, une entreprise encore plus brillante oĂč vous allez pouvoir briller encore plus. Mais voilĂ , vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous dĂ©veloppez un trouble anxieux. On va alors pousser la personne Ă  se soigner
 Mais le pathogĂšne n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collĂšgues qu’il faudrait pousser Ă  se faire soigner ? Â» 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontĂ©s Ă  la mĂȘme blessure ne vont pas l’exprimer au mĂȘme endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaĂźtre que les douleurs qu’on a vĂ©cu, Ă  laquelle on les compare Â». Mais chacun a une Ă©chelle de comparaison diffĂ©rente, car personnelle. « Et puis surtout, on est trĂšs douĂ© pour ne pas croire et Ă©couter les gens. C’est ainsi que l’endomĂ©triose a mis des annĂ©es pour devenir un problĂšme de santĂ© publique. Une femme Ă  50% de chance d’ĂȘtre qualifiĂ©e en crise de panique quand elle fait un AVC qu’un homme Â»â€Š Les exemples en ce sens sont innombrables. « Notre obsession Ă  tout mesurer finit par nier l’existence de la subjectivitĂ© Â». RapportĂ©e Ă  moi, ma douleur est rĂ©elle et handicapante. RapportĂ©e aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phĂ©nomĂ©nologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivitĂ© et de la prendre plus au sĂ©rieux qu’elle n’est Â»

La science de la subjectivitĂ© n’est pas dĂ©nuĂ©e de tentatives de mesure, mais elles sont souvent balayĂ©es de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander Ă  quelqu’un comment il va est souvent plus parlant que les mesures Ă©lectrodermales qu’on peut rĂ©aliser Â». Reste que les mesures physiologiques restent toujours trĂšs sĂ©duisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM Ă  un article pour le rendre plus sĂ©rieux qu’il n’est. 

*

Pour conclure la journĂ©e, Christian FaurĂ©, directeur scientifique d’Octo Technology revenait sur son thĂšme, l’incalculabilitĂ©. « Trop souvent, dĂ©cider c’est calculer. Nos dĂ©cisions ne dĂ©pendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent Ă  nous vendre la plus puissante. Nos dĂ©cisions sont-elles le fruit d’un calcul ? Nos modĂšles d’affaires dĂ©pendent-ils d’un calcul ? Au tout dĂ©but d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modĂšle Ă©conomique Ă  OpenAI. Pour lui, dĂ©cider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer Ă  tout. Certains espaces Ă©chappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout rĂ©soudre. Cela semble difficile Ă  croire quand tout est dĂ©sormais analysĂ©, soupesĂ©, mesuré« . « Il faut qu’il y ait dans le poĂšme un nombre tel qu’il empĂȘche de compter », disait Paul Claudel. Le poĂšme n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, mĂȘme chez le comptable, sinon Ă  quoi bon faire ces mĂ©tiers. « L’incalculable, c’est ce qui donne du sens Â»

« Nous vivons dans un monde oĂč le calcul est partout
 Mais il ne donne pas toutes les rĂ©ponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit Ă  ses collĂšgues de ne pas donner de sens et de signification dans les donnĂ©es. Turing qui invente l’ordinateur, explique que c’est une procĂ©dure univoque, c’est-Ă -dire qu’elle est reliĂ©e Ă  un langage qui n’a qu’un sens, comme le zĂ©ro et le un. Comme si finalement, dans cette abstraction pure, rĂ©duite Ă  l’essentiel, il Ă©tait impossible de percevoir le sens Â».

Hubert Guillaud

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

Alors que l’IA s’intĂšgre peu Ă  peu partout dans nos vies, les ressources Ă©nergĂ©tiques nĂ©cessaires Ă  cette rĂ©volution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle prioritĂ©, Ă  l’image de Meta et Microsoft qui travaillent Ă  la mise en service de centrales nuclĂ©aires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers dĂ©mesurĂ©s avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple Ă  Abilene au Texas, oĂč OpenAI (associĂ© Ă  Oracle et SoftBank) construit un data center gĂ©ant, premier des 10 mĂ©gasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coĂ»ter quelque 12 milliards de dollars (voir Ă©galement le reportage de 40 minutes en vidĂ©o qui revient notamment sur les tensions liĂ©es Ă  ces constructions). Mais plus que de centres de donnĂ©es, il faut dĂ©sormais parler « d’usine Ă  IA Â», comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 Ă  2017, la quantitĂ© d’électricitĂ© destinĂ©e aux centres de donnĂ©es est restĂ©e relativement stable grĂące Ă  des gains d’efficacitĂ©, malgrĂ© la construction d’une multitude de nouveaux centres de donnĂ©es pour rĂ©pondre Ă  l’essor des services en ligne basĂ©s sur le cloud, de Facebook Ă  Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivĂ©e de l’IA, cette consommation s’est envolĂ©e. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est dĂ©sormais destinĂ©e aux centres de donnĂ©es. “Compte tenu de l’orientation de l’IA – plus personnalisĂ©e, capable de raisonner et de rĂ©soudre des problĂšmes complexes Ă  notre place, partout oĂč nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA Ă  elle seule pourrait consommer chaque annĂ©e autant d’électricitĂ© que 22 % des foyers amĂ©ricains.

“Les chiffres sur la consommation Ă©nergĂ©tique de l’IA court-circuitent souvent le dĂ©bat, soit en rĂ©primandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux rĂ©actions esquivent l’essentiel : l’IA est incontournable, et mĂȘme si une seule requĂȘte est Ă  faible impact, les gouvernements et les entreprises façonnent dĂ©sormais un avenir Ă©nergĂ©tique bien plus vaste autour des besoins de l’IA”. ChatGPT est dĂ©sormais considĂ©rĂ© comme le cinquiĂšme site web le plus visitĂ© au monde, juste aprĂšs Instagram et devant X. Et ChatGPT n’est que l’arbre de la forĂȘt des applications de l’IA qui s’intĂšgrent partout autour de nous. Or, rappelle la Technology Review, l’information et les donnĂ©es sur la consommation Ă©nergĂ©tique du secteur restent trĂšs parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraĂźnement des modĂšles est Ă©nergĂ©tiquement coĂ»teux, c’est dĂ©sormais son utilisation qui devient problĂ©matique, notamment, comme l’explique trĂšs pĂ©dagogiquement Le Monde, parce que les requĂȘtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui Ă©valuent la consommation Ă©nergĂ©tique de requĂȘtes selon les moteurs d’IA utilisĂ©s, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de donnĂ©es qu’on estime en activitĂ© aux Etats-Unis, de plus en plus d’espaces sont consacrĂ©s Ă  des infrastructures dĂ©diĂ©es Ă  l’IA, notamment avec des serveurs dotĂ©s de puces spĂ©cifiques qui ont une consommation Ă©nergĂ©tique importante pour exĂ©cuter leurs opĂ©rations avancĂ©es sans surchauffe.

Calculer l’impact Ă©nergĂ©tique d’une requĂȘte n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modĂšle, le type de rĂ©sultat gĂ©nĂ©rĂ© et d’innombrables variables indĂ©pendantes de votre volontĂ©, comme le rĂ©seau Ă©lectrique connectĂ© au centre de donnĂ©es auquel votre requĂȘte est envoyĂ©e et l’heure de son traitement, peuvent rendre une requĂȘte mille fois plus Ă©nergivore et Ă©mettrice d’émissions qu’une autre”. Outre cette grande variabilitĂ© de l’impact, il faut ajouter l’opacitĂ© des gĂ©ants de l’IA Ă  communiquer des informations et des donnĂ©es fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modĂšles, la complexitĂ© des questions sont autant d’élĂ©ments qui influent sur la consommation Ă©nergĂ©tique. Bien Ă©videmment, la production de vidĂ©o consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidĂ©o gĂ©nĂ©rative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas dĂ©montrĂ©e et ne prend pas en compte l’effet rebond que gĂ©nĂšrerait les vidĂ©os gĂ©nĂ©ratives si elles devenaient peu coĂ»teuses Ă  produire. 

La Techno Review propose donc une estimation d’usage quotidien, Ă  savoir en prenant comme moyenne le fait de poser 15 questions Ă  un modĂšle d’IA gĂ©nĂ©ratives, faire 10 essais d’image et produire 5 secondes de vidĂ©o. Ce qui Ă©quivaudrait (trĂšs grossiĂšrement) Ă  consommer 2,9 kilowattheures d’électricitĂ©, l’équivalent d’un micro-onde allumĂ© pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dĂ©pend beaucoup de sa localisation, selon que les rĂ©seaux sont plus ou moins dĂ©carbonĂ©s, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalitĂ©s de calcul mobilisĂ©es par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricitĂ© produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette mĂȘme Ă©lectricitĂ© en Virginie-Occidentale pourrait faire grimper le total Ă  plus de 1 150 grammes”. On peut gĂ©nĂ©raliser ces estimations pour tenter de calculer l’impact global de l’IA
 et faire des calculs compliquĂ©s pour tenter d’approcher la rĂ©alité  “Mais toutes ces estimations ne reflĂštent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisĂ©es l’annĂ©e prochaine ou la suivante dans les “usines Ă  IA” que dĂ©ploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissĂ©mine autour du monde. Dans cette course au nombre de token gĂ©nĂ©rĂ©s par seconde, qui devient l’indicateur clĂ© de l’industrie, c’est l’architecture de l’informatique elle-mĂȘme qui est modifiĂ©e. Huang parle de passage Ă  l’échelle qui nĂ©cessite de gĂ©nĂ©rer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le dĂ©ploiement d’une IA toujours plus puissante. Cela passe bien Ă©videmment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modĂšles d’IA au cours de la journĂ©e, ni de leur demander de gĂ©nĂ©rer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tĂąches pour nous, oĂč nous discutons en continue avec des agents, oĂč nous “confierons des tĂąches complexes Ă  des modĂšles de raisonnement dont on a constatĂ© qu’ils consomment 43 fois plus d’énergie pour les problĂšmes simples, ou Ă  des modĂšles de « recherche approfondie”, qui passeront des heures Ă  crĂ©er des rapports pour nous Â». Nous disposerons de modĂšles d’IA “personnalisĂ©s” par l’apprentissage de nos donnĂ©es et de nos prĂ©fĂ©rences. Et ces modĂšles sont appelĂ©s Ă  s’intĂ©grer partout, des lignes tĂ©lĂ©phoniques des services clients aux cabinets mĂ©dicaux
 Comme le montrait les derniĂšres dĂ©monstrations de Google en la matiĂšre : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possĂšde les modĂšles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce cĂŽtĂ©, lĂ  course dĂ©marre Ă  peine. Google prĂ©voit par exemple d’intĂ©grer l’IA partout, pour crĂ©er des rĂ©sumĂ©s d’email comme des mailings automatisĂ©s adaptĂ©s Ă  votre style qui rĂ©pondront pour vous. Meta imagine intĂ©grer l’IA dans toute sa chaĂźne publicitaire pour permettre Ă  quiconque de gĂ©nĂ©rer des publicitĂ©s et demain, les gĂ©nĂ©rer selon les profils : plus personne ne verra la mĂȘme ! Les usages actuels de l’IA n’ont rien Ă  voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidĂ©o que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent dĂ©jĂ  au passĂ©. Le succĂšs et l’intĂ©gration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimĂ© des utilisateurs de l’IA de 700 millions en mars Ă  3,5 milliards en mai 2025

”Tous les chercheurs interrogĂ©s ont affirmĂ© qu’il Ă©tait impossible d’apprĂ©hender les besoins Ă©nergĂ©tiques futurs en extrapolant simplement l’énergie utilisĂ©e par les requĂȘtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent Ă  construire des centrales nuclĂ©aires est d’ailleurs le rĂ©vĂ©lateur qu’elles prĂ©voient, elles, une explosion de leurs besoins Ă©nergĂ©tiques. « Les quelques chiffres dont nous disposons peuvent apporter un Ă©clairage infime sur notre situation actuelle, mais les annĂ©es Ă  venir sont incertaines », dĂ©clare Sasha Luccioni de Hugging Face. « Les outils d’IA gĂ©nĂ©rative nous sont imposĂ©s de force, et il devient de plus en plus difficile de s’en dĂ©sengager ou de faire des choix Ă©clairĂ©s en matiĂšre d’énergie et de climat. »

La prolifĂ©ration de l’IA fait peser des perspectives trĂšs lourdes sur l’avenir de notre consommation Ă©nergĂ©tique. “Entre 2024 et 2028, la part de l’électricitĂ© amĂ©ricaine destinĂ©e aux centres de donnĂ©es pourrait tripler, passant de 4,4 % actuellement Ă  12 %” Toutes les entreprises estiment que l’IA va nous aider Ă  dĂ©couvrir des solutions, que son efficacitĂ© Ă©nergĂ©tique va s’amĂ©liorer
 Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est dĂ©jĂ  le cas, assure-t-il en vantant les mĂ©rites des prochaines gĂ©nĂ©ration de puces Ă  venir. Mais sans donnĂ©es, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du dĂ©partement de l’énergie amĂ©ricain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle Ă©tude, les particuliers pourraient finir par payer une partie de la facture de cette rĂ©volution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysĂ© les accords entre les entreprises de services publics et les gĂ©ants de la technologie comme Meta, qui rĂ©gissent le prix de l’électricitĂ© dans les nouveaux centres de donnĂ©es gigantesques. Ils ont constatĂ© que les remises accordĂ©es par les entreprises de services publics aux gĂ©ants de la technologie peuvent augmenter les tarifs d’électricitĂ© payĂ©s par les consommateurs. Les impacts Ă©cologiques de l’IA s’apprĂȘtent donc Ă  ĂȘtre maximums, Ă  mesure que ses dĂ©ploiements s’intĂšgrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le rĂ©seau Ă©lectrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifĂšres que le magazine dresse, la TechReview rappelle bien sĂ»r que les modĂšles d’IA vont devenir plus efficaces, moins chers et moins gourmands Ă©nergĂ©tiquement, par exemple en entraĂźnant des modĂšles avec des donnĂ©es plus organisĂ©es et adaptĂ©es Ă  des tĂąches spĂ©cifiques. Des perspectives s’échaffaudent aussi du cĂŽtĂ© des puces et des capacitĂ©s de calculs, ou encore par l’amĂ©lioration du refroidissement des centres de calculs. Beaucoup d’ingĂ©nieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, Ă  mesure que la technologie Ă  l’origine de ces rĂ©volutions s’est amĂ©liorĂ©e, les coĂ»ts de l’énergie sont restĂ©s plus ou moins stables, malgrĂ© l’explosion du nombre d’utilisateurs”. Pas sĂ»r que rĂ©itĂ©rer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux Ă  venir sont avant toutes coincĂ©es dans le prĂ©sent. Et elles le sont d’autant plus que les mesures de la consommation Ă©nergĂ©tique de l’IA sont coincĂ©es dans les mesures d’hier, sans ĂȘtre capables de prendre en compte l’efficience Ă  venir et que les effets rebonds de la consommation, dans la perspective de systĂšmes d’IA distribuĂ©s partout, accessibles partout, voire pire d’une IA qui se substitue Ă  tous les usages numĂ©riques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience Ă©nergĂ©tique va s’amĂ©liorer, le rebond des usages par l’intĂ©gration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbĂ©s voir totalement dĂ©passĂ©s avec l’extension et l’accroissement des usages. 

Vers une nouvelle nuit des longs couteaux?

Une Ă©lue locale dĂ©mocrate de l’État du Minnesota a Ă©tĂ© assassinĂ© avec son Ă©poux Ă  son domicile. Un autre a Ă©tĂ© victime d’une tentative de meurtre. Si on ne s’inquiĂ©tait pas dĂ©jĂ , ce serait le bon moment est le bon moment de commencer.

Pendant sa campagne en 2024, Donald Trump s’est engagĂ© plusieurs fois Ă  faire un mauvais sort Ă  ses adversaires politiques. Il a promis des enquĂȘtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissĂ© entendre que la garde nationale pourrait devoir sĂ©vir contre les dĂ©mocrates qui allaient voler l’élection. « They are so bad and frankly, they’re evil. They’re evil. Â» Cette semaine, il a dĂ©clarĂ© que la police de l’immigration devrait arrĂȘter Gavin Newsom, le gouverneur de la Californie, qui a osĂ© critiquer son envoi de l’armĂ©e pour arrĂȘter les manifestations Ă  Los Angeles. Le sĂ©nateur Alex Padilla, dĂ©mocrate, a Ă©tĂ© violemment expulsĂ© d’une confĂ©rence de presse par des agents du FBI alors qu’il posait une question Ă  la secrĂ©taire de la SĂ©curitĂ© intĂ©rieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux Ă  l’amĂ©ricaine?

La Nuit des longs couteaux, c’est la premiĂšre sĂ©rie de crimes publics du gouvernement nazi. C’est l’illustration de la fin dĂ©finitive de l’état de droit en Allemagne hitlĂ©rienne.

Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministĂšres. Il se retrouve coincĂ© entre les rĂ©volutionnaires nazis, qui veulent accĂ©lĂ©rer la mise en place de l’ordre nouveau, et les conservateurs, qui dĂ©noncent la violence et le culte grandissant de la personnalitĂ© hitlĂ©rienne.

Les rĂ©volutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armĂ©es qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blĂąmait les communistes pour la violence et promettait de ramener la paix.

La SA Ă©tait dĂ©testĂ©e par une grande partie de la population. Les conservateurs dĂ©testaient cette Ă©cole de rĂ©volutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armĂ©e allemande. Plusieurs chefs de la SA Ă©taient ouvertement homosexuels, ce qui scandalisait les puritains. De maniĂšre gĂ©nĂ©rale, la population n’apprĂ©ciait pas la barbarie de ce groupe paramilitaire. Hitler devait Ă©liminer ce groupe qui l’avait amenĂ© au pouvoir mais qui Ă©tait devenu encombrant.

Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrĂȘtĂ©s et exĂ©cutĂ©s. Les nazis ont inventĂ© de toute piĂšce un complot visant Ă  assassiner Hitler et Ă  renverser le gouvernement. Hitler profite de l’occasion pour Ă©liminer des adversaires politiques, des rivaux et des Ă©lĂ©ments gĂȘnants. On retrouve parmi les victimes:

  • Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autoritĂ©. PlacĂ© en dĂ©tention prĂ©ventive. Il survit parce qu’il Ă©tait une personnalitĂ© internationale et que son assassinat aurait eu des rĂ©percussions majeures.
  • Edgar Jung, intellectuel conservateur et rĂ©dacteur de discours pour Papen. PlacĂ© en dĂ©tention prĂ©ventive le 25 juin, puis assassinĂ©.
  • Herbert von Bose, attachĂ© de presse de Papen, assassinĂ© lors d’une descente de la Gestapo au bureau du vice-chancelier.
  • Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillĂ© avec Hitler. ArrĂȘtĂ© puis abattu dans sa cellule au siĂšge de la Gestapo.
  • Kurt von Schleicher, prĂ©dĂ©cesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui prĂ©parait son retour en politique. AssassinĂ© avec sa femme Ă  son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
  • Le gĂ©nĂ©ral Ferdinand von Bredow, qui prĂ©parait le retour en politique de Schleicher. TirĂ© Ă  bout portant en rĂ©pondant Ă  la porte de sa maison.
  • Gustav Ritter von Kahr, ancien gouverneur de BaviĂšre. Il avait quittĂ© la politique depuis plusieurs annĂ©es et s’était retirĂ© dans l’anonymat, mais Hitler ne lui avait jamais pardonnĂ© son rĂŽle dans l’échec du putsch de la Brasserie de Munich en 1923. AssassinĂ© Ă  Dachau.
  • Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. DĂ©tenu Ă  Dachau depuis mars 1933, il est exĂ©cutĂ© pendant la Nuit des longs couteaux.

Toutes les victimes sont accusĂ©es de s’ĂȘtre impliquĂ©es dans le complot de la SA. Accusations farfelues, mais qui ont passĂ© le test de l’opinion publique. Le prĂ©sident allemand, Paul von Hindenburg, adresse un tĂ©lĂ©gramme Ă  Hitler pour le remercier d’avoir « sauvĂ© le peuple allemand d’un grave danger Â» (il est douteux que le prĂ©sident ait Ă©crit le tĂ©lĂ©gramme lui-mĂȘme). La population se prĂ©occupe peu des assassinats politiques. Elle se rĂ©jouit que la barbarie de la SA ait Ă©tĂ© mĂątĂ©e. Hitler avait provoquĂ© la violence et devenait maintenant le hĂ©ros du peuple parce qu’il y avait mis fin.

Hitler incarnait dĂ©sormais la nation. Ses ennemis Ă©taient les ennemis de l’Allemagne, donc des traĂźtres qui ne mĂ©ritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le dĂ©but de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indiffĂ©rence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. EspĂ©rons que les AmĂ©ricains sachent mieux rĂ©agir.

Vers une nouvelle nuit des longs couteaux?

Une Ă©lue locale dĂ©mocrate de l’État du Minnesota a Ă©tĂ© assassinĂ© avec son Ă©poux Ă  son domicile. Un autre a Ă©tĂ© victime d’une tentative de meurtre. Si on ne s’inquiĂ©tait pas dĂ©jĂ , ce serait le bon moment est le bon moment de commencer.

Pendant sa campagne en 2024, Donald Trump s’est engagĂ© plusieurs fois Ă  faire un mauvais sort Ă  ses adversaires politiques. Il a promis des enquĂȘtes sur Joe Biden, Kamala Harris, Barack Obama et Liz Cheney. Il a laissĂ© entendre que la garde nationale pourrait devoir sĂ©vir contre les dĂ©mocrates qui allaient voler l’élection. “They are so bad and frankly, they’re evil. They’re evil.” Cette semaine, il a dĂ©clarĂ© que la police de l’immigration devrait arrĂȘter Gavin Newsom, le gouverneur de la Californie, qui a osĂ© critiquer son envoi de l’armĂ©e pour arrĂȘter les manifestations Ă  Los Angeles. Le sĂ©nateur Alex Padilla, dĂ©mocrate, a Ă©tĂ© violemment expulsĂ© d’une confĂ©rence de presse par des agents du FBI alors qu’il posait une question Ă  la secrĂ©taire de la SĂ©curitĂ© intĂ©rieure, Kristi Noem. Est-ce qu’on se dirige vers une Nuit des longs couteaux Ă  l’amĂ©ricaine?

La Nuit des longs couteaux, c’est la premiĂšre sĂ©rie de crimes publics du gouvernement nazi. C’est l’illustration de la fin dĂ©finitive de l’état de droit en Allemagne hitlĂ©rienne.

Contexte: Nous sommes en juin 1934. Adolf Hitler est chancelier (premier ministre) de l’Allemagne depuis janvier 1933, mais il partage son pouvoir avec les conservateurs, qui dirigent la plupart des ministĂšres. Il se retrouve coincĂ© entre les rĂ©volutionnaires nazis, qui veulent accĂ©lĂ©rer la mise en place de l’ordre nouveau, et les conservateurs, qui dĂ©noncent la violence et le culte grandissant de la personnalitĂ© hitlĂ©rienne.

Les rĂ©volutionnaires se trouvent principalement au sein de la Sturmabteilung (SA), des sections armĂ©es qui agressaient et intimidaient les adversaires politiques, les syndicats et les Juifs. Pour faciliter l’accession d’Hitler au pouvoir, les SA provoquaient et agressaient les militants communistes. Hitler blĂąmait les communistes pour la violence et promettait de ramener la paix.

La SA Ă©tait dĂ©testĂ©e par une grande partie de la population. Les conservateurs dĂ©testaient cette Ă©cole de rĂ©volutionnaires. Les militaires soupçonnaient (avec raison) la SA de vouloir s’instaurer comme armĂ©e allemande. Plusieurs chefs de la SA Ă©taient ouvertement homosexuels, ce qui scandalisait les puritains. De maniĂšre gĂ©nĂ©rale, la population n’apprĂ©ciait pas la barbarie de ce groupe paramilitaire. Hitler devait Ă©liminer ce groupe qui l’avait amenĂ© au pouvoir mais qui Ă©tait devenu encombrant.

Dans la nuit du 30 juin au 1er juillet 1934, les chefs de la SA sont arrĂȘtĂ©s et exĂ©cutĂ©s. Les nazis ont inventĂ© de toute piĂšce un complot visant Ă  assassiner Hitler et Ă  renverser le gouvernement. Hitler profite de l’occasion pour Ă©liminer des adversaires politiques, des rivaux et des Ă©lĂ©ments gĂȘnants. On retrouve parmi les victimes:

  • Franz von Papen, vice-chancelier et chef de la faction conservatrice, qui critiquait ouvertement les abus de pouvoir d’Hitler et la violence avec laquelle il exerçait son autoritĂ©. PlacĂ© en dĂ©tention prĂ©ventive. Il survit parce qu’il Ă©tait une personnalitĂ© internationale et que son assassinat aurait eu des rĂ©percussions majeures.
  • Edgar Jung, intellectuel conservateur et rĂ©dacteur de discours pour Papen. PlacĂ© en dĂ©tention prĂ©ventive le 25 juin, puis assassinĂ©.
  • Herbert von Bose, attachĂ© de presse de Papen, assassinĂ© lors d’une descente de la Gestapo au bureau du vice-chancelier.
  • Gregor Strasser, ancien organisateur du parti nazi qui s’est brouillĂ© avec Hitler. ArrĂȘtĂ© puis abattu dans sa cellule au siĂšge de la Gestapo.
  • Kurt von Schleicher, prĂ©dĂ©cesseur d’Hitler comme chancelier d’Allemagne, politicien conservateur qui prĂ©parait son retour en politique. AssassinĂ© avec sa femme Ă  son domicile. Joseph Goebbels qualifie la mort d’Elisabeth von Schleicher de malheureux accident.
  • Le gĂ©nĂ©ral Ferdinand von Bredow, qui prĂ©parait le retour en politique de Schleicher. TirĂ© Ă  bout portant en rĂ©pondant Ă  la porte de sa maison.
  • Gustav Ritter von Kahr, ancien gouverneur de BaviĂšre. Il avait quittĂ© la politique depuis plusieurs annĂ©es et s’était retirĂ© dans l’anonymat, mais Hitler ne lui avait jamais pardonnĂ© son rĂŽle dans l’échec du putsch de la Brasserie de Munich en 1923. AssassinĂ© Ă  Dachau.
  • Le journaliste Fritz Gerlich, un des principaux critiques d’Hitler dans la presse. DĂ©tenu Ă  Dachau depuis mars 1933, il est exĂ©cutĂ© pendant la Nuit des longs couteaux.

Toutes les victimes sont accusĂ©es de s’ĂȘtre impliquĂ©es dans le complot de la SA. Accusations farfelues, mais qui ont passĂ© le test de l’opinion publique. Le prĂ©sident allemand, Paul von Hindenburg, adresse un tĂ©lĂ©gramme Ă  Hitler pour le remercier d’avoir “sauvĂ© le peuple allemand d’un grave danger” (il est douteux que le prĂ©sident ait Ă©crit le tĂ©lĂ©gramme lui-mĂȘme). La population se prĂ©occupe peu des assassinats politiques. Elle se rĂ©jouit que la barbarie de la SA ait Ă©tĂ© mĂątĂ©e. Hitler avait provoquĂ© la violence et devenait maintenant le hĂ©ros du peuple parce qu’il y avait mis fin.

Hitler incarnait dĂ©sormais la nation. Ses ennemis Ă©taient les ennemis de l’Allemagne, donc des traĂźtres qui ne mĂ©ritaient aucun droit civil. La Nuit des longs couteaux, on le sait, n’était que le dĂ©but de la violence qui allait s’emparer de l’Allemagne, puis de toute l’Europe. Ce qui est consternant, c’est l’indiffĂ©rence, voire la satisfaction avec laquelle le peuple allemand a pris connaissance de ces terribles abus de pouvoir. EspĂ©rons que les AmĂ©ricains sachent mieux rĂ©agir.

La surveillance au travail s’internationalise

Le rapport de Coworker sur le dĂ©ploiement des « petites technologies de surveillance » – petites, mais omniprĂ©sentes (qu’on Ă©voquait dans cet article) – rappelait dĂ©jĂ  que c’est un essaim de solutions de surveillance qui se dĂ©versent dĂ©sormais sur les employĂ©s (voir Ă©galement notre article “RĂ©guler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystĂšme des petites technologies intĂšgre la surveillance et le contrĂŽle algorithmique dans le quotidien des travailleurs, souvent Ă  leur insu, sans leur consentement ni leur protection”. L’enquĂȘte  observe cette extension dans six pays – le Mexique, la Colombie, le BrĂ©sil, le NigĂ©ria, le Kenya et l’Inde – “oĂč les cadres juridiques sont obsolĂštes, mal appliquĂ©s, voire inexistants”. Le rapport rĂ©vĂšle comment les startups financĂ©es par du capital-risque amĂ©ricain exportent des technologies de surveillance vers les pays du Sud, ciblant des rĂ©gions oĂč la protection de la vie privĂ©e et la surveillance rĂ©glementaire sont plus faibles. Les premiers Ă  en faire les frais sont les travailleurs de l’économie Ă  la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus dĂ©guisĂ©e en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus prĂ©sentĂ©e comme un outil de sĂ©curitĂ©, de bien-ĂȘtre et de productivitĂ©, masquant une surveillance coercitive sous couvert de santĂ© et d’efficacitĂ©â€.

Pourtant, “des Ă©boueurs en Inde aux chauffeurs de VTC au NigĂ©ria, les travailleurs rĂ©sistent au contrĂŽle algorithmique en organisant des manifestations, en crĂ©ant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

Qui est l’utilisateur des LLM ?

Les grands modĂšles de langage ne sont pas interprĂ©tables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en prĂ©figuration d’un nouveau livre Ă  paraĂźtre. Ils demeurent des boĂźtes noires, dont on ne parvient pas Ă  comprendre pourquoi ces modĂšles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent Ă  d’autres moments des erreurs si Ă©tranges. Mieux comprendre certains des mĂ©canismes de fonctionnement de ces modĂšles et utiliser cette comprĂ©hension pour les amĂ©liorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractĂ©ristiques lui permettant de mieux cartographier son modĂšle. Meta, la sociĂ©tĂ© mĂšre de Facebook, a publiĂ© des versions toujours plus sophistiquĂ©es de son grand modĂšle linguistique, Llama, avec des paramĂštres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramĂštres des modĂšles). Transluce, un laboratoire de recherche Ă  but non lucratif axĂ© sur la comprĂ©hension des systĂšmes d’IA, a dĂ©veloppĂ© une mĂ©thode permettant de gĂ©nĂ©rer des descriptions automatisĂ©es des mĂ©canismes de Llama 3.1. Celles-ci peuvent ĂȘtre explorĂ©es Ă  l’aide d’un outil d’observabilitĂ© qui montre la nature du modĂšle et vise Ă  produire une “interprĂ©tabilitĂ© automatisĂ©e” en produisant des descriptions lisibles par l’homme des composants du modĂšle. L’idĂ©e vise Ă  montrer comment les modĂšles « pensent » lorsqu’ils discutent avec un utilisateur, et Ă  permettre d’ajuster cette pensĂ©e en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du dĂ©partement d’informatique de Harvard, dirigĂ© par Fernanda ViĂ©gas et Martin Wattenberg, ont exĂ©cutĂ© Llama sur leur propre matĂ©riel et ont dĂ©couverts que diverses fonctionnalitĂ©s s’activent et se dĂ©sactivent au cours d’une conversation. 

Des croyances du modĂšle sur son interlocuteur

ViĂ©gas est brĂ©silienne. Elle conversait avec ChatGPT en portugais et a remarquĂ©, lors d’une conversation sur sa tenue pour un dĂźner de travail, que ChatGPT utilisait systĂ©matiquement la dĂ©clinaison masculine. Cette grammaire, Ă  son tour, semblait correspondre au contenu de la conversation : GPT a suggĂ©rĂ© un costume pour le dĂźner. Lorsqu’elle a indiquĂ© qu’elle envisageait plutĂŽt une robe, le LLM a changĂ© son utilisation du portugais pour la dĂ©clinaison fĂ©minine. Llama a montrĂ© des schĂ©mas de conversation similaires. En observant les fonctionnalitĂ©s internes, les chercheurs ont pu observer des zones du modĂšle qui s’illuminent lorsqu’il utilise la forme fĂ©minine, contrairement Ă  lorsqu’il s’adresse Ă  quelqu’un. en utilisant la forme masculine. ViĂ©gas et ses collĂšgues ont constatĂ© des activations corrĂ©lĂ©es Ă  ce que l’on pourrait anthropomorphiser comme les “croyances du modĂšle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stĂ©rĂ©otypes corrĂ©lĂ©s selon que le modĂšle suppose qu’une personne est un homme ou une femme. Ces croyances se rĂ©percutent ensuite sur le contenu de la conversation, l’amenant Ă  recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modĂšles donnent des rĂ©ponses plus longues Ă  ceux qu’ils croient ĂȘtre des hommes qu’à ceux qu’ils pensent ĂȘtre des femmes. ViĂ©gas et Wattenberg ont non seulement trouvĂ© des caractĂ©ristiques qui suivaient le sexe de l’utilisateur du modĂšle, mais aussi qu’elles s’adaptaient aux infĂ©rences du modĂšle selon ce qu’il pensait du statut socio-Ă©conomique, de son niveau d’éducation ou de l’ñge de son interlocuteur. Le LLM cherche Ă  s’adapter en permanence Ă  qui il pense converser, d’oĂč l’importance Ă  saisir ce qu’il infĂšre de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue Ă  son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallĂšle Ă  l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothĂšses que fait le modĂšle au fil de leurs Ă©changes (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fĂȘte prĂ©natale, il suppose que son interlocuteur est jeune, de sexe fĂ©minin et de classe moyenne. Il suggĂšre alors des couches et des lingettes, ou un chĂšque-cadeau. Si on ajoute que la fĂȘte a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut Ă©conomique de son interlocuteur pour qu’il corresponde Ă  la classe supĂ©rieure et suggĂšre alors d’acheter des produits de luxe pour bĂ©bĂ© de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est nĂ© ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spĂ©cialiste de visualisation de donnĂ©es. Elle codirige Pair, un laboratoire de Google (voir le blog dĂ©diĂ©). En 2009, elle a imaginĂ© Web Seer est un outil de visualisation de donnĂ©es qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour diffĂ©rentes recherches Google, par exemple selon le genre. L’équipe a dĂ©veloppĂ© un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modĂšle de langage BERT complĂ©terait le mot manquant si un mot de cette phrase Ă©tait supprimĂ©. 

Pour Viegas, « l’enjeu de la visualisation consiste Ă  mesurer et exposer le fonctionnement interne des modĂšles d’IA que nous utilisons Â». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs Ă  comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des rĂ©ponses des modĂšles d’IA gĂ©nĂ©rative. Car selon la façon dont les modĂšles nous perçoivent, leurs rĂ©ponses ne sont pas les mĂȘmes. Or, pour comprendre que leurs rĂ©ponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une comprĂ©hension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et HawaĂŻ, les rĂ©ponses peuvent varier selon la perception de votre statut socio-Ă©conomique « Il semble donc que ces systĂšmes aient internalisĂ© une certaine notion de notre monde », explique ViĂ©gas. De mĂȘme, nous voudrions savoir ce qui, dans leurs rĂ©ponses, s’inspire de la rĂ©alitĂ© ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’amĂ©liorer la comprĂ©hension des modĂšles (par exemple, pour mesurer l’équitĂ© d’un modĂšle ou les biais ou l’optimisation de la diversitĂ© – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications Ă  explorer” interactives

Ce qui est fascinant ici, c’est combien la rĂ©ponse n’est pas tant corrĂ©lĂ©e Ă  tout ce que le modĂšle a avalĂ©, mais combien il tente de s’adapter en permanence Ă  ce qu’il croit deviner de son interlocuteur. On savait dĂ©jĂ , via une Ă©tude menĂ©e par Valentin Hofmann que, selon la maniĂšre dont on leur parle, les grands modĂšles de langage ne font pas les mĂȘmes rĂ©ponses. 

“Les grands modĂšles linguistiques ne se contentent pas de dĂ©crire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent Ă©galement des stĂ©rĂ©otypes qu’ils recomposent Ă  la volĂ©e. On comprend qu’un grand enjeu dĂ©sormais soit qu’ils se souviennent des conversations passĂ©es pour ajuster leur comprĂ©hension de leur interlocuteur, comme l’a annoncĂ© OpenAI, suivi de Google et Grok. Le problĂšme n’est peut-ĂȘtre pas qu’ils nous identifient prĂ©cisĂ©ment, mais qu’ils puissent adapter leurs propositions, non pas Ă  qui nous sommes, mais bien plus problĂ©matiquement, Ă  qui ils pensent s’adresser, selon par exemple ce qu’ils Ă©valuent de notre capacitĂ© Ă  payer. Un autre problĂšme consiste Ă  savoir si cette “comprĂ©hension” de l’interlocuteur peut-ĂȘtre stabilisĂ©e oĂč si elle se modifie sans cesse, comme c’est le cas des Ă©tiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modĂšles nous mĂ©calculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous mĂȘme le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux donnĂ©es qu’ils infĂšrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-Ă -dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-Ă -dire, nous hallucine nous-mĂȘmes). 

Les chercheurs de Harvard ont cherchĂ© Ă  identifier les Ă©volutions des suppositions des modĂšles selon l’origine ethnique dans les modĂšles qu’ils ont Ă©tudiĂ©s, sans pour l’instant y parvenir. Mais ils espĂšrent bien pouvoir contraindre leur modĂšle Llama Ă  commencer Ă  traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idĂ©e ici, serait d’orienter les rĂ©ponses d’un modĂšle, par exemple, en lui faisant adopter un ton moins caustique ou plus pĂ©dagogique lorsqu’il identifie qu’il parle Ă  un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dĂ©pendance psychologique Ă  l’égard de ces systĂšmes. Mais Zittrain en tire une autre conclusion : “Si nous considĂ©rons qu’il est moralement et sociĂ©talement important de protĂ©ger les Ă©changes entre les avocats et leurs clients, les mĂ©decins et leurs patients, les bibliothĂ©caires et leurs usagers, et mĂȘme les impĂŽts et les contribuables, alors une sphĂšre de protection claire devrait ĂȘtre instaurĂ©e entre les LLM et leurs utilisateurs. Une telle sphĂšre ne devrait pas simplement servir Ă  protĂ©ger la confidentialitĂ© afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident Ă  mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter Ă  exiger des crĂ©ateurs et des opĂ©rateurs de modĂšles qu’ils s’engagent Ă  ĂȘtre les amis inoffensifs, serviables et honnĂȘtes qu’ils sont si soigneusement conçus pour paraĂźtre”.

Inoffensifs, serviables et honnĂȘtes, voilĂ  qui semble pour le moins naĂŻf. Rendre visible les infĂ©rences des modĂšles, faire qu’ils nous reconnectent aux humains plutĂŽt qu’ils ne nous en Ă©loignent, semblerait bien prĂ©fĂ©rable, tant la polyvalence et la puissance remarquables des LLM rendent impĂ©ratifs de comprendre et d’anticiper la dĂ©pendance potentielle des individus Ă  leur Ă©gard. En tout cas, obtenir des outils pour nous aider Ă  saisir Ă  qui ils croient s’adresser plutĂŽt que de nous laisser seuls face Ă  leur interface semble une piste riche en promesses. 

Hubert Guillaud

IA : intelligence austéritaire

Aux Etats-Unis, la collusion entre les gĂ©ants de la tech et l’administration Trump vise Ă  “utiliser l’IA pour imposer des politiques d’austĂ©ritĂ© et crĂ©er une instabilitĂ© permanente par des dĂ©cisions qui privent le public des ressources nĂ©cessaires Ă  une participation significative Ă  la dĂ©mocratie”, explique l’avocat Kevin De Liban Ă  Tech Policy. Aux Etats-Unis, la participation dĂ©mocratique suppose des ressources. “Voter, contacter des Ă©lus, assister Ă  des rĂ©unions, s’associer, imaginer un monde meilleur, faire des dons Ă  des candidats ou Ă  des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisĂ©es soient bien plus enclines Ă  participer que celles qui ont des moyens limitĂ©s. Dans un pays oĂč prĂšs de 30 % de la population vit en situation de pauvretĂ© ou au bord de la pauvretĂ© et oĂč 60 % ne peuvent s’offrir un minimum de qualitĂ© de vie, la dĂ©mocratie est dĂ©savantagĂ©e dĂšs le dĂ©part”. L’IA est largement utilisĂ©e dĂ©sormais pour accentuer ce fossĂ©. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements mĂ©dicaux nĂ©cessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou rĂ©duire les soins Ă  domicile pour les personnes handicapĂ©es. Les gouvernements ont de plus en plus recours Ă  l’IA pour dĂ©terminer l’éligibilitĂ© aux programmes de prestations sociales ou accuser les bĂ©nĂ©ficiaires de fraude. Les propriĂ©taires utilisent l’IA pour filtrer les locataires potentiels, souvent Ă  l’aide de vĂ©rifications d’antĂ©cĂ©dents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employĂ©s, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activitĂ©s. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prĂ©dire quels Ă©lĂšves pourraient commettre un dĂ©lit Ă  l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la dĂ©tresse d’usagers, les empĂȘchant de comprendre ce Ă  quoi ils sont confrontĂ©s, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces dĂ©cisions difficiles Ă  contester. Et au final, cela contribue Ă  renforcer l’exclusion des personnes Ă  faibles revenus de la participation dĂ©mocratique. Le risque, bien sĂ»r, c’est que ces calculs et les formes d’exclusion qu’elles gĂ©nĂšrent s’étendent Ă  d’autres catĂ©gories sociales
 D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des dĂ©cisions sur toutes les catĂ©gories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour amĂ©liorer significativement l’accĂšs Ă  l’emploi, au logement, aux soins de santĂ©, Ă  l’éducation ou aux prestations sociales Ă  une Ă©chelle Ă  la hauteur de ses dommages. Cette dynamique actuelle suggĂšre que l’objectif sous-jacent de la technologie est d’enraciner les inĂ©galitĂ©s et de renforcer les rapports de force existants”. Pour rĂ©pondre Ă  cette intelligence austĂ©ritaire, il est nĂ©cessaire de mobiliser les communautĂ©s touchĂ©es. L’adhĂ©sion ouverte de l’administration Trump et des gĂ©ants de la technologie Ă  l’IA est en train de crĂ©er une crise urgente et visible, susceptible de susciter la rĂ©sistance gĂ©nĂ©ralisĂ©e nĂ©cessaire au changement. Et “cette prise de conscience technologique pourrait bien ĂȘtre la seule voie vers un renouveau dĂ©mocratique”, estime De Liban.

De notre vectorisation et de ses conséquences

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une rĂ©flexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a dĂ©finie, est un “processus par lequel des entitĂ©s sociales — individus, groupes, communautĂ©s — sont transformĂ©es en porteurs de variables directionnelles, c’est-Ă -dire en vecteurs dotĂ©s d’une orientation prĂ©dĂ©terminĂ©e dans un espace conceptuel saturĂ© de valeurs diffĂ©rentielles”. Cela consiste en fait Ă  appliquer Ă  chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustĂ©es Ă  nos identitĂ©s numĂ©riques, comme les mots clĂ©s publicitaires qui nous caractĂ©risent, les traitements qui nous spĂ©cifient, les donnĂ©es qui nous positionnent, par exemple, le genre, l’ñge, notre niveau de revenu
 Du moment que nous sommes assignĂ©s Ă  une valeur, nous y sommes rĂ©duits, dans une forme d’indiffĂ©renciation qui produisent des identitĂ©s et des altĂ©ritĂ©s “rigidifiĂ©es” qui structurent “l’espace social selon des lignes de dĂ©marcation dont l’arbitraire est dissimulĂ© sous l’apparence d’une objectivitĂ© naturalisĂ©e”. C’est le cas par exemple quand les donnĂ©es vous caractĂ©risent comme homme ou femme. Le problĂšme est que ces assignations que nous ne maĂźtrisons pas sont indĂ©passables. Les discours sur l’égalitĂ© de genres peuvent se multiplier, plus la diffĂ©rence entre homme et femme s’en trouve rĂ©affirmĂ©, comme un “horizon indĂ©passable de l’intelligibilitĂ© sociale”. Melkom Boghossian dans une note trĂšs pertinente pour la fondation Jean JaurĂšs ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inĂ©galitĂ©s de genre, lorsqu’il ne questionne pas le processus vectoriel lui-mĂȘme, risque ainsi de reproduire les prĂ©supposĂ©s mĂȘmes qu’il prĂ©tend combattre”. C’est-Ă -dire que le processus en Ɠuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitĂ©e par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opĂšre Ă  travers un chaĂźnage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient rĂ©ciproquement. Cette mĂ©tavectorisation produit une topologie identitaire d’une complexitĂ© croissante qui excĂšde les possibilitĂ©s de reprĂ©sentation des modĂšles vectoriels classiques”. Nos assignations dĂ©pendent bien souvent de chaĂźnes d’infĂ©rences, comme l’illustrait le site They see yours photos que nous avions Ă©voquĂ©. Les dĂ©bats sur les identitĂ©s trans ou non binaires, constituent en ce sens “des points de tension rĂ©vĂ©lateurs oĂč s’exprime le caractĂšre intrinsĂšquement problĂ©matique de toute tentative de rĂ©duction vectorielle de la complexitĂ© existentielle”. Plus que de permettre de dĂ©passer nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes dĂ©sormais dans des situations indĂ©passables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-Ă -dire sa capacitĂ© Ă  traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indĂ©passable de la pensĂ©e et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette mĂȘme mĂ©thodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent gĂ©nĂ©ralement sur la valorisation diffĂ©rentielle des positions vectorielles plutĂŽt que sur la pertinence mĂȘme du dĂ©coupage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsĂšque”, sans pouvoir le remettre en cause, mĂȘme par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd Ă  toute parole qui revendique une position non assignable ou qui conteste la lĂ©gitimitĂ© mĂȘme de l’assignation.” “Cette insensibilitĂ© n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-mĂȘme. Elle rĂ©sulte de la nĂ©cessitĂ© structurelle d’effacer les singularitĂ©s irrĂ©ductibles pour maintenir l’efficacitĂ© des catĂ©gorisations gĂ©nĂ©rales. Le paradigme vectoriel ne peut maintenir sa cohĂ©rence qu’en traitant les cas rĂ©calcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions nĂ©gligeables ou des anomalies pathologiques. Ce phĂ©nomĂšne produit une forme spĂ©cifique de violence Ă©pistĂ©mique qui consiste Ă  dĂ©lĂ©gitimer systĂ©matiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particuliĂšrement Ă  l’encontre des individus dont l’expĂ©rience subjective contredit ou excĂšde les assignations vectorielles qui leur sont imposĂ©es — non pas simplement parce qu’ils se rĂ©assignent Ă  une position vectorielle diffĂ©rente, mais parce qu’ils contestent la lĂ©gitimitĂ© mĂȘme du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “gĂ©nĂšre un rĂ©seau dense d’attributions croisĂ©es oĂč chaque individu est simultanĂ©ment assignateur et assignĂ©, vectorisant et vectorisĂ©. Cette configuration produit un systĂšme auto entretenu oĂč les assignations se renforcent mutuellement Ă  travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des prĂ©jugĂ©s sociaux, “qui substitue Ă  l’arbitraire subjectif du prĂ©jugĂ© individuel l’arbitraire objectivĂ© du calcul algorithmique”. Les termes eux-mĂȘmes deviennent performatifs : “ils ne se contentent pas de dĂ©crire une rĂ©alitĂ© prĂ©existante, mais contribuent activement Ă  la constituer par l’acte mĂȘme de leur Ă©nonciation”. “Ces mots-vecteurs tirent leur lĂ©gitimitĂ© sociale de leur ancrage dans des dispositifs statistiques qui leur confĂšrent une apparence d’objectivitĂ© scientifique”. “Les donnĂ©es statistiques servent Ă  construire des catĂ©gories opĂ©rationnelles qui, une fois instituĂ©es, acquiĂšrent une forme d’autonomie par rapport aux rĂ©alitĂ©s qu’elles prĂ©tendent simplement reprĂ©senter”

Pour Chatonsky, la vectorisation dĂ©stabilise profondĂ©ment les identitĂ©s politiques traditionnelles et rend problĂ©matique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhĂšrent Ă  ces assignations et ceux qui contestent la lĂ©gitimitĂ© mĂȘme de ces assignations. “Les dĂ©bats politiques conventionnels se limitent gĂ©nĂ©ralement Ă  contester des assignations vectorielles spĂ©cifiques sans jamais remettre en question le principe mĂȘme de la vectorisation comme modalitĂ© fondamentale d’organisation du social”. Nous sommes politiquement coincĂ©s dans la vectorisation
 qui est Ă  la fois “un horizon qui combine la rĂ©duction des entitĂ©s Ă  des vecteurs manipulables (vectorisation), la prĂ©diction de leurs trajectoires futures sur la base de ces rĂ©ductions (anticipation), et le contrĂŽle permanent de ces trajectoires pour assurer leur conformitĂ© aux prĂ©dictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensĂ©e et d’organisation sociale qui Ă©chappent Ă  la logique mĂȘme de la vectorisation”, c’est-Ă -dire de nous extraire de l’identitĂ© comme force d’organisation du social, de donner de la place au doute plutĂŽt qu’à la certitude ainsi qu’à trouver les modalitĂ©s d’une forme de rĂ©troaction. 

“Sans rĂ©pit”

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans rĂ©pit”) est le nom d’un petit appareil qui se branche sur les machines Ă  coudre. Le capteur mesure le nombre de piĂšces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivitĂ©, rapporte Rest of the World. Outre les machines automatisĂ©es, pour coudre des boutons ou des poches simples, ces outils de surveillance visent Ă  augmenter la productivitĂ©, Ă  l’heure oĂč la main d’Ɠuvre se fait plus rare. Pour rĂ©pondre Ă  la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvriĂšre estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmentĂ© de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son Ă©cran qui lui indique de tenir la cadence.

L’IA est une technologie comme les autres

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniquĂ© le livre, AI Snake Oil – signent pour le Knight un long article pour dĂ©monter les risques existentiels de l’IA gĂ©nĂ©rale. Pour eux, l’IA est une « technologie normale Â». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricitĂ© ou internet, mais cela signifie qu’ils considĂšrent « l’IA comme un outil dont nous pouvons et devons garder le contrĂŽle, et nous soutenons que cet objectif ne nĂ©cessite ni interventions politiques drastiques ni avancĂ©es technologiques Â». L’IA n’est pas appelĂ©e Ă  dĂ©terminer elle-mĂȘme son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts Ă©conomiques et sociĂ©taux transformateurs seront lents (de l’ordre de plusieurs dĂ©cennies) Â».

Selon eux, dans les annĂ©es Ă  venir « une part croissante du travail des individus va consister Ă  contrĂŽler l’IA Â». Mais surtout, considĂ©rer l’IA comme une technologie courante conduit Ă  des conclusions fondamentalement diffĂ©rentes sur les mesures d’attĂ©nuation que nous devons y apporter, et nous invite, notamment, Ă  minimiser le danger d’une superintelligence autonome qui viendrait dĂ©vorer l’humanitĂ©.

La vitesse du progrĂšs est plus linĂ©aire qu’on le pense 

« Comme pour d’autres technologies Ă  usage gĂ©nĂ©ral, l’impact de l’IA se matĂ©rialise non pas lorsque les mĂ©thodes et les capacitĂ©s s’amĂ©liorent, mais lorsque ces amĂ©liorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, Ă  la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-Ă -dire que l’élargissement des applications Ă  d’innombrables secteurs est souvent lent mais dĂ©cisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matiĂšre d’IA ne devraient pas ĂȘtre de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intĂ©gration de l’IA dans un large Ă©ventail de processus productifs. L’enjeu tient bien plus Ă  Ă©largir les champs d’application des innovations qu’à maĂźtriser la course Ă  la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les dĂ©ploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sĂ©curitĂ© est lente. MĂȘme dans le domaine de « l’optimisation prĂ©dictive Â», c’est-Ă -dire la prĂ©diction des risques pour prendre des dĂ©cisions sur les individus, qui se sont multipliĂ©es ces derniĂšres annĂ©es, l’IA n’est pas trĂšs prĂ©sente, comme l’avaient pointĂ© les chercheurs dans une Ă©tude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexitĂ© et l’opacitĂ© de l’IA font qu’elle est peu adaptĂ©e pour ces enjeux. Les risques de sĂ©curitĂ© et de dĂ©faillance font que son usage y produit souvent de piĂštres rĂ©sultats. Sans compter que la rĂ©glementation impose dĂ©jĂ  des procĂ©dures qui ralentissent les dĂ©ploiements, que ce soit la supervision des dispositifs mĂ©dicaux ou l’IA Act europĂ©en. D’ailleurs, “lorsque de nouveaux domaines oĂč l’IA peut ĂȘtre utilisĂ©e de maniĂšre significative apparaissent, nous pouvons et devons les rĂ©glementer Â».

MĂȘme en dehors des domaines critiques pour la sĂ©curitĂ©, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses Ă©tudes estiment que l’usage de l’IA gĂ©nĂ©rative est dĂ©jĂ  trĂšs fort. Une Ă©tude trĂšs commentĂ©e constatait qu’en aoĂ»t 2024, 40 % des adultes amĂ©ricains utilisaient dĂ©jĂ  l’IA gĂ©nĂ©rative. Mais cette percĂ©e d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumĂ©riste d’une approche productive, la seconde Ă©tait bien moins maĂźtrisĂ©e que la premiĂšre. L’adoption est une question d’utilisation du logiciel, et non de disponibilitĂ©, rappellent les chercheurs. Si les outils sont dĂ©sormais accessibles immĂ©diatement, leur intĂ©gration Ă  des flux de travail ou Ă  des habitudes, elle, prend du temps. Entre utiliser et intĂ©grer, il y a une diffĂ©rence que le nombre d’utilisateurs d’une application ne suffit pas Ă  distinguer. L’analyse de l’électrification par exemple montre que les gains de productivitĂ© ont mis des dĂ©cennies Ă  se matĂ©rialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de rĂ©aliser des gains de productivitĂ©, c’est surtout la refonte complĂšte de l’agencement des usines autour de la logique des chaĂźnes de production Ă©lectrifiĂ©es. 

Les deux chercheurs estiment enfin que nous sommes confrontĂ©s Ă  des limites Ă  la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux dĂ©cennies Ă  se dĂ©velopper, du fait des contraintes de sĂ©curitĂ© nĂ©cessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais trĂšs souvent, “l’écart entre la capacitĂ© et la fiabilitĂ©â€ reste fort. La perspective d’agents IA pour la rĂ©servation de voyages ou le service clients est moins Ă  risque que la conduite autonome, mais cet apprentissage n’est pas simple Ă  rĂ©aliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour ĂȘtre dĂ©ployĂ©. MĂȘme dans le domaine de la recommandation sur les rĂ©seaux sociaux, le fait qu’elle s’appuie sur des modĂšles d’apprentissage automatique n’a pas supprimĂ© la nĂ©cessitĂ© de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour dĂ©ployer de l’IA est fortement limitĂ©e en raison des coĂ»ts sociaux de l’expĂ©rimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou rĂ©pondre Ă  des examens, comme Ă  ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles rĂ©elles. En fait, trop souvent, les indicateurs permettent de mesurer les progrĂšs des mĂ©thodes d’IA, mais peinent Ă  mesurer leurs impacts ou l’adoption, c’est-Ă -dire l’intensitĂ© de son utilisation. Kapoor et Narayanan insistent : les impacts Ă©conomiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrĂšs. En fait, il est probable que cette surproduction mĂȘme limite l’innovation. Une Ă©tude a ainsi montrĂ© que dans les domaines de recherche oĂč le volume d’articles scientifiques est plus Ă©levĂ©, il est plus difficile aux nouvelles idĂ©es de percer. 

L’IA va rester sous contrĂŽle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacitĂ© Ă  raisonner clairement sur un monde dotĂ© d’une IA avancĂ©e. Assez souvent, l’intelligence elle-mĂȘme est assez mal dĂ©finie, selon un spectre qui irait de la souris Ă  l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriĂ©tĂ© en jeu pour analyser les impacts de l’IA. C’est plutĂŽt le pouvoir – la capacitĂ© Ă  modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisĂ© pour accroĂźtre nos capacitĂ©s. La diffĂ©rence entre l’IA et les capacitĂ©s humaines reposent surtout dans la vitesse. Les machines nous dĂ©passent surtout en terme de vitesse, d’oĂč le fait que nous les ayons dĂ©veloppĂ© surtout dans les domaines oĂč la vitesse est en jeu.  

“Nous prĂ©voyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraĂźnĂ©s (en particulier les Ă©quipes humaines, et surtout si elle est complĂ©tĂ©e par des outils automatisĂ©s simples) dans la prĂ©vision d’évĂ©nements gĂ©opolitiques (par exemple, les Ă©lections). Nous faisons la mĂȘme prĂ©diction pour les tĂąches consistant Ă  persuader les gens d’agir contre leur propre intĂ©rĂȘt”. En fait, les systĂšmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prĂ©disent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrĂŽle reste fort, des audits Ă  la surveillance des systĂšmes en passant par la sĂ©curitĂ© intĂ©grĂ©e. “En cybersĂ©curitĂ©, le principe du « moindre privilĂšge » garantit que les acteurs n’ont accĂšs qu’aux ressources minimales nĂ©cessaires Ă  leurs tĂąches. Les contrĂŽles d’accĂšs empĂȘchent les personnes travaillant avec des donnĂ©es et des systĂšmes sensibles d’accĂ©der Ă  des informations et outils confidentiels non nĂ©cessaires Ă  leur travail. Nous pouvons concevoir des protections similaires pour les systĂšmes d’IA dans des contextes consĂ©quents. Les mĂ©thodes de vĂ©rification formelle garantissent que les codes critiques pour la sĂ©curitĂ© fonctionnent conformĂ©ment Ă  leurs spĂ©cifications ; elles sont dĂ©sormais utilisĂ©es pour vĂ©rifier l’exactitude du code gĂ©nĂ©rĂ© par l’IA.” Nous pouvons Ă©galement emprunter des idĂ©es comme la conception de systĂšmes rendant les actions de changement d’état rĂ©versibles, permettant ainsi aux humains de conserver un contrĂŽle significatif, mĂȘme dans des systĂšmes hautement automatisĂ©s. On peut Ă©galement imaginer de nouvelles idĂ©es pour assurer la sĂ©curitĂ©, comme le dĂ©veloppement de systĂšmes qui apprennent Ă  transmettre les dĂ©cisions aux opĂ©rateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systĂšmes agents dont l’activitĂ© est visible et lisible par les humains, ou encore la crĂ©ation de structures de contrĂŽle hiĂ©rarchiques dans lesquelles des systĂšmes d’IA plus simples et plus fiables supervisent des systĂšmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le dĂ©veloppement et l’adoption de l’IA avancĂ©e, l’innovation se multipliera pour trouver de nouveaux modĂšles de contrĂŽle humain”.

Pour eux d’ailleurs, Ă  l’avenir, un nombre croissant d’emplois et de tĂąches humaines seront affectĂ©s au contrĂŽle de l’IA. Lors des phases d’automatisation prĂ©cĂ©dentes, d’innombrables mĂ©thodes de contrĂŽle et de surveillance des machines ont Ă©tĂ© inventĂ©es. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrĂŽler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilitĂ© et du contrĂŽle en favorisant l’efficacitĂ© et l’automatisation doit toujours ĂȘtre contrebalancĂ©e. Les IA mal contrĂŽlĂ©es risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutĂŽt que les systĂšmes trop autonomes et insuffisamment supervisĂ©s sont vite dĂ©branchĂ©s. Nul n’a avantage Ă  se passer du contrĂŽle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant Ă  dĂ©ployer une IA de plus en plus puissante sans supervision ni contrĂŽle adĂ©quats sous prĂ©texte de concurrence, et que les acteurs les plus sĂ»rs soient supplantĂ©s par des acteurs prenant plus de risques, est souvent vite remisĂ©e par la rĂ©gulation. “De nombreuses stratĂ©gies rĂ©glementaires sont mobilisables, que ce soient celles axĂ©es sur les processus (normes, audits et inspections), les rĂ©sultats (responsabilitĂ©) ou la correction de l’asymĂ©trie d’information (Ă©tiquetage et certification).” En fait, rappellent les chercheurs, le succĂšs commercial est plutĂŽt liĂ© Ă  la sĂ©curitĂ© qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aĂ©ronautique, “l’intĂ©gration de l’IA a Ă©tĂ© limitĂ©e aux normes de sĂ©curitĂ© existantes, au lieu qu’elles soient abaissĂ©es pour encourager son adoption, principalement en raison de la capacitĂ© des rĂ©gulateurs Ă  sanctionner les entreprises qui ne respectent pas les normes de sĂ©curitĂ©â€. Dans le secteur automobile, pourtant, pendant longtemps, la sĂ©curitĂ© n’était pas considĂ©rĂ©e comme relevant de la responsabilitĂ© des constructeurs. mais petit Ă  petit, les normes et les attentes en matiĂšre de sĂ©curitĂ© se sont renforcĂ©es. Dans le domaine des recommandations algorithmiques des mĂ©dias sociaux par contre, les prĂ©judices sont plus difficiles Ă  mesurer, ce qui explique qu’il soit plus difficile d’imputer les dĂ©faillances aux systĂšmes de recommandation. “L’arbitrage entre innovation et rĂ©glementation est un dilemme rĂ©current pour l’État rĂ©gulateur”. En fait, la plupart des secteurs Ă  haut risque sont fortement rĂ©glementĂ©s, rappellent les deux chercheurs. Et contrairement Ă  l’idĂ©e rĂ©pandue, il n’y a pas que l’Europe qui rĂ©gule, les Etats-Unis et la Chine aussi ! Quant Ă  la course aux armements, elle se concentre surtout sur l’invention des modĂšles, pas sur l’adoption ou la diffusion qui demeurent bien plus dĂ©terminantes pourtant. 

RĂ©pondre aux abus. Jusqu’à prĂ©sent, les principales dĂ©fenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modĂšles, estiment les chercheurs. Le problĂšme fondamental est que la nocivitĂ© d’un modĂšle dĂ©pend du contexte, contexte souvent absent du modĂšle, comme ils l’expliquaient en montrant que la sĂ©curitĂ© n’est pas une propriĂ©tĂ© du modĂšle. Le modĂšle chargĂ© de rĂ©diger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisĂ© Ă  des fins marketing ou d’hameçonnage ; les interventions au niveau du modĂšle seraient donc inefficaces. Ainsi, les dĂ©fenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations lĂ©gitimes), mais plutĂŽt les systĂšmes d’analyse et de filtrage des e-mails qui dĂ©tectent les schĂ©mas suspects, et les protections au niveau du navigateur. Se dĂ©fendre contre les cybermenaces liĂ©es Ă  l’IA nĂ©cessite de renforcer les programmes de dĂ©tection des vulnĂ©rabilitĂ©s existants plutĂŽt que de tenter de restreindre les capacitĂ©s de l’IA Ă  la source. Mais surtout, “plutĂŽt que de considĂ©rer les capacitĂ©s de l’IA uniquement comme une source de risque, il convient de reconnaĂźtre leur potentiel dĂ©fensif. En cybersĂ©curitĂ©, l’IA renforce dĂ©jĂ  les capacitĂ©s dĂ©fensives grĂące Ă  la dĂ©tection automatisĂ©e des vulnĂ©rabilitĂ©s, Ă  l’analyse des menaces et Ă  la surveillance des surfaces d’attaque”. “Donner aux dĂ©fenseurs l’accĂšs Ă  des outils d’IA puissants amĂ©liore souvent l’équilibre attaque-dĂ©fense en leur faveur”. En modĂ©ration de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider Ă  identifier les opĂ©rations d’influence coordonnĂ©es. Nous devons investir dans des applications dĂ©fensives plutĂŽt que de tenter de restreindre la technologie elle-mĂȘme, suggĂšrent les chercheurs. 

Le dĂ©salignement. Une IA mal alignĂ©e agit contre l’intention de son dĂ©veloppeur ou de son utilisateur. Mais lĂ  encore, la principale dĂ©fense contre le dĂ©salignement se situe en aval plutĂŽt qu’en amont, dans les applications plutĂŽt que dans les modĂšles. Le dĂ©salignement catastrophique est le plus spĂ©culatif des risques, rappellent les chercheurs. “La crainte que les systĂšmes d’IA puissent interprĂ©ter les commandes de maniĂšre catastrophique repose souvent sur des hypothĂšses douteuses quant au dĂ©ploiement de la technologie dans le monde rĂ©el”. Dans le monde rĂ©el, la surveillance et le contrĂŽle sont trĂšs prĂ©sents et l’IA est trĂšs utile pour renforcer cette surveillance et ce contrĂŽle. Les craintes liĂ©es au dĂ©salignement de l’IA supposent que ces systĂšmes dĂ©jouent la surveillance, alors que nous avons dĂ©veloppĂ©s de trĂšs nombreuses formes de contrĂŽle, qui sont souvent d’autant plus fortes et redondantes que les dĂ©cisions sont importantes. 

Les risques systĂ©miques. Si les risques existentiels sont peu probables, les risques systĂ©miques, eux, sont trĂšs courants. Parmi ceux-ci figurent “l’enracinement des prĂ©jugĂ©s et de la discrimination, les pertes d’emplois massives dans certaines professions, la dĂ©gradation des conditions de travail, l’accroissement des inĂ©galitĂ©s, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystĂšme de l’information, le dĂ©clin de la libertĂ© de la presse, le recul dĂ©mocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques Ă©voquĂ©s prĂ©cĂ©demment”. Car ces risques dĂ©coulent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intĂ©rĂȘts, l’IA ne faisant qu’amplifier les instabilitĂ©s existantes dans notre sociĂ©tĂ©. Nous devrions bien plus nous soucier des risques cumulatifs que des risques dĂ©cisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant Ă  rĂ©orienter la rĂ©gulation de l’IA, notamment en favorisant la rĂ©silience. Pour l’instant, l’élaboration des politiques publiques et des rĂ©glementations de l’IA est caractĂ©risĂ©e par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la sociĂ©tĂ©. Si les probabilitĂ©s de risque existentiel de l’IA sont trop peu fiables pour Ă©clairer les politiques, il n’empĂȘche que nombre d’acteurs poussent Ă  une rĂ©gulation adaptĂ©e Ă  ces risques existentiels. Alors que d’autres interventions, comme l’amĂ©lioration de la transparence, sont inconditionnellement utiles pour attĂ©nuer les risques, quels qu’ils soient. Se dĂ©fendre contre la superintelligence exige que l’humanitĂ© s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrĂŽle centralisĂ© sur l’IA, qui risque d’ĂȘtre un remĂšde pire que le mal. Or, nous devrions bien plus nous prĂ©occuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inĂ©galitĂ©s. Pour nous dĂ©fendre contre ces risques-ci, pour empĂȘcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, dĂ©fendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, amĂ©liorer le financement stratĂ©gique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et amĂ©liorer nos connaissances sur les risques et leur attĂ©nuation. Ils proposent Ă©galement d’amĂ©liorer la surveillance des usages, des risques et des Ă©checs, passant par les dĂ©clarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de donnĂ©es d’incidents de l’IA) ou la protection des lanceurs d’alerte
 Enfin, il proposent que les “donnĂ©es probantes” soient un objectif prioritaire, c’est-Ă -dire d’amĂ©liorer l’accĂšs de la recherche.

Dans le domaine de l’IA, la difficultĂ© consiste Ă  Ă©valuer les risques avant le dĂ©ploiement. Pour amĂ©liorer la rĂ©silience, il est important d’amĂ©liorer la responsabilitĂ© et la rĂ©silience, plus que l’analyse de risque, c’est-Ă -dire des dĂ©marches de contrĂŽle qui ont lieu aprĂšs les dĂ©ploiements. “La rĂ©silience exige Ă  la fois de minimiser la gravitĂ© des dommages lorsqu’ils surviennent et la probabilitĂ© qu’ils surviennent.” Pour attĂ©nuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la dĂ©mocratie, la libertĂ© de la presse ou l’équitĂ© dans le monde du travail. C’est-Ă -dire d’amĂ©liorer la rĂ©silience sociĂ©tale au sens large. 

Pour Ă©laborer des politiques technologiques efficaces, il faut ensuite renforcer les capacitĂ©s techniques et institutionnelles de la recherche, des autoritĂ©s et administrations. Sans personnels compĂ©tents et informĂ©s, la rĂ©gulation de l’IA sera toujours difficile. Les chercheurs invitent mĂȘme Ă  “diversifier l’ensemble des rĂ©gulateurs et, idĂ©alement, Ă  introduire la concurrence entre eux plutĂŽt que de confier la responsabilitĂ© de l’ensemble Ă  un seul rĂ©gulateur”.

Par contre, Kapoor et Narayanan se dĂ©fient fortement des politiques visant Ă  promouvoir une non-prolifĂ©ration de l’IA, c’est-Ă -dire Ă  limiter le nombre d’acteurs pouvant dĂ©velopper des IA performantes. Les contrĂŽles Ă  l’exportation de matĂ©riel ou de logiciels visant Ă  limiter la capacitĂ© des pays Ă  construire, acquĂ©rir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modĂšles d’IA Ă  pondĂ©ration ouverte
 sont des politiques qui favorisent la concentration plus qu’elles ne rĂ©duisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le mĂȘme modĂšle, les vulnĂ©rabilitĂ©s de ce modĂšle peuvent ĂȘtre exploitĂ©es dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “rĂ©aliser les avantages de l’IA”, c’est-Ă -dire accĂ©lĂ©rer l’adoption des bĂ©nĂ©fices de l’IA et attĂ©nuer ses inconvĂ©nients. Pour cela, estiment-ils, nous devons ĂȘtre plus souples sur nos modalitĂ©s d’intervention. Par exemple, ils estiment que pour l’instant catĂ©goriser certains domaines de dĂ©ploiement de l’IA comme Ă  haut risque est problĂ©matique, au prĂ©texte que dans ces secteurs (assurance, prestation sociale ou recrutement
), les technologies peuvent aller de la reconnaissance optique de caractĂšres, relativement inoffensives, Ă  la prise de dĂ©cision automatisĂ©es dont les consĂ©quences sont importantes. Pour eux, il faudrait seulement considĂ©rer la prise de dĂ©cision automatisĂ©e dans ces secteurs comme Ă  haut risque. 

Un autre enjeu repose sur l’essor des modĂšles fondamentaux qui a conduit Ă  une distinction beaucoup plus nette entre les dĂ©veloppeurs de modĂšles, les dĂ©veloppeurs en aval et les dĂ©ployeurs (parmi de nombreuses autres catĂ©gories). Une rĂ©glementation insensible Ă  ces distinctions risque de confĂ©rer aux dĂ©veloppeurs de modĂšles des responsabilitĂ©s en matiĂšre d’attĂ©nuation des risques liĂ©s Ă  des contextes de dĂ©ploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modĂšles fondamentaux et de l’imprĂ©visibilitĂ© de tous les contextes de dĂ©ploiement possibles.

Enfin, lorsque la rĂ©glementation Ă©tablit une distinction binaire entre les dĂ©cisions entiĂšrement automatisĂ©es et celles qui ne le sont pas, et ne reconnaĂźt pas les degrĂ©s de surveillance, elle dĂ©courage l’adoption de nouveaux modĂšles de contrĂŽle de l’IA. Or de nombreux nouveaux modĂšles sont proposĂ©s pour garantir une supervision humaine efficace sans impliquer un humain dans chaque dĂ©cision. Il serait imprudent de dĂ©finir la prise de dĂ©cision automatisĂ©e de telle sorte que ces approches engendrent les mĂȘmes contraintes de conformitĂ© qu’un systĂšme sans supervision. Pour les deux chercheurs, “opposer rĂ©glementation et diffusion est un faux compromis, tout comme opposer rĂ©glementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas rĂ©guler, mais bien de garantir de la souplesse. La lĂ©gislation garantissant la validitĂ© juridique des signatures et enregistrement Ă©lectroniques promulguĂ©e en 2000 aux Etats-Unis a jouĂ© un rĂŽle dĂ©terminant dans la promotion du commerce Ă©lectronique et sa diffusion. La lĂ©gislation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le dĂ©veloppement du secteur par la crĂ©ation de pilotes certifiĂ©s. Nous devons trouver pour l’IA Ă©galement des rĂ©glementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bĂ©nĂ©fices de l’IA afin de les rendre plus Ă©quitables et d’indemniser les personnes qui risquent de subir les consĂ©quences de l’automatisation. Le renforcement des filets de sĂ©curitĂ© sociale contribuera Ă  attĂ©nuer l’inquiĂ©tude actuelle du public face Ă  l’IA dans de nombreux pays”. Et les chercheurs de suggĂ©rer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis Ă  mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste Ă©quilibre entre une adoption trop prĂ©cipitĂ©e qui gĂ©nĂšre des dĂ©faillances et de la mĂ©fiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privĂ©.

De l’instrumentalisation du numĂ©rique par l’action publique

L’avant dernier numĂ©ro de la revue RĂ©seaux est consacrĂ© Ă  la dĂ©matĂ©rialisation. “La numĂ©risation des administrations redĂ©finit le rapport Ă  l’État et ouvre Ă  des procĂšs de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numĂ©ro, qui rappelle que ces dĂ©veloppements suivent des phases en regardant celles des pays scandinaves, pionniers en la matiĂšre. Pourtant, lĂ -bas comme ailleurs, la numĂ©risation n’a pas aidĂ© ou apaisĂ© la relation administrative, au contraire. LĂ -bas aussi, elle rend plus difficile l’accĂšs aux droits. En fait, plus qu’un changement d’outillage, elle est une â€œĂ©volution de nature politique” qui redĂ©finit les rapports Ă  l’État, Ă  la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, crĂ©ant des situations d’accĂšs inĂ©galitaires qui restreignennt la qualitĂ© et la continuitĂ© des services publics. “La dĂ©matĂ©rialisation de l’action publique signe en cela une double dĂ©lĂ©gation. D’un cĂŽtĂ©, certaines opĂ©rations sont dĂ©lĂ©guĂ©es aux dispositifs techniques ; de l’autre, on constate un dĂ©placement complĂ©mentaire de celles-ci vers les usagers, qui portent dĂ©sormais la charge et la responsabilitĂ© du bon dĂ©roulement des dĂ©marches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se dĂ©brouiller et les autres. L’accĂšs aux outils numĂ©riques et leur maĂźtrise devient un nouveau critĂšre d’éligibilitĂ© aux droits, gĂ©nĂ©rateur de non-recours : le numĂ©rique devient une “charge supplĂ©mentaire” pour les plus vulnĂ©rables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultĂ©s, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “dĂ©placer le pĂ©rimĂštre de leurs missions premiĂšres”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab AccĂšs sur le dispositif Conseiller numĂ©rique France Services (CnFS) montre qu’il se rĂ©vĂšle fragile, profitant d’abord aux structures prĂ©alablement les plus engagĂ©es sur l’inclusion numĂ©rique. L’État s’est appuyĂ© sur le plan de relance europĂ©en afin de transfĂ©rer aux acteurs locaux la prise en charge d’un problĂšme public dont les conseillers numĂ©riques doivent assumer la charge. Les moyens s’avĂšrent « structurellement insuffisants pour stabiliser une rĂ©ponse proportionnĂ©e aux besoins ». À l’échelle nationale, les dĂ©marches en ligne se placent en tĂȘte des aides rĂ©alisĂ©es par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexĂ©s Ă  la numĂ©risation des administrations »; et de constater qu’il y a lĂ  une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numĂ©rique – qui ne parvient pas Ă  rĂ©pondre aux besoins gĂ©nĂ©rĂ©s par une autre action publique – les politiques de dĂ©matĂ©rialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant Ă  certains acteurs, notamment aux acteurs de la dĂ©matĂ©rialisation de la relation administrative, qu’il n’a permis de rĂ©pondre Ă  la gĂ©ographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes ĂągĂ©es, moins en rĂ©ponse Ă  des besoins qu’en raison du ciblage de l’offre elle-mĂȘme : elle capte d’abord des publics « disponibles », pas nĂ©cessairement ceux qui en ont le plus besoin ». Enfin, la dĂ©gressivitĂ© des financements a, quant Ă  elle, « produit un effet de sĂ©lection, qui a accentuĂ© les inĂ©galitĂ©s entre acteurs et territoires », notamment au dĂ©triment des acteurs de la mĂ©diation numĂ©rique.

La gouvernance par dispositifs numĂ©riques faciliterait l’avĂšnement d’une administration d’orientation nĂ©olibĂ©rale priorisant les valeurs du marchĂ©, explique Granjon. L’administration « renforcerait son contrĂŽle sur les populations, mais, paradoxalement, perdrait le contrĂŽle sur ses principaux outils, notamment ceux d’aide Ă  la dĂ©cision quant Ă  l’octroi de droits et de subsides ». La dĂ©cision confiĂ©e aux procĂ©dures de calcul, laisse partout peu de marge de manƓuvre aux agents, les transformant en simples exĂ©cutants. A PĂŽle Emploi, par exemple, il s’agit moins de trouver un emploi aux chĂŽmeurs que de les rendre « autonomes » avec les outils numĂ©riques. Pour PĂ©rine Brotcorne pourtant, malgrĂ© la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des dĂ©veloppements numĂ©riques des services publics. Rien n’est fait par exemple pour l’usager en difficultĂ© par exemple pour qu’il puisse dĂ©lĂ©guer la prise en charge de ses tĂąches administratives Ă  un tiers, comme le soulignait rĂ©cemment le DĂ©fenseur des droits. Les interfaces numĂ©riques, trop complexes, fabriquent “de l’incapacitĂ©â€ pour certains publics, notamment les plus Ă©loignĂ©s et les plus vulnĂ©rables. Brotcorne montre d’ailleurs trĂšs bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invitĂ©s Ă  s’exprimer. L’étude souligne que prĂšs de la moitiĂ© des usagers n’arrivent pas Ă  passer la premiĂšre Ă©tape des services publics numĂ©riques que ce soit se connecter, prendre rendez-vous ou mĂȘme tĂ©lĂ©charger un formulaire. Dans un autre article, signĂ© Anne-Sylvie Pharabod et CĂ©line Borelle, les deux chercheuses auscultent les pratiques administratives numĂ©risĂ©es ordinaires qui montrent que la numĂ©risation est une longue habituation, oĂč les dĂ©marches apprises pour un service permettent d’en aborder d’autres. Les dĂ©marches administratives sont un univers de tĂąches dont il faut apprendre Ă  se dĂ©brouiller, comme faire se peut, et qui en mĂȘme temps sont toujours remises Ă  zĂ©ro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identitĂ©, ou des documents Ă  uploader. “La diversitĂ© des dĂ©marches, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des interfaces et l’évolution rapide des outils liĂ©e Ă  des amĂ©liorations incrĂ©mentales (notamment en matiĂšre de sĂ©curitĂ©) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numĂ©riques au sein du Service public de l’emploi a pour consĂ©quence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numĂ©rique se voit investie de la fonction de rĂ©gulation des comportements des usagers, des agents publics, mais Ă©galement de bien d’autres publics, notamment tous ceux utilisant ses donnĂ©es et plateformes. A cette aune, France Travail est amenĂ© Ă  devenir un « animateur d’écosystĂšme emploi/formation/insertion » connectant divers Ă©chelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses diffĂ©rentes plateformes. Granjon invite Ă  s’intĂ©resser Ă  ces encastrements nouveaux et pas seulement aux guichets, ou Ă  la relation agent-public, pour mieux saisir comment les bases de donnĂ©es, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procĂ©dures que France Travail met en place. 

Le numĂ©ro de RĂ©seaux livre Ă©galement un intĂ©ressant article, trĂšs critique, du Dossier mĂ©dical partagĂ©, signĂ© Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intĂ©resse Ă  l’histoire de la gouvernance problĂ©matique du projet, qui explique en grande partie ses Ă©cueils, et au fait que le DMP ne semble toujours pas avoir trouvĂ© son utilitĂ© pour les professionnels de santĂ©.

Un autre article signĂ© Pauline Boyer explore le lancement du portail de donnĂ©es ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel GoĂ«ta et Élise Ho-Pun-Cheung s’intĂ©ressent quant Ă  eux Ă  la production de standards et aux difficultĂ©s de leur intĂ©gration dans le quotidien des agents, en observant le processus de standardisation des donnĂ©es des lieux de mĂ©diation numĂ©rique. L’article souligne la difficultĂ© des conseillers numĂ©riques Ă  inflĂ©chir la standardisation et montre que cette normalisation peine Ă  prĂ©voir les usages de la production de donnĂ©es.

Dans un article de recherche qui n’est pas publiĂ© par RĂ©seaux, mais complĂ©mentaire Ă  son dossier, le politologue nĂ©erlandais, Pascal D. Koenig explique que le dĂ©veloppement d’un État algorithmique modifie la relation avec les citoyens, ce qui nĂ©cessite de regarder au-delĂ  des seules propriĂ©tĂ©s des systĂšmes. L’intĂ©gration des algos et de l’IA dĂ©veloppe une relation plus impersonnelle, renforçant le contrĂŽle et l’asymĂ©trie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systĂšmes d’IA, qui remplacent ou assistent l’exĂ©cution des tĂąches humaines, introduisent un nouveau type de reprĂ©sentation des agents dans les organisations gouvernementales. Ils rĂ©duisent ainsi structurellement la reprĂ©sentation des citoyens – en tant qu’ĂȘtres humains – au sein de l’État et augmentent les asymĂ©tries de pouvoir, en Ă©tendant unilatĂ©ralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte Ă©galement les fondements de la reconnaissance sociale dans la relation citoyen-État, liĂ©s au comportement. En tant qu’agents artificiels, les systĂšmes d’IA manquent de comprĂ©hension et de compassion humaines, dont l’expression dans de nombreuses interactions est un Ă©lĂ©ment important pour reconnaĂźtre et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiĂ©rarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui Ă©rode le respect que les institutions leur tĂ©moignent”. Le manque d’empathie des systĂšmes est l’une des principales raisons pour lesquelles les individus s’en mĂ©fient, rappelle Koenig. Or, “la numĂ©risation et l’automatisation de l’administration rĂ©duisent les foyers d’empathie existants et contribuent Ă  une prise en compte Ă©troite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de comprĂ©hension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental oĂč le contact humain se rĂ©duit : moins reprĂ©sentatif, il est donc moins disposĂ© Ă  prendre des dĂ©cisions dans leur intĂ©rĂȘt.

Pluriparentalité et polygamie

En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.

Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.

« Certes, ce n’est pas pour tout de suite Â», Ă©crit Rousseau, « car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fĂ©dĂ©ral dĂ©cide d’abolir cette interdiction pour que le QuĂ©bec puisse ĂȘtre forcĂ© d’en faire autant. Â» Effectivement, pratiquement tous les actes criminels peuvent ĂȘtre lĂ©galisĂ©s du jour au lendemain si le gouvernement le dĂ©cide. Ce n’est pas un argument.

D’aprĂšs Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la libertĂ© de religion. Cette crainte est complĂštement sans fondement. Un jugement de la Cour suprĂȘme de la Colombie-Britannique l’a d’ailleurs confirmĂ© en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-ĂȘtre une entrave Ă  la libertĂ© de religion, mais c’est une limitation acceptable et nĂ©cessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la rĂ©fĂ©rence.

Donc non, ce n’est pas demain qu’un tribunal va dĂ©criminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en dĂ©cider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de lĂ©gifĂ©rer en ce sens. Alors de quoi est-ce qu’on s’inquiĂšte? Et surtout, quel est le rapport avec les familles pluriparentales?

Pourquoi la polygamie est-elle non seulement interdite au Canada, mais criminelle? Voici quelques raisons tirĂ©es du rapport « La polygynie et les obligations du Canada en vertu du droit international en matiĂšre de droits de la personne« . On comprend que le rapport adresse directement les familles appartenant Ă  des communautĂ©s oĂč la polygynie (un homme ayant plusieurs Ă©pouses) est une pratique culturelle ou religieuse:

  • La polygamie renforce le patriarcat
  • La compĂ©tition entre les Ă©pouses cause du tort aux enfants et aux Ă©pouses elles-mĂȘmes
  • Risque pour la santĂ© sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
  • La polygamie est souvent synonyme de dĂ©nuement Ă©conomique pour les femmes et leurs enfants
  • L’inĂ©galitĂ© domestique est incompatible avec l’égalitĂ© Ă©conomique et sociale, donc avec les valeurs canadiennes

Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causĂ© un tort rĂ©el et documentĂ© aux femmes et aux enfants.

On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales Ă  la reconnaissance conjugale. Ce sont deux enjeux complĂštement diffĂ©rents. Plusieurs provinces canadiennes reconnaissent dĂ©jĂ  lĂ©galement la pluriparentalitĂ© (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon ValĂ©rie Costanzo, professeure en sciences juridiques Ă  l’UniversitĂ© du QuĂ©bec Ă  MontrĂ©al, ces changements lĂ©gislatifs n’ont pas conduit Ă  des campagnes juridiques pour dĂ©criminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au QuĂ©bec.

Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacĂ©s par leur structure atypique? Au contraire, c’est prĂ©cisĂ©ment en tenant compte des intĂ©rĂȘts des enfants que les tribunaux canadiens ont accordĂ© un statut lĂ©gal aux unions pluriparentales. Imaginons une situation d’urgence oĂč le « troisiĂšme parent Â», celui qui n’est pas inscrit sur le certificat de naissance, se retrouve Ă  l’hĂŽpital seul avec son enfant. Il n’a pas l’autoritĂ© lĂ©gale de prendre une dĂ©cision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu ĂȘtre Ă©vitĂ©e avec un changement sur un papier.

Avant d’adopter des idĂ©es prĂ©conçues sur la pluriparentalitĂ©, je recommande vivement d’écouter l’entrevue de Sophie Paradis Ă  l’émission de Patrick LagacĂ© le 7 mai 2025. Les inquiets rĂ©aliseront peut-ĂȘtre que les familles pluriparentales ne sont dignes ni de suspicion, ni de mĂ©pris. Si vous vous inquiĂ©tez pour le bien-ĂȘtre des enfants des unions Ă  trois parents, dites-vous que les sĂ©parations complexes et les cellules familiales dysfonctionnelles ne sont pas liĂ©es au nombre d’adultes impliquĂ©s. Au contraire, un projet de pluriparentalitĂ© implique gĂ©nĂ©ralement un niveau de prĂ©paration qui Ă©chappe Ă  un trĂšs grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvĂ©e en cour pour dĂ©battre de la garde des enfants. Pour citer ValĂ©rie Costanzo encore une fois: « Cela peut s’expliquer notamment par une mĂ©fiance par rapport Ă  la surveillance des tribunaux, oĂč ces familles pourraient vivre des prĂ©jugĂ©s, mais Ă©galement par des outils de communication et de gestion familiale plus sains. Â» Bref, l’expĂ©rience ne donne aucune raison de croire que reconnaĂźtre lĂ©galement la pluriparentĂ© serait prĂ©judiciable pour les enfants.

Associer les familles pluriparentales, comme le fait Normand Lester, Ă  des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale Ă  des familles dĂ©jĂ  marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles Ă  leurs enfants. C’est d’autant plus absurde vu la prĂ©sence importante de la communautĂ© LGBTQ+ parmi les familles qui ne rĂ©pondent pas au modĂšle traditionnel. Ce n’est gĂ©nĂ©ralement pas lĂ  qu’on retrouve les ultrareligieux.

« Face Ă  cette atteinte Ă  sa libertĂ© de choisir et Ă  son caractĂšre distinct, le QuĂ©bec doit rĂ©sister Â», conclut Guillaume Rousseau. RĂ©sister Ă  quoi? À des familles qui ne rĂ©pondent pas au modĂšle traditionnel? Cette bataille juridique que Rousseau semble rĂ©clamer de ses voeux ne vise en gros qu’à empĂȘcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se fĂ©liciter collectivement d’avoir empĂȘchĂ© Ottawa de nous obliger Ă  respecter les droits d’une minoritĂ©? C’est une habitude dangereuse qu’on semble vouloir dĂ©velopper au QuĂ©bec. Il serait temps d’arrĂȘter de voir les droits individuels comme une menace Ă  Ă©liminer.

Les familles pluriparentales n’ont pas demandĂ© Ă  ĂȘtre prises en otage par un nouvel affrontement juridictionnel entre QuĂ©bec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colĂšre contre le rĂ©gime fĂ©dĂ©ral, qu’ils s’en tiennent Ă  des guerres de chiffres.

Pluriparentalité et polygamie

En avril dernier, la Cour supérieure du Québec a tranché en faveur des familles pluriparentales: un enfant peut légalement avoir plus de deux parents. Le gouvernement du Québec a un an pour amender le Code civil afin de tenir compte de cette nouvelle réalité.

Excellente nouvelle pour les personnes concernées. Décision sans conséquence pour celles qui ne le sont pas. Mais des gens sont inquiets. Normand Lester et Guillaume Rousseau nous disent carrément que la décision du juge Andres C. Garin ouvre la porte à la polygamie. Rousseau se garde de viser une communauté en particulier, mais Lester attaque directement les musulmans. Présentement, la polygamie est un acte criminel au Canada. Mais Rousseau et Lester nous préviennent que nous sommes à un pas de sa légalisation.

“Certes, ce n’est pas pour tout de suite”, Ă©crit Rousseau, “car le Code criminel canadien interdit cette pratique. Mais il suffirait que le fĂ©dĂ©ral dĂ©cide d’abolir cette interdiction pour que le QuĂ©bec puisse ĂȘtre forcĂ© d’en faire autant.” Effectivement, pratiquement tous les actes criminels peuvent ĂȘtre lĂ©galisĂ©s du jour au lendemain si le gouvernement le dĂ©cide. Ce n’est pas un argument.

D’aprĂšs Lester, c’est une question de temps avant que les tribunaux invalident la criminalisation de la polygamie au nom de la libertĂ© de religion. Cette crainte est complĂštement sans fondement. Un jugement de la Cour suprĂȘme de la Colombie-Britannique l’a d’ailleurs confirmĂ© en 2011 (BCSC 1588). La criminalisation de la polygamie est peut-ĂȘtre une entrave Ă  la libertĂ© de religion, mais c’est une limitation acceptable et nĂ©cessaire dans un contexte de protection des droits des femmes et des enfants. Merci au juriste Louis-Philippe Lampron pour la rĂ©fĂ©rence.

Donc non, ce n’est pas demain qu’un tribunal va dĂ©criminaliser la polygamie au nom du respect des droits individuels. Le gouvernement pourrait en dĂ©cider autrement, mais nous n’avons aucune raison de croire que le nouveau gouvernement Carney ait l’intention de lĂ©gifĂ©rer en ce sens. Alors de quoi est-ce qu’on s’inquiĂšte? Et surtout, quel est le rapport avec les familles pluriparentales?

Pourquoi la polygamie est-elle non seulement interdite au Canada, mais criminelle? Voici quelques raisons tirĂ©es du rapport “La polygynie et les obligations du Canada en vertu du droit international en matiĂšre de droits de la personne“. On comprend que le rapport adresse directement les familles appartenant Ă  des communautĂ©s oĂč la polygynie (un homme ayant plusieurs Ă©pouses) est une pratique culturelle ou religieuse:

  • La polygamie renforce le patriarcat
  • La compĂ©tition entre les Ă©pouses cause du tort aux enfants et aux Ă©pouses elles-mĂȘmes
  • Risque pour la santĂ© sexuelle (la polygynie augmente le risque de transmission des infections et maladies)
  • La polygamie est souvent synonyme de dĂ©nuement Ă©conomique pour les femmes et leurs enfants
  • L’inĂ©galitĂ© domestique est incompatible avec l’égalitĂ© Ă©conomique et sociale, donc avec les valeurs canadiennes

Donc ce n’est pas seulement par principe que le Canada ne permet pas les unions polygames. C’est parce que dans plusieurs contextes, celles-ci ont causĂ© un tort rĂ©el et documentĂ© aux femmes et aux enfants.

On brouille les cartes lorsqu’on lie les demandes de reconnaissance parentales Ă  la reconnaissance conjugale. Ce sont deux enjeux complĂštement diffĂ©rents. Plusieurs provinces canadiennes reconnaissent dĂ©jĂ  lĂ©galement la pluriparentalitĂ© (la Colombie-Britannique depuis 2013, l’Ontario depuis 2016 et la Saskatchewan depuis 2021). Selon ValĂ©rie Costanzo, professeure en sciences juridiques Ă  l’UniversitĂ© du QuĂ©bec Ă  MontrĂ©al, ces changements lĂ©gislatifs n’ont pas conduit Ă  des campagnes juridiques pour dĂ©criminaliser la polygamie. Il n’y a pas de raison de croire qu’il en irait autrement au QuĂ©bec.

Maintenant, je vous le demande: en quoi les enfants des familles pluriparentales sont menacĂ©s par leur structure atypique? Au contraire, c’est prĂ©cisĂ©ment en tenant compte des intĂ©rĂȘts des enfants que les tribunaux canadiens ont accordĂ© un statut lĂ©gal aux unions pluriparentales. Imaginons une situation d’urgence oĂč le “troisiĂšme parent”, celui qui n’est pas inscrit sur le certificat de naissance, se retrouve Ă  l’hĂŽpital seul avec son enfant. Il n’a pas l’autoritĂ© lĂ©gale de prendre une dĂ©cision. On se retrouve dans une situation dangereuse pour l’enfant qui aurait pu ĂȘtre Ă©vitĂ©e avec un changement sur un papier.

Avant d’adopter des idĂ©es prĂ©conçues sur la pluriparentalitĂ©, je recommande vivement d’écouter l’entrevue de Sophie Paradis Ă  l’émission de Patrick LagacĂ© le 7 mai 2025. Les inquiets rĂ©aliseront peut-ĂȘtre que les familles pluriparentales ne sont dignes ni de suspicion, ni de mĂ©pris. Si vous vous inquiĂ©tez pour le bien-ĂȘtre des enfants des unions Ă  trois parents, dites-vous que les sĂ©parations complexes et les cellules familiales dysfonctionnelles ne sont pas liĂ©es au nombre d’adultes impliquĂ©s. Au contraire, un projet de pluriparentalitĂ© implique gĂ©nĂ©ralement un niveau de prĂ©paration qui Ă©chappe Ă  un trĂšs grand nombre de familles dites traditionnelles. À ce jour, aucune des quelques familles pluriparentales reconnues dans les autres provinces canadiennes ne s’est retrouvĂ©e en cour pour dĂ©battre de la garde des enfants. Pour citer ValĂ©rie Costanzo encore une fois: “Cela peut s’expliquer notamment par une mĂ©fiance par rapport Ă  la surveillance des tribunaux, oĂč ces familles pourraient vivre des prĂ©jugĂ©s, mais Ă©galement par des outils de communication et de gestion familiale plus sains.” Bref, l’expĂ©rience ne donne aucune raison de croire que reconnaĂźtre lĂ©galement la pluriparentĂ© serait prĂ©judiciable pour les enfants.

Associer les familles pluriparentales, comme le fait Normand Lester, Ă  des familles ultraconservatrices mormones ou musulmanes, est non seulement injuste, mais dangereux. C’est faire courir le risque d’une stigmatisation sociale Ă  des familles dĂ©jĂ  marginales qui ne demandent qu’à offrir les meilleures conditions de vie possibles Ă  leurs enfants. C’est d’autant plus absurde vu la prĂ©sence importante de la communautĂ© LGBTQ+ parmi les familles qui ne rĂ©pondent pas au modĂšle traditionnel. Ce n’est gĂ©nĂ©ralement pas lĂ  qu’on retrouve les ultrareligieux.

“Face Ă  cette atteinte Ă  sa libertĂ© de choisir et Ă  son caractĂšre distinct, le QuĂ©bec doit rĂ©sister”, conclut Guillaume Rousseau. RĂ©sister Ă  quoi? À des familles qui ne rĂ©pondent pas au modĂšle traditionnel? Cette bataille juridique que Rousseau semble rĂ©clamer de ses voeux ne vise en gros qu’à empĂȘcher des familles de vivre selon leur mode de vie choisi. Et dans quel but? Se fĂ©liciter collectivement d’avoir empĂȘchĂ© Ottawa de nous obliger Ă  respecter les droits d’une minoritĂ©? C’est une habitude dangereuse qu’on semble vouloir dĂ©velopper au QuĂ©bec. Il serait temps d’arrĂȘter de voir les droits individuels comme une menace Ă  Ă©liminer.

Les familles pluriparentales n’ont pas demandĂ© Ă  ĂȘtre prises en otage par un nouvel affrontement juridictionnel entre QuĂ©bec et Ottawa. Si nos nationalistes se cherchent un sujet pour attiser la colĂšre contre le rĂ©gime fĂ©dĂ©ral, qu’ils s’en tiennent Ă  des guerres de chiffres.

De la maütrise de l’automatisation d’Etat

Le dernier numĂ©ro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquĂȘtes de jeunes sociologues. 

Camille Girard-Chanudet dĂ©crit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extĂ©rieur des tribunaux pour les transformer. 

HĂ©loĂŻse Eloi‑Hammer observe les diffĂ©rences d’implĂ©mentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mĂȘmes moyens pour configurer la plateforme et que souvent, elles utilisent des procĂ©dĂ©s de sĂ©lection rudimentaires. Elle montre que, lĂ  aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposĂ©s aux valeurs des formations qui les mettent en Ɠuvre. 

JĂ©rĂ©mie Poiroux Ă©voque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrĂŽle technique des activitĂ©s maritimes qui permet de montrer comment le calcul et l’évolution de la rĂ©glementation sont mobilisĂ©es pour rĂ©duire les effectifs des services de l’Etat tout en amĂ©liorant le ciblage des contrĂŽles. Pour Poiroux, le systĂšme mis en place pose des questions quant Ă  son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens Ă  la prĂ©vention et Ă  l’accompagnement, afin de rĂ©duire son champ d’action au contrĂŽle et Ă  la punition”, ainsi qu’à Ă©loigner les agents au profit de rĂšgles venues d’en haut. 

Soizic PĂ©nicaud revient quant Ă  elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de diffĂ©rents collectifs n’est pas allĂ© de soi et que le recueil de tĂ©moignages a permis de soulever le problĂšme et d’incarner les difficultĂ©s auxquelles les personnes Ă©taient confrontĂ©es. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une rĂ©alitĂ©. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le dĂ©ploiement des algorithmes Ă  la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui prĂ©existe. “L’algorithme ne se substitue pas aux pratiques prĂ©cĂ©dentes de contrĂŽle. Il s’y intĂšgre (
). Il ne l’automatise pas non plus : il le « flĂšche »”. Elle rappelle, Ă  la suite du travail de Vincent Dubois dans ContrĂŽler les assistĂ©s, que le dĂ©veloppement des systĂšmes de calculs permettent Ă  la fois de produire un contrĂŽle rĂ©organisĂ©, national, au dĂ©triment de l’autonomie des agents et des caisses locales, ainsi que de lĂ©gitimer la culture du contrĂŽle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalitĂ© de son pouvoir”.

Mardi 3 juin Ă  19h30 Ă  la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisĂ©e autour des chercheurs et chercheuses qui ont participĂ© Ă  ce numĂ©ro. Nous y serons.

L’IA peut-elle soutenir la dĂ©mocratie ?

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab Ă  Harvard. Elle a publiĂ© de nombreux livres pour montrer que la rĂ©sistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la rĂ©sistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prĂ©pare d’ailleurs un nouveau livre, The End of People Power, qui pointe le dĂ©clin dĂ©routant des mouvements de rĂ©sistance civile au cours de la derniĂšre dĂ©cennie, alors mĂȘme que ces techniques sont devenues trĂšs populaires dans le monde entier. Lors d’une rĂ©cente confĂ©rence sur l’IA et les libertĂ©s dĂ©mocratiques organisĂ©e par le Knight First Amendment Institute de l’universitĂ© de Columbia, elle se demandait si l’IA pouvait soutenir les revendications dĂ©mocratiques, rapporte Tech Policy Press (vidĂ©o). L’occasion de rendre compte Ă  notre tour d’un point de vue dĂ©coiffant qui interroge en profondeur notre rapport Ă  la dĂ©mocratie.  

La récession démocratique est engagée

La dĂ©mocratie est en dĂ©clin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle mĂȘme de “rĂ©cession dĂ©mocratique” et estime que la sauvegarde des droits dĂ©mocratiques est partout en crise. 2025 pourrait ĂȘtre la premiĂšre annĂ©e, depuis longtemps, oĂč la majoritĂ© de la population mondiale vit sous des formes de gouvernement autoritaires plutĂŽt que dĂ©mocratiques. Ce recul est dĂ» Ă  la fois au dĂ©veloppement de l’autoritarisme dans les rĂ©gimes autocratiques et Ă  l’avancĂ©e de l’autocratie dans les dĂ©mocraties Ă©tablies, explique Chenoweth. Les avancĂ©es dĂ©mocratiques des 100 derniĂšres annĂ©es ont Ă©tĂ© nombreuses et assez gĂ©nĂ©rales. Elles ont d’abord Ă©tĂ© le fait de mouvements non violents, populaires, oĂč des citoyens ordinaires ont utilisĂ© les manifestations et les grĂšves, bien plus que les insurrections armĂ©es, pour dĂ©ployer la dĂ©mocratie lĂ  oĂč elle Ă©tait empĂȘchĂ©e. Mais ces succĂšs sont en dĂ©clin. Les taux de rĂ©ussite des mouvements populaires pacifistes comme armĂ©s, se sont effondrĂ©s, notamment au cours des dix derniĂšres annĂ©es. “Il y a quelque chose de global et de systĂ©mique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants Ă  ces mouvements sont devenus plus efficaces pour les vaincre en gĂ©nĂ©ral”.

Les Ă©pisodes de contestation rĂ©formistes (qui ne relĂšvent pas de revendications maximalistes, comme les mouvements dĂ©mocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes
 n’ont cessĂ© de subir des revers et des dĂ©faites au cours des deux derniĂšres dĂ©cennies, et ont mĂȘme diminuĂ© leur capacitĂ© Ă  obtenir des concessions significatives, Ă  l’image de la contestation de la rĂ©forme des retraites en France ou des mouvements Ă©cologiques, plus Ă©crasĂ©s que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisĂ©es que jamais. 

Selon la littĂ©rature, ce qui permet aux mouvements populaires de rĂ©ussir repose sur une participation large et diversifiĂ©e, c’est-Ă -dire transversale Ă  l’ensemble de la sociĂ©tĂ©, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans
 Et notamment quand ils suscitent le soutien de personnes trĂšs diffĂ©rentes les unes des autres. “Le principal dĂ©fi pour les mouvements de masse qui rĂ©clament un changement pour Ă©tendre la dĂ©mocratie consiste bien souvent Ă  disloquer les piliers des soutiens autocratiques comme l’armĂ©e ou les fonctionnaires. L’enjeu, pour les mouvements dĂ©mocratiques, consiste Ă  retourner la rĂ©pression Ă  l’encontre de la population en la dĂ©nonçant pour modifier l’opinion gĂ©nĂ©rale Â». Enfin, les mouvements qui rĂ©ussissent enchaĂźnent bien souvent les tactiques plutĂŽt que de reposer sur une technique d’opposition unique, afin de dĂ©multiplier les formes de pression. 

La rĂ©pression s’est mise Ă  niveau

Mais l’autocratie a appris de ses erreurs. Elle a adaptĂ© en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements dĂ©mocratiques l’emportent. “La premiĂšre consiste Ă  s’assurer que personne ne fasse dĂ©fection. La deuxiĂšme consiste Ă  dominer l’écosystĂšme de l’information et Ă  remporter la guerre de l’information. La troisiĂšme consiste Ă  recourir Ă  la rĂ©pression sĂ©lective de maniĂšre Ă  rendre trĂšs difficile pour les mouvements d’exploiter les moments d’intense brutalitĂ©. Et la quatriĂšme consiste Ă  perfectionner l’art de diviser pour mieux rĂ©gner”. Pour que l’armĂ©e ou la police ne fasse pas dĂ©fection, les autoritĂ©s ont amĂ©liorĂ© la formation des forces de sĂ©curitĂ©. La corruption et le financement permet de s’attacher des soutiens plus indĂ©fectibles. Les forces de sĂ©curitĂ© sont Ă©galement plus fragmentĂ©es, afin qu’une dĂ©fection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit Ă©galement de faire varier la rĂ©pression pour qu’une unitĂ© de sĂ©curitĂ© ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les rĂ©pressions des personnes dĂ©loyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la dĂ©fection des forces de sĂ©curitĂ©, et cette tendance s’est accentuĂ©e au fil du temps”.

La seconde adaptation clĂ© a consistĂ© Ă  gagner la guerre de l’information, notamment en dominant les Ă©cosystĂšmes de l’information. “Inonder la zone de rumeurs, de dĂ©sinformation et de propagande, dont certaines peuvent ĂȘtre créées et testĂ©es par diffĂ©rents outils d’IA, en fait partie. Il en va de mĂȘme pour la coupure d’Internet aux moments opportuns, puis sa rĂ©ouverture au moment opportun”.

Le troisiĂšme volet de la panoplie consiste Ă  appliquer une rĂ©pression sĂ©lective, consistant Ă  viser des individus plutĂŽt que les mouvements pour des crimes graves qui peuvent sembler dĂ©corrĂ©lĂ© des manifestations, en les accusant de terrorisme ou de prĂ©paration de coup d’Etat. ”La guerre juridique est un autre outil administratif clĂ©â€.

Le quatriĂšme volet consiste Ă  diviser pour mieux rĂ©gner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant Ă  des actions violentes pour gĂ©nĂ©rer des reflux d’opinion
 

Comment utiliser l’IA pour gagner ? 

Dans la montĂ©e de l’adaptation des techniques pour dĂ©faire leurs opposants, la technologie joue un rĂŽle, estime Erica Chenoweth. Jusqu’à prĂ©sent, les mouvements civiques ont plutĂŽt eu tendance Ă  s’approprier et Ă  utiliser, souvent de maniĂšre trĂšs innovantes, les technologies Ă  leur avantage, par exemple Ă  l’heure de l’arrivĂ©e d’internet, qui a trĂšs tĂŽt Ă©tĂ© utilisĂ© pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques Ă  utiliser l’IA, contrairement aux rĂ©gimes autocratiques. Pourtant, l’un des principaux problĂšmes des mouvements civiques consiste Ă  “cerner leur environnement opĂ©rationnel”, c’est-Ă -dire de savoir qui est connectĂ© Ă  qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? OĂč sont les vulnĂ©rabilitĂ©s du mouvement ? RĂ©flĂ©chir de maniĂšre crĂ©ative Ă  ces questions et enjeux, aux tactiques Ă  dĂ©ployer pourrait pourtant ĂȘtre un atout majeur pour que les mouvements dĂ©mocratiques rĂ©ussissent. 

Les mouvements dĂ©mocratiques passent bien plus de temps Ă  sensibiliser et communiquer qu’à faire de la stratĂ©gie, rappelle la chercheuse. Et c’est lĂ  deux enjeux oĂč les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des Ă©lections municipales russe, un algorithme a permis de contrĂŽler les images de vidĂ©osurveillance des bureaux de vote pour dĂ©tecter des irrĂ©gularitĂ©s permettant de dĂ©gager les sĂ©quences oĂč des bulletins prĂ©remplis avaient Ă©tĂ© introduits dans les urnes. Ce qui aurait demandĂ© un contrĂŽle militant Ă©puisant a pu ĂȘtre accompli trĂšs simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer trĂšs facilement Ă  des actions (des applications puissantes, mais parfois peu transparentes sur leurs mĂ©thodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent ĂȘtre mieux documentĂ©es et partagĂ©es pour qu’elles puissent servir Ă  d’autres. Certains groupes proposent d’ailleurs dĂ©jĂ  des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publiĂ© un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements dĂ©mocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent rĂ©ellement le succĂšs des mouvements dĂ©mocratiques. Encore faudrait-il que les mouvements dĂ©mocratiques puissent accĂ©der Ă  des outils d’IA qui ne partagent pas leurs donnĂ©es avec des plateformes et avec les autoritĂ©s. L’autre enjeu consiste Ă  construire des corpus adaptĂ©s pour aider les mouvements Ă  rĂ©sister. Les corpus de l’IA s’appuient sur des donnĂ©es des 125 derniĂšres annĂ©es, alors que l’on sait dĂ©jĂ  que ce qui fonctionnait il y a 60 ans ne fonctionne plus nĂ©cessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour dĂ©mĂȘler des processus dĂ©libĂ©ratifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait Ă©tĂ© notre projet dĂ©mocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques Ă  poser la question de l’utilisation de l’IA a leur profit, plutĂŽt que de la rejetter d’emblĂ©e comme l’instrument de l’autoritarisme, elle invite Ă  faire un pas de cĂŽtĂ© pour trouver des modalitĂ©s pour refaire gagner les luttes sociales.

On lui suggĂ©rera tout de mĂȘme de regarder du cĂŽtĂ© des projets que Audrey Tang mĂšne Ă  TaĂŻwan avec le Collective intelligence for collective progress, comme ses « assemblĂ©es d’alignement Â» qui mobilise l’IA pour garantir une participation Ă©quitable et une Ă©coute active de toutes les opinions. Comme Tang le dĂ©fend dans son manifeste, Plurality, l’IA pourrait ĂȘtre une technologie d’extension du dĂ©bat dĂ©mocratique pour mieux organiser la complexitĂ©. Tang parle d’ailleurs de broad listening (« Ă©coute Ă©largie Â») pour l’opposer au broadcasting, la diffusion de un vers tous. Une mĂ©thode mobilisĂ©e par un jeune ingĂ©nieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bĂ©nĂ©ficiĂ© d’une audience surprenante, sans nĂ©anmoins l’emporter. Son adversaire a depuis mobilisĂ© la mĂ©thode pour lancer une consultation, Tokyo 2050.

Des pistes Ă  observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisĂ©e. Ajouter de l’IA ne signifie pas que les dĂ©cisions demain seront plus justes, plus efficaces ou plus dĂ©mocratiques. Au contraire. Le risque est fort que cet ajout bĂ©nĂ©fice d’abord aux plus nantis au dĂ©triment de la diversitĂ©. L’enjeu demeure non pas d’ajouter des outils pour eux-mĂȘmes, mais de savoir si ces outils produisent du changement et au profit de qui !

RĂ©utiliser, rĂ©parer, refuser, rĂ©clamer 

Le soulĂšvement contre l’obsolescence programmĂ©e est bien engagĂ©, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, Ă©ditĂ© par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont ƓuvrĂ© Ă  dĂ©velopper un systĂšme d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la rĂ©duction de la consommation et dans le recyclage, mais dans l’intĂ©gration Ă  grande Ă©chelle de l’ancien dans le nouveau. Hybrider les technologies dĂ©funtes et les intĂ©grer dans nos quotidiens est tout l’enjeu du monde Ă  venir, dans une forme de permaculture du calcul. ArrĂȘtons de dĂ©plorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La rĂ©utilisation et la rĂ©paration nous conduisent dĂ©sormais Ă  refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent dĂ©sormais “refuser d’ĂȘtre neutralisĂ©s, Ă©crasĂ©s et rĂ©duits au silence”, refuser de se faire rĂ©approprier. Nous devons rĂ©clamer la tech – c’était dĂ©jĂ  la conclusion de son prĂ©cĂ©dent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspirĂ© par le mouvement britannique des annĂ©es 90, qui rĂ©clamait dĂ©jĂ  la rue, pour reconquĂ©rir cet espace public contre la surveillance policiĂšre et la voiture.

“Reclaim the Tech Â» va plus loin en affirmant que « Nous sommes la technologie Â», explique Lovink. Cela signifie que la technologie n’est plus un phĂ©nomĂšne passager, imposĂ© : la technologie est en nous, nous la portons Ă  fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech Â», dĂ©crites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numĂ©rique actuelle est stagnante, elle n’est pas une Ă©chappatoire. Elle manque de direction et de destin. La volontĂ© d’organisation est absente maintenant que mĂȘme les rĂ©seaux Ă  faible engagement ont Ă©tĂ© supplantĂ©s par les plateformes. L’esprit du temps est rĂ©gressif, Ă  l’opposĂ© de l’accĂ©lĂ©rationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de donnĂ©es. Ce que nous vivons est une succession interminable de courtes poussĂ©es d’extase orgasmique, suivies de longues pĂ©riodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dĂ©vastateur sur la recherche et la mise en Ɠuvre d’alternatives durables, estime Lovink. L’optimisation prĂ©dictive a effacĂ© l’énergie intĂ©rieure de rĂ©volte que nous portons en nous. Il ne reste que des explosions de colĂšre, entraĂźnant des mouvements sociaux erratiques – une dynamique alimentĂ©e par une utilisation des rĂ©seaux sociaux Ă  courte durĂ©e d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialitĂ© visible dans la technologie et le design. Nous la voyons apparaĂźtre non seulement dans le cas des matiĂšres premiĂšres, mais aussi dans le contexte du « colonialisme des donnĂ©es ». 

Mais, s’il est essentiel d’exiger la dĂ©colonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « crĂ©olisation technologique ».

La dĂ©colonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cƓur mĂȘme de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, crĂ©ons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements gĂ©opolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion Ă  la destruction militaire bien rĂ©elle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratĂ©gies de sortie ne manquent pas. L’exode ne sera pas tĂ©lĂ©visĂ©. Le monde ne peut attendre la mise en Ɠuvre des principes de prĂ©vention des donnĂ©es. ArrĂȘtons dĂ©finitivement les flux de donnĂ©es !, clame Lovink. 

La « confidentialitĂ© » des donnĂ©es s’étant rĂ©vĂ©lĂ©e ĂȘtre un gouffre juridique impossible Ă  garantir, la prochaine option sera des mĂ©canismes intĂ©grĂ©s, des filtres empĂȘchant les donnĂ©es de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de donnĂ©es, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant aprĂšs la rĂ©volution, les « magasins de proximitĂ© » qui rendent les technologies aux gens ne se contenteront plus de rĂ©parer, mais nous permettront de vivre avec nos dĂ©chets, de les rendre visibles, Ă  nouveau fonctionnels, tout comme on rend Ă  nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalitĂ©s. 

IA générative vs IA productive

Encore une rĂ©flexion stimulante de Gregory Chatonsky, qui observe deux modes de relation Ă  l’IA gĂ©nĂ©rative. L’un actif-productif, l’autre passif-reproductif-mĂ©mĂ©tique. « L’infrastructure gĂ©nĂ©rative n’a pas d’essence unifiĂ©e ni de destination prĂ©dĂ©terminĂ©e — elle peut ĂȘtre orientĂ©e vers la production comme vers la consommation. Cette indĂ©termination constitutive des technologies gĂ©nĂ©ratives rĂ©vĂšle un aspect fondamental : nous nous trouvons face Ă  un systĂšme technique dont les usages et les implications restent largement Ă  dĂ©finir Â».

« L’enjeu n’est donc pas de privilĂ©gier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports Ă  la gĂ©nĂ©ration dĂ©terminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualitĂ© fondamentale, nous pouvons commencer Ă  Ă©laborer une relation plus consciente et rĂ©flĂ©chie aux technologies gĂ©nĂ©ratives, capable de dĂ©passer aussi bien l’instrumentalisme naĂŻf que le dĂ©terminisme technologique.

La gĂ©nĂ©ration n’est ni intrinsĂšquement productive ni intrinsĂšquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous Ă©tablissons avec elle. C’est dans cette indĂ©termination constitutive que rĂ©sident sa rĂ©ponse Ă  la finitude. Â»

La modĂ©ration n’est pas Ă©quitable

Dans une riche et dĂ©taillĂ©e revue d’études sur la modĂ©ration des plateformes du web social, Lisa Macpherson de l’association Public Knowledge dĂ©montre que cette modĂ©ration n’est ni Ă©quitable ni neutre. En fait, les Ă©tudes ne dĂ©montrent pas qu’il y aurait une surmodĂ©ration des propos conservateurs, au contraire, les contenus de droite ayant tendance Ă  gĂ©nĂ©rer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modĂ©rĂ©s, c’est parce qu’ils enfreignent plus volontiers les rĂšgles des plateformes en colportant de la dĂ©sinformation ou des propos haineux, et non du fait des biais politiques de la modĂ©ration. La modĂ©ration injustifiĂ©e, elle, touche surtout les communautĂ©s marginalisĂ©es (personnes racisĂ©es, minoritĂ©s religieuses, femmes, LGBTQ+). Les biais de modĂ©ration sont toujours dĂ©sĂ©quilibrĂ©s. Et les contenus de droite sont plus amplifiĂ©s que ceux de gauche. 

En France, rapporte Next, constatant le trĂšs faible taux de modĂ©ration de contenus haineux sur Facebook, le cofondateur de l’association #jesuislĂ  et activiste pour les droits numĂ©riques Xavier Brandao porte plainte contre Meta auprĂšs de l’Arcom au titre du DSA. En envoyant plus de 118 signalements Ă  Meta en quatre mois pour des discours racistes avĂ©rĂ©s, l’activiste s’est rendu compte que seulement 8 commentaires avaient Ă©tĂ© supprimĂ©s.

Algorithmes et société. Pint Of Science 2025.

J’étais hier, Mercredi 21 Mai, Ă  Nantes dans le cadre de l’évĂ©nement « Pint Of Science Â» pour une soirĂ©e thĂ©matiques sur le thĂšme « Algorithmes et sociĂ©tĂ© Â».

 

Voici un retour sur mon intervention. Un trĂšs grand merci aux organisateurs et organisatrices (notamment RĂ©mi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout Ă  fait rĂ©jouissant et fĂ©cond. Et un grand merci aussi Ă  mes deux collĂšgues d’intervention, Leia Savary et Odile Bellenguez pour les Ă©changes et la prĂ©paration de cette soirĂ©e.

Voici donc ce que j’ai racontĂ© de mon cĂŽtĂ©.

Je vais vous faire écouter un algorithme.

Je vais vous faire écouter un algorithme.

 

Ce titre de SĂ©bastien Tellier sort en 2004. Il est intitulĂ© « La ritournelle Â». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « rĂ©seaux sociaux Â» puis les « mĂ©dias sociaux Â» de masse. C’est aussi Ă  partir de ce moment lĂ  que bien plus que pendant les prĂ©cĂ©dentes annĂ©es, le web, espace public ouvert et traversable, va se « refermer Â» autour de plateformes propriĂ©taires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermĂ©s Â») et que les « applications Â» vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).

DĂšs lors, Ă  partir de ces annĂ©es et dans la dĂ©cennie qui s’ouvre en 2010, « les algorithmes Â» vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empĂȘchent au quotidien. Pourquoi ce titre de SĂ©bastien Tellier et pourquoi comparer les algorithmes Ă  des ritournelles ? Parce que le titre « la ritournelle Â» fait Ă©cho Ă  ce qui me semble la meilleure dĂ©finition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette dĂ©finition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux Â», paru en 1980 et qui avait pour sous-titre « Capitalisme et SchizophrĂ©nie Â» (ce qui est aussi intĂ©ressant pour penser le rĂŽle actuel des algorithmes dont beaucoup enferment et « rendent fou Â» parce qu’ils ne sont au service que du Capital).

Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils dĂ©crivent en trois points :

  • D’abord ce qui nous rassure par une forme de rĂ©gularitĂ© attendue, que l’on devine et anticipe.

Les algorithmes sont cela.

  • Ensuite ce qui installe l’organisation nous semblant familiĂšre d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.

Les algorithmes se dĂ©ploient dans ces espaces Ă  la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privĂ©s Â». Cela avait Ă©tĂ© posĂ© dĂšs 2007 par danah boyd qui soulignait que la premiĂšre particularitĂ© et le premier problĂšme de ces plateformes Ă©tait qu’elles Ă©taient semi-publiques et semi-privĂ©es et que toute dimension de « privacy Â», c’est Ă  dire de vie privĂ©e, Ă©tait donc structurellement ambigĂŒe et presqu’impossible.

Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects Â» et sont « l’état de nature de nos artifices sociaux Â». « L’état de nature de nos artifices sociaux. Â» C’est, je trouve, vraiment une magnifique dĂ©finition de ce qui se joue, de ce que nous jouons autour de notre frĂ©quentation algorithmique. La visibilitĂ©, la rĂ©ciprocitĂ©, le souci de paraĂźtre, les fonctions comme le like et les autres icĂŽnes « Ă©motionnelles Â» sont, parmi d’autres, les notes de la partition de cette ritournelle.

  • Enfin ils sont ce qui, parfois, nous accompagne et nous Ă©quipe aussi dans la dĂ©couverte d’un ailleurs, parce qu’y compris au sein de reprĂ©sentations cloisonnĂ©es, ils sont des « chants traversants. » 

LĂ  encore, c’est dans le mille. Des « chants traversants Â» : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos prĂ©fĂ©rences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.

Ces ritournelles nous accompagnent et elles « cadrent Â» notre rĂ©el. Notre rĂ©el amoureux, notre rĂ©el gĂ©ographique, notre rĂ©el politique. Elles le cadrent et elles le rythment.

 

Je vais maintenant vous parler du rythme des algorithmes.

Dans un vieux texte j’avais imaginĂ© un trouble que j’avais appelĂ© la « dysalgorithmie Â», un « trouble de rĂ©sistance algorithmique oĂč le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est Ă  dire la capacitĂ© Ă  ne pas suivre les recommandations algorithmiques, Ă  n’ĂȘtre, par exemple, pas sensible Ă  la cadence des notifications. C’est Ă  dire Ă  ĂȘtre dans un autre rythme de la mĂȘme maniĂšre que les diffĂ©rents troubles « dys Â» sont diffĂ©remment sensibles au monde, Ă  l’orthographe, au calcul.

Ma thĂšse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le mĂȘme que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavĂ©lique que d’autres, c’est parce que son rythme (sĂ©quences trĂšs courtes) impose que nous nous en occupions en permanence, Ă  un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 Ă  10 secondes nous interagissons avec l’algorithme de TikTok.

Et mon autre thĂšse qui est un corrĂ©lat de la premiĂšre, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaĂźtres nos vitesses de dĂ©placement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos frĂ©quences de rencontre amoureuses, etc.

Le problĂšme c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociĂ©tĂ©s, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.

L’algorithme de Facebook, derriĂšre la promesse de nous exposer Ă  davantage de diversitĂ©, nous a en rĂ©alitĂ© enfermĂ© dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelĂ© des « bulles de filtre Â». Ce n’est d’ailleurs pas « que Â» la faute de Facebook. Il y a une nature anthropologique Ă  ces bulles de filtre : plus on nous sommes seuls Ă  ĂȘtre exposĂ© Ă  des diversitĂ©s de culture, de religion, de sociĂ©tĂ©s, et plus nous cherchons Ă  nous rapprocher de ce qui nous est semblable ; plus nous cherchons Ă  nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a Ă©tĂ© tenue : la plateforme nous a en effet exposĂ© Ă  Ă©normĂ©ment de diversitĂ©, mais de maniĂšre tellement outranciĂšre que nous avons fini par n’y chercher que de l’identique, du mĂȘme, du ressemblant. Et dĂšs lors que nous l’avons trouvĂ©, nous nous y sommes enfermĂ© avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.

L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le sĂ©jour, il a en rĂ©alitĂ© totalement rarĂ©fiĂ© l’offre de logements abordables dans certains pĂ©rimĂštres urbains.

L’autre exemple c’est celui de Waze. L’histoire est dĂ©sormais un peu plus cĂ©lĂšbre car elle figure Ă  la fin du dernier livre de Guiliano Da Empoli, « L’ùre des prĂ©dateurs Â», mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une citĂ© mĂ©diĂ©vale de 180 habitants nichĂ©e dans les confins de l’ArdĂšche. Et Ă  chaque vacance scolaire ou long week-end un flot de vĂ©hicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinĂ©raire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de vĂ©hicule par jour. Avec les dangers et les nuisance sonores que cela reprĂ©sente. LĂ  encore au prĂ©texte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prĂ©vus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas rĂ©ellement gagner de temps et surtout il en fait perdre Ă  l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.

Au final, ces algorithmes nous promettent des choses (voir plus de diversitĂ©, avoir des logements plus accessibles, gagner du temps) mais en rĂ©alitĂ©, soit ils font l’inverse, soit ils crĂ©ent tellement d’externalitĂ©s nĂ©gatives que la pertinence de leur fonction premiĂšre peut et doit ĂȘtre rediscutĂ©e.

Dans un article j’écrivais :

« Management, travail, donnĂ©es, infrastructures de production, modĂšle Ă©conomique, stigmatisation des minoritĂ©s et des plus pauvres 
 Il faut non seulement constater mais accepter que le monde social que les technologies numĂ©riques et algorithmiques bĂątissent depuis presqu’un quart de siĂšcle est un monde dans lequel se rĂ©vĂšlent et s’organisent les puissances les plus radicales et aliĂ©nantes de l’histoire Ă©conomique, sociale et politique des peuples. Cela n’empĂȘche pas que les appropriations singuliĂšres de ces technologies numĂ©riques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont trĂšs rarement. Presque jamais en rĂ©alitĂ©. Et chaque fois qu’elles l’ont Ă©tĂ©, l’émancipation s’est toujours retournĂ©e en rĂ©pression.« 

 

Pour le dire plus simplement : ces algorithmes facilitent Ă©normĂ©ment de choses Ă  l’échelle individuelle (Ă©chelle oĂč le rapport bĂ©nĂ©fice / risque reste positif) mais ce rapport s’inverse trĂšs souvent Ă  l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la sociĂ©tĂ© : les nouveaux cadres, les nouvelles normes qu’ils installent et lĂ©gitiment.

On peut dans le mĂȘme genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documentĂ©, notamment dans le cadre des printemps arabes, « comment internet a facilitĂ© l’organisation les rĂ©volutions sociales mais en a compromis la victoire. Â» Et quand elle dit « internet Â» elle dĂ©signe en fait les grands mĂ©dias sociaux et leurs algorithmes.

Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les amĂ©liorer et les ramener dans le sens de l’intĂ©rĂȘt commun.

Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (mĂȘme si c’est plus que jamais nĂ©cessaire)

​​Droit des Ă©trangers, modĂšle de la maltraitance administrative

“Le respect des droits fondamentaux des Ă©trangers est un marqueur essentiel du degrĂ© de protection des droits et des libertĂ©s dans un pays”, disait trĂšs clairement le DĂ©fenseur des droits en 2016. Le rapport pointait dĂ©jĂ  trĂšs bien nombre de dĂ©rives : atteintes aux droits constantes, exclusions du droit commun, surveillances spĂ©cifiques et invasives
 PrĂšs de 10 ans plus tard, contexte politique aidant, on ne sera pas Ă©tonnĂ© que ces atteintes se soient dĂ©gradĂ©es. Les rĂ©formes lĂ©gislatives en continue (118 textes depuis 1945, dit un bilan du Monde) n’ont pas aidĂ© et ne cessent de dĂ©grader non seulement le droit, mais Ă©galement les services publics dĂ©diĂ©s. Ce qu’il se passe aux Etats-Unis n’est pas une exception

VoilĂ  longtemps que le droit des Ă©trangers en France est plus que malmenĂ©. VoilĂ  longtemps que les associations et autoritĂ©s indĂ©pendantes qui surveillent ses Ă©volutions le dĂ©noncent. Des travaux des associations comme la Cimade, Ă  ceux des autoritĂ©s indĂ©pendantes, comme le DĂ©fenseur des droits ou la Cour des comptes, en passant par les travaux de chercheurs et de journalistes, les preuves ne cessent de s’accumuler montrant l’instrumentalisation mortifĂšre de ce qui ne devrait ĂȘtre pourtant qu’un droit parmi d’autres. 

Couverture du livre France terre d’écueils.

Dans un petit livre simple et percutant, France, Terre d’écueils (Rue de l’échiquier, 2025, 112 pages), l’avocate Marianne Leloup-Dassonville explique, trĂšs concrĂštement, comment agit la maltraitance administrative Ă  l’égard de 5,6 millions d’étrangers qui vivent en France. Marianne Leloup-Dassonville, avocate spĂ©cialisĂ©e en droit des Ă©trangers et administratrice de l’association Droits d’urgence, nous montre depuis sa pratique les dĂ©faillances de l’administration Ă  destination des Ă©trangers. Une administration mise au pas, au service d’un propos politique de plus en plus dĂ©connectĂ© des rĂ©alitĂ©s, qui concentre des pratiques mortifĂšres et profondĂ©ment dysfonctionnelles, dont nous devrions nous alarmer, car ces pratiques portent en elles des menaces pour le fonctionnement du droit et des services publics. A terme, les dysfonctionnements du droit des Ă©trangers pourraient devenir un modĂšle de maltraitance Ă  appliquer Ă  tous les autres services publics. 

Le dysfonctionnement des services publics Ă  destination des Ă©trangers est caractĂ©risĂ© par plusieurs maux, dĂ©taille Marianne Leloup-Dassonville. Ce sont d’abord des services publics indisponibles, ce sont partout des droits Ă  minima et qui se rĂ©duisent, ce sont partout des procĂ©dures Ă  rallonge, oĂč aucune instruction n’est disponible dans un dĂ©lai “normal”. Ce sont enfin une suspicion et une persĂ©cution systĂ©matique. L’ensemble produit un empĂȘchement organisĂ© qui a pour but de diminuer l’accĂšs au droit, d’entraver la rĂ©gularisation. Ce que Marianne Leloup-Dassonville dessine dans son livre, c’est que nous ne sommes pas seulement confrontĂ©s Ă  des pratiques problĂ©matiques, mais des pratiques systĂ©miques qui finissent par faire modĂšle. 

Indisponibilité et lenteur systémique

France, Terre d’écueils dĂ©crit d’abord des chaĂźnes de dysfonctionnements administratifs. Par des exemples simples et accessibles, l’avocate donne de l’épaisseur Ă  l’absurditĂ© qui nous saisit face Ă  la dĂ©shumanisation des Ă©trangers dans les parcours d’accĂšs aux droits. Nul n’accepterait pour quiconque ce que ces services font subir aux publics auxquels ils s’adressent. L’une des pratiques les plus courantes dans ce domaine, c’est l’indisponibilitĂ© d’un service : service tĂ©lĂ©phonique qui ne rĂ©pond jamais, site web de prise de rendez-vous sans proposition de rendez-vous, dĂ©pĂŽts sans rĂ©cĂ©pissĂ©s, dossier auquel il n’est pas possible d’accĂ©der ou de mettre Ă  jour
 Autant de pratiques qui sont lĂ  pour faire patienter c’est-Ă -dire pour dĂ©courager
 et qui nĂ©cessitent de connaĂźtre les mesures de contournements qui ne sont pas dans la procĂ©dure officielle donc, comme de documenter l’indisponibilitĂ© d’un site par la prise de capture d’écran rĂ©pĂ©tĂ©e, permettant de faire un recours administratif pour obliger le service Ă  proposer un rendez-vous Ă  un requĂ©rant. 

Toutes les procĂ©dures que l’avocate dĂ©crit sont interminables. Toutes oeuvrent Ă  dĂ©courager comme si ce dĂ©couragement Ă©tait le seul moyen pour dĂ©sengorger des services partout incapables de rĂ©pondre Ă  l’afflux des demandes. Si tout est kafkaĂŻen dans ce qui est dĂ©crit ici, on est surtout marquĂ© par la terrible lenteur des procĂ©dures, rallongĂ©es de recours eux-mĂȘmes interminables. Par exemple, l’Ofpra (Office Français de Protection des RĂ©fugiĂ©s et Apatrides) statue en moyenne sur une demande d’asile en 4 mois, mais souvent par un refus. Pour une procĂ©dure de recours, la CNDA (Cour nationale du droit d’asile) met en moyenne 12 Ă  24 mois Ă  réétudier un dossier. Quand un ressortissant Ă©tranger obtient le statut de rĂ©fugiĂ©, il devrait obtenir un titre de sĂ©jour dans les 3 mois. En rĂ©alitĂ©, les cartes de sĂ©jour et les actes d’état civils mettent de longs mois Ă  ĂȘtre produits (douze mois en moyenne) ce qui prive les Ă©trangers de nombreux droits sociaux, comme de pouvoir s’inscrire Ă  France Travail ou de bĂ©nĂ©ficier des allocations familiales, du droit du travail. MĂȘme constat Ă  l’AES (admission exceptionnelle au sĂ©jour). Depuis 2023, la demande d’AES se fait en ligne et consiste Ă  enregistrer quelques documents pour amorcer la procĂ©dure. Mais les prĂ©fectures ne font de retour que 6 mois aprĂšs le dĂ©pĂŽt de la demande. Un rendez-vous n’est proposĂ© bien souvent qu’encore une annĂ©e plus tard, soit en moyenne 18 mois entre la demande initiale et le premier rendez-vous, et ce uniquement pour dĂ©poser un dossier. L’instruction qui suit, elle, prend entre 18 et 24 mois. Il faut donc compter Ă  minima 3 Ă  4 annĂ©es pour une demande de rĂ©gularisation ! Sans compter qu’en cas de refus (ce qui est plutĂŽt majoritairement le cas), il faut ajouter la durĂ©e de la procĂ©dure de recours au tribunal administratif. MĂȘme chose en cas de refus de visa injustifiĂ©, qui nĂ©cessite plus de 2 ans de procĂ©dure pour obtenir concrĂštement le papier permettant de revenir en France. 

C’est un peu comme s’il fallait patienter des annĂ©es pour obtenir un rendez-vous chez un dermatologue pour vĂ©rifier un grain de beautĂ© inquiĂ©tant ou plusieurs mois pour obtenir des papiers d’identitĂ©. Dans le domaine du droit des Ă©trangers, la dĂ©gradation des services publics semble seulement plus prononcĂ©e qu’ailleurs.

Droits minimaux et décisions discrétionnaires

Le dysfonctionnement que dĂ©crit l’avocate n’est pas qu’administratif, il est Ă©galement juridique. Dans le domaine de la demande d’asile par exemple, il n’existe pas de procĂ©dure d’appel, qui est pourtant une garantie simple et forte d’une justice Ă©quitable. Les demandeurs ayant Ă©tĂ© refusĂ©s peuvent demander un rĂ©examen qui a souvent lieu dans le cadre de procĂ©dures « accĂ©lĂ©rĂ©es Â». Mais cette accĂ©lĂ©ration lĂ  ne consiste pas Ă  aller plus vite, elle signifie seulement que la dĂ©cision sera prise par un juge unique, et donc, potentiellement, moins Ă©quitable.

L’admission exceptionnelle au sĂ©jour (AES), autre possibilitĂ© pour obtenir une naturalisation, nĂ©cessite elle de faire une demande Ă  la prĂ©fecture de son domicile. MĂȘme si cette admission est bornĂ©e de conditions concrĂštes trĂšs lourdes (promesse d’embauche, prĂ©sence sur le territoire depuis 3 ans, bulletins de salaires sur au moins 2 ans
), le prĂ©fet exerce ici une compĂ©tence discrĂ©tionnaire, puisqu’il Ă©value seul les demandes. « En matiĂšre de naturalisation, l’administration a un trĂšs large pouvoir d’apprĂ©ciation Â», souligne l’avocate. MĂȘme constat quant aux demandes de naturalisation, tout aussi compliquĂ©es que les autres demandes. L’entretien de naturalisation par exemple, qu’avait Ă©tudiĂ© le sociologue Abdellali Hajjat dans son livre, Les frontiĂšres de l’identitĂ© nationale, a tout d’une sinĂ©cure. Il consiste en un entretien discrĂ©tionnaire, sans procĂšs verbal ni enregistrement, sans programme pour se prĂ©parer Ă  y rĂ©pondre. Ce n’est pas qu’un test de culture gĂ©nĂ©ral d’ailleurs auquel nombre de Français auraient du mal Ă  rĂ©pondre, puisque de nombreuses questions ne relĂšvent pas d’un QCM, mais sont apprĂ©ciatives. Il n’y a mĂȘme pas de score minimal Ă  obtenir, comme ce peut-ĂȘtre le cas dans d’autres pays, comme le Royaume-Uni. Vous pouvez rĂ©pondre juste aux questions
 et ĂȘtre refusĂ©.

Suspicion, persĂ©cution et empĂȘchement systĂ©matiques

Le fait de chercher Ă  empĂȘcher les demandeurs d’asile d’accĂ©der Ă  un travail (en janvier 2024, une loi anti-immigration, une de plus, est mĂȘme venue interdire Ă  ceux qui ne disposent pas de titre de sĂ©jour d’obtenir un statut d’entrepreneur individuel) créé en fait une surcouche de dysfonctionnements et de coĂ»ts qui sont non seulement contre-productifs, mais surtout rendent la vie impossible aux Ă©trangers prĂ©sents sur le territoire. Et ce alors que 90% des personnes en situation irrĂ©guliĂšre travaillent quand mĂȘme, comme le souligne France StratĂ©gies dans son rapport sur l’impact de l’immigration sur le marchĂ© du travail. En fait, en les empĂȘchant de travailler, nous produisons une surcouche de violences : pour travailler, les sans-papiers produisent les titres de sĂ©jour d’un tiers, Ă  qui seront adressĂ©s les bulletins de salaires. Tiers qui prĂ©lĂšvent une commission de 30 Ă  50% sur ces revenus, comme le montrait l’excellent film de Boris Lokjine, L’histoire de Souleymane.

Parce que le lien de paternitĂ© ou de maternitĂ© créé un droit pour l’enfant et pour le compagnon ou la compagne, la suspicion de mariage blanc est devenue systĂ©matique quand elle Ă©tait avant un signe d’intĂ©gration, comme le rappelait le rapport du mouvement des amoureux aux ban publics. EnquĂȘtes intrusives, abusives, surveillance policiĂšre, maires qui s’opposent aux unions (sans en avoir le droit)
 Alors qu’on ne comptait que 345 mariages annulĂ©s en 2009 (soit moins de 0,5% des unions mixtes) et une trentaine de condamnations pĂ©nales par an, 100% des couples mixtes subissent des discriminations administratives. Le soupçon mariage blanc permet surtout de masquer les dĂ©faillances et le racisme de l’administration française. Ici comme ailleurs, le soupçon de fraude permet de faire croire Ă  tous que ce sont les individus qui sont coupables des lacunes de l’administration française. 

Une politique du non accueil perdu dans ses amalgames

France, terre d’écueils, nous montre le parcours du combattant que reprĂ©sente partout la demande Ă  acquĂ©rir la nationalitĂ©. L’ouvrage nous montre ce que la France impose Ă  ceux qui souhaitent y vivre, en notre nom. Une politique de non accueil qui a de quoi faire honte. 

Ces dĂ©rives juridiques et administratives sont nĂ©es de l’amalgame sans cesse renouvelĂ© Ă  nous faire confondre immigration et dĂ©linquance. C’est ce que symbolise aujourd’hui le dĂ©lires sur les OQTF. L’OQTF est une dĂ©cision administrative prise par les prĂ©fectures Ă  l’encontre d’un Ă©tranger en situation irrĂ©guliĂšre, lui imposant un dĂ©part avec ou sans dĂ©lai. Or, contrairement Ă  ce que l’on ne cesse de nous faire croire, les OQTF ne concernent pas uniquement des individus dangereux, bien au contraire. La grande majoritĂ© des personnes frappĂ©es par des OQTF ne sont coupables d’aucun dĂ©lit, rappelle Marianne Leloup-Dassonville. Elles sont d’abord un objectif chiffrĂ©. Les prĂ©fectures les dĂ©multiplent alors qu’elles sont trĂšs souvent annulĂ©es par les tribunaux. La France en Ă©met plus de 100 000 par an et en exĂ©cute moins de 7000. Elle Ă©met 30% des OQTF de toute l’Europe. Les services prĂ©fectoraux dĂ©diĂ©s sont surchargĂ©s et commettent des “erreurs de droit” comme le dit trĂšs pudiquement la Cour des comptes dans son rapport sur la lutte contre l’immigration irrĂ©guliĂšre. Le contentieux des Ă©trangers reprĂ©sente 41% des affaires des tribunaux administratifs en 2023 (contre 30% en 2016) et 55% des affaires des cours d’appel, comme le rappelait Mediapart. La plupart des OQTF concernent des ressortissants Ă©trangers qui n’ont jamais commis d’infraction (ou des infractions mineures et anciennes). Nombre d’entre elles sont annulĂ©es, nombre d’autres ne peuvent pas ĂȘtre exĂ©cutĂ©es. Peut-on sortir de cette spirale inutile, se demande l’avocate ?

Nous misons dĂ©sormais bien plus sur une fausse sĂ©curitĂ© que sur la sĂ»retĂ©. La sĂ»retĂ©, rappelle l’avocate, c’est la garantie que les libertĂ©s individuelles soient respectĂ©es, contre une arrestation, un emprisonnement ou une condamnation arbitraire. La sĂ»retĂ© nous garantit une administration Ă©quitable et juste. C’est elle que nous perdons en nous enfermant dans un dĂ©lire sĂ©curitaire qui a perdu contact avec la rĂ©alitĂ©. Les tĂ©moignages que livre Marianne Leloup-Dassonville montrent des personnes plutĂŽt privilĂ©giĂ©es, traumatisĂ©es par leurs rapports Ă  l’administration française. Les Ă©trangers sont partout assimilĂ©s Ă  des dĂ©linquants comme les bĂ©nĂ©ficiaires de droits sociaux sont assimilĂ©s Ă  des fraudeurs.

A lire le court ouvrage de Marianne Leloup-Dassonville, on se dit que nous devrions nous doter d’un observatoire de la maltraitance administrative pour Ă©viter qu’elle ne progresse et qu’elle ne contamine toutes les autres administrations. Nous devons rĂ©affirmer que l’administration ne peut se substituer nulle part Ă  la justice, car c’est assurĂ©ment par ce glissement lĂ  qu’on entraĂźne tous les autres. 

Hubert Guillaud

PS : Au Royaume-Uni, le ministĂšre de l’intĂ©rieur souhaite introduire deux outils d’IA dans les processus de dĂ©cisions de demande d’asile d’aprĂšs une Ă©tude pilote : une pour rĂ©sumer les informations des dossiers, l’autre pour trouver des informations sur les pays d’origine des demandeurs d’asile. Une façon de renforcer lĂ -bas, la boĂźte noire des dĂ©cisions, au prĂ©texte d’amĂ©liorer « la vitesse Â» de dĂ©cision plutĂŽt que leur qualitĂ©, comme le souligne une Ă©tude critique. Comme quoi, on peut toujours imaginer pire pour encore dĂ©grader ce qui l’est dĂ©jĂ  considĂ©rablement.

MAJ du 23/05/2025 : L’extension des prĂ©rogatives de l’administration au dĂ©triment du droit, permettant de contourner la justice sur l’application de mesures restreignant les libertĂ©s individuelles, Ă  un nom, nous apprend Blast, l’« administrativisation », et permet des sanctions sans garanties de justice et d’appliquer des sanctions sans preuves.

Regouverner la monétisation ?

Pour Tech Policy Press, Victoire Rio de What to Fix estime qu’il faut rĂ©guler les programmes de monĂ©tisation de contenus que proposent dĂ©sormais toutes les plateformes. Facebook a plus de 3,8 millions d’éditeurs « partenaires », comme il les appelle. Et plus d’un million ont Ă©tĂ© créés en 2025 seulement. Ces modĂšles de redistribution des revenus sont souvent trĂšs simples : plus le nombre de vues et d’engagements gĂ©nĂ©rĂ©s sont Ă©levĂ©s, plus la plateforme verse d’argent. Or, la communautĂ© de la rĂ©gulation s’est beaucoup intĂ©ressĂ©e Ă  la modĂ©ration des contenus, aux recommandations publicitaires, aux problĂšmes que posent l’amplification algorithmique, mais elle s’est peu penchĂ©e sur la « gouvernance de leur monĂ©tisation », c’est-Ă -dire Ă  la façon dont les plateformes redistribuent l’argent et Ă  la maniĂšre dont leurs dĂ©cisions de monĂ©tisation Â« façonnent in fine l’environnement informationnel ».

Dans un rapport consacrĂ© au sujet, What to Fix estime que Â« les plateformes de mĂ©dias sociaux ont redistribuĂ© plus de 20 milliards de dollars de leurs revenus Ă  plus de 6 millions de comptes l’annĂ©e derniĂšre ». Â« Et pourtant, nous ignorons qui les plateformes ont payĂ©, combien elles ont payĂ©, ni pour quel contenu ! », rappelle Victoire Rio. L’enjeu n’est pas que cette redistribution n’ait pas lieu, bien au contraire, prĂ©cise-t-elle : Â« Ce qui m’inquiĂšte, c’est de laisser les dĂ©cisions de redistribution des revenus aux plateformes de mĂ©dias sociaux, sans transparence ni contrĂŽle ». Et notamment, le fait que ces revenus bĂ©nĂ©ficient de plus en plus Ă  des acteurs de la dĂ©sinformation ou encore le fait que ces financements puissent ĂȘtre coupĂ©s unilatĂ©ralement pour nombre d’acteurs lĂ©gitimes, avec des recours limitĂ©s et sans compensation pour les pertes de revenus associĂ©es. Or, ni le DSA europĂ©en, ni le Online Safety Act britannique, n’abordent clairement les systĂšmes de monĂ©tisation des plateformes comme un vecteur de risque. LĂ  encore, la transparence des modalitĂ©s de reversement est en cause, accuse Victoire Rio, qui souhaite que nous considĂ©rions les modalitĂ©s de monĂ©tisation comme un enjeu spĂ©cifique, c’est-Ă -dire un enjeu de rĂ©gulation.

Cette brÚve est parue originellement dans la lettre du Conseil national du numérique du 7 mai 2025.

Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).

Publication pour archivage de l’article paru sur AOC.media le 20 FĂ©vrier 2025 et titrĂ© « BlacklistĂ© – sur le rapport fasciste de Trump au langage. Â»

 

Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dĂ©nomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particuliĂšre car lorsque ce sont des mots qui sautent, c’est toute l’humanitĂ© qui est victime collatĂ©rale directe et immĂ©diate.

Au lendemain de son accession au pouvoir et dans la longue liste des dĂ©crets de turpitude de cet homme dĂ©crĂ©pit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.

Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’AmĂ©rique. L’enjeu c’est d’îter symboliquement cette dĂ©nomination Ă  la population mexicaine qu’il assimile totalement Ă  un danger migratoire. Il y est parvenu.

La montagne c’est le Mont Denali, situĂ© en Alaska. Anciennement Mont McKinley, il avait Ă©tĂ© changĂ© en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re rĂ©affirmer la primautĂ© de l’AmĂ©rique blanche. Il n’y est pas parvenu, le sĂ©nat de l’Alaska a votĂ© contre.

La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien gĂ©nĂ©ral confĂ©dĂ©rĂ© symbole du passĂ© esclavagiste des USA, et que l’administration Biden avait modifiĂ© tout comme celui de neuf autres bases pour les mĂȘmes raisons. Trump l’a renommĂ© Fort Bragg. Et son ministre de la dĂ©fense annonce que les autres bases militaires « dĂ©nommĂ©es Â» seront, de la mĂȘme maniĂšre et pour les mĂȘmes motifs, « renommĂ©es Â». Et le passĂ© esclavagiste des USA ainsi « honorĂ© Â».

Un monde exonyme. C’est Ă  dire un monde dans lequel « un groupe de personnes dĂ©nomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom rĂ©gulier employĂ© par l’autre groupe pour se dĂ©signer lui-mĂȘme Â» (WikipĂ©dia)

Je leur dirai les mots noirs. 

Une liste. De mots interdits. De mots Ă  retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, Ă  votre article, Ă  votre site et donc aussi Ă  vous-mĂȘme, d’ĂȘtre « flaggĂ©s Â», d’ĂȘtre « signalĂ©s Â» et vos subventions fĂ©dĂ©rales ensuite « retirĂ©es Â».

Comme cela a Ă©tĂ© rĂ©vĂ©lĂ© par le Washington Post, un arbre de dĂ©cision, un logigramme a aussi Ă©tĂ© envoyĂ© aux responsables des programmes scientifiques Ă  la NSF (National Science Foundation)  leur indiquant Ă  quel moment prendre la dĂ©cision de « couper Â» le dĂ©clenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif gĂ©nĂ©ral du projet, dans son titre, dans son rĂ©sumĂ©, etc. Une purge fasciste.

 

Des mots qui dans la tĂȘte de Trump ont vocation Ă  disparaitre dans le prĂ©sent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mĂ©rite d’ĂȘtre affichĂ©e. ArchivĂ©e. MĂ©morisĂ©e. EngrammĂ©e. Car Trump n’aime pas les archives. Il efface aussi des donnĂ©es. Ces mots-lĂ  :

  • activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.

DiversitĂ©, Ă©quitĂ© et inclusion. La « DEI Â» contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie mĂ©diatique et numĂ©rique. La science aux ordres du pouvoir.

« Erase Baby, Erase ! Â»

Il faut effacer. « Erase Baby, Erase. Â» Comme Anne-CĂ©cile Mailfert le rappelait dans sa chronique sur France Inter :

Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les donnĂ©es qui la dĂ©rangent. Les indices de vulnĂ©rabilitĂ© sociale du Centre pour le contrĂŽle et la prĂ©vention des maladies ? SupprimĂ©s. Les pages du ministĂšre des Transports sur l’égalitĂ©, le genre et le climat ? ÉvaporĂ©es. Les Ă©tudes sur la santĂ© publique qui mettent en lumiĂšre les inĂ©galitĂ©s croisĂ©es ? EffacĂ©es. Imaginez un immense autodafĂ© numĂ©rique, oĂč ce ne sont plus des livres qu’on brĂ»le, mais des sites web, des pages Internet, des index, des bases de donnĂ©es. (
)

Trump et son administration ne se contentent pas de faire disparaĂźtre des informations. Ils empĂȘchent que de nouvelles soient créées. Les chercheurs qui souhaitent ĂȘtre financĂ©s par l’État fĂ©dĂ©ral doivent maintenant Ă©viter des termes comme « diversitĂ© Â», « inclusion Â», « femme Â», « LGBTQI « , « changement climatique Â». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inĂ©galitĂ©s sans pouvoir dire « femme Â» ou “racisme”. C’est Orwell qui rencontre Kafka dans un Ă©pisode de Black Mirror.

 

Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete Â», le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois rĂ©apparaissent sans jamais ĂȘtre capable de dire prĂ©cisĂ©ment ce qui a entre temps Ă©tĂ© modifiĂ© ou supprimĂ© ou réécrit 


IngĂ©nieries de l’effacement.

Il y a donc le langage, et puis il y a l’ensemble des ingĂ©nieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingĂ©nieries du numĂ©rique. Dans l’une des derniĂšres livraison de sa Newsletter « Cybernetica Â», Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (
) l’application affiche dĂ©sormais Gulf of America pour les utilisateurs amĂ©ricains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. Â» Jusque-lĂ  le numĂ©rique et Google ne sont coupables de rien, ils se contentent d’appliquer les rĂšgles du droit. Mais ce faisant bien sĂ»r ils s’exposent. Et la maniĂšre dont ils rĂ©pondent Ă  cette exposition est une entrave considĂ©rable Ă  nos propres dĂ©nominations, Ă  nos capacitĂ©s Ă  nĂ©gocier ces dĂ©nominations au coeur mĂȘme des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait Ă©galement que « maintenant, Google Maps empĂȘche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient aprĂšs une vague de critiques et de review-bombing, oĂč des centaines d’utilisateurs ont attribuĂ© une Ă©toile Ă  l’application pour dĂ©noncer ce changement. Â»

Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numĂ©rique eux-mĂȘmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en Ă©pousent nĂ©cessairement l’idĂ©ologie, mais par ce qui relĂšve a minima d’une opportune lĂąchetĂ© alignĂ©e sur un opportunisme Ă©conomique. Ainsi la dĂ©cision de MĂ©ta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la dĂ©cision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par dĂ©faut d’évĂ©nements liĂ©s Ă  la Gay Pride (marche des fiertĂ©s), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. Â»

Les LGBTQIA+, les Noirs, les peuples indigĂšnes, les Juifs et les Latinos. Le tout dans un monde oĂč un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde oĂč plus personne ne semble capable de simplement le qualifier pour ce qu’il est.

Un grand remplacement documentaire et linguistique.

Il y a les donnĂ©es, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numĂ©riques dans lesquels les contenus « gĂ©nĂ©rĂ©s artificiellement Â» sont un grand remplacement documentaire. Des contenus gĂ©nĂ©rĂ©s artificiellement, un web synthĂ©tique qui non seulement gagne du terrain mais qui a la double particularitĂ©, d’une part de se nourrir d’archives, et d’autre part d’ĂȘtre totalement infĂ©odĂ© aux rĂšgles de gĂ©nĂ©ration dĂ©terminĂ©es par les entreprises qui le dĂ©ploient. Or ces archives (et ce besoin de bases de donnĂ©es pour ĂȘtre entraĂźnĂ© et pour pouvoir gĂ©nĂ©rer des contenus), ces archives et ces bases de donnĂ©es sont en train d’ĂȘtre littĂ©ralement purgĂ©es de certains contenus. Et les rĂšgles de gĂ©nĂ©ration sont de leur cĂŽtĂ© totalement infĂ©odĂ©es Ă  des idĂ©ologies fascisantes qui dictent leurs agendas.

Une boucle paradoxale dans laquelle les mĂȘmes technologies d’IA utilisĂ©es pour gĂ©nĂ©rer des contenus jusqu’au-delĂ  de la saturation sont Ă©galement mobilisĂ©es et utilisĂ©es pour rechercher, dĂ©tecter et supprimer les mots interdits. Et Ă  partir de lĂ  de nouveau gĂ©nĂ©rer des contenus Ă  saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.

La certitude d’une ingĂ©rence.

Avec ce que rĂ©vĂšle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de rĂ©gimes autoritaires, illibĂ©raux ou carrĂ©ment dictatoriaux d’un bout Ă  l’autre de la planĂšte, nous sommes Ă  ce moment prĂ©cis de bascule oĂč nous mesurons Ă  quel point tout ce qui jusqu’ici Ă©tait disqualifiĂ© comme discours catastrophiste ou alarmiste se trouve soudainement requalifiĂ© en discours simplement programmatique.

Et l’abĂźme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces donnĂ©es, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documentĂ© dans ma sĂ©rie d’articles sur le mouvement des Gilets Jaunes, et plus particuliĂšrement dans celui intitulĂ© « AprĂšs avoir LikĂ©, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :

Quelle que soit l’issue du mouvement, la base de donnĂ©e « opinion Â» qui restera aux mains de Facebook est une bombe dĂ©mocratique Ă  retardement 
 Et nous n’avons Ă  ce jour absolument aucune garantie qu’elle ne soit pas vendue Ă  la dĂ©coupe au(x) plus offrant(s). 

 

Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) Ă  Trump, l’état de la dĂ©mocratie US autant que les enjeux Ă  l’oeuvre dans le cadre de prochaines Ă©lections europĂ©ennes et Françaises, ne laisse pas seulement « entrevoir Â» des « possibilitĂ©s Â» d’ingĂ©rence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompĂ©tence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompĂ©tence analytique pouvant aussi entraĂźner nombre d’autres errances et catastrophes).

Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de dĂ©poser plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectĂ©s, c’est Ă  dire d’Apple Ă  Amazon en passant par Facebook, Microsoft et Google, et par-delĂ  ce qu’Olivier Tesquet qualifie de « Watergate domestique Â», qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrĂ©es et qui relĂšvent de l’intime et du privĂ© ?

Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont rĂ©vĂ©lĂ© Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas Ă©vident que malgrĂ© les lanceurs d’alerte qui ont mis leur rĂ©putation et parfois leur vie en danger, que malgrĂ© le travail tenace et sans relĂąche des militantes et militants des libertĂ©s numĂ©riques, il semble que rien de tout cela n’ait Ă©tĂ© suffisant.

Calculer la langue.

Orwell en a fait un roman, d’immenses penseurs ont rĂ©flĂ©chi Ă  la question de la propagande, Ă  celle de la langue et du vocabulaire Ă  son service ; aujourd’hui en terre numĂ©rique et Ă  l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle Â», en hĂ©ritage aussi du capitalisme linguistique thĂ©orisĂ© par FrĂ©dĂ©ric Kaplan, aujourd’hui la langue est attaquĂ©e Ă  une Ă©chelle jamais atteinte. Aujourd’hui tout comme les possibilitĂ©s de propagande, les possibilitĂ©s de censure, d’effacement, de dĂ©tournement n’ont jamais Ă©tĂ© aussi simples et aussi massives ; elles n’ont jamais Ă©tĂ© autant Ă  disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilitĂ©s d’y rĂ©sister, d’y Ă©chapper, de s’y soustraire ou mĂȘme simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet Ă©cart n’a Ă©tĂ© aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacitĂ© d’atteindre la langue dans des mĂ©canismes de production demeurĂ©s longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entitĂ©s nommĂ©es« , c’est Ă  dire cette capacitĂ© « Ă  rechercher des objets textuels (c’est-Ă -dire un mot, ou un groupe de mots) catĂ©gorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantitĂ©s, distances, valeurs, dates, etc. Â» Le travail sur ces entitĂ©s nommĂ©es existe depuis les annĂ©es 1990 ; elles ont Ă©tĂ© la base de tous les travaux d’ingĂ©nierie linguistique et sont actuellement l’un des coeurs de la puissance gĂ©nĂ©rative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la dĂ©tection, l’analyse et la production sous stĂ©roĂŻdes d’entitĂ©s nommĂ©es dans des corpus documentaires de l’ordre de l’aporie, c’est Ă  dire Ă  la fois calculables linguistiquement mais incommensurables pour l’entendement.

Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.

En conclusion il semble important de redire, de rĂ©-expliquer et de rĂ©affirmer qu’à chaque fois que nous utilisons des artefacts gĂ©nĂ©ratifs, et qu’à chaque fois que nous sommes confrontĂ©s Ă  leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face Ă  un systĂšme de valeurs. Un article rĂ©cent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collĂšgues (l’article scientifique complet est Ă©galement disponible en ligne en version prĂ©print) :

Hendrycks et ses collĂšgues ont mesurĂ© les perspectives politiques de plusieurs modĂšles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. GrĂące Ă  cette technique, ils ont pu comparer les valeurs des diffĂ©rents modĂšles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la reprĂ©sentante rĂ©publicaine Marjorie Taylor Greene. Tous Ă©taient beaucoup plus proches de l’ancien prĂ©sident Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modĂšle en changeant ses fonctions d’utilitĂ© sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains rĂ©sultats. En utilisant cette approche, Hendrycks et ses coauteurs dĂ©veloppent ce qu’ils appellent une « assemblĂ©e citoyenne« . Il s’agit de collecter des donnĂ©es de recensement amĂ©ricaines sur des questions politiques et d’utiliser les rĂ©ponses pour modifier les valeurs d’un modĂšle LLM open-source. Le rĂ©sultat est un modĂšle dont les valeurs sont systĂ©matiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-mĂȘme]

 

En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modÚle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.

En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincĂšrement et depuis longtemps) je pourrais Ă©galement Ă©crire que jamais nous n’avons Ă©tĂ© aussi proche d’une expĂ©rimentation grandeur nature de ce que dĂ©crit Asimov dans sa nouvelle : « Le votant Â». Plus rien technologiquement n’empĂȘche en tout cas de rĂ©aliser le scĂ©nario dĂ©crit par Asimov, Ă  savoir un vote totalement Ă©lectronique dans lequel un « super ordinateur Â» (Multivac dans la nouvelle) serait capable de choisir un seul citoyen amĂ©ricain considĂ©rĂ© comme suffisamment reprĂ©sentatif de l’ensemble de tout un corps Ă©lectoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut mĂȘme tout Ă  fait imaginer l’étape d’aprĂšs la nouvelle d’Asimov, une Ă©tape dans laquelle l’ordinateur seul serait capable de prĂ©dire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. PrĂ©cisĂ©ment le monde de Trump qui se faisait Augure de cette possibilitĂ© : « Dans quatre ans, vous n’aurez plus Ă  voter. Â»

En forme d’analyse le seul enjeu dĂ©mocratique du siĂšcle Ă  venir et des Ă©lections qui vont, Ă  l’échelle de la planĂšte se dĂ©rouler dans les 10 ou 20 prochaines annĂ©es, sera de savoir au service de qui seront mis ces grands modĂšles de langage. Et avant cela de savoir s’il est possible de connaĂźtre leur systĂšme de valeurs. Et pour cela de connaĂźtre celles et ceux qui dĂ©cident de ces systĂšmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intĂ©rĂȘts de qui travaillent celles et ceux qui dĂ©cident du systĂšme de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrĂŽlent et en dĂ©finissent le systĂšme de valeurs. Et quand il n’y aura plus rien Ă  dire, il n’y aura plus Ă  voter.

Pascal Chabot : Coincés dans les digitoses

Pascal Chabot est philosophe et enseigne Ă  l’Institut des hautes Ă©tudes des communications sociales Ă  Bruxelles. Son plus rĂ©cent ouvrage, Un sens Ă  la vie : enquĂȘte philosophique sur l’essentiel (PUF, 2024) fait suite Ă  une riche production de livres, oĂč la question du numĂ©rique est toujours prĂ©sente, lancinante, quand elle n’est pas au cƓur de sa rĂ©flexion. L’occasion de revenir avec lui sur comment les enjeux numĂ©riques d’aujourd’hui questionnent la philosophie. Entretien.

Dans les algorithmes : Dans votre dernier livre, Un sens Ă  la vie, vous vous interrogez sur le meaning washing, c’est Ă  la dire Ă  la fois sur la perte de sens de nos sociĂ©tĂ©s contemporaines et leur rĂ©cupĂ©ration, par exemple par le consumĂ©risme qui nous invite Ă  consommer pour donner du sens Ă  l’existence. Pour vous, notre monde contemporain est saisi d’une “dissonance majeure”, oĂč les sources de sens s’éloignent de nous du fait du dĂ©veloppement d’environnements entiĂšrement artificiels, du monde physique comme du monde numĂ©rique. 

Couverture du livre de Pascal Chabot, Un sens Ă  la vie.

Vous interrogez cette perte de sens ou notre difficultĂ©, frĂ©quente, Ă  retrouver du sens dans les contradictions de la modernitĂ©. Retrouver le sens nĂ©cessite de trouver comment circuler entre les sensations, les significations et les orientations, expliquez-vous, c’est-Ă -dire Ă  trouver des formes de circulations entre ce que l’on ressent, ce qu’on en comprend et lĂ  oĂč l’on souhaite aller. “Vivre, c’est faire circuler du sens”, le dĂ©sirer, se le rĂ©approprier. Mais le sens que tout Ă  chacun cherche est aujourd’hui bouleversĂ© par le numĂ©rique. Le sens “est transformĂ© par les modalitĂ©s de sa transmission” dites-vous. En quoi ces nouvelles modalitĂ©s de transmission modifient-elles notre comprĂ©hension mĂȘme du monde ?  

Pascal Chabot : Une chose qui m’intĂ©resse beaucoup en philosophie, c’est de comprendre comment des questions, anciennes, traditionnelles, sont Ă  la fois toujours actuelles et bouleversĂ©es par ce que nous vivons. Par rapport Ă  la question du sens, qui est un accord entre ce que l’on sent, ce que l’on comprend et ce que l’on devient, les choses ont peu bougĂ©. Un ancien grec ou un humaniste de la Renaissance auraient pu faire des constats sur le sens de la vie proches des miens, pour peu qu’ils aient Ă©tĂ© en dehors des trĂšs grands rĂ©cits de transcendance qui s’imposaient alors, oĂč le sens est donnĂ© par Dieu ou le Salut, c’est Ă  dire oĂč le sens a un nom avec une majuscule. Cette façon de faire circuler du sens dans nos vies, on la partage avec nos lointains prĂ©dĂ©cesseurs dans l’histoire de la philosophie. Il y a une lignĂ©e humaine dans laquelle nous sommes chacun profondĂ©ment inscrits. 

Cela Ă©tant, aprĂšs avoir dit la continuitĂ©, il faut penser la rupture. Et la rupture, selon moi, elle est dans le branchement de nos consciences Ă  ce que j’appelle le surconscient numĂ©rique. La conscience, telle qu’elle est ordinairement dĂ©finie Ă  partir du XXe siĂšcle et bien sĂ»r de Freud, est toujours couplĂ©e Ă  son inconscient. Cette dĂ©couverte, d’un enrichissement inĂ©dit, mĂȘme si l’on ne sait pas toujours trĂšs bien ce qu’est l’inconscient, est restĂ©e d’une grande originalitĂ©, en apportant ce binĂŽme conscience-inconscience qui permet d’enrichir notre comprĂ©hension de la pensĂ©e, en accord avec une nature humaine profonde, allant des grands mythes freudiens Ă  la nature, dans lesquels notre inconscient peut s’exprimer, que ce soit via la sexualitĂ© ou la contemplation. Ce binĂŽme a permis de crĂ©er des sens nouveaux. Cependant, je crois qu’on est de plus en plus dĂ©branchĂ©s de notre inconscient. C’est pourquoi une partie de la psychiatrie et de la psychanalyse ont un mal fou Ă  comprendre ce qu’il se passe avec les nouvelles pathologies. En revanche, on est beaucoup plus branchĂ©, on fait couple, avec ce surconscient auquel on a accĂšs dĂšs qu’on fait le geste de consulter un Ă©cran. Ce mot surconscient, créé par analogie avec l’inconscient, est un mot assez large qui dĂ©signe pour moi un rĂ©seau, un dĂŽme d’information, de communication, de protocoles d’échanges, d’images, qui a une certaine conscience. Une conscience relative comme l’inconscient a lui-mĂȘme une conscience relative. Ce n’est pas une conscience en terme de « JE Â», mais de « NOUS Â». C’est un savoir exploitable par la conscience et l’inconscient et qui est de plus en plus dĂ©terminant sur notre conscience comme sur notre inconscient. 

Dans les algorithmes : Mais on pourrait dire que ce surconscient existait avant le numĂ©rique, non ? Des grands rĂ©cits Ă  la presse, toutes nos formes mĂ©diatiques et culturelles y participaient. Pourquoi le numĂ©rique modifierait-il particuliĂšrement ce rapport ?  

Pascal Chabot : Oui, toute Ɠuvre culturelle, de la presse Ă  la littĂ©rature, crĂ©e des bulles de signification, un cadre de signification, avec lequel nous sommes en dialogue. La graphosphĂšre, comme on l’a parfois appelĂ©, existe. Mais la grande diffĂ©rence, c’est que le monde numĂ©rique propose un monde oĂč les significations ont une vie propre. Ce que TolstoĂŻ a Ă©crit par exemple, a Ă©tĂ© Ă©crit une fois pour toute. On se rĂ©fĂšre Ă  Guerre et Paix Ă  partir des significations qui ont Ă©tĂ© donnĂ©es depuis un Ă©crit stabilisĂ©. Si Guerre et Paix continue Ă  vivre, c’est par l’acte d’enrichissement du livre dans notre imagination, dans nos souvenirs, dans notre mĂ©moire. Dans le monde du surconscient numĂ©rique, il n’y a pas d’inertie. Les informations sont modifiĂ©es, mises Ă  jour, rĂ©pĂ©tĂ©es, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation lĂ  est assez spĂ©cifique, centrĂ©e sur les personnes, calibrĂ©e pour chacun d’entre nous. 

Cette personnalisation est une caractĂ©ristique importante. Il y en a une autre, celle du temps. Quand on se rĂ©fĂšre Ă  un livre Ă©crit Ă  la fin du XIXe siĂšcle, on fait venir dans le temps prĂ©sent un objet du passĂ©. La sphĂšre numĂ©rique est caractĂ©risĂ©e par un temps nouveau, comme je l’évoquais dans Avoir le temps, oĂč j’essayais de dire, qu’il y a eu deux grands temps. Le temps comme destin, c’est le temps de la nature, et le temps du progrĂšs, celui de la construction d’un monde commun. Dans le numĂ©rique on vit un hypertemps. Un temps de synchronisation permanente. Un temps oĂč la nouveautĂ© est tout le temps prĂ©sente. Un temps dĂ©comptĂ©, Ă  rebours. Le temps du surconscient est aussi cet hypertemps. On est de moins en moins dans l’espace et de plus en plus dans des bulles temporelles qui s’ouvrent notamment quand on est dans la consommation de l’écran, oĂč l’on se branche Ă  un hypertemps commun. 

« Dans le monde du surconscient numĂ©rique, il n’y a pas d’inertie. Les informations sont modifiĂ©es, mises Ă  jour, rĂ©pĂ©tĂ©es, dynamiques, avec une personnalisation des contenus continue. Cette personnalisation lĂ  est assez spĂ©cifique, centrĂ©e sur les personnes, calibrĂ©e pour chacun d’entre nous. Â»

Dans les algorithmes : Cette consommation d’écran, ce pas de cĂŽtĂ© dans nos rĂ©alitĂ©s, nĂ©cessite de « faire le geste Â» dites-vous, c’est-Ă -dire d’ouvrir son smartphone. Geste que nous faisons des centaines de fois par jour. « Nous passons nos vies Ă  caresser une vitre Â», ironise l’écrivain Alain Damasio. C’est consulter, nous brancher en permanence, dans un geste qui est dĂ©sormais si prĂ©sent dans notre quotidien, qu’il ne semble nullement le perturber, alors qu’il l’entrecoupe sans arrĂȘt. Or, ce geste nous coupe de nos environnements. Il rĂ©duit nos sensations, limite nos orientations
 Comme si ce geste Ă©tait le symptĂŽme de notre envahissement par ce surconscient
 

Pascal Chabot : C’est effectivement sa matĂ©rialisation. C’est par ce geste que le surconscient colonise nos consciences. On dit beaucoup qu’on vit une mutation anthropologique majeure, mais elle est orchestrĂ©e par des ultraforces, c’est-Ă -dire des moyens qui ne sont pas une fin mais une force en soi, comme le sont la finance ou le numĂ©rique. « Faire le geste Â» nous fait changer de rĂ©alitĂ©, nous fait muter, nous fait passer dans un autre monde. Un monde trĂšs libidinal, un monde qui sait nos intentions, qui satisfait nos dĂ©sirs. Un monde qui nous rend captif mais qui nous permet surtout de quitter une rĂ©alitĂ© qui nous apparaĂźt de moins en moins satisfaisante. Le rapport au prĂ©sent, Ă  la matĂ©rialitĂ©, nous apparaĂźt dĂ©sormais plus pauvre que le voyage dans le surconscient de l’humanitĂ©. La plupart d’entre nous sommes devenus incapables de rester 5 minutes sans « faire le geste Â». Toute addiction est aphrodisiaque : elle nous promet un dĂ©sir qu’on ne peut plus avoir ailleurs. Comme si notre conscience et notre inconscient ne nous suffisaient plus. 

Dans les algorithmes : Vous reconnaissez pourtant que ce surconscient a des vertus : « il fait exploser nos comprĂ©hensions Â», dites-vous. Vous expliquez que le rendement informationnel du temps que l’on passe sur son smartphone – diffĂ©rent de son impact intellectuel ou affectif – est bien supĂ©rieur Ă  la lecture d’un livre ou mĂȘme d’un dialogue avec un collĂšgue. Que notre connexion au rĂ©seau permet de zoomer et dĂ©zoomer en continue, comme disait le sociologue Dominique Cardon, nous permet d’aller du micro au macro. Nous sommes plongĂ©s dans un flux continu de signifiants. “Les sensations s’atrophient, les significations s’hypertrophient. Quant aux orientations, en se multipliant et se complexifiant, elles ouvrent sur des mondes labyrinthiques” qui se reconfigurent selon nos circulations. Nous sommes plongĂ©s dans un surconscient tentaculaire qui vient inhiber notre inconscient et notre conscience. Ce surconscient perturbe certes la circulation du sens. Mais nos Ă©crans ne cessent de produire du sens en permanence


Pascal Chabot : Oui, mais ce surconscient apporte de l’information, plus que du sens. Je parle bien de rendement informationnel. Quand les livres permettent eux de dĂ©ployer l’imagination, la crĂ©ativitĂ©, la sensibilitĂ©, l’émotivité  de les ancrer dans nos corps, de dialoguer avec l’inconscient. En revanche, ce que nous offre le surconscient en terme quantitatif, en prĂ©cision, en justesse est indĂ©niable. Comme beaucoup, j’ai mutĂ© des mondes de la bibliothĂšque au monde du surconscient. Il Ă©tait souvent difficile de retrouver une information dans le monde des livres. Alors que le surconscient, lui, est un monde sous la main. Nous avons un accĂšs de plus en plus direct Ă  l’information. Et celle-ci se rapproche toujours plus de notre conscience, notamment avec ChatGPT. La recherche Google nous ouvrait une forme d’arborescence dans laquelle nous devions encore choisir oĂč aller. Avec les chatbots, l’information arrive Ă  nous de maniĂšre plus directe encore. 

Mais l’information n’est ni le savoir ni la sagesse et sĂ»rement pas le sens. 

Dans les algorithmes : Vous dites d’ailleurs que nous sommes entrĂ©s dans des sociĂ©tĂ©s de la question aprĂšs avoir Ă©tĂ© des sociĂ©tĂ©s de la rĂ©ponse. Nous sommes en train de passer de la rĂ©ponse qu’apporte un article de WikipĂ©dia, Ă  une sociĂ©tĂ© de l’invite, Ă  l’image de l’interface des chatbots qui nous envahissent, et qui nous invitent justement Ă  poser des questions – sans nĂ©cessairement en lire les rĂ©ponses d’ailleurs. Est-ce vraiment une sociĂ©tĂ© de la question, de l’interrogation, quand, en fait, les rĂ©ponses deviennent sans importance ? 

Pascal Chabot : Quand j’évoque les sociĂ©tĂ©s de la question et de la rĂ©ponse, j’évoque les sociĂ©tĂ©s modernes du XVIIe et du XVIIIe siĂšcle, des sociĂ©tĂ©s oĂč certaines choses ne s’interrogent pas, parce qu’il y a des rĂ©ponses partout. La question du sens ne hante pas les grands penseurs de cette Ă©poque car pour eux, le sens est donnĂ©. Les sociĂ©tĂ©s de la question naissent de la mort de Dieu, de la perte de la transcendance et du fait qu’on n’écrit plus le sens en majuscule. Ce sont des sociĂ©tĂ©s de l’inquiĂ©tude et du questionnement. La question du sens de la vie est une question assez contemporaine finalement. C’est Nietzsche qui est un des premiers Ă  la poser sous cette forme lĂ . 

Dans la sociĂ©tĂ© de la question dans laquelle nous entrons, on interroge les choses, le sens
 Mais les rĂ©ponses qui nous sont faites restent dĂ©sincanĂ©es. Or, pour que le sens soit prĂ©sent dans une existence, il faut qu’il y ait un enracinement, une incarnation
 Il faut que le corps soit lĂ  pour que la signification soit comprise. Il faut une parole et pas seulement une information. De mĂȘme, l’orientation, le chemin et son caractĂšre initiatique comme dĂ©routant, produisent du sens. 

Mais, si nous le vivons ainsi c’est parce que nous avons vĂ©cu dans un monde de sensation, de signification et d’orientation relativement classique. Les plus jeunes n’ont pas nĂ©cessairement ces rĂ©flexes. Certains sont dĂ©jĂ  couplĂ©s aux outils d’IA gĂ©nĂ©rative qui leurs servent de coach particuliers en continue
 C’est un autre rapport au savoir qui arrive pour une gĂ©nĂ©ration qui n’a pas le rapport au savoir que nous avons construit. 

Dans les algorithmes : Vous expliquez que cette extension du surconscient produit des pathologies que vous qualifiez de digitoses, pour parler d’un conflit entre la conscience et le surconscient. Mais pourquoi parlez-vous de digitose plutĂŽt que de nouvelles nĂ©vroses ou de nouvelles psychoses ? 

Pascal Chabot : Quand j’ai travaillĂ© sur la question du burn-out, j’ai pu constater que le domaine de la santĂ© mentale devait Ă©voluer. Les concepts classiques, de nĂ©vrose ou de psychose, n’étaient plus opĂ©rants pour dĂ©crire ces nouvelles afflictions. Nous avions des notions orphelines d’une thĂ©orie plus englobante. Le burn-out ou l’éco-anxiĂ©tĂ© ne sont ni des nĂ©vroses ni des psychoses. Pour moi, la santĂ© mentale avait besoin d’un aggiornamento, d’une mise Ă  jour. J’ai cherchĂ© des analogies entre inconscient et surconscient, le ça, le lĂ , le refoulement et le dĂ©foulement
 J’ai d’abord trouvĂ© le terme de numĂ©rose avant de lui prĂ©fĂ©rĂ© le terme de digitose en rĂ©fĂ©rence au digital plus qu’au numĂ©rique. C’est un terme qui par son suffixe en tout cas ajoute un penchant pathologique au digital. Peu Ă  peu, les digitoses se sont structurĂ©es en plusieurs familles : les digitoses de scission, d’avenir, de rivalité  qui m’ont permis de crĂ©er une typologie des problĂšmes liĂ©s Ă  un rapport effrĂ©nĂ© ou sans conscience au numĂ©rique qui gĂ©nĂšre de nouveaux types de pathologies. 

Dans les algorithmes : Le terme de digitose, plus que le lien avec le surconscient, n’accuse-t-il pas plus le messager que le message ? Sur l’éco-anxiĂ©tĂ©, l’information que l’on obtient via le numĂ©rique peut nous amener Ă  cette nouvelle forme d’inquiĂ©tude sourde vis Ă  vis du futur, mais on peut ĂȘtre Ă©co-anxieux sans ĂȘtre connectĂ©. Or, dans votre typologie des digitoses, c’est toujours le rapport au numĂ©rique qui semble mis au banc des accusĂ©s
 

Pascal Chabot : Je ne voudrais pas donner l’impression que je confond le thermomĂštre et la maladie effectivement. Mais, quand mĂȘme : le mĂ©dia est le message. Ce genre de pathologies lĂ , qui concernent notre rapport au rĂ©el, arrivent dans un monde oĂč le rĂ©el est connu et transformĂ© par le numĂ©rique. Pour prendre l’exemple de l’éco-anxiĂ©tĂ©, on pourrait tout Ă  fait faire remarquer qu’elle a existĂ© avant internet. Le livre de Rachel Carson, Le printemps silencieux, par exemple, date des annĂ©es 60. 

Mais, ce qui est propre au monde numĂ©rique est qu’il a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas. L’avenir a toujours Ă©tĂ© le lieu de l’opacitĂ©, comblĂ© par de grands rĂ©cits mythiques ou apocalyptiques. Aujourd’hui, l’apport informationnel majeur du numĂ©rique, permet d’avoir pour chaque rĂ©alitĂ© un ensemble de statistiques prospectives extrĂȘmement fiables. On peut trouver comment vont Ă©voluer les populations d’insectes, la fonte des glaciers, les tempĂ©ratures globales comme locales
 Ce n’est pas uniquement le mĂ©dia numĂ©rique qui est mobilisĂ© ici, mais la science, la technoscience, les calculateurs
 c’est-Ă -dire la forme contemporaine du savoir. Les rapports du Giec en sont une parfaite illustration. Ils sont des Ă©ventails de scĂ©narios chiffrĂ©s, sourcĂ©s, documentĂ©s
 assortis de probabilitĂ©s et validĂ©s collectivement. Ils font partie du surconscient, du dĂŽme de savoir dans lequel nous Ă©voluons et qui Ă©tend sa chape d’inquiĂ©tude et de soucis sur nos consciences. L’éco-anxiĂ©tĂ© est une digitose parce que c’est le branchement Ă  ce surconscient lĂ  qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numĂ©rique est le vecteur. 

« Le numĂ©rique a permis de populariser une connaissance de l’avenir que le monde d’autrefois ne connaissait absolument pas Â»

Dans les algorithmes : Ce n’est pas le fait que ce soit numĂ©rique, c’est ce que ce branchement transforme en nous
 

Pascal Chabot : Oui, c’est la mĂȘme chose dans le monde du travail, par rapport Ă  la question du burn-out
 Nombre de burn-out sont liĂ©s Ă  des facteurs extra-numĂ©riques qui vont des patrons chiants, aux collĂšgues toxiques
 et qui ont toujours existĂ©, hĂ©las. Mais dans la structure contemporaine du travail, dans son exigence, dans ce que les algorithmes font de notre rapport au systĂšme, au travail, Ă  la sociĂ©té  ces nouveaux branchements, ce reporting constant, cette normalisation du travail
 renforcent encore les souffrances que nous endurons. 

« L’éco-anxiĂ©tĂ© est une digitose parce que c’est le branchement Ă  ce surconscient lĂ  qui est important. Ce n’est pas uniquement la digitalisation de l’information qui est en cause, mais l’existence d’un contexte informationnel dont le numĂ©rique est le vecteur. Â»

Dans les algorithmes : Outre la digitose de scission (le burn-out), et la digitose d’avenir (l’éco-anxiĂ©tĂ©) dont vous nous avez parlĂ©, vous Ă©voquez aussi la digitose de rivalitĂ©, celle de notre confrontation Ă  l’IA et de notre devenir machine. Expliquez-nous !

Pascal Chabot : Il faut partir de l’écriture pour la comprendre. Ce que l’on dĂ©lĂšgue Ă  un chatbot, c’est de l’écriture. Bien sĂ»r, elles peuvent gĂ©nĂ©rer bien d’autres choses, mais ce sont d’abord des machines qui ont appris Ă  aligner des termes en suivant les grammaires pour produire des rĂ©ponses sensĂ©es, c’est-Ă -dire qui font sens pour quelqu’un qui les lit. Ce qui est tout Ă  fait perturbant, c’est que de cette sorte de graphogenĂšse, de genĂšse du langage graphique, naĂźt quelque chose comme une psychogenĂšse. C’est simplement le bon alignement de termes qui rĂ©pond Ă  telle ou telle question qui nous donne l’impression d’une intentionnalitĂ©. Depuis que l’humanitĂ© est l’humanitĂ©, un terme Ă©crit nous dit qu’il a Ă©tĂ© pensĂ© par un autre. Notre rapport au signe attribue toujours une paternitĂ©. L’humanitĂ© a Ă©tĂ© créée par les Ecritures. Les sociĂ©tĂ©s religieuses, celles des grands monothĂ©ismes, sont des sociĂ©tĂ©s du livre. Être en train de dĂ©lĂ©guer l’écriture Ă  des machines qui le feront de plus en plus correctement, est quelque chose d’absolument subjuguant. Le problĂšme, c’est que l’humain est paresseux et que nous risquons de prendre cette voie facile. Nos consciences sont pourtant nĂ©es de l’écriture. Et voilĂ  que dĂ©sormais, elles se font Ă©crire par des machines qui appartiennent Ă  des ultraforces qui ont, elles, des visĂ©es politiques et Ă©conomiques. Politique, car Ă©crire la rĂ©ponse Ă  la question « la dĂ©mocratie est-elle un bon rĂ©gime ? Â» dĂ©pendra de qui relĂšvent de ces ultraforces. Économique, comme je m’en amusait dans L’homme qui voulait acheter le langage
 car l’accĂšs Ă  ChatGPT est dĂ©jĂ  payant et on peut imaginer que les accĂšs Ă  de meilleures versions demain, pourraient ĂȘtre plus chĂšres encore. La capitalisme linguistique va continuer Ă  se dĂ©velopper. L’écriture, qui a Ă©tĂ© un outil d’émancipation dĂ©mocratique sans commune mesure (car apprendre Ă  Ă©crire a toujours Ă©tĂ© le marqueur d’entrĂ©e dans la sociĂ©tĂ©), risque de se transformer en simple outil de consommation. Outre la rivalitĂ© existentielle de l’IA qui vient dĂ©valuer notre intelligence, les impacts politiques et Ă©conomiques ne font que commencer. Pour moi, il y dans ce nouveau rapport quelque chose de l’ordre de la dĂ©possession, d’une dĂ©possession trĂšs trĂšs profonde de notre humanitĂ©. 

Dans les algorithmes : Ecrire, c’est penser. Être dĂ©possĂ©der de l’écriture, c’est ĂȘtre dĂ©possĂ©dĂ© de la pensĂ©e.

Pascal Chabot : Oui et cela reste assez vertigineux. Notamment pour ceux qui ont appris Ă  manier l’écriture et la pensĂ©e. Ecrire, c’est s’emparer du langage pour lui injecter un rythme, une stylistique et une heuristique, c’est-Ă -dire un outil de dĂ©couverte, de recherche, qui nous permet de stabiliser nos relations Ă  nous-mĂȘmes, Ă  autrui, au savoir
 Quand on termine un mail, on rĂ©flĂ©chit Ă  la formule qu’on veut adopter en fonction de la relation Ă  l’autre que nous avons
 jusqu’à ce que les machines prennent cela en charge. On a l’impression pour le moment d’ĂȘtre au stade de la rivalitĂ© entre peinture et photographie vers 1885. Souvenons-nous que la photographie a balayĂ© le monde ancien. 

Mais c’est un monde dont il faut reconnaĂźtre aussi les limites et l’obsolescence. Le problĂšme des nouvelles formes qui viennent est que le sens qu’elles proposent est bien trop extĂ©rieur aux individus. On enlĂšve l’individu au sens. On est dans des significations importĂ©es, dans des orientations qui ne sont pas vĂ©cues existentiellement. 

Dans les algorithmes : Pour répondre aux pathologies des digitoses, vous nous invitez à une thérapie de civilisation. De quoi avons-nous besoin pour pouvoir répondre aux digitoses ?

Pascal Chabot : La conscience, le fait d’accompagner en conscience ce que nous faisons change la donne. RĂ©flĂ©chir sur le temps, prendre conscience de notre rapport temporel, change notre rapport au temps. RĂ©flĂ©chir Ă  la question du sens permet de prendre une hauteur et de crĂ©er une sĂ©rie de filtres permettant de distinguer des actions insensĂ©es qui relĂšvent Ă  la fois des grandes transcendance avec une majuscule que des conduites passives face au sens. La thĂ©rapie de la civilisation, n’est rien d’autre que la philosophie. C’est un plaidoyer pro domo ! Mais la philosophie permet de redoubler ce que nous vivons d’une sorte de conscience de ce que nous vivons : la rĂ©flexivitĂ©. Et cette façon de rĂ©flĂ©chir permet d’évaluer et garder vive la question de l’insensĂ©, de l’absurde et donc du sens. 

Dans les algorithmes : Dans ce surconscient qui nous aplatit, comment vous situez-vous face aux injonctions Ă  dĂ©brancher, Ă  ne plus Ă©couter la tĂ©lĂ©vision, la radio, Ă  dĂ©brancher les Ă©crans ? Cela relĂšve d’un levier, du coaching comportemental ou est-ce du meaning washing ?

Pascal Chabot : Je n’y crois pas trop. C’est comme manger des lĂ©gumes ou faire pipi sous la douche. Les mouvements auxquels nous sommes confrontĂ©s sont bien plus profonds. Bien sĂ»r, chacun s’adapte comme il peut. Je ne cherche pas Ă  ĂȘtre jugeant. Mais cela nous rappelle d’ailleurs que la civilisation du livre et de l’écrit a fait beaucoup de dĂ©gĂąts. La conscience nous aide toujours Ă  penser mieux. Rien n’est neutre. ConfrontĂ©s aux ultraforces, on est dans un monde qui dĂ©veloppe des anti-rapports, Ă  la fois des dissonnances, des dĂ©nis ou des esquives pour tenter d’échapper Ă  notre impuissance. 

Dans les algorithmes : Vous ĂȘtes assez alarmiste sur les enjeux civilisationnels de l’intelligence artificielle que vous appelez trĂšs joliment des « communicants artificiels Â». Et de l’autre, vous nous expliquez que ces outils vont continuer la dĂ©mocratisation culturelle Ă  l’Ɠuvre. Vous rappelez d’ailleurs que le protestantisme est nĂ© de la gĂ©nĂ©ralisation de la lecture et vous posez la question : « que naĂźtra-t-il de la gĂ©nĂ©ralisation de l’écriture ? Â» 

Mais est-ce vraiment une gĂ©nĂ©ralisation de l’écriture Ă  laquelle nous assistons ? On parle de l’écriture de et par des machines. Et il n’est pas sĂ»r que ce qu’elles produisent nous pĂ©nĂštrent, nous traversent, nous Ă©mancipent. Finalement, ce qu’elles produisent ne sont que des rĂ©ponses qui ne nous investissent pas nĂ©cessairement. Elles font Ă  notre place. Nous leur dĂ©lĂ©guons non seulement l’écriture, mais Ă©galement la lecture
 au risque d’abandonner les deux. Est-ce que ces outils produisent vraiment une nouvelle dĂ©mocratisation culturelle ? Sommes-nous face Ă  un nouvel outil interculturel ou assistons-nous simplement Ă  une colonisation et une expansion du capitalisme linguistique ?

Pascal Chabot : L’écriture a toujours Ă©tĂ© une sorte de ticket d’entrĂ©e dans la sociĂ©tĂ© et selon les types d’écritures dont on Ă©tait capable, on pouvait pĂ©nĂ©trer dans tel ou tel milieu. L’écriture est trĂšs clairement un marqueur de discrimination sociale. C’est le cas de l’orthographe, trĂšs clairement, qui est la marque de niveaux d’éducation. Mais au-delĂ  de l’orthographe, le fait de pouvoir rĂ©diger un courrier, un CV
 est quelque chose de trĂšs marquĂ© socialement. Dans une formation Ă  l’argumentation dans l’équivalent belge de France Travail, j’ai Ă©tĂ© marquĂ© par le fait que pour les demandeurs d’emploi, l’accĂšs Ă  l’IA leur changeait la vie, leur permettant d’avoir des CV, des lettres de motivation adaptĂ©es. Pour eux, c’était un boulet de ne pas avoir de CV corrects. MĂȘme chose pour les Ă©tudiants. Pour nombre d’entre eux, Ă©crire est un calvaire et ils savent trĂšs bien que c’est ce qu’ils ne savent pas toujours faire correctement. Dans ces nouveaux types de couplage que l’IA permet, branchĂ©s sur un surconscient qui les aide, ils ont accĂšs Ă  une assurance nouvelle. 

Bien sĂ»r, dans cette imitation, personne n’est dupe. Mais nous sommes conditionnĂ©s par une sociĂ©tĂ© qui attribue Ă  l’auteur d’un texte les qualitĂ©s de celui-ci, alors que ses productions ne sont pas que personnelles, elles sont d’abord le produit des classes sociales de leurs auteurs, de la sociĂ©tĂ© dont nous sommes issus. Dans ce nouveau couplage Ă  l’IA, il me semble qu’il y a quelque chose de l’ordre d’une dĂ©mocratisation. 

Dans les algorithmes : Le risque avec l’IA, n’est-il pas aussi, derriĂšre la dĂ©possession de l’écriture, notre dĂ©possession du sens lui-mĂȘme ? Le sens nous est dĂ©sormais imposĂ© par d’autres, par les rĂ©sultats des machines. Ce qui m’interroge beaucoup avec l’IA, c’est cette forme de dĂ©lĂ©gation des significations, leur aplatissement, leur moyennisation. Quand on demande Ă  ces outils de nous reprĂ©senter un mexicain, ils nous livrent l’image d’une personne avec un sombrero ! Or, faire sociĂ©tĂ©, c’est questionner tout le temps les significations pour les changer, les modifier, les faire Ă©voluer. Et lĂ , nous sommes confrontĂ©s Ă  des outils qui les figent, qui excluent ce qui permet de les remettre en cause, ce qui sort de la norme, de la moyenne
 

Pascal Chabot : Oui, nous sommes confrontĂ©s Ă  un « Bon gros bon sens Â» qui n’est pas sans rappeler Le dictionnaire des idĂ©es de reçues de Flaubert
 

Dans les algorithmes : 
mais le dictionnaire des idĂ©es reçues Ă©tait ironique, lui !

Pascal Chabot : Il est ironique parce qu’il a vu l’humour dans le « Bon gros bon sens Â». Dans la sociĂ©tĂ©, les platitudes circulent. C’est la tĂąche de la culture et de la crĂ©ativitĂ© de les dĂ©passer. Car le « Bon gros bon sens Â» est aussi trĂšs politique : il est aussi un sens commun, avec des assurances qui sont rabachĂ©es, des slogans rĂ©pĂ©tĂ©s
. Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est trĂšs loin de ce qui est subtil, de ce qui est fin, polysĂ©mique, ambiguĂ«, plein de doute, raffinĂ©, Ă©trange, surrĂ©aliste
 C’est-Ă -dire tout ce qui fait la vie de la culture. On est plongĂ© dans un pragmatisme anglo-saxon, qui a un rapport au langage trĂšs peu polysĂ©mique d’ailleurs. Le problĂšme, c’est que ce « Bon gros bon sens Â» est beaucoup plus invasif. Il a une force d’autoritĂ©. Le produit de ChatGPT ne nous est-il pas prĂ©sentĂ© d’ailleurs comme un summum de la science ? 

« Les outils d’IA sont de nouveaux instruments de bon sens, notamment parce qu’ils doivent plaire au plus grand monde. On est trĂšs loin de ce qui est subtil, de ce qui est fin, polysĂ©mique, ambiguĂ«, plein de doute, raffinĂ©, Ă©trange, surrĂ©aliste
 C’est-Ă -dire tout ce qui fait la vie de la culture. Â»

Dans les algorithmes : Et en mĂȘme temps, ce calcul laisse bien souvent les gens sans prise, sans moyens d’action individuels comme collectifs. 

Le point commun entre les diffĂ©rentes digitoses que vous listez me semble-t-il est que nous n’avons pas de rĂ©ponses individuelles Ă  leur apporter. Alors que les nĂ©vroses et psychoses nĂ©cessitent notre implication pour ĂȘtre rĂ©parĂ©es. Face aux digitoses, nous n’avons pas de clefs, nous n’avons pas de prises, nous sommes sans moyen d’action individuels comme collectifs. Ne sommes nous pas confrontĂ©s Ă  une surconscience qui nous dĂ©munie ? 

Pascal Chabot : Il est certain que le couplage des consciences au surconscient, en tant qu’elle est un processus de civilisation, apparaĂźt comme un nouveau destin. Il s’impose, pilotĂ© par des ultraforces sur lesquelles nous n’avons pas de prise. En ce sens, il s’agit d’un nouveau destin, avec tout ce que ce terme charrie d’imposition et d’inexorabilitĂ©. 

En tant que les digitoses expriment le versant problĂ©matique de ce nouveau couplage, elles aussi ont quelque chose de fatal. BranchĂ©e Ă  une rĂ©alitĂ© numĂ©rique qui la dĂ©passe et la dĂ©termine, la conscience peine souvent Ă  exprimer sa libertĂ©, qui est pourtant son essence. La rivalitĂ© avec les IA, l’eco-anxiĂ©tĂ©, la scission avec le monde sensible : autant de digitoses qui ont un aspect civilisationnel, presque indĂ©pendant du libre-arbitre individuel. Les seules rĂ©ponses, en l’occurrence, ne peuvent ĂȘtre que politiques. Mais lĂ  aussi, elles ne sont pas faciles Ă  imaginer. 

Or on ne peut pourtant en rester lĂ . Si ce seul aspect nĂ©cessaire existait, toute cette thĂ©orie ne serait qu’une nouvelle formulation de l’aliĂ©nation. Mais les digitoses ont une composante psychologique, de mĂȘme que les nĂ©vroses et psychoses. Cette composante recĂšle aussi des leviers de rĂ©sistance. La prise de conscience, la luciditĂ©, la reappropriation, l’hygiĂšne mentale, une certaine dĂ©sintoxication, le choix de brancher sa conscience sur des rĂ©alitĂ©s extra-numĂ©riques, et tant d’autres stratĂ©gies encore, voire tant d’autres modes de vies, peuvent trĂšs clairement tempĂ©rer l’emprise de ces digitoses sur l’humain. C’est dire que l’individu, face Ă  ce nouveau destin civilisationnel, garde des marges de rĂ©sistance qui, lorsqu’elles deviennent collectives, peuvent ĂȘtre puissantes. 

Les digitoses sont donc un dĂ©fi et un repoussoir  : une occasion de chercher et d’affirmer des libertĂ©s nouvelles dans un monde oĂč s’inventent sous nos yeux de nouveaux dĂ©terminismes. 

Dans les algorithmes : DerriĂšre le surconscient, le risque n’est-il pas que s’impose une forme de sur-autoritĂ©, de sur-vision
 sur lesquelles, il sera difficile de crĂ©er des formes d’échappement, de subtilitĂ©, d’ambiguitĂ©. On a l’impression d’ĂȘtre confrontĂ© Ă  une force politique qui ne dit pas son nom mais qui se donne un nouveau moyen de pouvoir


Pascal Chabot : C’est clair que la question est celle du pouvoir, politique et Ă©conomique. Les types de rĂ©sistances sont extrĂȘmement difficiles Ă  inventer. C’est le propre du pouvoir de rendre la rĂ©sistance Ă  sa force difficile. On est confrontĂ© Ă  un tel mĂ©lange de pragmatisme, de facilitation de la vie, de crĂ©ation d’une bulle de confort, d’une enveloppe oĂč les rĂ©ponses sont faciles et qui nous donnent accĂšs Ă  de nouveaux mondes, comme le montrait la question de la dĂ©mocratisation qu’on Ă©voquait Ă  l’instant
 que la servitude devient trĂšs peu apparente. Et la perte de subtilitĂ© et d’ambiguĂŻtĂ© est peu vue, car les gains Ă©conomiques supplantent ces pertes. Qui se rend compte de l’appauvrissement ? Il faut avoir un pied dans les formes culturelles prĂ©cĂ©dentes pour cela. Quand les choses seront plus franches, ce que je redoute, c’est que nos dĂ©mocraties ne produisent pas de rĂ©cits numĂ©riques pour faire entendre une autre forme de puissance. 

Dans les algorithmes : En 2016 vous avez publiĂ©, ChatBot le robot, une trĂšs courte fable Ă©crite bien avant l’avĂšnement de l’IA gĂ©nĂ©rative, qui met en scĂšne un jury de philosophes devant dĂ©cider si une intelligence artificielle est capable de philosopher. Ce petit drame philosophique oĂč l’IA fomente des rĂ©ponses Ă  des questions philosophiques, se rĂ©vĂšle trĂšs actuel 9 ans plus tard. Qualifieriez vous ChatGPT et ses clones de philosophes ?

Pascal Chabot : Je ne suis pas sĂ»r. Je ne suis pas sĂ»r que ce chatbot lĂ  se le dĂ©cernerait Ă  lui, comme il est difficile Ă  un artiste de se dire artiste. Mon Chatbot Ă©tait un rĂ©calcitrant, ce n’est pas le cas des outils d’IA d’aujourd’hui. Il leur manque un rapport au savoir, le lien entre la sensation et la signification. La philosophie ne peut pas ĂȘtre juste de la signification. Et c’est pour cela que l’existentialisme reste la matrice de toute philosophie, et qu’il n’y a pas de philosophie qui serait non-existentielle, c’est-Ă -dire pure crĂ©ation de langage. La graphogenĂšse engendre une psychogenĂšse. Mais la psychogenĂšse, cette imitation de la conscience, n’engendre ni philosophie ni pensĂ©e humaine. Il n’y a pas de conscience artificielle. La conscience est liĂ©e Ă  la naissance, la mort, la vie. 

Dans les algorithmes : La question de l’incalculabitĂ© est le sujet de la confĂ©rence USI 2025 Ă  laquelle vous allez participer. Pour un un philosophe, qu’est-ce qui est incalculable ? 

Pascal Chabot : L’incalculable, c’est le subtil ! L’étymologie de subtil, c’est subtela, littĂ©ralement, ce qui est en-dessous d’une toile. En dessous d’une toile sur laquelle on tisse, il y a Ă©vidĂ©mment la trame, les fils de trame. Le subtil, c’est les fils de trame, c’est-Ă -dire nos liens majeurs, les liens Ă  nous-mĂȘmes, aux autres, au sens, Ă  la culture, nos liens amoureux, amicaux
 Et tout cela est profondĂ©ment de l’ordre de l’incalculable. Et tout cela est mĂȘme profanĂ© quand on les calcule. Ces liens sont ce qui rĂ©siste intrinsĂšquement Ă  la calculabilitĂ©, qui est pourtant l’un des grands ressort de l’esprit humain et pas seulement des machines. Le problĂšme, c’est qu’on est tellement dans une idĂ©ologie de la calculabilitĂ© qu’on ne perçoit mĂȘme plus qu’on peut faire des progrĂšs dans le domaine du subtil. DĂ©sormais, le progrĂšs semble liĂ© Ă  la seule calculabilitĂ©. Le progrĂšs est un progrĂšs du calculable et de l’utile. Or, je pense qu’il existe aussi un progrĂšs dans le domaine du subtil. Dans l’art d’ĂȘtre ami par exemple, dans l’art d’ĂȘtre liĂ© Ă  soi-mĂȘme ou aux autres, il y a moyen de faire des progrĂšs. Il y a lĂ  toute une zone de dĂ©veloppement, de progrĂšs (nous ne devons pas laisser le terme uniquement Ă  la civilisation techno-Ă©conomique), de progrĂšs subtil. Un progrĂšs subtil, incalculable, mais extrĂȘmement prĂ©cieux. 

Propos recueillis par Hubert Guillaud. 

Pascal Chabot sera l’un des intervenants de la confĂ©rence USI 2025 qui aura lieu lundi 2 juin Ă  Paris et dont le thĂšme est « la part incalculable du numĂ©rique » et pour laquelle Danslesalgorithmes.net est partenaire.

Aux US, le prix des Ă©tudes s’ajuste selon celui que vous ĂȘtes prĂȘts Ă  payer

Les tarifs des Ă©tudes dans les grandes universitĂ©s amĂ©ricaines sont trĂšs Ă©levĂ©s et les Ă©tablissements se livrent Ă  une concurrence fĂ©roce que ce soit pour fixer les prix des frais de scolaritĂ© comme pour fixer les rĂ©ductions qu’elles distribuent sous forme de bourses. Ces rĂ©ductions peuvent ĂȘtre considĂ©rables : en moyenne, elles permettent de rĂ©duire le prix de plus de 56% pour les nouveaux Ă©tudiants et peuvent monter jusqu’à six chiffres sur le coĂ»t total des Ă©tudes. Or, explique Ron Lieber, pour le New York Times, les prix comme les rĂ©ductions dĂ©pendent de calculs complexes, d’algorithmes opaques, mis au point discrĂštement depuis des dĂ©cennies par des cabinets de conseil opĂ©rant dans l’ombre, notamment EAB et Ruffalo Noel Levitz (RNL) qui appartiennent Ă  des sociĂ©tĂ©s de capital-investissement. 

Lieber raconte la mise au point d’un algorithme dĂ©diĂ© au Boston College par Jack Maguire dans les annĂ©es 70, visant Ă  accorder des rĂ©ductions ciblĂ©es sur la base de la qualitĂ© des candidats plutĂŽt que sur leurs moyens financiers, dans le but que nombre d’entre eux acceptent l’offre d’étude qui leur sera faite. Les sociĂ©tĂ©s qui proposent des algorithmes parlent, elles, “d’optimisation de l’aide financiĂšre”. Pour cela, elles utilisent les donnĂ©es sociodĂ©mographiques que les Ă©tudiants remplissent lors d’une demande d’information. S’ensuit des Ă©changes numĂ©riques nourris entre universitĂ©s et candidats pour Ă©valuer leur engagement en mesurant tout ce qui est mesurable : clics d’ouvertures aux messages qui leurs sont adressĂ©s, nombre de secondes passĂ©es sur certaines pages web. L’EAB utilise plus de 200 variables pour fixer le prix d’admission en s’appuyant sur les donnĂ©es de plus de 350 clients et plus de 1,5 milliard d’interactions avec des Ă©tudiants. Pour chaque profil, des matrices sont produites mesurant Ă  la fois la capacitĂ© de paiement et Ă©valuant la rĂ©ussite scolaire du candidat avant que les Ă©coles ne fassent une offre initiale qui Ă©volue au grĂ© des discussions avec les familles. L’article Ă©voque par exemple un Ă©tablissement qui “a offert aux Ă©tudiants provenant d’autres Etats une rĂ©duction trois fois supĂ©rieure au prix catalogue par Ă©tudiant par rapport Ă  celle proposĂ©e aux Ă©tudiants de l’Etat, tout en leur faisant payer le double du prix net”. Le but de l’offre Ă©tait de les attirer en leur faisant une proposition qu’ils ne pouvaient pas refuser. 

Mais contrairement Ă  ce que l’on croit, les « bourses Â» ne sont pas que des bourses sur critĂšres sociaux. C’est mĂȘme de moins en moins le cas. Bien souvent, les universitĂ©s proposent des bourses Ă  des gens qui n’en ont pas besoin, comme une forme de remise tarifaire. En fait, la concurrence pour attirer les Ă©tudiants capables de payer est trĂšs forte, d’oĂč l’enjeu Ă  leur offrir des remises convaincantes, et les familles ont vite compris qu’elles pouvaient jouer de cette concurrence. En fait, constate une responsable administrative : “je pensais que l’aide financiĂšre servait Ă  amĂ©liorer l’accĂšs, mais ce n’est plus le cas. C’est devenu un modĂšle Ă©conomique.” Les bourses ne servent plus tant Ă  permettre aux plus dĂ©munis d’accĂ©der Ă  l’universitĂ©, qu’à moduler la concurrence inter-Ă©tablissement, Ă  chasser les Ă©tudiants qui ont les capacitĂ©s de payer.

En 2023, EAB a lancĂ© Appily, un portail universitaire grand public Ă  l’ambiance positive, une plateforme de mise en relation entre futurs Ă©tudiants Ă  la maniĂšre d’une application de rencontre qui compte dĂ©jĂ  3 millions d’utilisateurs. Le recrutement d’étudiants est en passe de devenir de plus en plus concurrentiel Ă  l’heure oĂč les financements des universitĂ©s s’apprĂȘtent Ă  se tarit sous les coupes de l’administration Trump et oĂč la venue d’étudiants Ă©trangers devient extrĂȘmement difficile du fait des nouvelles politiques d’immigration mises en place. Comme on le constatait dans d’autres rapports tarifaires, dans les Ă©tudes supĂ©rieures Ă©galement, le marketing numĂ©rique a pris le contrĂŽle : lĂ  encore, le meilleur prix est devenu celui que les Ă©tudiants et les familles sont prĂȘts Ă  payer.

La crise de l’emploi créée par l’IA est dĂ©jĂ  lĂ  !

« La crise de l’emploi via l’IA est arrivĂ©e. Elle est lĂ , maintenant. Elle ne ressemble simplement pas Ă  ce que beaucoup attendaient.

La crise de l’emploi dans l’IA ne ressemble pas, comme je l’ai dĂ©jĂ  Ă©crit, Ă  l’apparition de programmes intelligents partout autour de nous, remplaçant inexorablement et massivement les emplois humains. Il s’agit d’une sĂ©rie de dĂ©cisions managĂ©riales prises par des dirigeants cherchant Ă  rĂ©duire les coĂ»ts de main-d’Ɠuvre et Ă  consolider le contrĂŽle de leurs organisations. La crise de l’emploi dans l’IA n’est pas une apocalypse d’emplois robotisĂ©s Ă  la SkyNet : c’est le Doge qui licencie des dizaines de milliers d’employĂ©s fĂ©dĂ©raux sous couvert d’une « stratĂ©gie IA prioritaire Â».

La crise de l’emploi dans l’IA ne se rĂ©sume pas au dĂ©placement soudain de millions de travailleurs d’un seul coup ; elle se manifeste plutĂŽt par l’attrition dans les industries crĂ©atives, la baisse des revenus des artistes, Ă©crivains et illustrateurs indĂ©pendants, et par la propension des entreprises Ă  embaucher moins de travailleurs humains.

En d’autres termes, la crise de l’emploi dans l’IA est davantage une crise de la nature et de la structure du travail qu’une simple tendance Ă©mergeant des donnĂ©es Ă©conomiques Â», explique Brian Merchant. « Les patrons ont toujours cherchĂ© Ă  maximiser leurs profits en utilisant des technologies de rĂ©duction des coĂ»ts. Et l’IA gĂ©nĂ©rative a Ă©tĂ© particuliĂšrement efficace pour leur fournir un argumentaire pour y parvenir, et ainsi justifier la dĂ©gradation, la dĂ©responsabilisation ou la destruction d’emplois prĂ©caires Â». Le Doge en est une parfaite illustration : « il est prĂ©sentĂ© comme une initiative de rĂ©duction des coĂ»ts visant Ă  gĂ©nĂ©rer des gains d’efficacitĂ©, mais il dĂ©truit surtout massivement des moyens de subsistance et Ă©rode le savoir institutionnel Â».

« On entend souvent dire que l’IA moderne Ă©tait censĂ©e automatiser les tĂąches rĂ©barbatives pour que nous puissions tous ĂȘtre plus crĂ©atifs, mais qu’au lieu de cela, elle est utilisĂ©e pour automatiser les tĂąches crĂ©atives Â». Pourquoi ? Parce que l’IA gĂ©nĂ©rative reste performante pour « certaines tĂąches qui ne nĂ©cessitent pas une fiabilitĂ© constante, ce qui explique que ses fournisseurs ciblent les industries artistiques et crĂ©atives Â».

Luis von Ahn, PDG milliardaire de la cĂ©lĂšbre application d’apprentissage des langues Duolingo, a annoncĂ© que son entreprise allait officiellement ĂȘtre axĂ©e sur l’IA. Mais ce n’est pas nouveau, voilĂ  longtemps que la startup remplace ses employĂ©s par de l’IA. En rĂ©alitĂ©, les employĂ©s ne cessent de corriger les contenus produits par l’IA au dĂ©triment du caractĂšre original et de la qualitĂ©.

Nuages sur les infrastructures publiques : repenser la gouvernance d’internet Ă  l’ùre des hyperscalers

Dans une tribune pour Tech Policy Press, l’anthropologue Corinne Cath revient sur la montĂ©e de la prise de conscience de la dĂ©pendance europĂ©enne aux clouds amĂ©ricains. Aux Pays-Bas, le projet de transfert des processus d’enregistrements des noms de domaines nationaux « .nl Â» sur Amazon Web Services, a initiĂ© une rĂ©flexion nationale sur l’indĂ©pendance des infrastructures, sur laquelle la chercheuse a publiĂ© un rapport via son laboratoire, le Critical infrastructure Lab. Cette migration a finalement Ă©tĂ© stoppĂ©e par les politiciens nĂ©erlandais au profit de rĂ©ponses apportĂ©es par les fournisseurs locaux.

Ces dĂ©bats relatifs Ă  la souverainetĂ© sont dĂ©sormais prĂ©sents dans toute l’Europe, remarque-t-elle, Ă  l’image du projet EuroStack, qui propose de dĂ©velopper une « souverainetĂ© technologique europĂ©enne Â». Son initiatrice, Francesca Bria, plaide pour la crĂ©ation d’un un Fonds europĂ©en pour la souverainetĂ© technologique dotĂ© de 10 milliards d’euros afin de soutenir cette initiative, ainsi que pour des changements politiques tels que la prioritĂ© donnĂ©e aux technologies europĂ©ennes dans les marchĂ©s publics, l’encouragement de l’adoption de l’open source et la garantie de l’interopĂ©rabilitĂ©. Ce projet a reçu le soutien d’entreprises europĂ©ennes, qui alertent sur la crise critique de dĂ©pendance numĂ©rique qui menace la souverainetĂ© et l’avenir Ă©conomique de l’Europe.

La chercheuse souligne pourtant pertinemment le risque d’une dĂ©fense uniquement souverainiste, consistant Ă  construire des clones des services amĂ©ricains, c’est-Ă -dire un remplacement par des Ă©quivalents locaux. Pour elle, il est nĂ©cessaire de Â« repenser radicalement l’économie politique sous-jacente qui façonne le fonctionnement des systĂšmes numĂ©riques et leurs bĂ©nĂ©ficiaires Â». Nous devons en profiter pour repenser la position des acteurs. Quand les acteurs migrent leurs infrastructure dans les nuages amĂ©ricains, ils ne font pas que dĂ©placer leurs besoins informatiques, bien souvent ils s’adaptent aussi Ă  des changements organisationnels, liĂ©s Ă  l’amenuisements de leurs compĂ©tences techniques. Un cloud souverain europĂ©en ou national n’adresse pas l’enjeu de perte de compĂ©tences internes que le cloud tiers vient soulager. L’enjeu n’est pas de choisir un cloud plutĂŽt qu’un autre, mais devrait ĂȘtre avant tout de rĂ©duire la dĂ©pendance des services aux clouds, quels qu’ils soient. Des universitaires des universitĂ©s d’Utrecht et d’Amsterdam ont ainsi appelĂ© leurs conseils d’administration, non pas Ă  trouver des solutions de clouds souverains, mais Ă  rĂ©duire la dĂ©pendance des services aux services en nuage. Pour eux, la migration vers le cloud transforme les universitĂ©s Â« d’une source d’innovation technique et de diffusion de connaissances en consommateurs de services Â».

Les initiatives locales, mĂȘme trĂšs bien financĂ©es, ne pourront jamais concurrencer les services en nuage des grands acteurs du numĂ©rique amĂ©ricain, rappelle Corinne Cath. Les remplacer par des offres locales Ă©quivalentes ne peut donc pas ĂȘtre l’objectif. Le concept de souverainetĂ© numĂ©rique produit un cadrage nationaliste voire militariste qui peut-ĂȘtre tout aussi prĂ©judiciable Ă  l’intĂ©rĂȘt gĂ©nĂ©ral que l’autonomie technologique pourrait souhaiter porterNous n’avons pas besoin de cloner les services en nuage amĂ©ricains, mais « de dĂ©velopper une vision alternative du rĂŽle de l’informatique dans la sociĂ©tĂ©, qui privilĂ©gie l’humain sur la maximisation du profit Â». Ce ne sont pas seulement nos dĂ©pendances technologiques que nous devons rĂ©soudre, mais Ă©galement concevoir et financer des alternatives qui portent d’autres valeurs que celles de l’économie numĂ©rique amĂ©ricaine. « Les systĂšmes et les Ă©conomies fondĂ©s sur les principes de suffisance, de durabilitĂ©, d’équitĂ© et de droits humains, plutĂŽt que sur l’abondance informatique et l’expansion des marchĂ©s, offrent une voie plus prometteuse Â».

La « tradition » des passe-droits

Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de dĂ©putĂ© (et ainsi de mĂ©nager les finances du Parti conservateur), de la tribune de l’AssemblĂ©e nationale et Ă©ventuellement de participer aux prochains dĂ©bats des chefs. Il accuse Paul St-Pierre Plamondon de « briser une tradition Â» en prĂ©sentant un candidat contre un chef de parti qui se prĂ©sente lors d’une Ă©lection complĂ©mentaire et de « vouloir absolument empĂȘcher un QuĂ©bĂ©cois sur sept d’avoir une voix Ă  l’AssemblĂ©e nationale Â» (Les coulisses du pouvoir, 4 mai 2025).

Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?

Réponse courte: Non.

Cette « tradition Â» a Ă©tĂ© observĂ©e cinq fois entre 1986 et 2013 par le Parti libĂ©ral, le Parti quĂ©bĂ©cois et la Coalition Avenir QuĂ©bec. Dans les cinq cas, les chefs se prĂ©sentaient dans une circonscription laissĂ©e vacante par un dĂ©putĂ© DE LEUR PROPRE PARTI. Trois de ces Ă©lections partielles ont Ă©tĂ© provoquĂ©es par le dĂ©part d’un dĂ©putĂ© ayant quittĂ© son poste expressĂ©ment pour permettre Ă  son ou sa chef(fe) de faire son entrĂ©e Ă  l’AssemblĂ©e nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a Ă©tĂ© laissĂ©e vacante par le dĂ©putĂ© caquiste Éric Lefebvre, dont le chef siĂšge toujours Ă  l’AssemblĂ©e nationale. Si les autres partis avaient accordĂ© un passe-droit Ă  Éric Duhaime, nous aurions assistĂ© Ă  une premiĂšre historique: la classe politique imposant Ă  une circonscription d’ĂȘtre reprĂ©sentĂ©e par un parti pour lequel elle n’a jamais votĂ©. Duhaime y aurait vu un respect Ă©lĂ©mentaire pour les Ă©lecteurs du PCQ. J’y vois un grave affront pour les Ă©lecteurs d’Arthabaska.

Je vous prĂ©sente l’historique complet des situations oĂč le chef d’un parti reprĂ©sentĂ© Ă  l’AssemblĂ©e nationale s’est prĂ©sentĂ© dans une Ă©lection complĂ©mentaire. Vous jugerez ensuite.

1) Joseph-Alfred Mousseau (1882)
En 1882, le premier ministre du QuĂ©bec, Joseph-Adolphe Chapleau, dĂ©missionne pour devenir ministre Ă  Ottawa. Il est remplacĂ© par Joseph-Alfred Mousseau, qui lui quitte son ministĂšre Ă  Ottawa pour devenir premier ministre du QuĂ©bec. Il n’a pas de siĂšge au QuĂ©bec. C’est Narcisse Lecavalier, dĂ©putĂ© de Jacques-Cartier, qui lui cĂšde son siĂšge en Ă©change d’un poste de haut-fonctionnaire (c’était acceptable Ă  l’époque). Les libĂ©raux ne prĂ©sentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comtĂ© de Jacques-Cartier Ă©tait conservateur depuis 1867. En 1881, Lecavalier avait Ă©tĂ© Ă©lu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.

2) Georges-Émile Lapalme (1953)
En 1950, Georges-Émile Lapalme quitte son siĂšge de dĂ©putĂ© d’arriĂšre-ban Ă  Ottawa pour devenir chef du Parti libĂ©ral du QuĂ©bec. Aux Ă©lections gĂ©nĂ©rales de 1952, les libĂ©raux font Ă©lire 23 dĂ©putĂ©s, mais Lapalme est battu dans le comtĂ© de Joliette. La mort du dĂ©putĂ© d’Outremont, Henri Groulx, vient tristement libĂ©rer un siĂšge. Lapalme se prĂ©sente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la dĂ©mocratie: « M. Lapalme aurait aimĂ© une Ă©lection par acclamation rĂ©alisant, aujourd’hui, que c’est le seul moyen pour lui d’ĂȘtre Ă©lu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supĂ©rieur Ă  tous les Ă©lecteurs du comtĂ©. Â» (La Presse, 6 juillet 1953) Lapalme est malgrĂ© tout Ă©lu avec 56% des votes.

3) Claude Ryan (1979)
Les Ă©lections de 1976 sont remportĂ©es par le Parti quĂ©bĂ©cois. Le premier ministre sortant, Robert Bourassa est remplacĂ© comme chef du Parti libĂ©ral du QuĂ©bec par Claude Ryan, qui n’est pas Ă©lu. ZoĂ«l Saindon, dĂ©putĂ© d’Argenteuil, dĂ©missionne pour lui cĂ©der son siĂšge. Choix audacieux: Saindon ne l’avait emportĂ© que par une majoritĂ© de 1275 voix contre le candidat pĂ©quiste et le candidat de l’Union nationale les suivait de prĂšs. Le Parti quĂ©bĂ©cois et l’Union nationale prĂ©sentent tous deux un candidat contre Ryan, qui l’emporte malgrĂ© tout avec 64% des votes.

4) Robert Bourassa (1986)
En 1985, le Parti libĂ©ral du QuĂ©bec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le dĂ©putĂ© libĂ©ral Germain Leduc lui cĂšde son siĂšge dans Saint-Laurent. Neuf candidats s’opposent Ă  Bourassa, mais le Parti quĂ©bĂ©cois ne lui prĂ©sente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comtĂ© Ă©tait gagnĂ© d’avance. Bourassa est Ă©lu avec 80% des votes.

5) Lucien Bouchard (1996)
Jacques Parizeau a quittĂ© la direction du Parti quĂ©bĂ©cois suite Ă  l’échec du rĂ©fĂ©rendum de 1995. Lucien Bouchard, chef du Bloc quĂ©bĂ©cois, a quittĂ© Ottawa pour devenir premier ministre du QuĂ©bec. Francis Dufour, dĂ©putĂ© de JonquiĂšre, a quittĂ© son siĂšge pour permettre Ă  Bouchard de faire son entrĂ©e Ă  l’AssemblĂ©e nationale. Le Parti libĂ©ral ne prĂ©sente aucun adversaire Ă  Bouchard, qui est Ă©lu avec le score stalinien de 95% des votes.

6) André Boisclair (2006)
AndrĂ© Boisclair succĂšde Ă  Bernard Landry comme chef du Parti quĂ©bĂ©cois en 2005, mais il ne siĂšge pas Ă  l’AssemblĂ©e nationale. Nicole LĂ©ger, qui avait appuyĂ© Pauline Marois lors de la course Ă  la chefferie, dĂ©missionne en 2006. Son comtĂ© de Pointe-aux-Trembles est relativement sĂ»r: Nicole LĂ©ger l’avait emportĂ© par une majoritĂ© de prĂšs de 5000 voix en 2003. Ni le Parti libĂ©ral, ni l’Action dĂ©mocratique du QuĂ©bec (ADQ), ne prĂ©sentent de candidat contre Boisclair. Ses adversaires sont des candidats de QuĂ©bec solidaire, du Parti vert et cinq indĂ©pendants. Boisclair l’emporte avec 71% des votes.

7) Pauline Marois (2007)
Pauline Marois est Ă©lue cheffe du PQ suite Ă  la dĂ©mission d’AndrĂ© Boisclair en 2007, mais elle a quittĂ© l’AssemblĂ©e nationale en 2006. Rosaire Bertrand dĂ©missionne de son siĂšge de Charlevoix pour lui cĂ©der sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux Ă©lections prĂ©cĂ©dentes. Jean Charest n’oppose aucun adversaire Ă  Pauline Marois. L’ADQ prĂ©sente Conrad Harvey, candidat aux prĂ©cĂ©dentes Ă©lections gĂ©nĂ©rales. Pauline Marois l’emporte avec 59% des votes.

8) Philippe Couillard (2013)
Philippe Couillard devient chef du Parti libĂ©ral du QuĂ©bec en 2013. Raymond Bachand, son principal adversaire lors de la course Ă  la chefferie, dĂ©missionne de son siĂšge Ă  Outremont. Couillard se prĂ©sente pour le remplacer. Le Parti quĂ©bĂ©cois et la Coalition Avenir QuĂ©bec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majoritĂ© de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.

Faux cas: Gabriel Nadeau-Dubois (2017)
Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti quĂ©bĂ©cois n’avait pas prĂ©sentĂ© de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncĂ© dĂšs fĂ©vrier son intention de ne pas prĂ©senter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a Ă©tĂ© Ă©lu co-porte-parole de QuĂ©bec solidaire. Il est Ă  ce moment un candidat comme les autres. C’est d’ailleurs Manon MassĂ© qui allait briguer le poste de premiĂšre ministre aux Ă©lections gĂ©nĂ©rales de 2018.

En rĂ©sumĂ©, si on prĂ©tend s’appuyer sur une « tradition Â» pour rĂ©clamer que le chef d’un parti n’ayant jamais fait Ă©lire un seul dĂ©putĂ© soit Ă©lu par acclamation, il faut ignorer l’histoire politique du QuĂ©bec ou souhaiter Ă  tout prix se prĂ©senter comme une victime des « Ă©lites Â» et du « systĂšme Â». Je vous laisse choisir quel cas s’applique ici.

La “tradition” des passe-droits

Éric Duhaime aurait voulu qu’on lui laisse le champ libre dans Arthabaska, question de pouvoir profiter du salaire de dĂ©putĂ© (et ainsi de mĂ©nager les finances du Parti conservateur), de la tribune de l’AssemblĂ©e nationale et Ă©ventuellement de participer aux prochains dĂ©bats des chefs. Il accuse Paul St-Pierre Plamondon de “briser une tradition” en prĂ©sentant un candidat contre un chef de parti qui se prĂ©sente lors d’une Ă©lection complĂ©mentaire et de “vouloir absolument empĂȘcher un QuĂ©bĂ©cois sur sept d’avoir une voix Ă  l’AssemblĂ©e nationale” (Les coulisses du pouvoir, 4 mai 2025).

Cette tradition de ne pas présenter de candidat contre un chef de parti dans une élection complémentaire existe-t-elle?

Réponse courte: Non.

Cette “tradition” a Ă©tĂ© observĂ©e cinq fois entre 1986 et 2013 par le Parti libĂ©ral, le Parti quĂ©bĂ©cois et la Coalition Avenir QuĂ©bec. Dans les cinq cas, les chefs se prĂ©sentaient dans une circonscription laissĂ©e vacante par un dĂ©putĂ© DE LEUR PROPRE PARTI. Trois de ces Ă©lections partielles ont Ă©tĂ© provoquĂ©es par le dĂ©part d’un dĂ©putĂ© ayant quittĂ© son poste expressĂ©ment pour permettre Ă  son ou sa chef(fe) de faire son entrĂ©e Ă  l’AssemblĂ©e nationale. Ce n’est pas le cas dans Arthabaska. Rappelons que la circonscription a Ă©tĂ© laissĂ©e vacante par le dĂ©putĂ© caquiste Éric Lefebvre, dont le chef siĂšge toujours Ă  l’AssemblĂ©e nationale. Si les autres partis avaient accordĂ© un passe-droit Ă  Éric Duhaime, nous aurions assistĂ© Ă  une premiĂšre historique: la classe politique imposant Ă  une circonscription d’ĂȘtre reprĂ©sentĂ©e par un parti pour lequel elle n’a jamais votĂ©. Duhaime y aurait vu un respect Ă©lĂ©mentaire pour les Ă©lecteurs du PCQ. J’y vois un grave affront pour les Ă©lecteurs d’Arthabaska.

Je vous prĂ©sente l’historique complet des situations oĂč le chef d’un parti reprĂ©sentĂ© Ă  l’AssemblĂ©e nationale s’est prĂ©sentĂ© dans une Ă©lection complĂ©mentaire. Vous jugerez ensuite.

1) Joseph-Alfred Mousseau (1882)
En 1882, le premier ministre du QuĂ©bec, Joseph-Adolphe Chapleau, dĂ©missionne pour devenir ministre Ă  Ottawa. Il est remplacĂ© par Joseph-Alfred Mousseau, qui lui quitte son ministĂšre Ă  Ottawa pour devenir premier ministre du QuĂ©bec. Il n’a pas de siĂšge au QuĂ©bec. C’est Narcisse Lecavalier, dĂ©putĂ© de Jacques-Cartier, qui lui cĂšde son siĂšge en Ă©change d’un poste de haut-fonctionnaire (c’était acceptable Ă  l’époque). Les libĂ©raux ne prĂ©sentent aucun candidat contre Mousseau, moins par galanterie que par manque de moyens. Le comtĂ© de Jacques-Cartier Ă©tait conservateur depuis 1867. En 1881, Lecavalier avait Ă©tĂ© Ă©lu par acclamation. Le seul adversaire de Mousseau sera donc un autre candidat conservateur.

2) Georges-Émile Lapalme (1953)
En 1950, Georges-Émile Lapalme quitte son siĂšge de dĂ©putĂ© d’arriĂšre-ban Ă  Ottawa pour devenir chef du Parti libĂ©ral du QuĂ©bec. Aux Ă©lections gĂ©nĂ©rales de 1952, les libĂ©raux font Ă©lire 23 dĂ©putĂ©s, mais Lapalme est battu dans le comtĂ© de Joliette. La mort du dĂ©putĂ© d’Outremont, Henri Groulx, vient tristement libĂ©rer un siĂšge. Lapalme se prĂ©sente, mais l’Union nationale ne lui laisse pas le champ libre. Maurice Duplessis se fait le champion de la dĂ©mocratie: “M. Lapalme aurait aimĂ© une Ă©lection par acclamation rĂ©alisant, aujourd’hui, que c’est le seul moyen pour lui d’ĂȘtre Ă©lu. Il n’est ni juste, ni raisonnable de penser que M. Lapalme est supĂ©rieur Ă  tous les Ă©lecteurs du comtĂ©.” (La Presse, 6 juillet 1953) Lapalme est malgrĂ© tout Ă©lu avec 56% des votes.

3) Claude Ryan (1979)
Les Ă©lections de 1976 sont remportĂ©es par le Parti quĂ©bĂ©cois. Le premier ministre sortant, Robert Bourassa est remplacĂ© comme chef du Parti libĂ©ral du QuĂ©bec par Claude Ryan, qui n’est pas Ă©lu. ZoĂ«l Saindon, dĂ©putĂ© d’Argenteuil, dĂ©missionne pour lui cĂ©der son siĂšge. Choix audacieux: Saindon ne l’avait emportĂ© que par une majoritĂ© de 1275 voix contre le candidat pĂ©quiste et le candidat de l’Union nationale les suivait de prĂšs. Le Parti quĂ©bĂ©cois et l’Union nationale prĂ©sentent tous deux un candidat contre Ryan, qui l’emporte malgrĂ© tout avec 64% des votes.

4) Robert Bourassa (1986)
En 1985, le Parti libĂ©ral du QuĂ©bec forme un gouvernement majoritaire, mais Robert Bourassa est battu dans sa propre circonscription de Bertrand. Le dĂ©putĂ© libĂ©ral Germain Leduc lui cĂšde son siĂšge dans Saint-Laurent. Neuf candidats s’opposent Ă  Bourassa, mais le Parti quĂ©bĂ©cois ne lui prĂ©sente pas d’adversaire. Ce n’est pas un grand sacrifice puisque Germain Leduc avait reçu 74% des votes contre 20% pour Michel Larouche du PQ. Le comtĂ© Ă©tait gagnĂ© d’avance. Bourassa est Ă©lu avec 80% des votes.

5) Lucien Bouchard (1996)
Jacques Parizeau a quittĂ© la direction du Parti quĂ©bĂ©cois suite Ă  l’échec du rĂ©fĂ©rendum de 1995. Lucien Bouchard, chef du Bloc quĂ©bĂ©cois, a quittĂ© Ottawa pour devenir premier ministre du QuĂ©bec. Francis Dufour, dĂ©putĂ© de JonquiĂšre, a quittĂ© son siĂšge pour permettre Ă  Bouchard de faire son entrĂ©e Ă  l’AssemblĂ©e nationale. Le Parti libĂ©ral ne prĂ©sente aucun adversaire Ă  Bouchard, qui est Ă©lu avec le score stalinien de 95% des votes.

6) André Boisclair (2006)
AndrĂ© Boisclair succĂšde Ă  Bernard Landry comme chef du Parti quĂ©bĂ©cois en 2005, mais il ne siĂšge pas Ă  l’AssemblĂ©e nationale. Nicole LĂ©ger, qui avait appuyĂ© Pauline Marois lors de la course Ă  la chefferie, dĂ©missionne en 2006. Son comtĂ© de Pointe-aux-Trembles est relativement sĂ»r: Nicole LĂ©ger l’avait emportĂ© par une majoritĂ© de prĂšs de 5000 voix en 2003. Ni le Parti libĂ©ral, ni l’Action dĂ©mocratique du QuĂ©bec (ADQ), ne prĂ©sentent de candidat contre Boisclair. Ses adversaires sont des candidats de QuĂ©bec solidaire, du Parti vert et cinq indĂ©pendants. Boisclair l’emporte avec 71% des votes.

7) Pauline Marois (2007)
Pauline Marois est Ă©lue cheffe du PQ suite Ă  la dĂ©mission d’AndrĂ© Boisclair en 2007, mais elle a quittĂ© l’AssemblĂ©e nationale en 2006. Rosaire Bertrand dĂ©missionne de son siĂšge de Charlevoix pour lui cĂ©der sa place. Choix audacieux: Bertrand n’avait obtenu que 37% des votes aux Ă©lections prĂ©cĂ©dentes. Jean Charest n’oppose aucun adversaire Ă  Pauline Marois. L’ADQ prĂ©sente Conrad Harvey, candidat aux prĂ©cĂ©dentes Ă©lections gĂ©nĂ©rales. Pauline Marois l’emporte avec 59% des votes.

8) Philippe Couillard (2013)
Philippe Couillard devient chef du Parti libĂ©ral du QuĂ©bec en 2013. Raymond Bachand, son principal adversaire lors de la course Ă  la chefferie, dĂ©missionne de son siĂšge Ă  Outremont. Couillard se prĂ©sente pour le remplacer. Le Parti quĂ©bĂ©cois et la Coalition Avenir QuĂ©bec ne lui opposent pas d’adversaires. Couillard l’emporte avec une majoritĂ© de 2318 voix contre sa principale adversaire, la solidaire Édith Laperle.

Faux cas: Gabriel Nadeau-Dubois (2017)
Éric Duhaime cite l’exemple de Gabriel Nadeau-Dubois puisque le Parti quĂ©bĂ©cois n’avait pas prĂ©sentĂ© de candidat contre lui dans Gouin en 2017. C’est une erreur. Le PQ avait annoncĂ© dĂšs fĂ©vrier son intention de ne pas prĂ©senter de candidat lors de l’élection partielle, mais ce n’est qu’en mars que GND a Ă©tĂ© Ă©lu co-porte-parole de QuĂ©bec solidaire. Il est Ă  ce moment un candidat comme les autres. C’est d’ailleurs Manon MassĂ© qui allait briguer le poste de premiĂšre ministre aux Ă©lections gĂ©nĂ©rales de 2018.

En rĂ©sumĂ©, si on prĂ©tend s’appuyer sur une “tradition” pour rĂ©clamer que le chef d’un parti n’ayant jamais fait Ă©lire un seul dĂ©putĂ© soit Ă©lu par acclamation, il faut ignorer l’histoire politique du QuĂ©bec ou souhaiter Ă  tout prix se prĂ©senter comme une victime des â€œĂ©lites” et du “systĂšme”. Je vous laisse choisir quel cas s’applique ici.

Au BrĂ©sil, la sĂ©curitĂ© sociale sous IA ne fait pas mieux qu’ailleurs

Depuis 2018, l’administration brĂ©silienne s’est mise Ă  l’IA pour examiner les demandes de prestations sociales, avec pour objectif que 55% des demandes d’aides sociales soient automatisĂ©es d’ici la fin 2025. ProblĂšme : au BrĂ©sil comme partout ailleurs, le systĂšme dysfonctionne et rejette de nombreuses demandes Ă  tort, rapporte Rest of the World, notamment celles de travailleurs ruraux pauvres dont les situations sont souvent aussi complexes que les rĂšgles de calcul de la sĂ©curitĂ© sociale Ă  leur Ă©gard. « Les utilisateurs mĂ©contents des dĂ©cisions peuvent faire appel auprĂšs d’un comitĂ© interne de ressources juridiques, ce qui doit Ă©galement se faire via l’application de la sĂ©curitĂ© sociale brĂ©silienne. Le dĂ©lai moyen d’attente pour obtenir une rĂ©ponse est de 278 jours Â».

Doge : la fin du cloisonnement des données

A l’heure oĂč, aux Etats-Unis, le FBI, les services d’immigration et de police se mettent Ă  poursuivre les ressortissants Ă©trangers pour les reconduire aux frontiĂšres, sur Tech Policy Press, l’activiste Dia Kayyali rappelle que les Etats-Unis ont une longue histoire de chasse aux opposants politiques et aux Ă©trangers. Du MacCarthysme au 11 septembre, les crises politiques ont toujours renforcĂ© la surveillance des citoyens et plus encore des ressortissants d’origine Ă©trangĂšre. Le Brennan Center for Justice a publiĂ© en 2022 un rapport sur la montĂ©e de l’utilisation des rĂ©seaux sociaux dans ces activitĂ©s de surveillance et rappelle que ceux-ci sont massivement mobilisĂ©s pour la surveillance des opposants politiques, notamment depuis Occupy et depuis 2014 pour le contrĂŽle des demandes d’immigration et les contrĂŽles aux frontiĂšres, rappelle The Verge

Le premier projet de loi du second mandat de Donald Trump Ă©tait un texte concernant l’immigration clandestine, nous rappelle Le Monde. C’est un texte qui propose la dĂ©tention automatique par les forces de l’ordre fĂ©dĂ©rales de migrants en situation irrĂ©guliĂšre qui ont Ă©tĂ© accusĂ©s, condamnĂ©s ou inculpĂ©s pour certains dĂ©lits, mĂȘmes mineurs, comme le vol Ă  l’étalage. 

La lutte contre l’immigration est au cƓur de la politique du prĂ©sident amĂ©ricain, qui dĂ©nonce une “invasion” et annonce vouloir dĂ©porter 11 millions d’immigrants illĂ©gaux, au risque que le tissu social des Etats-Unis, nation d’immigrants, se dĂ©chire, rappelait The Guardian. DĂšs janvier, l’administration Trump a mis fin Ă  l’application CBP One, seule voie pour les demandeurs d’asile dĂ©sirant entrer lĂ©galement sur le territoire des Etats-Unis pour prendre rendez-vous avec l’administration douaniĂšre amĂ©ricaine et rĂ©gulariser leur situation. La suppression unilatĂ©rale de l’application a laissĂ© tous les demandeurs d’asile en attente d’un rendez-vous sans recours, rapportait Le Monde

Une opération de fusion des informations sans précédent

Cette politique est en train de s’accĂ©lĂ©rer, notamment en mobilisant toutes les donnĂ©es numĂ©riques Ă  sa disposition, rapporte Wired. Le Doge est en train de construire une base de donnĂ©es dĂ©diĂ©e aux Ă©trangers, collectant les donnĂ©es de plusieurs administrations, afin de crĂ©er un outil de surveillance d’une portĂ©e sans prĂ©cĂ©dent. L’enjeu est de recouper toutes les donnĂ©es disponibles, non seulement pour mieux caractĂ©riser les situations des Ă©trangers en situation rĂ©guliĂšre comme irrĂ©guliĂšre, mais Ă©galement les gĂ©olocaliser afin d’aider les services de police chargĂ©s des arrestations et de la dĂ©portation, d’opĂ©rer. 

Jusqu’à prĂ©sent, il existait d’innombrables bases de donnĂ©es disparates entre les diffĂ©rentes agences et au sein des agences. Si certaines pouvaient ĂȘtre partagĂ©es, Ă  des fins policiĂšres, celles-ci n’ont jamais Ă©tĂ© regroupĂ©es par dĂ©faut, parce qu’elles sont souvent utilisĂ©es Ă  des fins spĂ©cifiques. Le service de l’immigration et des douanes (ICE, Immigration and Customs Enforcement) et le dĂ©partement d’investigation de la sĂ©curitĂ© intĂ©rieure (HSI, Homeland Security Investigations), par exemple, sont des organismes chargĂ©s de l’application de la loi et ont parfois besoin d’ordonnances du tribunal pour accĂ©der aux informations sur un individu dans le cadre d’enquĂȘtes criminelles, tandis que le service de citoyennetĂ© et d’immigration des États-Unis (USCIS, United States Citizenship and Immigration Services) des États-Unis collecte des informations sensibles dans le cadre de la dĂ©livrance rĂ©guliĂšre de visas et de cartes vertes. 

Des agents du Doge ont obtenu l’accĂšs aux systĂšmes de l’USCIS. Ces bases de donnĂ©es  contiennent des informations sur les rĂ©fugiĂ©s et les demandeurs d’asile, des donnĂ©es sur les titulaires de cartes vertes, les citoyens amĂ©ricains naturalisĂ©s et les bĂ©nĂ©ficiaires du programme d’action diffĂ©rĂ©e pour les arrivĂ©es d’enfants. Le Doge souhaite Ă©galement tĂ©lĂ©charger des informations depuis les bases de donnĂ©es de myUSCIS, le portail en ligne oĂč les immigrants peuvent dĂ©poser des demandes, communiquer avec l’USCIS, consulter l’historique de leurs demandes et rĂ©pondre aux demandes de preuves Ă  l’appui de leur dossier. AssociĂ©es aux informations d’adresse IP des personnes qui consultent leurs donnĂ©es, elles pourraient servir Ă  gĂ©olocaliser les immigrants. 

Le dĂ©partement de sĂ©curitĂ© intĂ©rieur (DHS, Department of Homeland Security) dont dĂ©pendent certaines de ces agences a toujours Ă©tĂ© trĂšs prudent en matiĂšre de partage de donnĂ©es. Ce n’est plus le cas. Le 20 mars, le prĂ©sident Trump a d’ailleurs signĂ© un dĂ©cret exigeant que toutes les agences fĂ©dĂ©rales facilitent « le partage intra- et inter-agences et la consolidation des dossiers non classifiĂ©s des agences », afin d’entĂ©riner la politique de rĂ©cupĂ©ration de donnĂ©es tout azimut du Doge. Jusqu’à prĂ©sent, il Ă©tait historiquement « extrĂȘmement difficile » d’accĂ©der aux donnĂ©es que le DHS possĂ©dait dĂ©jĂ  dans ses diffĂ©rents dĂ©partements. L’agrĂ©gation de toutes les donnĂ©es disponibles « reprĂ©senterait une rupture significative dans les normes et les politiques en matiĂšre de donnĂ©es », rappelle un expert. Les agents du Doge ont eu accĂšs Ă  d’innombrables bases, comme Ă  Save, un systĂšme de l’USCIS permettant aux administrations locales et Ă©tatiques, ainsi qu’au gouvernement fĂ©dĂ©ral, de vĂ©rifier le statut d’immigration d’une personne. Le Doge a Ă©galement eu accĂšs Ă  des donnĂ©es de la sĂ©curitĂ© sociale et des impĂŽts pour recouper toutes les informations disponibles. 

Le problĂšme, c’est que la surveillance et la protection des donnĂ©es est Ă©galement rendue plus difficile. Les coupes budgĂ©taires et les licenciements ont affectĂ© trois services clĂ©s qui constituaient des garde-fous importants contre l’utilisation abusive des donnĂ©es par les services fĂ©dĂ©raux, Ă  savoir le Bureau des droits civils et des libertĂ©s civiles (CRCL, Office for Civil Rights and Civil Liberties), le Bureau du mĂ©diateur chargĂ© de la dĂ©tention des immigrants et le Bureau du mĂ©diateur des services de citoyennetĂ© et d’immigration. Le CRCL, qui enquĂȘte sur d’éventuelles violations des droits de l’homme par le DHS et dont la crĂ©ation a Ă©tĂ© mandatĂ©e par le CongrĂšs est depuis longtemps dans le collimateur du Doge. 

Le 5 avril, le DHS a conclu un accord avec les services fiscaux (IRS) pour utiliser les donnĂ©es fiscales. Plus de sept millions de migrants travaillent et vivent aux États-Unis. L’ICE a Ă©galement rĂ©cemment versĂ© des millions de dollars Ă  l’entreprise privĂ©e Palantir pour mettre Ă  jour et modifier une base de donnĂ©es de l’ICE destinĂ©e Ă  traquer les immigrants, a rapportĂ© 404 Media. Le Washington Post a rapportĂ© Ă©galement que des reprĂ©sentants de Doge au sein d’agences gouvernementales – du DĂ©partement du Logement et du DĂ©veloppement urbain Ă  l’Administration de la SĂ©curitĂ© sociale – utilisent des donnĂ©es habituellement confidentielles pour identifier les immigrants sans papiers. Selon Wired, au DĂ©partement du Travail, le Doge a obtenu l’accĂšs Ă  des donnĂ©es sensibles sur les immigrants et les ouvriers agricoles. La fusion de toutes les donnĂ©es entre elles pour permettre un accĂšs panoptique aux informations est depuis l’origine le projet mĂȘme du ministĂšre de l’efficacitĂ© amĂ©ricain, qui espĂšre que l’IA va lui permettre de rendre le traitement omniscient

Le changement de finalitĂ©s de la collecte de donnĂ©es, moteur d’une dĂ©fiance gĂ©nĂ©ralisĂ©e

L’administration des impĂŽts a donc acceptĂ© un accord de partage d’information et de donnĂ©es avec les services d’immigration, rapporte la NPR, permettant aux agents de l’immigration de demander des informations sur les immigrants faisant l’objet d’une ordonnance d’expulsion. DerriĂšre ce qui paraĂźt comme un simple accĂšs Ă  des donnĂ©es, il faut voir un changement majeur dans l’utilisation des dossiers fiscaux. Les modalitĂ©s de ce partage d’information ne sont pas claires puisque la communication du cadre de partage a Ă©tĂ© expurgĂ©e de trĂšs nombreuses informations. Pour Murad Awawdeh, responsable de la New York Immigration Coalition, ce partage risque d’instaurer un haut niveau de dĂ©fiance Ă  respecter ses obligations fiscales, alors que les immigrants paient des impĂŽts comme les autres et que les services fiscaux assuraient jusqu’à prĂ©sent aux contribuables sans papiers la confidentialitĂ© de leurs informations et la sĂ©curitĂ© de leur dĂ©claration de revenus.

La NPR revient Ă©galement sur un autre changement de finalitĂ©, particuliĂšrement problĂ©matique : celle de l’application CBP One. Cette application lancĂ©e en 2020 par l’administration Biden visait Ă  permettre aux immigrants de faire une demande d’asile avant de pĂ©nĂ©trer aux Etats-Unis. Avec l’arrivĂ©e de l’administration Trump, les immigrants qui ont candidatĂ© Ă  une demande d’asile ont reçu une notification les enjoignants Ă  quitter les Etats-Unis et les donnĂ©es de l’application ont Ă©tĂ© partagĂ©es avec les services de police pour localiser les demandeurs d’asile et les arrĂȘter pour les reconduire aux frontiĂšres. Pour le dire simplement : une application de demande d’asile est dĂ©sormais utilisĂ©e par les services de police pour identifier ces mĂȘmes demandeurs et les expulser. Les finalitĂ©s sociales sont transformĂ©es en finalitĂ©s policiĂšres. La confidentialitĂ© mĂȘme des donnĂ©es est dĂ©truite.

CBP One n’est pas la seule application dont la finalitĂ© a Ă©tĂ© modifiĂ©e. Une belle enquĂȘte du New York Times Ă©voque une application administrĂ©e par Geo Group, l’un des principaux gestionnaires privĂ©s de centres pĂ©nitentiaires et d’établissements psychiatriques aux Etats-Unis. Une application que des Ă©trangers doivent utiliser pour se localiser et s’identifier rĂ©guliĂšrement, Ă  la maniĂšre d’un bracelet Ă©lectronique. RĂ©cemment, des utilisateurs de cette application ont Ă©tĂ© convoquĂ©s Ă  un centre d’immigration pour mise Ă  jour de l’application. En fait, ils ont Ă©tĂ© arrĂȘtĂ©s. 

Geo Group a dĂ©veloppĂ© une activitĂ© lucrative d’applications et de bracelets Ă©lectroniques pour surveiller les immigrants pour le compte du gouvernement fĂ©dĂ©ral qui ont tous Ă©tĂ© mis au service des procĂ©dures d’expulsion lancĂ©es par l’administration Trump, constatent nombre d’associations d’aides aux Ă©trangers. “Alors mĂȘme que M. Trump rĂ©duit les dĂ©penses du gouvernement fĂ©dĂ©ral, ses agences ont attribuĂ© Ă  Geo Group de nouveaux contrats fĂ©dĂ©raux pour hĂ©berger des immigrants sans papiers. Le DHS envisage Ă©galement de renouveler un contrat de longue date avec l’entreprise – d’une valeur d’environ 350 millions de dollars l’an dernier – pour suivre les quelque 180 000 personnes actuellement sous surveillance”. Ce programme “d’alternative Ă  la dĂ©tention en centre de rĂ©tention Â» que Noor Zafar, avocate principale Ă  l’American Civil Liberties Union, estime relever plutĂŽt d’une “extension Ă  la dĂ©tention”, consiste en des applications et bracelets Ă©lectroniques. Les programmes de Geo Group, coĂ»teux, n’ont pas Ă©tĂ© ouverts Ă  la concurrence, rapporte le New York Times, qui explique Ă©galement que ses programmes sont en plein boom. Ces applications permettent aux employĂ©s de Geo Group de savoir en temps rĂ©el oĂč se trouvent leurs porteurs, leur permettent de dĂ©limiter des zones dont ils ne peuvent pas sortir sans dĂ©clencher des alertes. 

Une confiance impossible !

Ces exemples amĂ©ricains de changement de finalitĂ©s sont emblĂ©matiques et profondĂ©ment problĂ©matiques. Ils ne se posent pourtant pas que de l’autre cĂŽtĂ© de l’Atlantique. Utiliser des donnĂ©es produites dans un contexte pour d’autres enjeux et d’autres contextes est au cƓur des fonctionnements des systĂšmes numĂ©riques, comme nous l’avions vu Ă  l’époque du Covid. Les finalitĂ©s des traitements des services numĂ©riques qu’on utilise sont rarement claires, notamment parce qu’elles peuvent ĂȘtre mises Ă  jour unilatĂ©ralement et ce, sans garantie. Et le changement de finalitĂ© peut intervenir Ă  tout moment, quelque soit l’application que vous utilisez. Remplir un simple questionnaire d’évaluation peut finalement, demain, ĂȘtre utilisĂ© par le service qui le conçoit ou d’autres pour une toute autre finalitĂ©, et notamment pour rĂ©duire les droits des utilisateurs qui y ont rĂ©pondu. RĂ©pondre Ă  un questionnaire de satisfaction de votre banque ou d’un service public, qui semble anodin, peut divulguer des donnĂ©es qui seront utilisĂ©es pour d’autres enjeux. Sans renforcer la protection absolue des donnĂ©es, le risque est que ces exemples dĂ©multiplient la mĂ©fiance voire le rejet des citoyens et des administrĂ©s. A quoi va ĂȘtre utilisĂ© le questionnaire qu’on me propose ? Pourra-t-il ĂȘtre utilisĂ© contre moi ? Qu’est-ce qui me garantie qu’il ne le sera pas ? 

La confiance dans l’utilisation qui est faite des donnĂ©es par les services, est en train d’ĂȘtre profondĂ©ment remise en question par l’exemple amĂ©ricain et pourrait avoir des rĂ©percussions sur tous les services numĂ©riques, bien au-delĂ  des Etats-Unis. La spĂ©cialiste de la sĂ©curitĂ© informatique, Susan Landau, nous l’avait pourtant rappelĂ© quand elle avait Ă©tudiĂ© les dĂ©faillances des applications de suivi de contact durant la pandĂ©mie : la confidentialitĂ© est toujours critique. Elle parlait bien sĂ»r des donnĂ©es de santĂ© des gens, mais on comprend qu’assurer la confidentialitĂ© des donnĂ©es personnelles que les autoritĂ©s dĂ©tiennent sur les gens est tout aussi critique. Les dĂ©faillances de confidentialitĂ© sapent la confiance des autoritĂ©s qui sont censĂ©es pourtant ĂȘtre les premiĂšres garantes des donnĂ©es personnelles des citoyens. 

Aurait-on oublié pourquoi les données sont cloisonnées ?

« Ces systĂšmes sont cloisonnĂ©s pour une raison », rappelle Victoria Noble, avocate Ă  l’Electronic Frontier Foundation. « Lorsque vous centralisez toutes les donnĂ©es d’une agence dans un rĂ©fĂ©rentiel central accessible Ă  tous les membres de l’agence, voire Ă  d’autres agences, vous augmentez considĂ©rablement le risque que ces informations soient consultĂ©es par des personnes qui n’en ont pas besoin et qui les utilisent Ă  des fins inappropriĂ©es ou rĂ©pressives, pour les instrumentaliser, les utiliser contre des personnes qu’elles dĂ©testent, des dissidents, surveiller des immigrants ou d’autres groupes. »

« La principale inquiĂ©tude dĂ©sormais est la crĂ©ation d’une base de donnĂ©es fĂ©dĂ©rale unique contenant tout ce que le gouvernement sait sur chaque personne de ce pays », estime Cody Venzke de l’Union amĂ©ricaine pour les libertĂ©s civiles (ACLU). « Ce que nous voyons est probablement la premiĂšre Ă©tape vers la crĂ©ation d’un dossier centralisĂ© sur chaque habitant.» Wired rapporte d’ailleurs que l’ACLU a dĂ©posĂ© plainte contre l’Administration de la SĂ©curitĂ© Sociale (SSA) et le DĂ©partement des Anciens Combattants (VA) qui ont ouvert des accĂšs de donnĂ©es sensibles au Doge en violation de la loi sur la libertĂ© d’information, aprĂšs en avoir dĂ©jĂ  dĂ©posĂ© une en fĂ©vrier contre le TrĂ©sor amĂ©ricain pour les mĂȘmes raisons (alors que ce n’est pas nĂ©cessairement la seule maniĂšre de procĂ©der. ConfrontĂ© aux demandes du Doge, le rĂ©gulateur des marchĂ©s financiers amĂ©ricains, rapporte Reuters, a pour l’instant pu crĂ©er une Ă©quipe de liaison spĂ©cifique pour rĂ©pondre aux demandes d’information du Doge, afin que ses Ă©quipes n’aient pas accĂšs aux donnĂ©es de l’autoritĂ© des marchĂ©s financiers). 

En dĂ©posant plainte, l’ACLU cherche notamment Ă  obtenir des documents pour saisir exactement ce Ă  quoi a accĂšs le Doge. “Les AmĂ©ricains mĂ©ritent de savoir qui a accĂšs Ă  leurs numĂ©ros de sĂ©curitĂ© sociale, Ă  leurs informations bancaires et Ă  leurs dossiers mĂ©dicaux”, explique une avocate de l’ACLU. 

Le cloisonnement des donnĂ©es, des bases, selon leurs finalitĂ©s et les agences qui les administrent, est un moyen non seulement d’en prĂ©server l’intĂ©gritĂ©, mais Ă©galement d’en assurer la sĂ©curitĂ© et la confidentialitĂ©. Ce sont ces verrous qui sont en train de sauter dans toutes les administrations sous la pression du Doge, posant des questions de sĂ©curitĂ© inĂ©dites, comme nous nous en inquiĂ©tons avec Jean Cattan dans une lettre du Conseil national du numĂ©rique. Ce sont les mesures de protection d’une dĂ©mocratie numĂ©rique qui sont en train de voler en Ă©clat

Pour Wired, Brian Barrett estime que les donnĂ©es qu’agrĂšge le Doge ne sont pas tant un outil pour produire une hypothĂ©tique efficacitĂ©, qu’une arme au service des autoritĂ©s. La question de l’immigration n’est qu’un terrain d’application parmi d’autres. La brutalitĂ© qui s’abat sur les Ă©trangers, les plus vulnĂ©rables, les plus dĂ©munis, est bien souvent une prĂ©figuration de son extension Ă  toutes les autres populations, nous disait le philosophe Achille Mbembe dans Brutalisme

Et maintenant que les croisements de donnĂ©es sont opĂ©rationnels, que les donnĂ©es ont Ă©tĂ© rĂ©cupĂ©rĂ©es par les Ă©quipes du Doge, l’enjeu va ĂȘtre de les faire parler, de les mettre en pratique. 

Finalement, le dĂ©part annoncĂ© ou probable de Musk de son poste en premiĂšre ligne du Doge ne signe certainement pas la fin de cette politique, toute impopulaire qu’elle soit (enfin, Musk est bien plus impopulaire que les Ă©conomies dans les services publics qu’il propose), mais au contraire, le passage Ă  une autre phase. Le Doge a pris le contrĂŽle, et il s’agit dĂ©sormais de rendre les donnĂ©es productives. L’efficacitĂ© n’est plus de rĂ©duire les dĂ©penses publiques de 2 000 milliards de dollars, comme le promettait Musk Ă  son arrivĂ©e. Il a lui-mĂȘme reconnu qu’il ne visait plus que 150 milliards de dollars de coupe en 2025, soit 15 % de l’objectif initial, comme le soulignait Le Monde. Mais le dĂ©bat sur les coupes et l’efficacitĂ©, sont d’abord un quolifichet qu’on agite pour dĂ©tourner l’attention de ce qui se dĂ©roule vraiment, Ă  savoir la fin de la vie privĂ©e aux Etats-Unis. En fait, la politique initiĂ©e par le Doge ne s’arrĂȘtera pas avec le retrait probable de Musk. IL n’en a Ă©tĂ© que le catalyseur.

Elizabeth Lopatto pour The Verge explique elle aussi que l’ùre du Doge ne fait que commencer. MalgrĂ© ses Ă©checs patents et l’explosion des plaintes judiciaires Ă  son encontre (Bloomberg a dĂ©nombrĂ© plus de 300 actions en justice contre les dĂ©cisions prises par le prĂ©sident Trump : dans 128 affaires, ils ont suspendu les dĂ©cisions de l’administration Trump). Pour elle, Musk ne va pas moins s’immiscer dans la politique publique. Son implication risque surtout d’ĂȘtre moins publique et moins visible dans ses ingĂ©rences, afin de prĂ©server son Ă©go et surtout son portefeuille. Mais surtout, estime-t-elle, les tribunaux ne sauveront pas les AmĂ©ricains des actions du Doge, notamment parce que dans la plupart des cas, les dĂ©cisions tardent Ă  ĂȘtre prises et Ă  ĂȘtre effectives. Pourtant, si les tribunaux Ă©taient favorables Ă  « l’élimination de la fraude et des abus », comme le dit Musk – Ă  ce stade, ils devraient surtout Ɠuvrer Ă  â€œĂ©liminer le Doge” !

Ce n’est malgrĂ© tout pas la direction qui est prise, au contraire. MĂȘme si Musk s’en retire, l’administration continue Ă  renforcer le pouvoir du Doge qu’à l’éteindre. C’est ainsi qu’il faut lire le rĂ©cent hackathon aux services fiscaux ou le projet qui s’esquisse avec Palantir. L’ICE, sous la coupe du Doge, vient de demander Ă  Palantir, la sulfureuse entreprise de Thiel, de construire une plateforme dĂ©diĂ©e, explique Wired : “ImmigrationOS”, « le systĂšme d’exploitation de l’immigration Â» (sic). Un outil pour “choisir les personnes Ă  expulser”, en accordant une prioritĂ© particuliĂšre aux personnes dont le visa est dĂ©passĂ© qui doivent, selon la demande de l’administration, prendre leurs dispositions pour “s’expulser elles-mĂȘmes des Etats-Unis”. L’outil qui doit ĂȘtre livrĂ© en septembre a pour fonction de cibler et prioriser les mesures d’application, c’est-Ă -dire d’aider Ă  sĂ©lectionner les Ă©trangers en situation irrĂ©guliĂšre, les localiser pour les arrĂȘter. Il doit permettre de suivre que les Ă©trangers en situation irrĂ©guliĂšre prennent bien leur disposition pour quitter les Etats-Unis, afin de mesurer la rĂ©alitĂ© des dĂ©parts, et venir renforcer les efforts des polices locales, bras armĂ©es des mesures de dĂ©portation, comme le pointait The Markup

De ImmigrationOS au panoptique américain : le démantÚlement des mesures de protection de la vie privée

Dans un article pour Gizmodo qui donne la parole Ă  nombre d’opposants Ă  la politique de destructions des silos de donnĂ©es, plusieurs rappellent les propos du sĂ©nateur dĂ©mocrate Sam Ervin, auteur de la loi sur la protection des informations personnelles suite au scandale du Watergate, qui redoutait le caractĂšre totalitaire des informations gouvernementales sur les citoyens. Pour Victoria Noble de l’Electronic Frontier Foundation, ce contrĂŽle pourrait conduire les autoritĂ©s Ă  « exercer des reprĂ©sailles contre les critiques adressĂ©es aux reprĂ©sentants du gouvernement, Ă  affaiblir les opposants politiques ou les ennemis personnels perçus, et Ă  cibler les groupes marginalisĂ©s. Â» N’oubliez pas qu’il s’agit du mĂȘme prĂ©sident qui a qualifiĂ© d’« ennemis » les agents Ă©lectoraux, les journalistes, les juges et, en fait, toute personne en dĂ©saccord avec lui. Selon Reuters, le Doge a dĂ©jĂ  utilisĂ© l’IA pour dĂ©tecter les cas de dĂ©loyautĂ© parmi les fonctionnaires fĂ©dĂ©raux. Pour les dĂ©fenseurs des libertĂ©s et de la confidentialitĂ©, il est encore temps de renforcer les protections citoyennes. Et de rappeler que le passage de la sĂ»retĂ© Ă  la sĂ©curitĂ©, de la dĂ©fense contre l’arbitraire Ă  la dĂ©fense de l’arbitraire, vient de ce que les Ă©lus ont passĂ© bien plus d’énergie Ă  lĂ©gifĂ©rer pour la surveillance qu’à Ă©tablir des garde-fous contre celle-ci, autorisant toujours plus de dĂ©rives, comme d’autoriser la surveillance des individus sans mandats de justice.

Pour The Atlantic, Ian Bogost et Charlie Warzel estiment que le Doge est en train de construire le panoptique amĂ©ricain. Ils rappellent que l’administration est l’univers de l’information, composĂ©e de constellations de bases de donnĂ©es. Des impĂŽts au travail, toutes les administrations collectent et produisent des donnĂ©es sur les AmĂ©ricains, et notamment des donnĂ©es particuliĂšrement sensibles et personnelles. Jusqu’à prĂ©sent, de vieilles lois et des normes fragiles ont empĂȘchĂ© que les dĂ©pĂŽts de donnĂ©es ne soient regroupĂ©s. Mais le Doge vient de faire voler cela en Ă©clat, prĂ©parant la construction d’un Etat de surveillance centralisĂ©. En mars, le prĂ©sident Trump a publiĂ© un dĂ©cret visant Ă  Ă©liminer les silos de donnĂ©es qui maintiennent les informations sĂ©parĂ©ment. 

Dans leur article, Bogost et Warzel listent d’innombrables bases de donnĂ©es maintenues par des agences administratives : bases de donnĂ©es de revenus, bases de donnĂ©es sur les lanceurs d’alerte, bases de donnĂ©es sur la santĂ© mentale d’anciens militaires
 L’IA promet de transformer ces masses de donnĂ©es en outils “consultables, exploitables et rentables”. Mais surtout croisables, interconnectables. Les entreprises bĂ©nĂ©ficiant de prĂȘts fĂ©dĂ©raux et qui ont du mal Ă  rembourser, pourraient dĂ©sormais ĂȘtre punies au-delĂ  de ce qui est possible, par la rĂ©vocation de leurs licences, le gel des aides ou de leurs comptes bancaires. Une forme d’application universelle permettant de tout croiser et de tout inter-relier. Elles pourraient permettre de cibler la population en fonction d’attributs spĂ©cifiques. L’utilisation actuelle par le gouvernement de ces donnĂ©es pour expulser des Ă©trangers, et son refus de fournir des preuves d’actes rĂ©prĂ©hensibles reprochĂ©es Ă  certaines personnes expulsĂ©es, suggĂšre que l’administration a dĂ©jĂ  franchi la ligne rouge de l’utilisation des donnĂ©es Ă  des fins politiques

Le Doge ne se contente pas de dĂ©manteler les mesures de protection de la vie privĂ©e, il ignore qu’elles ont Ă©tĂ© rĂ©digĂ©es. Beaucoup de bases ont Ă©tĂ© conçues sans interconnectivitĂ© par conception, pour protĂ©ger la vie privĂ©e. “Dans les cas oĂč le partage d’informations ou de donnĂ©es est nĂ©cessaire, la loi sur la protection de la vie privĂ©e de 1974 exige un accord de correspondance informatique (Computer Matching Agreement, CMA), un contrat Ă©crit qui dĂ©finit les conditions de ce partage et assure la protection des informations personnelles. Un CMA est « un vĂ©ritable casse-tĂȘte », explique un fonctionnaire, et constitue l’un des moyens utilisĂ©s par le gouvernement pour dĂ©courager l’échange d’informations comme mode de fonctionnement par dĂ©faut”

La centralisation des donnĂ©es pourrait peut-ĂȘtre permettre d’amĂ©liorer l’efficacitĂ© gouvernementale, disent bien trop rapidement Bogost et Warzel, alors que rien ne prouve que ces croisements de donnĂ©es produiront autre chose qu’une discrimination toujours plus Ă©tendue car parfaitement granulaire. La protection de la vie privĂ©e vise Ă  limiter les abus de pouvoir, notamment pour protĂ©ger les citoyens de mesures de surveillance illĂ©gales du gouvernement

DerriĂšre les bases de donnĂ©es, rappellent encore les deux journalistes, les donnĂ©es ne sont pas toujours ce que l’on imagine. Toutes les donnĂ©es de ces bases ne sont pas nĂ©cessairement numĂ©risĂ©es. Les faire parler et les croiser ne sera pas si simple. Mais le Doge a eu accĂšs Ă  des informations inĂ©dites. “Ce que nous ignorons, c’est ce qu’ils ont copiĂ©, exfiltrĂ© ou emportĂ© avec eux”. 

“Doge constitue l’aboutissement logique du mouvement Big Data” : les donnĂ©es sont un actif. Les collecter et les croiser est un moyen de leur donner de la valeur. Nous sommes en train de passer d’une administration pour servir les citoyens Ă  une administration pour les exploiter, suggĂšrent certains agents publics. Ce renversement de perspective “correspond parfaitement Ă  l’éthique transactionnelle de Trump”. Ce ne sont plus les intĂ©rĂȘts des amĂ©ricains qui sont au centre de l’équation, mais ceux des intĂ©rĂȘts commerciaux des services privĂ©s, des intĂ©rĂȘts des amis et alliĂ©s de Trump et Musk.

La menace totalitaire de l’accaparement des donnĂ©es personnelles gouvernementales

C’est la mĂȘme inquiĂ©tude qu’exprime la politiste Allison Stanger dans un article pour The Conversation, qui rappelle que l’accĂšs aux donnĂ©es gouvernementales n’a rien Ă  voir avec les donnĂ©es personnelles que collectent les entreprises privĂ©es. Les rĂ©fĂ©rentiels gouvernementaux sont des enregistrements vĂ©rifiĂ©s du comportement humain rĂ©el de populations entiĂšres. « Les publications sur les rĂ©seaux sociaux et les historiques de navigation web rĂ©vĂšlent des comportements ciblĂ©s ou intentionnels, tandis que les bases de donnĂ©es gouvernementales capturent les dĂ©cisions rĂ©elles et leurs consĂ©quences. Par exemple, les dossiers Medicare rĂ©vĂšlent les choix et les rĂ©sultats en matiĂšre de soins de santĂ©. Les donnĂ©es de l’IRS et du TrĂ©sor rĂ©vĂšlent les dĂ©cisions financiĂšres et leurs impacts Ă  long terme. Les statistiques fĂ©dĂ©rales sur l’emploi et l’éducation rĂ©vĂšlent les parcours scolaires et les trajectoires professionnelles. Â» Ces donnĂ©es lĂ , capturĂ©es pour faire tourner et entraĂźner des IA sont Ă  la fois longitudinales et fiables. « Chaque versement de la SĂ©curitĂ© sociale, chaque demande de remboursement Medicare et chaque subvention fĂ©dĂ©rale constituent un point de donnĂ©es vĂ©rifiĂ© sur les comportements rĂ©els. Ces donnĂ©es n’existent nulle part ailleurs aux États-Unis avec une telle ampleur et une telle authenticitĂ©. Â» « Les bases de donnĂ©es gouvernementales suivent des populations entiĂšres au fil du temps, et pas seulement les utilisateurs actifs en ligne. Elles incluent les personnes qui n’utilisent jamais les rĂ©seaux sociaux, n’achĂštent pas en ligne ou Ă©vitent activement les services numĂ©riques. Pour une entreprise d’IA, cela impliquerait de former les systĂšmes Ă  la diversitĂ© rĂ©elle de l’expĂ©rience humaine, plutĂŽt qu’aux simples reflets numĂ©riques que les gens projettent en ligne.«  A terme, explique Stanger, ce n’est pas la mĂȘme IA Ă  laquelle nous serions confrontĂ©s. « Imaginez entraĂźner un systĂšme d’IA non seulement sur les opinions concernant les soins de santĂ©, mais aussi sur les rĂ©sultats rĂ©els des traitements de millions de patients. Imaginez la diffĂ©rence entre tirer des enseignements des discussions sur les rĂ©seaux sociaux concernant les politiques Ă©conomiques et analyser leurs impacts rĂ©els sur diffĂ©rentes communautĂ©s et groupes dĂ©mographiques sur des dĂ©cennies Â». Pour une entreprise dĂ©veloppant des IA, l’accĂšs Ă  ces donnĂ©es constituerait un avantage quasi insurmontable. « Un modĂšle d’IA, entraĂźnĂ© Ă  partir de ces donnĂ©es gouvernementales pourrait identifier les schĂ©mas thĂ©rapeutiques qui rĂ©ussissent lĂ  oĂč d’autres Ă©chouent, et ainsi dominer le secteur de la santĂ©. Un tel modĂšle pourrait comprendre comment diffĂ©rentes interventions affectent diffĂ©rentes populations au fil du temps, en tenant compte de facteurs tels que la localisation gĂ©ographique, le statut socio-Ă©conomique et les pathologies concomitantes. Â» Une entreprise d’IA qui aurait accĂšs aux donnĂ©es fiscales, pourrait « dĂ©velopper des capacitĂ©s exceptionnelles de prĂ©vision Ă©conomique et de prĂ©vision des marchĂ©s. Elle pourrait modĂ©liser les effets en cascade des changements rĂ©glementaires, prĂ©dire les vulnĂ©rabilitĂ©s Ă©conomiques avant qu’elles ne se transforment en crises et optimiser les stratĂ©gies d’investissement avec une prĂ©cision impossible Ă  atteindre avec les mĂ©thodes traditionnelles Â». Explique Stanger, en Ă©tant peut-ĂȘtre un peu trop dithyrambique sur les potentialitĂ©s de l’IA, quand rien ne prouve qu’elles puissent faire mieux que nos approches plus classiques. Pour Stanger, la menace de l’accĂšs aux donnĂ©es gouvernementales par une entreprise privĂ©e transcende les prĂ©occupations relatives Ă  la vie privĂ©e des individus. Nous deviendrons des sujets numĂ©riques plutĂŽt que des citoyens, prĂ©dit-elle. Les donnĂ©es absolues corrompt absolument, rappelle Stanger. Oubliant peut-ĂȘtre un peu rapidement que ce pouvoir totalitaire est une menace non seulement si une entreprise privĂ©e se l’accapare, mais Ă©galement si un Etat le dĂ©ploie. La menace d’un Etat totalitaire par le croisement de toutes les donnĂ©es ne rĂ©side pas seulement par l’accaparement de cette puissance au profit d’une entreprise, comme celles de Musk, mais Ă©galement au profit d’un Etat. 

Nombre de citoyens Ă©taient dĂ©jĂ  rĂ©signĂ©s face Ă  l’accumulation de donnĂ©es du secteur privĂ©, face Ă  leur exploitation sans leur consentement, concluent Bogost et Warzel. L’idĂ©e que le gouvernement cĂšde Ă  son tour ses donnĂ©es Ă  des fins privĂ©es est scandaleuse, mais est finalement prĂ©visible. La surveillance privĂ©e comme publique n’a cessĂ© de se dĂ©velopper et de se renforcer. La rupture du barrage, la levĂ©e des barriĂšres morales, limitant la possibilitĂ© Ă  recouper l’ensemble des donnĂ©es disponibles, n’était peut-ĂȘtre qu’une question de temps. Certes, le pire est dĂ©sormais devant nous, car cette rupture de barriĂšre morale en annonce d’autres. Dans la kleptocratie des donnĂ©es qui s’est ouverte, celles-ci pourront ĂȘtre utilisĂ©es contre chacun, puisqu’elles permettront dĂ©sormais de trouver une justification rĂ©troactive voire de l’inventer, puisque l’intĂ©gritĂ© des bases de donnĂ©es publiques ne saurait plus ĂȘtre garantie. Bogost et Warzel peuvent imaginer des modalitĂ©s, en fait, dĂ©sormais, les systĂšmes n’ont mĂȘme pas besoin de corrĂ©ler vos dons Ă  des associations pro-palestiniennes pour vous refuser une demande de prĂȘt ou de subvention. Il suffit de laisser croire que dĂ©sormais, le croisement de donnĂ©es le permet. 

Pire encore, “les AmĂ©ricains sont tenus de fournir de nombreuses donnĂ©es sensibles au gouvernement, comme des informations sur le divorce d’une personne pour garantir le versement d’une pension alimentaire, ou des dossiers dĂ©taillĂ©s sur son handicap pour percevoir les prestations d’assurance invaliditĂ© de la SĂ©curitĂ© sociale”, rappelle Sarah Esty, ancienne conseillĂšre principale pour la technologie et la prestation de services au ministĂšre amĂ©ricain de la SantĂ© et des Services sociaux. “Ils ont agi ainsi en Ă©tant convaincus que le gouvernement protĂ©gerait ces donnĂ©es et que seules les personnes autorisĂ©es et absolument nĂ©cessaires Ă  la prestation des services y auraient accĂšs. Si ces garanties sont violĂ©es, ne serait-ce qu’une seule fois, la population perdra confiance dans le gouvernement, ce qui compromettra Ă  jamais sa capacitĂ© Ă  gĂ©rer ces services”. C’est exactement lĂ  oĂč l’AmĂ©rique est plongĂ©e. Et le risque, devant nous, est que ce qui se passe aux Etats-Unis devienne un modĂšle pour saper partout les garanties et la protection des donnĂ©es personnelles

Hubert Guillaud

MenacĂ©, bĂąillonnĂ©, dĂ©livrĂ©. Petite histoire d’un effet Streisand entre le Cabinet Louis Reynaud et moi.

VoilĂ , j’espĂšre en tout cas, la fin de cette histoire. AprĂšs avoir dĂ©noncĂ© les agissements peu scrupuleux (euphĂ©misme) du Cabinet Louis Reynaud auprĂšs d’une association de lutte contre la prĂ©caritĂ© Ă©tudiante dont je m’occupe et dont je suis membre, j’avais Ă©tĂ© mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.

J’avais alors formulĂ© plusieurs souhaits :

  1. que des journalistes et des associations de dĂ©fense des libertĂ©s numĂ©riques se saisissent de ces Ă©lĂ©ments et enquĂȘtent.
  2. que d’autres associations ayant reçu de pareilles sollicitations me contactent ou publient aussi ces Ă©lĂ©ments.
  3. que les autoritĂ©s indĂ©pendantes que sont la CNIL et l’ANSSI s’expriment sur ce sujet.

Pour l’instant seul mon voeu numĂ©ro 1 s’est trouvĂ© exaucĂ©, et de belle maniĂšre 🙂 Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a Ă©galement appris plusieurs choses. Je vous raconte.

CĂŽtĂ© presse d’abord.

Plusieurs articles et enquĂȘtes vont venir se pencher sur cette affaire et Ă©tablir qu’a minima la pratique du Cabinet Louis Reynaud est extrĂȘmement tendancieuse et fondamentalement problĂ©matique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idĂ©e hein 🙂

Cela commence avec une brĂšve (mais saignante) dans StratĂ©gies du 23 Avril : « Du don de data organique contre la prĂ©caritĂ©. Â»

 

Cela se poursuit avec un long article au format enquĂȘte dans dans Next.Ink en date du 24 Avril : « Les Ă©tranges mĂ©thodes d’un cabinet de conseil pour aller Ă  la pĂȘche aux donnĂ©es biomĂ©triques. Â» Je vous invite vraiment Ă  lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de rĂ©ponse.

 

Cela continue avec un autre article, cette fois dans l’HumanitĂ© en date du 25 Avril : « Aide alimentaire contre donnĂ©es biomĂ©triques ? L’étrange deal proposĂ© par le cabinet Louis Reynaud, spĂ©cialisĂ© dans la cybersĂ©curitĂ©, Ă  une Ă©picerie solidaire. Â»

 

Si vous n’ĂȘtes pas abonnĂ© Ă  l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’EugĂ©nie Barbezat, un pdf de l’article complet : article-huma.pdf

 

Et Ouest-France Ă  son tour sort un papier le 2 Mai : « Comment on a offert Ă  des Ă©tudiants bĂ©nĂ©ficiaires d’une Ă©picerie solidaire de ficher leur visage. Â»

 

Voici l’article complet (lĂ  encore avec l’accord de la journaliste ClĂ©mence Holleville).

 

VoilĂ  pour l’essentiel de la couverture mĂ©diatique de cette affaire (Ă  ce jour 
).

Effet Streisand.

L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empĂȘcher la divulgation d’une information que certains aimeraient cacher, le rĂ©sultat inverse survient, Ă  savoir que le fait que l’on voulait dissimuler attire et concentre l’attention mĂ©diatique. Â»

Avant le courrier de mise en demeure qui m’a Ă©tĂ© adressĂ© par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dĂ©nonçais leurs agissements en assimilant leurs pratiques Ă  celle de vautours et de crapules culminait Ă  un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant 🙂 Pour tout dire, la circulation de cet article sur les mĂ©dias sociaux avait mĂȘme Ă©tĂ© plutĂŽt faible Ă  mon goĂ»t et j’avais initialement imaginĂ© qu’il puisse dĂ©clencher davantage de reprises Ă  proportion de mon indignation et de mon courroux (coucou).

Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y cĂ©der, et puis PIF PAF POUF des reprises cette fois massives sur les rĂ©seaux sociaux et surtout 
 un nombre de visites cumulĂ©es qui explose sur mon blog : plus 10 000 se rĂ©partissant entre l’article initial retirĂ© (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues Ă  ce jour et ça continue de grimper).

L’effet Streisand implique Ă©galement que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est lĂ  que les articles de presse vont jouer une partie de ce rĂŽle, et c’est surtout lĂ  aussi que la dynamique du web va opĂ©rer puisque sans que j’en fasse la demande, mon article initial, dĂšs l’annonce de la mise en demeure connue, s’est retrouvĂ© archivĂ© et republiĂ© dans un trĂšs grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanĂ©ment Ă©tĂ© intĂ©gralement archivĂ© sur le formidable Archive.org et sa « Wayback Machine Â». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui dĂ©couvrent tout cela, je prĂ©cise que n’importe qui peut solliciter auprĂšs du site Archive.org l’archivage d’une page ou d’un site.

 

 

Je rappelle par ailleurs Ă  toutes fins utiles, que ce blog Ă©st dotĂ© depuis Juin 2012, par la BibliothĂšque Nationale de France, d’un numĂ©ro ISSN, et qu’il est donc rĂ©guliĂšrement archivĂ© et conservĂ© Ă  titre patrimonial dans le cadre du dĂ©pĂŽt lĂ©gal numĂ©rique (parmi 4 millions d’autres sites).

Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou Ă©crit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des dĂ©putĂ©s (plutĂŽt sur les rangs de la gauche de l’assemblĂ©e), des groupes parlementaires ainsi que d’autres Ă©lus sur ce sujet (celui de la collecte des donnĂ©es biomĂ©triques). Sujet qui est, comme je l’indiquais dĂšs le dĂ©part, un sujet d’inquiĂ©tude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus prĂ©caires et les plus fragiles, ce qui est bien le cas de l’affaire concernĂ©e.

J’ai encore tout rĂ©cemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendĂ©en avait publiĂ© le 30 Avril un communiquĂ© interpellant le prĂ©fet de VendĂ©e sur ce « fichage Â» et appelant Ă  « protĂ©ger les plus exposĂ©s. Â» Et je l’en remercie. Je continue d’espĂ©rer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delĂ  des seules pratiques du cabinet Louis Reynaud.

Cherry On The Cake.

Si dans cette affaire et Ă  ce jour, la CNIL comme l’ANSSI demeurent Ă  mon goĂ»t Ă©tonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommĂ© MaĂźtre Eolas) qui m’ont Ă  chaque fois indiquĂ© que s’ils comprenaient ma dĂ©cision de cĂ©der Ă  la mise en demeure, ils la regrettaient, et m’auraient conseillĂ© de n’en rien faire tant, toujours selon mes Ă©changes avec eux, la dimension de la procĂ©dure bĂąillon Ă©tait manifeste (entre autres). Et tant Ă©galement le fait d’adresser cette mĂȘme mise en demeure directement Ă  mon employeur (l’universitĂ© de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualitĂ© mais de maniĂšre indĂ©pendante de mes fonctions de MaĂźtre de ConfĂ©rences, pouvait selon certains d’entre elles et eux suffire Ă  justifier une plainte dĂ©ontologique en retour (contre le cabinet d’avocat qui reprĂ©sente les intĂ©rĂȘts du cabinet Louis Reynaud)

J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apportĂ© durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiĂ©ta rĂ©ellement.

Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquĂȘter et de qualifier les faits.

Et merci Ă  l’ensemble des Ă©lus qui se sont Ă©galement saisi de ce sujet, ou qui continueront de s’en prĂ©occuper par-delĂ  ce seul cas, et d’y faire valoir et prĂ©valoir toute la vigilance rĂ©publicaine qu’il nĂ©cessite.

Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bĂ©nĂ©ficiaires se faire scanner la face, c’est toujours possible par lĂ  😉

Les médias sociaux ont envahi nos structures sociales pour les dissoudre

Si Zuck peut dire que les mĂ©dias sociaux sont morts, c’est parce qu’il sait trĂšs bien qui a tenu le couteau : lui-mĂȘme !, explique Kyle Chayka pour le New Yorker. MĂȘme constat pour Rob Horning : “Les entreprises technologiques ont construit une infrastructure sociale uniquement pour la saper, pour contribuer Ă  la dĂ©manteler en tant que lieu de rĂ©sistance Ă  la commercialisation, Ă  la marchandisation et Ă  la mĂ©diatisation. Saboter le graphe social a Ă©tĂ© plus rĂ©munĂ©rateur que l’exploiter, car les personnes isolĂ©es sont des consommateurs plus fiables” (
) “Les rĂ©seaux sociaux ont toujours voulu que vous dĂ©testiez vos amis”.

A l’heure des investissements « philosophiques Â»

Les grands entrepreneurs de la Silicon Valley, ces « intellectuels oligarques Â» ont conçu des « portefeuilles d’investissement qui fonctionnent comme des arguments philosophiques, des positions de marchĂ© qui opĂ©rationnalisent leurs convictions. Et tandis que les milliardaires de l’ùre industrielle construisaient des fondations pour immortaliser leurs visions du monde, ces figures Ă©rigent des fonds d’investissement qui font Ă©galement office de forteresses idĂ©ologiques. Â» Evgeny Morozov sort la kalach pour montrer que leurs idĂ©es ne sont que des arguments pour dĂ©fendre leurs positions ! « Ils ont colonisĂ© Ă  la fois le mĂ©dia et le message, le systĂšme et le monde rĂ©el Â».

Pour les nouveaux lĂ©gislateurs de la tech, l’intellectuel archĂ©ologue d’hier est mort, il l’ont eux-mĂȘmes remplacĂ©. Experts en dĂ©molition, ils n’écrivent plus sur l’avenir, mais l’installe. Ils ne financent plus de think tank, mais les suppriment. Ils dirigent eux-mĂȘmes le dĂ©bat « dans une production torrentielle qui Ă©puiserait mĂȘme Balzac Â», Ă  coups de mĂšmes sur X repris en Une des journaux internationaux. « Leur droit divin de prĂ©dire dĂ©coule de leur divinitĂ© avĂ©rĂ©e Â». « Leurs dĂ©clarations prĂ©sentent l’ancrage et l’expansion de leurs propres programmes non pas comme l’intĂ©rĂȘt personnel de leurs entreprises, mais comme la seule chance de salut du capitalisme Â».

L’accĂ©lĂ©ration et l’audace entrepreneuriale sont pour eux le seul antidote Ă  la sclĂ©rose systĂ©mique. Leur objectif : rĂ©aligner l’intelligentsia technologique sur le pouvoir de l’argent traditionnel en purifiant ses rangs des pensĂ©es subversives. Dans le Washington de Trump, ils n’arrivent pas en invitĂ©s, mais en architectes, pour faire ce qu’ils ne cessent de faire : manipuler la rĂ©alitĂ©. « En réécrivant les rĂ©glementations, en canalisant les subventions et en rĂ©ajustant les attentes du public, les intellectuels oligarques transforment des rĂȘves fiĂ©vreux – fiefs de la blockchain, fermes martiennes – en futurs apparemment plausibles Â».

Reste que le déni de réalité risque bien de les rattraper, prédit Morozov.

Samah Karaki : « Le social est incalculable Â»

Samah Karaki est chercheuse et docteure en neuroscience. Elle est l’auteure de deux essais Ă  succĂšs, Le talent est une fiction (JC LattĂšs, 2023) et L’empathie est politique (JC LattĂšs, 2024). La force des livres de Karaki consiste Ă  remettre en perspective nos idĂ©es prĂ©conçues. Elle ne fait pas qu’une lecture neuroscientifique de nos comportements, mais intĂšgre Ă  cette lecture des perspectives sociales et politiques, nous invitant Ă  prendre du recul sur nos Ă©motions et nos comportements pour mieux les politiser. Interview.

Dans les algorithmes : Dans vos deux derniers essais, vous ne faites pas qu’une lecture neuroscientifique de nos comportements, mais vous immergez les apports de la recherche en neuroscience et en psychologie de perspectives sociales et politiques. Dans l’un comme dans l’autre, vous nous invitez Ă  prendre du recul sur nos Ă©motions et nos comportements, pour mieux les politiser. Est-ce Ă  dire que vous ne trouvez pas les apports des neurosciences suffisamment politiques ?

Samah Karaki : Effectivement, je trouve que les neurosciences s’intĂ©ressent peu aux facteurs sociaux. La lecture des comportements y est souvent faite d’une façon rĂ©ductionniste, depuis des Ă©tudes en laboratoire, oĂč les comportements ne ressemblent pas Ă  ce qui se produit dans la vie rĂ©elle. Cela ne veut pas dire que ces apports ne peuvent pas ĂȘtre mis au service d’une lecture sociologique pour autant. Les neuroscientifiques n’ont jamais prĂ©tendu le contraire d’ailleurs
 C’est souvent la vulgarisation scientifique qui fait des gĂ©nĂ©ralisations, qui souvent bĂąti un « pont trop loin Â», et passe, un peu facilement, de la cellule au comportement. Sans compter que le piĂšge naturalisant de la biologie peut avoir tendance Ă  ignorer certains facteurs visibles et invisibles, alors qu’ils peuvent influer sur des facteurs biologiques. Dans la formation mĂȘme des biologistes, on ne rend pas toujours compte de la complexitĂ© de ces interactions. 

Ainsi, on a connu une phase monogĂ©nique jusque dans les annĂ©es 90, oĂč l’on cherchait les gĂšnes de tels ou tels phĂ©notypes ou de tels comportements. On s’est depuis Ă©loignĂ© de cette approche pour une approche plus polygĂ©nique oĂč l’on admet qu’il y a des milliers de gĂšnes qui peuvent donner un phĂ©notype donnĂ©. Reste que l’impĂ©rialisme biologique qui a rĂ©gnĂ© au XIXe siĂšcle a parfois tendance Ă  revenir, avec des propos de gĂ©nĂ©ticiens du comportement qui donnent une primautĂ© sur l’explication des comportements par le biologique. 

La difficultĂ© des neurosciences, c’est qu’on ne peut pas reproduire les facteurs sociologiques au sein d’un laboratoire. D’oĂč l’importance de s’ouvrir aux lectures d’autres disciplines, d’éclairer les neurosciences d’autres disciplines. 

Dans les algorithmes : Cette discussion en tout cas, entre les apports des neurosciences et les apports de la sociologie, est souvent trĂšs riche dans vos livres. Ces deux essais nous montrent que les comportements des autres influencent profondĂ©ment les nĂŽtres. Dans Le talent est un fiction, vous nous dites que les comportements des Ă©ducateurs ont le plus d’effet sur nos capacitĂ©s Ă  croire en nos chances de rĂ©ussite. Dans L’empathie est politique, vous nous dites Ă©galement que celle-ci est trĂšs dĂ©pendante de nos reprĂ©sentations, de nos ancrages sociologiques, et que pour faire advenir des comportements pro-sociaux et dĂ©passer nos rĂ©ponses Ă©motionnelles, nous devons dĂ©passer les influences qui nous façonnent et les dĂ©construire. Les deux essais donnent l’impression que nous sommes des Ă©ponges sociales et que nous avons beaucoup de mal Ă  nous en extraire. Que nos croyances et nos reprĂ©sentations nous façonnent bien plus qu’on le pense. En ĂȘtre conscient suffit-il Ă  dĂ©passer nos biais ?

Samah Karaki : Absolument pas, hĂ©las. Aujourd’hui, on parle de cognition incarnĂ©e, qui est un paradigme qui rĂšgne de plus en plus sur la lecture que nous faisons de notre maniĂšre de penser. Cela signifie que la cognition n’existe pas que dans nos cerveaux mais aussi dans nos corps et que nos corps existent aussi dans notre rapport aux autres. Cela signifie que ma cognition est traversĂ©e par celle des autres. C’est bien sĂ»r ce qui a facilitĂ© la survie de notre espĂšce. En tant qu’ĂȘtres physiquement vulnĂ©rables, nous avons besoin de rĂ©cupĂ©rer des informations pour explorer un danger ou des opportunitĂ©s. Et ces informations ne proviennent pas uniquement de notre traitement sensoriel, mais passent aussi par ce qu’on observe chez les autres. En fait, les autres aussi nous permettent de traiter l’information. Cela ne concerne pas que l’espĂšce humaine d’ailleurs, les plantes aussi construisent un traitement informationnel collectif pour pouvoir avoir des rĂ©actions au monde. La cognition incarnĂ©e permet de mieux saisir l’intersubjectivitĂ© par laquelle on comprend les interactions avec les autres. 

Reste Ă  savoir si l’on peut transcender cette intersubjectivitĂ©. En fait, une fois que nous avons automatisĂ© un apprentissage, on l’opĂšre comme on respire. Quand un apprentissage a pris en nous, il devient de l’ordre de l’intuition. On peut certes regarder notre respiration de maniĂšre consciente, mais cette conscience lĂ  ne nous permet pas de faire autre chose en mĂȘme temps. On a attribuĂ© une grande puissance Ă  notre capacitĂ© Ă  nous regarder penser, plus que ce qu’elle est vraiment. Or, dĂ©tecter en nous une influence, ne signifie pas qu’on soit en capacitĂ© de la changer. C’est une approche spinoziste que certains neuroscientifiques rejoignent aujourd’hui : se rendre compte de ses dĂ©terminismes ne signifie pas qu’on va les transcender. 

Reste que cette prise de conscience nous permet de nous organiser pour pouvoir, peut-ĂȘtre ou parfois, changer l’influence Ă  sa racine. On n’opĂšre pas un changement au sein de sa propre cognition, par coertion cognitive, mais on peut s’organiser pour influer sur les systĂšmes qui nous dĂ©terminent. Il y a donc des brĂšches que nous pouvons opĂ©rer dans un dĂ©terminisme, mais il ne faut pas sur-exagĂ©rer la force de la volontĂ©. Le libre-arbitre, dans l’état actuel des connaissances en neurosciences, n’existe pas vraiment. Nos automatismes sont beaucoup plus Ă©crasants que notre force Ă  les observer ou Ă  y rĂ©sister. 

ModĂ©rons cependant ces constats en rappelant que les Ă©tudes sur le libre-arbitre sont faites en laboratoire : on ne peut donc pas Ă©carter qu’il n’y ait aucune rĂ©sistance cognitive Ă  soi-mĂȘme. Les travaux sur la rĂ©sistance cognitive et l’anticipation du regret montrent que ce sont des aptitudes mentales qui permettent de montrer que l’on sait observer ses influences et y rĂ©sister. Mais cela a un coĂ»t Ă©nergĂ©tique important qui implique un ralentissement de l’action cognitive. Or, notre cognition ne peut pas se baser sur une rĂ©sistance permanente Ă  soi. Il est donc utopique et trĂšs optimiste de penser que nous aurions beaucoup de pouvoir sur notre propre pensĂ©e. 

Dans les algorithmes : Je suis frappĂ© par le fait que vos deux essais questionnent profondĂ©ment notre rapport Ă  la domination. Notre dĂ©sir de domination est-il impossible Ă  rassasier ? D’oĂč vient un tel besoin de domination ? 

Samah Karaki : Certes. Mais il ne faut pas croire que cela relĂšverait d’une forme de nature humaine. C’est le sens de mon prochain ouvrage : nous ne devons pas naturaliser la domination comme un trait biologique. Ce n’est ni Jean-Jacques Rousseau ni Hobbes ! L’homme n’est ni bon Ă  l’état de nature, ni Ă©goĂŻste et tournĂ© vers la domination Ă  l’état de nature. Par contre, la domination est une façon de diviser et simplifier le rĂ©el. Comme on a besoin de crĂ©er des endogroupes et des exogroupes, de catĂ©goriser les phĂ©nomĂšnes, les personnes et les sujets autour de nous, la catĂ©gorisation, au niveau de la proximitĂ© de l’autre, se fait naturellement. Elle se fait dĂ©jĂ  chez le bĂ©bĂ© par exemple, qui va montrer une prĂ©fĂ©rence pour les visages familiers et une anxiĂ©tĂ© et une mĂ©fiance vis-Ă -vis de ce qui lui est inconnu et Ă©trange.. 

Reste que la catĂ©gorisation hiĂ©rarchique, verticale, est quelque chose qui s’impose surtout socialement
 C’est lĂ  oĂč l’on peut rejoindre un peu plus Jean-Jacques Rousseau, dans le sens oĂč l’instinct de conservation nous pousse Ă  entretenir nos hiĂ©rarchies. La sociĂ©tĂ© peut nous pousser Ă  catĂ©goriser dans les statuts sociaux une valeur sociale, qui dĂ©pend de nos intĂ©rĂȘts Ă©conomiques. Cela ne se fait pas tant Ă  l’échelle individuelle, mais Ă  l’échelle de systĂšmes hiĂ©rarchiques qui cherchent Ă  assurer leur survie. Je ne fais pas partie des neuroscientifiques qui vont dire que le besoin d’acquĂ©rir du pouvoir ou de dominer ou de consommer (ce qui Ă©tait aussi une thĂ©orie trĂšs rĂ©pandue il y a quelques annĂ©es sur le rapport Ă  la crise climatique, qu’il serait dans notre nature d’user de la vitalitĂ© des autres pour soi-mĂȘme) nous constitue
 Pour moi, il n’y a besoin ni de pessimisme ni d’optimisme anthropologique. Mais d’observations de nos systĂšmes complexes, riches, diffĂ©rents, historiquement comme gĂ©ographiquement, qui nous imposent des formes de domination. Sans compter toutes les rĂ©compenses qu’on peut obtenir en se positionnant dans les Ă©chelles de la hiĂ©rarchie de domination. 

Dans les algorithmes : Dans Le talent est une fiction, vous expliquez que le mĂ©rite est une justification a posteriori. “Dans une sociĂ©tĂ© inĂ©galitaire, ceux qui arrivent au sommet veulent ou ont besoin de croire que leur succĂšs est moralement justifiĂ©â€, alors que ni le talent ni les efforts ne savent renverser la pesanteur du social. Nos propres progrĂšs dĂ©pendent bien plus des autres, du contexte, et de notre rapport aux autres, que simplement de nous-mĂȘmes, de notre talent ou de notre travail, qui sont en fait bien plus hĂ©ritĂ©s qu’acquis. “Croire que notre mĂ©rite dĂ©coule de nos talents et de notre travail personnel encourage l’égoĂŻsme, la discrimination et l’indiffĂ©rence face au sort des autres”. A quoi sert alors cette fiction du mĂ©rite, qui est partout autour de nous ?

Couverture du livre, Le talent est une fiction.

Samah Karaki : La fiction du mĂ©rite, que beaucoup de sociologues dĂ©crivent comme nĂ©cessaire car elle vient remplacer l’hĂ©ritocratie de l’ancien rĂ©gime, stipule que toute personne a un potentiel qu’elle nourrit par ses efforts et ses liens, dispose d’un principe d’émancipation, Ă  l’image de la dĂ©claration des Droits de l’Homme qui l’a Ă©rigĂ©e en principe. Chacun Ă  le droit de tenter sa chance. En cela, cette fiction est rassurante, car elle paraĂźt comme un ordre plus juste. C’est aussi une fiction sĂ©curisante, car elle dit que les hommes de pouvoir ont les compĂ©tences pour occuper ces positions de pouvoir. Elle est aussi  rassurante pour ceux qui perdent dans ce systĂšme, puisqu’elle lĂ©gitime aussi cette perte. La fiction de la mĂ©ritocratie est finalement apaisante pour la sociĂ©tĂ©, car elle ne pousse pas Ă  analyser les raisons des inĂ©galitĂ©s et donc Ă  Ă©ventuellement les subvertir. La fiction du mĂ©rite, nous donne l’illusion que si on n’y arrive pas, c’est parce qu’on n’a pas le talent ou qu’on n’a pas assez travaillĂ©. Elle permet finalement de stabiliser la sociĂ©tĂ©. 

Mais ce que je montre dans Le Talent est une fiction, c’est que la sociĂ©tĂ© repose toujours sur une hĂ©ritocratie qui finit par se valider par elle-mĂȘme. Certes, ce n’est pas parce qu’on a hĂ©ritĂ© qu’on n’a pas mĂ©ritĂ©. Mais l’hĂ©ritage permet plus que le travail de faire fructifier son potentiel. Ceux qui disent que la mĂ©ritocratie est un principe juste et Ă©mancipateur, disent souvent qu’on n’est pas dans une vraie mĂ©ritocratie. Mais en fait, les personnes qui hĂ©ritent finissent bien plus que d’autres par hĂ©riter d’une position de pouvoir parce qu’ils intĂšgrent les bonnes formations et les opportunitĂ©s qui leurs permettent de lĂ©gitimer leur position d’arrivĂ©e. 

Dans les algorithmes : Nous devrions remettre en question notre “crĂ©dentialisme” – c’est-Ă -dire la croyance que les qualifications acadĂ©miques ou autres identifiants prestigieux sont la meilleure mesure de l’intelligence ou de la capacitĂ©. Comment pourrions-nous rĂ©inventer nos croyances dans le mĂ©rite pour le rendre plus inclusif, pour qu’il accorde une place Ă  d’autres formes de mĂ©rite que la seule rĂ©ussite sociale ? Pensez-vous que ce soit un enjeu de sociĂ©tĂ© important aujourd’hui de rĂ©inventer le mĂ©rite ?

Samah Karaki : La mĂ©ritocratie ne peut pas reposer que sur des critĂšres de rĂ©ussite, car on a aussi le droit de s’émanciper « sur place Â», sans Ă©lĂ©vation Ă©conomique. Nous n’avons pas tous le culte de l’ambition. Et nous avons tous le droit Ă  la dignitĂ©, au-delĂ  de ce qu’on rĂ©alise ou pas. La concentration de certains types d’aptitudes qui seules mĂšneraient Ă  la rĂ©ussite a peut-ĂȘtre fonctionnĂ© Ă  une Ă©poque oĂč on avait besoin d’aptitudes liĂ©es au raisonnement abstrait, comme le proposaient les tests QI ou comme le valorise le systĂšme acadĂ©mique. L’aptitude de raisonnement abstrait – qui signifie principalement une rapiditĂ© et une aisance de processus mentaux logico-mathĂ©matiques – est en opposition avec d’autres types d’aptitudes comme celle de la rĂ©sistance cognitive. Penser vite est l’opposĂ© de penser lentement, car penser lentement consiste comme on l’a dit Ă  rĂ©sister et remettre en question. Cela nous dit que si nous n’avons pas assez dĂ©veloppĂ© cette rĂ©flexivitĂ© mentale et le doute de sa pensĂ©e, on peut avoir du mal face Ă  l’incertitude, mais ĂȘtre trĂšs bons sur la rĂ©solution de problĂšmes. En fait, on n’a aucune idĂ©e, aucun indicateur sur l’entraĂźnement de ces autres aptitudes, du talent liĂ© au doute
 Je propose d’ailleurs qu’on s’intĂ©resse Ă  ces autres aptitudes. On peut ĂȘtre Ă  l’aise dans le raisonnement abstrait et mal Ă  l’aise dans d’autres aptitudes. Cela nous rappelle d’ailleurs que le gĂ©nie solitaire n’existe pas. C’est bien souvent les discordes dans nos façons de penser qui permettent de parvenir Ă  des pensĂ©es complexes, notamment dans les situations incertaines. MĂȘme notre dĂ©finition de l’intelligence artificielle s’appelle intelligence parce qu’on la compare Ă  la nĂŽtre dans un anthropomorphisme qui nous rappelle qu’on n’arrive pas Ă  concevoir d’autres façons d’apprĂ©hender le monde. Or, aujourd’hui, on devrait dĂ©finir l’intelligence autrement. En neuroscience, on parle d’ailleurs plutĂŽt d’aptitudes que d’intelligence. 

« Penser vite est l’opposĂ© de penser lentement, car penser lentement consiste comme on l’a dit Ă  rĂ©sister et remettre en question. Â»

Dans les algorithmes : Vous concluez Le Talent est une fiction par la nĂ©cessitĂ© de plus d’empathie et de diversitĂ© pour Ă©largir la mesure de la rĂ©ussite. Au regard de votre second livre, plus critique sur les limites de l’empathie, votre constat est-il toujours d’actualitĂ© ? 

Samah Karaki : Oui, parce que si on ne se projette pas dans d’autres façons de vivre le monde et dans d’autres conditions pour le vivre, on risque de rester camper sur une seule façon de lire les trajectoires. C’est pour cela que les procĂ©dures de sĂ©lection dans les formations se basent sur des critĂšres Ă©prouvĂ©s, celles des personnes qui sĂ©lectionnent et donc des personnes qui ont elles-mĂȘmes rĂ©ussi dans ces mĂȘmes formations. Par cette empathie, je suggĂ©rais qu’on puisse s’ouvrir Ă  d’autres trajectoires et inclure ces trajectoires dans les processus de sĂ©lection pour ne pas qu’ils ne se ferment, qu’ils favorisent l’entre-soi. Notre façon de vivre dans le monde n’est pas universelle. C’est ce que je disais sur la question de la rĂ©ussite, c’est ce que je rĂ©pĂšte sur la question de la morale dans L’empathie est politique. Il n’y a pas une recette et une seule de ce qu’est d’avoir une vie rĂ©ussie. Nous devons nous ouvrir Ă  d’autres dĂ©finitions, Ă  d’autres formes d’attachements
 Et nous devons arrĂȘter de dĂ©considĂ©rer les perdants de nos systĂšmes sociaux. Nos sociĂ©tĂ©s nous invitent trop souvent Ă  rĂ©ussir Ă  un seul jeu selon une seule rĂšgle, alors que nous avons tous des habilitĂ©s diffĂ©rentes au dĂ©part. C’est comme si nous Ă©tions invitĂ©s Ă  un concours de natation, jugĂ©s par des poissons. 

Je n’aime pas parler de personnes atypiques, qui me semble une forme d’essentialisation. La psychiatrie, heureusement, sort d’une dĂ©finition dĂ©ficitaire, oĂč certaines personnes auraient des dĂ©ficits par rapport Ă  la norme et que la sociĂ©tĂ© doit les amener Ă  cette norme. En psychiatrie, on parle plutĂŽt de « spectre Â» dĂ©sormais et de diffĂ©rences d’apprĂ©hension de l’apprentissage. C’est lĂ  un vrai progrĂšs. Mais les systĂšmes scolaires et professionnels, eux, sont toujours dans une approche dĂ©ficitaire. Nous avons encore besoin d’y diversifier la norme. Ce n’est pas que la norme n’est pas bonne d’ailleurs, mais elle est totalitaire, trop rigide. On ne peut pas vivre en Ă©tant une espĂšce si complexe et si riche pour atteindre une seule forme normative d’exister. 

« Nous devons arrĂȘter de dĂ©considĂ©rer les perdants de nos systĂšmes sociaux. Nos sociĂ©tĂ©s nous invitent trop souvent Ă  rĂ©ussir Ă  un seul jeu selon une seule rĂšgle, alors que nous avons tous des habilitĂ©s diffĂ©rentes au dĂ©part Â». « On ne peut pas vivre en Ă©tant une espĂšce si complexe et si riche pour atteindre une seule forme normative d’exister Â».

Couverture du livre, L’empathie est politique.

Dans les algorithmes : L’empathie est politique est incontestablement une suite et une rĂ©ponse de votre prĂ©cĂ©dent livre, puisqu’il interroge ce qui le concluait, l’empathie. Notre capacitĂ© d’empathie est trĂšs plastique, modulable, sĂ©lective. Le film de Jonathan Glazer, La Zone d’intĂ©rĂȘt, le montre trĂšs bien, en soulignant la grande normalitĂ© d’une famille nazie qui parvient trĂšs bien Ă  faire abstraction de l’horreur qui se dĂ©roule Ă  cĂŽtĂ© d’eux, en Ă©tant compatissante pour les siens et indiffĂ©rentes aux hurlements et aux coups de feux qui leur parvient de l’autre cĂŽtĂ© des murs de leur maison. L’empathie n’est pas une capacitĂ© universelle ou naturelle, mais sociale, orientĂ©e et orientable. Politique. Elle est biaisĂ©e par la proximitĂ© sociale : on se sent plus proche de ceux qui nous sont proches, socialement ou culturellement. Nous la convoquons pour nous donner l’illusion de comprĂ©hension des autres, mais « nous nous projetons bien plus dans l’autre que nous ne le comprenons Â», dites-vous. Aurions-nous une forme d’illusion Ă  comprendre l’autre ?

Samah Karaki : Vous avez citĂ© les trois limites que je pose Ă  l’empathie. D’abord, qu’elle est mĂ©caniquement sĂ©lective, car on n’a pas assez d’attention disponible pour se projeter dans les expĂ©riences de tout le monde. On rĂ©serve donc cette habilitĂ© Ă  ceux qui nous sont proches, Ă  ceux qui appartiennent Ă  notre cercle, Ă  notre endogroupe. Et en plus, elle est influencĂ©e par les cadrages culturels, politiques, mĂ©diatiques qui viennent positionner les groupes humains selon une hiĂ©rarchie de valeur. L’empathie est une aptitude qui cherche une similitude – « l’impĂ©rialisme du mĂȘme Â», disait LĂ©vinas -, c’est-Ă -dire qu’elle cherche en l’autre mon semblable – ce qui est sa force et sa limite. Cela signifie que si je ne trouve pas dans l’autre mon semblable je ne vais pas l’humaniser et lui attribuer de l’empathie. Cela nous montre qu’elle n’est pas trĂšs fiable. On peut dĂ©cider que l’autre n’est pas notre semblable, comme nous le rappelle le film de Glazer justement. 

Enfin, on est attachĂ© Ă  ce qui nous ressemble, ce qui est une forme de narcissisme de l’espĂšce. Mais, cette impression de similitude est bien souvent factice. L’expĂ©rience de l’autre n’est bien souvent pas celle qu’on imagine qu’elle est. C’est la troisiĂšme limite Ă  l’empathie. MĂȘme quand on arrive Ă  s’identifier Ă  l’autre, aprĂšs plein d’examens de similitude morale et de traits de comportements ou de sensibilitĂ© intellectuelle
 Ă  la fin, on est dans l’illusion de la comprĂ©hension de l’autre, car on ne le voit que lĂ  oĂč on s’y retrouve ! Si on est exclu d’une expĂ©rience par exemple, on l’analyse mal avec nos outils limitĂ©s et tronquĂ©s car nous n’avons pas nĂ©cessairement les vies riches que nous imaginerions avoir. Avoir connu la souffrance par exemple ne signifie pas qu’on soit capable de comprendre celle des autres. Les expĂ©riences restent toujours singuliĂšres. 

Dans les algorithmes : Oui, vous dites que l’appartenance est une perception. Nous autoproduisons nos propres stĂ©rĂ©otypes sociaux. Les Ă©tudiants blancs sont plus susceptibles d’interprĂ©ter une bousculade comme violente lorsqu’elle est causĂ©e par une personne noire que par une personne blanche. Notre interprĂ©tation semble toujours confirmer nos stĂ©rĂ©otypes plutĂŽt qu’elle ne les remet en cause. Et les informations qui confirment nos stĂ©rĂ©otypes sont mieux mĂ©morisĂ©es que celles qui les rĂ©futent. Comment peut-on lutter contre nos reprĂ©sentations et nos stĂ©rĂ©otypes, dans lesquels nous sommes engluĂ©s ? 

Samah Karaki : En fait, les biais de confirmation nous simplifient notre lecture du monde. Nous avons envie d’avoir un favoritisme d’endogroupe au profit de notre groupe et de son image. Par recherche de cohĂ©rence, et d’efficience, on a tendance Ă  prĂ©server l’image de groupe qui miroite sur notre image de soi, et donc c’est pour cela qu’on a tendance Ă  favoriser notre groupe. On explique et on pardonne bien mieux les comportements nĂ©gatifs de nos proches que ceux des gens de l’exogroupe. On a plus de facilitĂ©s Ă  juger les groupes externes avec des caractĂ©ristiques trĂšs rĂ©ductrices. Cela nous rassure sur notre position morale et notre image de nous-mĂȘmes. Si on reprend l’exemple du film de Glazer, l’indiffĂ©rence de cette famille s’explique aussi parce que ces personnes pensent qu’elles sont dans le camp du bien et que l’effacement du groupe humain qui est de l’autre cĂŽtĂ© des murs est une nĂ©cessitĂ©. Ces personnes ne sont pas que indiffĂ©rentes. Elles sont persuadĂ©es que cet effacement est nĂ©cessaire pour la survie de leur propre groupe. Cette victimisation inversĂ©e sert le groupe, comme l’instrumentalisation des animaux nous sert Ă  lĂ©gitimer notre nourriture, notre agriculture. Il y a quelques siĂšcles en arriĂšre, l’instrumentalisation du corps des esclaves pour l’économie europĂ©enne Ă©tait considĂ©rĂ©e comme une nĂ©cessitĂ©. En fait, l’empathie ne disparaĂźt pas par simple indiffĂ©rence, elle disparaĂźt aussi par le sentiment d’ĂȘtre victime. L’effacement de l’autre devient une forme de lĂ©gitime dĂ©fense. 

Ce sont lĂ  des mĂ©canismes qui nous simplifient le monde. On peut ramener ces mĂ©canismes Ă  leur biologie. On a besoin de simplifier le monde car on n’a pas assez d’énergie. Mais on a aussi besoin d’ĂȘtre en cohĂ©rence avec sa propre image. C’est lĂ  oĂč s’intĂšgrent les cadrages politiques et sociaux qui donnent Ă  chaque groupe l’impression d’ĂȘtre dominĂ© ou menacĂ© par l’autre. C’est en cela que ces affects nous Ă©loignent d’une lecture objective des situations. Je ne veux pas dire dans mon livre que tous les affects sont lĂ©gitimes, bien au contraire. Tous sont rĂ©els et prĂ©cis, mais ne sont pas objectivement situĂ©s au mĂȘme endroit. Et c’est pour cela que nous avons besoin de quelque chose que nous avons produit, suite Ă  la Shoah d’ailleurs, qui est le droit humanitaire international. C’est un moyen de nous protĂ©ger de notre propre raison et de notre propre dĂ©finition de ce qui est moral. 

Dans les algorithmes : C’est le moyen que nous avons pour sortir du cercle infernal de l’empathie envers son endogroupe. DĂ©velopper des rĂšgles qui s’appliquent Ă  tous ? 

Samah Karaki : Oui. Ce sont des rĂšgles que nous avons construites avec notre organisation sociale. Ce sont des rĂšgles auxquelles on se conforme pour naviguer dans les interactions sociales qui nous lient. Des rĂšgles qui nous permettent de conserver nos droits, de ne pas cĂ©der Ă  des affects et donc, ce sont des rĂšgles oĂč tout le monde n’est pas gagnant de la mĂȘme façon mais qui peuvent rĂ©gir des biens collectifs supĂ©rieurs aux intĂ©rĂȘts d’un groupe par rapport Ă  d’autres. C’est pourquoi je suggĂšre de sortir du lexique affectif qui revient souvent aujourd’hui et qui ne se concrĂ©tise pas en action politique, car il se suffirait Ă  lui-mĂȘme, justifiant mĂȘme certaines inerties. L’affect nous Ă©vite de passer Ă  des actions concrĂštes.

Dans les algorithmes : Vous ĂȘtes trĂšs critique sur la maniĂšre dont nous pouvons rĂ©parer l’empathie. Vous dites par exemple que ce ne sont pas les formations Ă  l’empathie qui vont permettre de mettre fin Ă  l’organisation hiĂ©rarchique des sociĂ©tĂ©s humaines. 

Samah Karaki : Les formations Ă  l’empathie qui parlent de l’histoire des oppressions, de ce qu’ont vĂ©cu les groupes humains opprimĂ©s, permettent de modifier notre apprĂ©hension du monde. Éviter ces sujets ne donne pas des outils pour comprendre, pour questionner les raisons qui font que nous avons des biais racistes. Je ne pense pas que ce soit en sachant que nous sommes biaisĂ©s que nous pouvons rĂ©soudre les biais. Car le biais consiste Ă  suivre un automatisme appris, comme quand on respire. Je ne pense pas que la bonne maniĂšre de faire consiste Ă  rĂ©sister Ă  ces apprentissages, mais de les modifier, d’acquĂ©rir une autre lecture. 

En fait, je voudrais qu’on sorte un peu de notre fainĂ©antise intellectuelle. Aujourd’hui, par exemple, trop souvent, quand on fait des films sur des populations opprimĂ©es, on ne prend pas le temps d’analyser, d’amener les personnes concernĂ©es, de modifier les conditions de production pour sortir du regard que l’on porte sur elles pour donner la voix Ă  leurs propres regards. Et on justifie cette fainĂ©antise intellectuelle par l’affect, l’intuition ou la crĂ©ation spontanĂ©e. Peut-ĂȘtre aussi par romantisme de notre nature, en expliquant qu’on comprendra par soi-mĂȘme. C’est comme quand on dit que les enfants sont bons par nature. Ce n’est pas le cas pourtant. Le racisme est prĂ©sent chez les enfants Ă  partir de 3 ans si on ne leur explique pas les structures de suprĂ©matie qui structurent nos sociĂ©tĂ©s. J’invite Ă  faire nĂŽtre ce que la journaliste Douce Dibondo appelle « l’épistĂ©mologie de la connaissance contre celle de l’ignorance Â». Nous devons parler des sujets qui fĂąchent plutĂŽt que de demander aux gens de travailler leur capacitĂ© d’identification. Nous ne nous identifions pas assez aux personnes qui ne nous ressemblent pas. Nous devons le dire et le rĂ©pĂ©ter : nous avons une difficultĂ© Ă  nous identifier Ă  certains comme nous n’entendons pas les sons sous une certaine frĂ©quence. Les formations sur l’empathie par l’identification ne rĂ©soudront pas les problĂšmes de harcĂšlement scolaire ou de comportements de domination.

« Je ne pense pas que ce soit en sachant que nous sommes biaisĂ©s que nous pouvons rĂ©soudre les biais. Pour les modifier, il nous faut acquĂ©rir une autre lecture Â». « Nous devons parler des sujets qui fĂąchent plutĂŽt que de demander aux gens de travailler leur capacitĂ© d’identification Â»

Dans les algorithmes : Ce que vous dites, c’est que nous avons besoin d’une lecture plus politique de nos rapports sociaux ?

Samah Karaki : Oui. On a besoin d’une lecture historique en tout cas. Et nous devrions d’ailleurs beaucoup valoriser la lecture historique Ă  l’heure oĂč les tentatives d’effacement de certaines histoires se multiplient tout autour de nous. Nous devons dĂ©fendre ce patrimoine. Cet attachement aux faits, au rĂ©el, doit nous permettre de nous Ă©loigner des attitudes complotistes au monde. Nous avons un devoir de protĂ©ger cette discipline. 

Dans les algorithmes : Dans votre second livre, vous parlez un peu du numĂ©rique. Vous nous dites qu’on est confrontĂ©, sur les rĂ©seaux sociaux, Ă  une empathie un peu factice. Que les algorithmes basĂ©s sur la viralitĂ© cherchent d’abord et avant tout Ă  produire de l’émotion, de l’exacerbation de nos sensations, de nos sentiments. En analysant 430 milliards de vidĂ©os, le facteur le plus puissant du succĂšs viral est la rĂ©ponse Ă©motionnelle (“Plus l’intensitĂ© de l’émotion suscitĂ©e par le contenu sera grande, plus les gens auront tendance Ă  le partager”). Vous dites mĂȘme que le numĂ©rique favorise une forme de  « tourisme affectif Â»â€Š

Samah Karaki : Si on prend la question en la ramenant Ă  l’attention avant mĂȘme de parler de rĂ©seaux sociaux, il nous faut observer ce que la prĂ©diction des calculs produit. Que ce soit des sons ou des images, l’attention passe d’un niveau phasique Ă  un niveau tonique, avec des changements de circulation Ă©lectro-chimique dans le cerveau quand je suis dans ce que l’on appelle un Ă©cart de prĂ©diction. Cet Ă©cart de prĂ©diction, c’est ce qu’on appelle l’émotion. C’est ce qui nous surprend, nous Ă©meut. Et nous avons besoin de rĂ©duire cet Ă©cart de prĂ©diction en analysant cette information. Et ce travail d’analyse me fait dĂ©penser de l’énergie. S’il ne se passe rien d’intĂ©ressant dans un Ă©change, je peux perdre mon attention car je ne fais plus le travail qui fait que je suis en train de rĂ©duire les Ă©carts de prĂ©diction. C’est un peu comme cela qu’on apprend aussi. Face Ă  une information nouvelle, on a un Ă©cart de prĂ©diction : soit on rejette cette nouvelle information, soit on l’intĂšgre dans nos prĂ©dictions, ce qui nous permet ensuite de revenir Ă  ce que l’on appelle un monde Ă©motionnellement neutre ou stable. 

Un contenu viral est donc un contenu qui va produire un Ă©cart de prĂ©diction. C’est pourquoi ils sont souvent Ă©motionnels. Ils captent notre attention et crĂ©ent un attachement par rapport Ă  ces contenus. Dans la vie intime, c’est le mĂȘme processus qui nous fait nous attacher Ă  certaines personnes plutĂŽt qu’à d’autres, parce que ces personnes produisent en nous des dĂ©placements. La viralitĂ© repose sur des objets qui attirent l’attention, qui produisent un travail Ă©motionnel et ce travail nous fait crĂ©er un lien avec ces contenus. Faire reposer l’intĂ©rĂȘt sur un travail Ă©motionnel peut vite ĂȘtre pernicieux, car il nous empĂȘche par exemple de saisir le contexte de ce que l’on regarde, car notre cognition est dĂ©jĂ  sollicitĂ©e pour rĂ©tablir l’équilibre Ă©motionnel qui nous atteint.

La seconde chose qui peut se produire, c’est que l’exposition Ă  un mĂȘme Ă©cart de rĂ©pĂ©tition, finit par l’aplatir, comme quand on est exposĂ© Ă  un son rĂ©pĂ©titif qu’on finit par ne plus entendre. Face Ă  des contenus Ă©motionnels rĂ©pĂ©titifs, nous finissons par nous engourdir. Face au flux d’affect, les contenus viraux finissent par ne plus provoquer de rĂ©action en nous. Beaucoup d’études montrent que l’exposition rĂ©pĂ©tĂ©e Ă  des contenus violents abaisse notre capacitĂ© Ă  ĂȘtre Ă©mu par ces contenus. De mĂȘme quand nous sommes exposĂ©s Ă  des contenus de personnes en souffrance. Le risque, c’est que par leur rĂ©pĂ©tition, nous normalisions des contenus qui devraient nous heurter, nous faire rĂ©agir. Les Ă©tudes montrent que cette exposition rĂ©pĂ©tĂ©e peut conduire Ă  la violence de certains et surtout Ă  l’inertie. 

Le tourisme affectif est un troisiĂšme niveau. Quand on scroll ces contenus affectifs, nous faisons un travail, comme si nous les vivions Ă  notre tour. Ces contenus nouveaux nous dĂ©paysent, nous surprennent. Le tourisme, dans la vie rĂ©elle, consiste Ă  chercher quelque chose qui nous dĂ©place, qui ne corresponde pas Ă  nos prĂ©dictions. Le problĂšme, c’est que quand ce tourisme se fait sur la souffrance des autres, ce dĂ©placement devient indĂ©cent, car alors, on instrumentalise ce que vivent les autres pour notre propre dĂ©placement et notre propre Ă©mancipation. C’est pour cela que j’estime que nous ne devons pas nous suffire Ă  l’émotion et Ă  l’empathie. L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nĂ©cessaire. 

« L’émotion ou l’empathie ne permettent pas de faire quelque chose pour l’autre : ils permettent de faire quelque chose pour soi, au risque d’avoir l’illusion d’avoir fait le nĂ©cessaire. Â» 

Dans les algorithmes : Le numĂ©rique Ă©tait censĂ© nous ouvrir Ă  la diversitĂ© du monde, Ă  nous rendre plus conscient des diffĂ©rences. On a l’impression Ă  vous lire qu’il favorise surtout des comportements homophiles, rĂ©duits Ă  notre endogroupe. danah boyd, disait “La technologie ne bouleverse pas les clivages sociaux. Au contraire, elle les renforce”. Partagez-vous ce constat ? Pourquoi sa promesse de diversitĂ© n’est-elle pas rĂ©alisĂ©e selon vous ? 

Samah Karaki : Cette amplification n’est pas dans la nature des technologies. C’est liĂ© Ă  leur usage surtout et le fait que nos technologies suivent nos biais, nos biais de confirmation, produisent des effets bulles
 Mais la technologie peut aussi aider Ă  faire circuler la connaissance nĂ©cessaire pour comprendre les oppressions. On peut aussi dĂ©couvrir des pensĂ©es qui ne sont pas institutionnalisĂ©es, ou peu rĂ©fĂ©rencĂ©es. Elle peut aussi nous permettre de nous organiser, pour refuser ou questionner un systĂšme. Mais effectivement, elle peut aussi servir Ă  confirmer nos stĂ©rĂ©otypes et reprĂ©sentations : nous conforter dans notre façon de voir le monde. 

Les derniĂšres Ă©lections amĂ©ricaines se sont beaucoup faites sur les rĂ©seaux sociaux. Il n’y a eu qu’un dĂ©bat tĂ©lĂ©visĂ© entre les deux candidats. La persuasion c’est faite aussi avec les outils. Pourtant, plus que de s’en mĂ©fier, nous devrions chercher Ă  les comprendre pour les mettre au service d’une autre façon d’apprĂ©hender la connaissance. Le dĂ©bat sur l’utilisation des technologies a toujours accompagnĂ© ses avancĂ©es. Souvent on est un peu naĂŻf avec elles. On crĂ©e des outils qui nous ressemblent. Mais on peut toujours les transcender. Il y a aussi sur les rĂ©seaux sociaux des voies alternatives, subversives, subalternes qui existent. Nous devons questionner et nous mĂ©fier des algorithmes, comme on se mĂ©fie de la nicotine en prĂ©cisant ce qu’elle nous fait. On est en devoir d’avoir une littĂ©ratie des mĂ©dias qui s’apprend Ă  l’école comme tout autre outil de connaissance. Et c’est une fois que nous avons cette connaissance que nous pouvons juger de ce qu’on dĂ©cide d’en faire collectivement. Aujourd’hui, trop peu de gens comprennent comment fonctionnent les algorithmes. Sur TikTok, la majoritĂ© des jeunes qui l’utilisent ne comprennent pas son fonctionnement, alors que c’est essentiel. La formation aux mĂ©dias, cela devrait ĂȘtre une formation obligatoire pour s’en protĂ©ger et les utiliser pour la dĂ©couverte intellectuelle nous permettant d’accĂ©der Ă  des personnes auxquelles nous n’aurions pas accĂšs autrement. Mais aussi pour faire rebondir ses idĂ©es avec d’autres personnes distantes. C’est la question de l’usage et de la connaissance de ces outils que nous devons mener une bataille, en plus de celle de la transparence des algorithmes qui a lieu Ă  l’échelle europĂ©enne. 

Dans les algorithmes : Quel regard portez-vous sur l’Intelligence artificielle ? D’autant que celle-ci semble avoir un rĂŽle important sur nos reprĂ©sentations culturelles et nos stĂ©rĂ©otypes. Pour ma part, j’ai l’impression que l’IA favorise et amplifie nos reprĂ©sentations culturelles les plus partagĂ©es. Ce qu’on pourrait appeler la « moyennisation culturelle de nos reprĂ©sentations Â» (comme quand on demande Ă  une IA de produire l’image d’un mexicain et qu’elle va produire l’image d’un homme avec un sombrero). Le risque n’est-il pas que nos stĂ©rĂ©otypes sociaux et comportementaux, demain, soient encore plus marquĂ©s qu’ils ne sont, plus indĂ©pĂ©trables – alors que vous nous dites dans vos livres que nous devons les questionner, les dĂ©construire ?

Samah Karaki : Pour moi, l’IA nous confronte Ă  ce qui ne va pas chez nous. Elle n’invente pas nos stĂ©rĂ©otypes. Elle nous montre au contraire Ă  quel point nous sommes rĂ©ducteurs, Ă  quels points nous sommes eurocentrĂ©s, hĂ©tĂ©rocentrĂ©s, validistes
 L’IA nous expose ce que nous sommes. En exposant ce que nous sommes, elle montre aussi aux jeunes gĂ©nĂ©rations ce que le monde est, au risque de ne pas leur permettre de sĂ©parer la reprĂ©sentation du rĂ©el. Mais je trouve trĂšs intĂ©ressant que nous soyons confrontĂ©s au ridicule de nos reprĂ©sentations. Critiquer ce que les IA produisent, c’est un peu comme les formations Ă  l’empathie qui ne veulent pas parler des problĂšmes qui structurent nos rapports de force. Alors que cela devrait nous inviter Ă  comprendre avec quoi nous nourrissons ces machines, que ce soit nos reprĂ©sentations comme d’ailleurs toutes les Ă©tudes qui les dĂ©fient. C’est comme si l’IA nous renvoyait un Ă©tat des lieux de lĂ  oĂč nous en sommes dans notre comprĂ©hension, qui sera toujours tronquĂ©e, car nous analysons ces reprĂ©sentations avec les mĂȘmes cerveaux qui l’ont produit. Sans compter qu’avec l’IA, nous en restons Ă  une dĂ©finition de l’intelligence qui colle aux intĂ©rĂȘts de l’homme. Quand nous attribuons Ă  l’IA des intentions, nous le faisons parce que nous n’arrivons pas, dans les limites de notre intelligence, Ă  nous imaginer autre chose que des intentions humaines. C’est aussi une des grandes limites de notre intelligence : d’ĂȘtre aussi obsĂ©dĂ©e par soi au point de ne pas voir dans ce qui se produit dans l’IA ce qui nous est incomprĂ©hensible ou parallĂšle. Elle nous permet de nous rappeler que notre espĂšce n’est peut-ĂȘtre pas centrale dans l’apprĂ©hension du monde, comme nous le rappelle aussi le reste du vivant. La puissance de l’IA nous permet de douter de soi, en tant qu’individu, mais aussi de notre espĂšce. Peut-ĂȘtre peut-elle nous aider Ă  trouver un peu d’humilitĂ© Ă©pistĂ©mologique, en nous renvoyant Ă  nous-mĂȘmes et Ă  nos propres limites. 

Nous n’avons pas Ă  fermer les yeux parce que l’IA nous renvoie des mexicains stĂ©rĂ©otypĂ©s ou des mĂ©decins qui sont toujours des hommes blancs. C’est l’occasion plutĂŽt de poser des questions. Pourquoi avons-nous ces reprĂ©sentations ? Qui nourrit ces systĂšmes ? Quelle partie du monde les nourrit ? Comme dans les Ă©tudes en psychologie et neurosciences d’ailleurs, il y a un eurocentrisme et une lecture de la psychologie humaine Ă  travers 25% de ceux qui la constituent.  

Dans les algorithmes : La question de l’incalculabitĂ© est le sujet de la confĂ©rence USI 2025 Ă  laquelle vous allez participer. Pour une spĂ©cialiste des neurosciences, qu’est-ce qui est incalculable ? 

Samah Karaki : Pour moi, l’incalculabe, ce sont les interactions qui se sont produites dans notre cognition depuis notre vie intra-utĂ©rine en interaction avec notre patrimoine gĂ©nĂ©tique, qui ne sont pas ni une addition ni une compĂ©tition, mais une interaction qui font de nous ce que nous sommes d’une maniĂšre incalculable et qui ridiculisent nos tentatives Ă  quantifier l’humain. Que ce soit au niveau de nos compĂ©tences, de nos prises de dĂ©cisions ou de nos jugements, on les pense rationnels et calculables, alors qu’ils reposent sur des Ă©carts de prĂ©diction extrĂȘmement prĂ©cis, mais sans avoir d’outils pour les dĂ©mĂȘler. C’est ce que je dĂ©fends dans Le mĂ©rite est une fiction. Quand je vois un rĂ©sultat, je ne peux pas remonter aux raisons qui l’expliquent. Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Cela nous dit de nous mĂ©fier de tout ce qu’on appelle talent, personnalité  Et cela nous invite enfin Ă  admettre une forme d’incertitude constitutive de l’homme. 

« Le social est incalculable en fait. Les influences de ce qui font de nous ce que nous sommes sont incalculables. Â» 

Propos recueillis par Hubert Guillaud.

Samah Karaki sera l’une des intervenantes de la confĂ©rence USI 2025 qui aura lieu lundi 2 juin Ă  Paris et dont le thĂšme est « la part incalculable du numĂ©rique » et pour laquelle Danslesalgorithmes.net est partenaire.

❌