Vue normale

Aujourd’hui — 11 juillet 2025Flux principal
  • ✇Dans les algorithmes
  • Entretiens d’embauche chatbotisés
    Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en évoquant l’essor des entretiens avec des systèmes d’IA. L’expérience avec ces robots intervieweurs, comme ceux développés par Ribbon AI, Talently ou Apriora, se révèle très déshumanisante, témoignent ceux qui y sont confrontés. Les questions sont souvent un peu creuses et les chatbots ne savent pas répondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (co
     

Entretiens d’embauche chatbotisés

11 juillet 2025 à 00:30

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en évoquant l’essor des entretiens avec des systèmes d’IA. L’expérience avec ces robots intervieweurs, comme ceux développés par Ribbon AI, Talently ou Apriora, se révèle très déshumanisante, témoignent ceux qui y sont confrontés. Les questions sont souvent un peu creuses et les chatbots ne savent pas répondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces éléments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil à un poste, la RHTech scie assurément sa propre utilité. Quant aux biais sélectifs de ces outils, parions qu’ils sont au moins aussi défaillants que les outils de recrutements automatisés qui peinent déjà à faire des correspondances adaptées. La course au pire continue !

  • ✇Dans les algorithmes
  • Scannés par l’IA
    Le loueur de voiture Hertz a commencé à déployer des scanneurs de voitures développées par UVeye pour inspecter les véhicules après leur location afin de vérifier leur état, explique The Drive (voir également cet article). Problème : le système est trop précis et surcharge les clients de frais pour des accrocs microscopiques qu’un être humain n’aurait pas remarqué.   Les tensions n’ont pas manqué d’éclater, et elles sont d’autant plus nombreuses qu’il est très difficile de contacter un agent
     

Scannés par l’IA

11 juillet 2025 à 00:23

Le loueur de voiture Hertz a commencé à déployer des scanneurs de voitures développées par UVeye pour inspecter les véhicules après leur location afin de vérifier leur état, explique The Drive (voir également cet article). Problème : le système est trop précis et surcharge les clients de frais pour des accrocs microscopiques qu’un être humain n’aurait pas remarqué.  

Les tensions n’ont pas manqué d’éclater, et elles sont d’autant plus nombreuses qu’il est très difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de véhicule automatisé, et que cela est impossible via le portail applicatif où les clients peuvent consulter et régler les dommages attribués à leurs locations. Des incidents d’usure mineurs ou indépendants des conducteurs, comme un éclat lié à un gravillon, sont désormais parfaitement détectés et facturés. Le problème, c’est le niveau de granularité et de précision qui a tendance a surdiagnostiquer les éraflures. Décidément, adapter les faux positifs à la réalité est partout une gageure ou un moyen pour générer des profits inédits.

  • ✇Dans les algorithmes
  • Entretiens d’embauche chatbotisés
    Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en évoquant l’essor des entretiens avec des systèmes d’IA. L’expérience avec ces robots intervieweurs, comme ceux développés par Ribbon AI, Talently ou Apriora, se révèle très déshumanisante, témoignent ceux qui y sont confrontés. Les questions sont souvent un peu creuses et les chatbots ne savent pas répondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (co
     

Entretiens d’embauche chatbotisés

11 juillet 2025 à 00:30

Les entretiens d’embauche avec des humains sont en train de prendre fin, rapporte le New York Times en évoquant l’essor des entretiens avec des systèmes d’IA. L’expérience avec ces robots intervieweurs, comme ceux développés par Ribbon AI, Talently ou Apriora, se révèle très déshumanisante, témoignent ceux qui y sont confrontés. Les questions sont souvent un peu creuses et les chatbots ne savent pas répondre aux questions des candidats sur le poste ou sur la suite du processus de recrutement (comme si ces éléments n’étaient finalement pas importants).

A croire que l’embauche ne consiste qu’en une correspondance d’un profil à un poste, la RHTech scie assurément sa propre utilité. Quant aux biais sélectifs de ces outils, parions qu’ils sont au moins aussi défaillants que les outils de recrutements automatisés qui peinent déjà à faire des correspondances adaptées. La course au pire continue !

  • ✇Dans les algorithmes
  • Scannés par l’IA
    Le loueur de voiture Hertz a commencé à déployer des scanneurs de voitures développées par UVeye pour inspecter les véhicules après leur location afin de vérifier leur état, explique The Drive (voir également cet article). Problème : le système est trop précis et surcharge les clients de frais pour des accrocs microscopiques qu’un être humain n’aurait pas remarqué.   Les tensions n’ont pas manqué d’éclater, et elles sont d’autant plus nombreuses qu’il est très difficile de contacter un agent
     

Scannés par l’IA

11 juillet 2025 à 00:23

Le loueur de voiture Hertz a commencé à déployer des scanneurs de voitures développées par UVeye pour inspecter les véhicules après leur location afin de vérifier leur état, explique The Drive (voir également cet article). Problème : le système est trop précis et surcharge les clients de frais pour des accrocs microscopiques qu’un être humain n’aurait pas remarqué.  

Les tensions n’ont pas manqué d’éclater, et elles sont d’autant plus nombreuses qu’il est très difficile de contacter un agent de l’entreprise pour discuter ou contester les frais dans ce processus de rendu de véhicule automatisé, et que cela est impossible via le portail applicatif où les clients peuvent consulter et régler les dommages attribués à leurs locations. Des incidents d’usure mineurs ou indépendants des conducteurs, comme un éclat lié à un gravillon, sont désormais parfaitement détectés et facturés. Le problème, c’est le niveau de granularité et de précision qui a tendance a surdiagnostiquer les éraflures. Décidément, adapter les faux positifs à la réalité est partout une gageure ou un moyen pour générer des profits inédits.

Hier — 10 juillet 2025Flux principal
  • ✇Dans les algorithmes
  • L’IA, un nouvel internet… sans condition
    Tous les grands acteurs des technologies ont entamé leur mue. Tous se mettent à intégrer l’IA à leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche à sa fin, prédit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthétique, le web artificiel où tous les contenus sont appelés à être générés en permanence, à la volée, en s’appuyant sur l’ensemble des contenus disponibles, sans que ce
     

L’IA, un nouvel internet… sans condition

10 juillet 2025 à 00:40

Tous les grands acteurs des technologies ont entamé leur mue. Tous se mettent à intégrer l’IA à leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche à sa fin, prédit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthétique, le web artificiel où tous les contenus sont appelés à être générés en permanence, à la volée, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir… avec le risque de faire disparaître le web que nous avons connu, construit, façonné. 

Jusqu’à présent, le web reposait sur un marché simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web référencés. « On estime que 68 % de l’activité Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce système a été celui que nous avons connu depuis les origines du web. L’intégration de l’IA, pour le meilleur ou pour le pire, promet néanmoins de transformer radicalement cette expérience. Confronté à une nette dégradation des résultats de la recherche, notamment due à l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « réinvention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à présent, le mode IA va remplacer complètement les résultats de recherche traditionnels. Désormais, un chatbot va créer un article pour répondre aux questions. En cours de déploiement et facultatif pour l’instant, à terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montré que, les aperçus IA généraient déjà beaucoup moins de trafic vers le reste d’internet (de 30 % à 70 %, selon le type de recherche. Des analyses ont également révélé qu’environ 60 % des recherches Google depuis le lancement des aperçus sont désormais « zéro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les études respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrétise, cela pourrait anéantir le modèle économique du web tel que nous le connaissons. Google estime que ces inquiétudes sont exagérées, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversité de sites web » et le trafic serait de « meilleure qualité » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnée pour étayer ces affirmations. 

Google et ses détracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe même du web qui est menacé, celui où chacun peut créer un site librement accessible et référencé. 

L’article de la BBC remarque, très pertinemment, que cette menace de la mort du web a déjà été faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des réseaux sociaux avaient déjà suscité des prédictions apocalyptiques qui ne se sont pas réalisées. Cela n’empêche pas les experts d’être soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la réponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre à un bibliothécaire et qu’il vous en parle plutôt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncée pourrait faire la différence entre une entreprise d’édition viable… et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliqués. Selon le cabinet d’analyse de données BrightEdge, les aperçus IA ont entraîné une augmentation de 49 % des impressions sur le web, mais les clics ont chuté de 30 %, car les utilisateurs obtiennent leurs réponses directement de l’IA. « Google a écrit les règles, créé le jeu et récompensé les joueurs », explique l’une des expertes interrogée par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans ». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a déclaré qu’il pensait que demain, les éditeurs alimenteraient directement les modèles d’IA avec leurs contenus, sans plus avoir à se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur général de Cloudflare, le problème dans ce web automatisé, c’est que « les robots ne cliquent pas sur les publicités ». « Si l’IA devient l’audience, comment les créateurs seront-ils rémunérés ? » La rémunération directe existe déjà, comme le montrent les licences de contenus que les plus grands éditeurs de presse négocient avec des systèmes d’IA pour qu’elles s’entraînent et exploitent leurs contenus, mais ces revenus là ne compenseront pas la chute d’audience à venir. Et ce modèle ne passera certainement pas l’échelle d’une rétribution généralisée. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les réseaux sociaux pour tenter de compenser les pertes de revenus. Mais là aussi, les caprices algorithmiques et le développement de l’IA générative risquent de ne pas suffire à compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les réactions aux aperçus IA laissent présager que le mode IA sera extrêmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs résultats et effectuent des recherches plus souvent », a déclaré Pichai lors de la conférence des développeurs de Google. Autrement dit, Google affirme que cela améliore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, présidente de News/Media Alliance, un groupement professionnel représentant plus de 2 200 journalistes et médias, les réponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grâce à notre contenu et nous ne recevons rien en retour ». Le problème, c’est que Google n’a pas laissé beaucoup de choix aux éditeurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous êtes désindexé des deux. La recherche est bien souvent l’une des premières utilisations de outils d’IA. Les inquiétudes sur les hallucinations, sur le renforcement des chambres d’échos dans les réponses que vont produire ces outils sont fortes (on parle même de « chambre de chat » pour évoquer la réverbération des mêmes idées et liens dans ces outils). Pour Cory Doctorow, « Google s’apprête à faire quelque chose qui va vraiment mettre les gens en colère »… et appelle les acteurs à capitaliser sur cette colère à venir. Matthew Prince de Cloudflare prône, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, à moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley à négocier. « Ma version très optimiste », explique Prince, « est celle où les humains obtiennent du contenu gratuitement et où les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposé l’année dernière quelque chose d’assez similaire : expliquant que les droits dérivés liés à l’exploitation des contenus par l’IA devraient donner lieu à rétribution – mais à nouveau, une rétribution qui restera par nature insuffisante, comme l’expliquait Frédéric Fillioux

Même constat pour le Washington Post, qui s’inquiète de l’effondrement de l’audience des sites d’actualité avec le déploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminué de 55 % entre avril 2022 et avril 2025, selon les données de Similarweb ». Dans la presse américaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clés et du tri des liens proposés. « Nous entrons dans l’ère de la recherche conversationnelle » dont la fonction même vise à « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposé des améliorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessé de s’améliorer pour fournir de meilleures réponses. Mais ce qui s’apprête à changer avec l’intégration de l’IA, c’est que les sources ne sont plus nécessairement accessibles et que les réponses sont générées à la volée, aucune n’étant identique à une autre. 

L’intégration de l’IA pose également la question de la fiabilité des réponses. L’IA de Google a par exemple expliqué que la Technology Review avait été mise en ligne en 2022… ce qui est bien sûr totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir génératif promet avant tout de fabriquer des réponses à la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidéo expliquant comment réparer un élément de mon vélo. La vidéo n’existe pas, mais l’information, elle, existe. La recherche générative assistée par l’IA pourrait théoriquement trouver cette information en ligne – dans un manuel d’utilisation caché sur le site web d’une entreprise, par exemple – et créer une vidéo pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire très mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet génératif pourrait se composer à la demande, quelque soit ses défaillances. 

Mêmes constats pour Matteo Wrong dans The Atlantic : avec la généralisation de l’IA, nous retournons dans un internet en mode bêta. Les services et produits numériques n’ont jamais été parfaits, rappelle-t-il, mais la généralisation de l’IA risque surtout d’amplifier les problèmes. Les chatbots sont très efficaces pour produire des textes convaincants, mais ils ne prennent pas de décisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractéristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dérailler de manière inattendue, de s’effondrer à la moindre tâche et d’être mal utilisée avec un minimum de frictions ». Les quelques réussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. Plutôt que des utilisations ciblées et prudentes, nombreux sont ceux qui utilisent l’IA générative pour toutes les tâches imaginables, encouragés par les géants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est là que réside le problème : l’IA générative est une technologie suffisamment performante pour que les utilisateurs en deviennent dépendants, mais pas suffisamment fiable pour être véritablement fiable ». Nous allons vers un internet où chaque recherche, itinéraire, recommandation de restaurant, résumé d’événement, résumé de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vérifier ses fonctionnements. Bienvenue dans « l’âge de la paranoïa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicité également. C’est ainsi qu’il faut entendre les déclarations de Mark Zuckerberg pour automatiser la création publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose déjà des outils d’IA capables de générer des variantes de publicités existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite désormais aider les marques à créer des concepts publicitaires de A à Z ». La publicité représente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élève en 2024 à 164 milliards de dollars). Chez Meta les contenus génératifs produisent déjà ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes de Meta sont déjà générées automatiquement. « Grâce aux outils publicitaires développés par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnée d’un objectif budgétaire. L’IA créerait alors l’intégralité de la publicité, y compris les images, la vidéo et le texte. Le système déciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la géolocalisation des utilisateurs, la publicité pourrait s’adapter en contexte, créant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », a déclaré Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rédac chef de The Verge, parle de « créativité infinie ». C’est d’ailleurs la même idée que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines à IA » qui généreront le web demain. Si toutes les grandes entreprises et les agences de publicité ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent déjà, à l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grâce à son partenariat avec Nvidia. « Unilever a déclaré avoir réalisé jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir réduit les délais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idée finalement très partagée par tous les géants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaît par un autre. Une sous-couche générative qu’il maîtriseraient, capable de produire un web à leur profit, qu’ils auraient avalé et digéré. 

Vers des revenus génératifs ?

Nilay Patel était l’année dernière l’invité du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le détruire ou le sauver. Dans cette discussion parfois un peu décousue, Klein rappelle que l’IA se développe d’abord là où les produits n’ont pas besoin d’être très performants. Des tâches de codage de bas niveau aux devoirs des étudiants, il est également très utilisé pour la diffusion de contenus médiocres sur l’internet. Beaucoup des contenus d’internet ne sont pas très performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des réseaux sociaux, internet est surtout un ensemble de contenus à indexer pour délivrer de la publicité elle-même bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont désormais inondées de contenus sans intérêts, de spams, de slops, de contenus de remplissage à la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amélioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un à l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, où n’aurons nous accès plus qu’à des contenus génératifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le détruisent. En augmentant à l’infini l’offre de contenu, le système s’apprête à s’effondrer sur lui-même : « Les algorithmes de recommandation s’effondrent, notre capacité à distinguer le vrai du faux s’effondre également, et, plus important encore, les modèles économiques d’Internet s’effondrent complètement ». Les contenus n’arrivent plus à trouver leurs publics, et inversement. L’exemple éclairant pour illustrer cela, c’est celui d’Amazon. Face à l’afflux de livres générés par l’IA, la seule réponse d’Amazon a été de limiter le nombre de livres déposables sur la plateforme à trois par jour. C’est une réponse parfaitement absurde qui montre que nos systèmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est à peine s’ils savent restreindre le flot

Avec l’IA générative, l’offre ne va pas cesser d’augmenter. Elle dépasse déjà ce que nous sommes capables d’absorber individuellement. Pas étonnant alors que toutes les plateformes se transforment de la même manière en devenant des plateformes de téléachats ne proposant plus rien d’autre que de courtes vidéos.

« Toutes les plateformes tendent vers le même objectif, puisqu’elles sont soumises aux mêmes pressions économiques ». Le produit des plateformes c’est la pub. Elles mêmes ne vendent rien. Ce sont des régies publicitaires que l’IA promet d’optimiser depuis les données personnelles collectées. Et demain, nos boîtes mails seront submergées de propositions marketing générées par l’IA… Pour Patel, les géants du net ont arrêté de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicités. Google Actualités référence des articles écrits par des IA sans que cela ne soit un critère discriminant pour les référenceurs de Google, expliquait 404 média (voir également l’enquête de Next sur ce sujet qui montre que les sites générés par IA se démultiplient, « pour faire du fric »). Pour toute la chaîne, les revenus semblent être devenus le seul objectif.

Et Klein de suggérer que ces contenus vont certainement s’améliorer, comme la génération d’image et de texte n’a cessé de s’améliorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment répondre à la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour répondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit généré par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, répond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un œuf, l’IA de Google peut vous le dire… Mais, c’est oublier que cette IA générative ne sera pas plus neutre que les résultats de Google aujourd’hui. Elle sera elle aussi façonnée par la publicité. L’enjeu demain ne sera plus d’être dans les 3 premiers résultats d’une page de recherche, mais d’être citée par les réponses construites par les modèles de langages. « Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont déjà nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez à un chatbot de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Le marketing a assurément trouvé un nouveau produit à vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes très affaibli, pollué de spams et de contenus sans intérêts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprécient, mais bien plus un internet que les gens utilisent à leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprécier, bien au contraire, mais un internet qui profite aux grands acteurs plutôt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne à se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numérique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web à leur seul profit, et c’est assurément la puissance (et surtout la puissance financière) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurément la conséquence de « notre longue dépossession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthétique est là pour rester. Et la perspective qui se dessine, c’est que nous avons à nous y adapter, sans discussion. Ce n’est pas une situation très stimulante, bien au contraire. A mesure que les géants de l’IA conquièrent le numérique, c’est nos marges de manœuvres qui se réduisent. Ce sont elles que la régulation devrait chercher à réouvrir, dès à présent. Par exemple en mobilisant très tôt le droit à la concurrence et à l’interopérabilité, pour forcer les acteurs à proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, très facilement, de refuser leur implémentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit à la concurrence et à l’interopérabilité au plus tôt. Afin que défendre le web que nous voulons ne s’avère pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet édito a été originellement publié dans la première lettre d’information de CaféIA le 27 juin 2025.

  • ✇Dans les algorithmes
  • L’IA, un nouvel internet… sans condition
    Tous les grands acteurs des technologies ont entamé leur mue. Tous se mettent à intégrer l’IA à leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche à sa fin, prédit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthétique, le web artificiel où tous les contenus sont appelés à être générés en permanence, à la volée, en s’appuyant sur l’ensemble des contenus disponibles, sans que ce
     

L’IA, un nouvel internet… sans condition

10 juillet 2025 à 00:40

Tous les grands acteurs des technologies ont entamé leur mue. Tous se mettent à intégrer l’IA à leurs outils et plateformes, massivement. Les Big Tech se transforment en IA Tech. Et l’histoire du web, telle qu’on l’a connue, touche à sa fin, prédit Thomas Germain pour la BBC. Nous entrons dans « le web des machines », le web synthétique, le web artificiel où tous les contenus sont appelés à être générés en permanence, à la volée, en s’appuyant sur l’ensemble des contenus disponibles, sans que ceux-ci soient encore disponibles voire accessibles. Un second web vient se superposer au premier, le recouvrir… avec le risque de faire disparaître le web que nous avons connu, construit, façonné. 

Jusqu’à présent, le web reposait sur un marché simple, rappelle Germain. Les sites laissaient les moteurs de recherche indexer leurs contenus et les moteurs de recherche redirigeaient les internautes vers les sites web référencés. « On estime que 68 % de l’activité Internet commence sur les moteurs de recherche et qu’environ 90 % des recherches se font sur Google. Si Internet est un jardin, Google est le soleil qui fait pousser les fleurs »

Ce système a été celui que nous avons connu depuis les origines du web. L’intégration de l’IA, pour le meilleur ou pour le pire, promet néanmoins de transformer radicalement cette expérience. Confronté à une nette dégradation des résultats de la recherche, notamment due à l’affiliation publicitaire et au spam, le PDG de Google, Sundar Pichai, a promis une « réinvention totale de la recherche » en lançant son nouveau « mode IA ». Contrairement aux aperçus IA disponibles jusqu’à présent, le mode IA va remplacer complètement les résultats de recherche traditionnels. Désormais, un chatbot va créer un article pour répondre aux questions. En cours de déploiement et facultatif pour l’instant, à terme, il sera « l’avenir de la recherche Google »

Un détournement massif de trafic

Les critiques ont montré que, les aperçus IA généraient déjà beaucoup moins de trafic vers le reste d’internet (de 30 % à 70 %, selon le type de recherche. Des analyses ont également révélé qu’environ 60 % des recherches Google depuis le lancement des aperçus sont désormais « zéro clic », se terminant sans que l’utilisateur ne clique sur un seul lien – voir les études respectives de SeerInteractive, Semrush, Bain et Sparktoro), et beaucoup craignent que le mode IA ne renforce encore cette tendance. Si cela se concrétise, cela pourrait anéantir le modèle économique du web tel que nous le connaissons. Google estime que ces inquiétudes sont exagérées, affirmant que le mode IA « rendra le web plus sain et plus utile ». L’IA dirigerait les utilisateurs vers « une plus grande diversité de sites web » et le trafic serait de « meilleure qualité » car les utilisateurs passent plus de temps sur les liens sur lesquels ils cliquent. Mais l’entreprise n’a fourni aucune donnée pour étayer ces affirmations. 

Google et ses détracteurs s’accordent cependant sur un point : internet est sur le point de prendre une toute autre tournure. C’est le principe même du web qui est menacé, celui où chacun peut créer un site librement accessible et référencé. 

L’article de la BBC remarque, très pertinemment, que cette menace de la mort du web a déjà été faite. En 2010, Wired annonçait « la mort du web ». A l’époque, l’essor des smartphones, des applications et des réseaux sociaux avaient déjà suscité des prédictions apocalyptiques qui ne se sont pas réalisées. Cela n’empêche pas les experts d’être soucieux face aux transformations qui s’annoncent. Pour les critiques, certes, les aperçus IA et le mode IA incluent tous deux des liens vers des sources, mais comme l’IA vous donne la réponse que vous cherchez, cliquer sur ceux-ci devient superflu. C’est comme demander un livre à un bibliothécaire et qu’il vous en parle plutôt que de vous le fournir, compare un expert. 

La chute du nombre de visiteurs annoncée pourrait faire la différence entre une entreprise d’édition viable… et la faillite. Pour beaucoup d’éditeurs, ce changement sera dramatique. Nombre d’entreprises constatent que Google affiche leurs liens plus souvent, mais que ceux-ci sont moins cliqués. Selon le cabinet d’analyse de données BrightEdge, les aperçus IA ont entraîné une augmentation de 49 % des impressions sur le web, mais les clics ont chuté de 30 %, car les utilisateurs obtiennent leurs réponses directement de l’IA. « Google a écrit les règles, créé le jeu et récompensé les joueurs », explique l’une des expertes interrogée par la BBC. « Maintenant, ils se retournent et disent : « C’est mon infrastructure, et le web se trouve juste dedans ». »

Demis Hassabis, directeur de Google DeepMind, le laboratoire de recherche en IA de l’entreprise, a déclaré qu’il pensait que demain, les éditeurs alimenteraient directement les modèles d’IA avec leurs contenus, sans plus avoir à se donner la peine de publier des informations sur des sites web accessibles aux humains. Mais, pour Matthew Prince, directeur général de Cloudflare, le problème dans ce web automatisé, c’est que « les robots ne cliquent pas sur les publicités ». « Si l’IA devient l’audience, comment les créateurs seront-ils rémunérés ? » La rémunération directe existe déjà, comme le montrent les licences de contenus que les plus grands éditeurs de presse négocient avec des systèmes d’IA pour qu’elles s’entraînent et exploitent leurs contenus, mais ces revenus là ne compenseront pas la chute d’audience à venir. Et ce modèle ne passera certainement pas l’échelle d’une rétribution généralisée. 

Si gagner de l’argent sur le web devient plus difficile, il est probable que nombre d’acteurs se tournent vers les réseaux sociaux pour tenter de compenser les pertes de revenus. Mais là aussi, les caprices algorithmiques et le développement de l’IA générative risquent de ne pas suffire à compenser les pertes. 

Un nouvel internet sans condition

Pour Google, les réactions aux aperçus IA laissent présager que le mode IA sera extrêmement populaire. « À mesure que les utilisateurs utilisent AI Overviews, nous constatons qu’ils sont plus satisfaits de leurs résultats et effectuent des recherches plus souvent », a déclaré Pichai lors de la conférence des développeurs de Google. Autrement dit, Google affirme que cela améliore la recherche et que c’est ce que veulent les utilisateurs. Mais pour Danielle Coffey, présidente de News/Media Alliance, un groupement professionnel représentant plus de 2 200 journalistes et médias, les réponses de l’IA vont remplacer les produits originaux : « les acteurs comme Google vont gagner de l’argent grâce à notre contenu et nous ne recevons rien en retour ». Le problème, c’est que Google n’a pas laissé beaucoup de choix aux éditeurs, comme le pointait Bloomberg. Soit Google vous indexe pour la recherche et peut utiliser les contenus pour ses IA, soit vous êtes désindexé des deux. La recherche est bien souvent l’une des premières utilisations de outils d’IA. Les inquiétudes sur les hallucinations, sur le renforcement des chambres d’échos dans les réponses que vont produire ces outils sont fortes (on parle même de « chambre de chat » pour évoquer la réverbération des mêmes idées et liens dans ces outils). Pour Cory Doctorow, « Google s’apprête à faire quelque chose qui va vraiment mettre les gens en colère »… et appelle les acteurs à capitaliser sur cette colère à venir. Matthew Prince de Cloudflare prône, lui, une intervention directe. Son projet est de faire en sorte que Cloudflare et un consortium d’éditeurs de toutes tailles bloquent collectivement les robots d’indexation IA, à moins que les entreprises technologiques ne paient pour le contenu. Il s’agit d’une tentative pour forcer la Silicon Valley à négocier. « Ma version très optimiste », explique Prince, « est celle où les humains obtiennent du contenu gratuitement et où les robots doivent payer une fortune pour l’obtenir ». Tim O’Reilly avait proposé l’année dernière quelque chose d’assez similaire : expliquant que les droits dérivés liés à l’exploitation des contenus par l’IA devraient donner lieu à rétribution – mais à nouveau, une rétribution qui restera par nature insuffisante, comme l’expliquait Frédéric Fillioux

Même constat pour le Washington Post, qui s’inquiète de l’effondrement de l’audience des sites d’actualité avec le déploiement des outils d’IA. « Le trafic de recherche organique vers ses sites web a diminué de 55 % entre avril 2022 et avril 2025, selon les données de Similarweb ». Dans la presse américaine, l’audience est en berne et les licenciements continuent.

Les erreurs seront dans la réponse

Pour la Technology Review, c’est la fin de la recherche par mots-clés et du tri des liens proposés. « Nous entrons dans l’ère de la recherche conversationnelle » dont la fonction même vise à « ignorer les liens », comme l’affirme Perplexity dans sa FAQ. La TR rappelle l’histoire de la recherche en ligne pour montrer que des annuaires aux moteurs de recherche, celle-ci a toujours proposé des améliorations, pour la rendre plus pertinente. Depuis 25 ans, Google domine la recherche en ligne et n’a cessé de s’améliorer pour fournir de meilleures réponses. Mais ce qui s’apprête à changer avec l’intégration de l’IA, c’est que les sources ne sont plus nécessairement accessibles et que les réponses sont générées à la volée, aucune n’étant identique à une autre. 

L’intégration de l’IA pose également la question de la fiabilité des réponses. L’IA de Google a par exemple expliqué que la Technology Review avait été mise en ligne en 2022… ce qui est bien sûr totalement faux, mais qu’en saurait une personne qui ne le sait pas ? Mais surtout, cet avenir génératif promet avant tout de fabriquer des réponses à la demande. Mat Honan de la TR donne un exemple : « Imaginons que je veuille voir une vidéo expliquant comment réparer un élément de mon vélo. La vidéo n’existe pas, mais l’information, elle, existe. La recherche générative assistée par l’IA pourrait théoriquement trouver cette information en ligne – dans un manuel d’utilisation caché sur le site web d’une entreprise, par exemple – et créer une vidéo pour me montrer exactement comment faire ce que je veux, tout comme elle pourrait me l’expliquer avec des mots aujourd’hui » – voire très mal nous l’expliquer. L’exemple permet de comprendre comment ce nouvel internet génératif pourrait se composer à la demande, quelque soit ses défaillances. 

Mêmes constats pour Matteo Wrong dans The Atlantic : avec la généralisation de l’IA, nous retournons dans un internet en mode bêta. Les services et produits numériques n’ont jamais été parfaits, rappelle-t-il, mais la généralisation de l’IA risque surtout d’amplifier les problèmes. Les chatbots sont très efficaces pour produire des textes convaincants, mais ils ne prennent pas de décisions en fonction de l’exactitude factuelle. Les erreurs sont en passe de devenir « une des caractéristiques de l’internet ». « La Silicon Valley mise l’avenir du web sur une technologie capable de dérailler de manière inattendue, de s’effondrer à la moindre tâche et d’être mal utilisée avec un minimum de frictions ». Les quelques réussites de l’IA n’ont que peu de rapport avec la façon dont de nombreuses personnes et entreprises comprennent et utilisent cette technologie, rappelle-t-il. Plutôt que des utilisations ciblées et prudentes, nombreux sont ceux qui utilisent l’IA générative pour toutes les tâches imaginables, encouragés par les géants de la tech. « Tout le monde utilise l’IA pour tout », titrait le New York Times. « C’est là que réside le problème : l’IA générative est une technologie suffisamment performante pour que les utilisateurs en deviennent dépendants, mais pas suffisamment fiable pour être véritablement fiable ». Nous allons vers un internet où chaque recherche, itinéraire, recommandation de restaurant, résumé d’événement, résumé de messagerie vocale et e-mail sera plus suspect qu’il n’est aujourd’hui. « Les erreurs d’aujourd’hui pourraient bien, demain, devenir la norme », rendant ses utilisateurs incapables de vérifier ses fonctionnements. Bienvenue dans « l’âge de la paranoïa », clame Wired.

Vers la publicité générative et au-delà !

Mais il n’y a pas que les « contenus » qui vont se recomposer, la publicité également. C’est ainsi qu’il faut entendre les déclarations de Mark Zuckerberg pour automatiser la création publicitaire, explique le Wall Street Journal. « La plateforme publicitaire de Meta propose déjà des outils d’IA capables de générer des variantes de publicités existantes et d’y apporter des modifications mineures avant de les diffuser aux utilisateurs sur Facebook et Instagram. L’entreprise souhaite désormais aider les marques à créer des concepts publicitaires de A à Z ». La publicité représente 97% du chiffre d’affaires de Meta, rappelle le journal (qui s’élève en 2024 à 164 milliards de dollars). Chez Meta les contenus génératifs produisent déjà ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes de Meta sont déjà générées automatiquement. « Grâce aux outils publicitaires développés par Meta, une marque pourrait demain fournir une image du produit qu’elle souhaite promouvoir, accompagnée d’un objectif budgétaire. L’IA créerait alors l’intégralité de la publicité, y compris les images, la vidéo et le texte. Le système déciderait ensuite quels utilisateurs Instagram et Facebook cibler et proposerait des suggestions en fonction du budget ». Selon la géolocalisation des utilisateurs, la publicité pourrait s’adapter en contexte, créant l’image d’une voiture circulant dans la neige ou sur une plage s’ils vivent en montagne ou au bord de la mer. « Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », a déclaré Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise. 

Nilay Patel, le rédac chef de The Verge, parle de « créativité infinie ». C’est d’ailleurs la même idée que l’on retrouve dans les propos de Jensen Huang, le PDG de Nvidia, quand il promet de fabriquer les « usines à IA » qui généreront le web demain. Si toutes les grandes entreprises et les agences de publicité ne sont pas ravies de la proposition – qui leur est fondamentalement hostile, puisqu’elle vient directement les concurrencer -, d’autres s’y engouffrent déjà, à l’image d’Unilever qui explique sur Adweek que l’IA divise par deux ses budgets publicitaires grâce à son partenariat avec Nvidia. « Unilever a déclaré avoir réalisé jusqu’à 55 % d’économies sur ses campagnes IA, d’avoir réduit les délais de production de 65% tout en doublant le taux de clic et en retenant l’attention des consommateurs trois fois plus longtemps »

L’idée finalement très partagée par tous les géants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaît par un autre. Une sous-couche générative qu’il maîtriseraient, capable de produire un web à leur profit, qu’ils auraient avalé et digéré. 

Vers des revenus génératifs ?

Nilay Patel était l’année dernière l’invité du podcast d’Ezra Klein pour le New York Times qui se demandait si cette transformation du web allait le détruire ou le sauver. Dans cette discussion parfois un peu décousue, Klein rappelle que l’IA se développe d’abord là où les produits n’ont pas besoin d’être très performants. Des tâches de codage de bas niveau aux devoirs des étudiants, il est également très utilisé pour la diffusion de contenus médiocres sur l’internet. Beaucoup des contenus d’internet ne sont pas très performants, rappelle-t-il. Du spam au marketing en passant par les outils de recommandations des réseaux sociaux, internet est surtout un ensemble de contenus à indexer pour délivrer de la publicité elle-même bien peu performante. Et pour remplir cet « internet de vide », l’IA est assez efficace. Les plateformes sont désormais inondées de contenus sans intérêts, de spams, de slops, de contenus de remplissage à la recherche de revenus. Et Klein de se demander que se passera-t-il lorsque ces flots de contenu IA s’amélioreront ? Que se passera-t-il lorsque nous ne saurons plus s’il y a quelqu’un à l’autre bout du fil de ce que nous voyons, lisons ou entendons ? Y aura-t-il encore quelqu’un d’ailleurs, où n’aurons nous accès plus qu’à des contenus génératifs ?

Pour Patel, pour l’instant, l’IA inonde le web de contenus qui le détruisent. En augmentant à l’infini l’offre de contenu, le système s’apprête à s’effondrer sur lui-même : « Les algorithmes de recommandation s’effondrent, notre capacité à distinguer le vrai du faux s’effondre également, et, plus important encore, les modèles économiques d’Internet s’effondrent complètement ». Les contenus n’arrivent plus à trouver leurs publics, et inversement. L’exemple éclairant pour illustrer cela, c’est celui d’Amazon. Face à l’afflux de livres générés par l’IA, la seule réponse d’Amazon a été de limiter le nombre de livres déposables sur la plateforme à trois par jour. C’est une réponse parfaitement absurde qui montre que nos systèmes ne sont plus conçus pour organiser leurs publics et leur adresser les bons contenus. C’est à peine s’ils savent restreindre le flot

Avec l’IA générative, l’offre ne va pas cesser d’augmenter. Elle dépasse déjà ce que nous sommes capables d’absorber individuellement. Pas étonnant alors que toutes les plateformes se transforment de la même manière en devenant des plateformes de téléachats ne proposant plus rien d’autre que de courtes vidéos.

« Toutes les plateformes tendent vers le même objectif, puisqu’elles sont soumises aux mêmes pressions économiques ». Le produit des plateformes c’est la pub. Elles mêmes ne vendent rien. Ce sont des régies publicitaires que l’IA promet d’optimiser depuis les données personnelles collectées. Et demain, nos boîtes mails seront submergées de propositions marketing générées par l’IA… Pour Patel, les géants du net ont arrêté de faire leur travail. Aucun d’entre eux ne nous signale plus que les contenus qu’ils nous proposent sont des publicités. Google Actualités référence des articles écrits par des IA sans que cela ne soit un critère discriminant pour les référenceurs de Google, expliquait 404 média (voir également l’enquête de Next sur ce sujet qui montre que les sites générés par IA se démultiplient, « pour faire du fric »). Pour toute la chaîne, les revenus semblent être devenus le seul objectif.

Et Klein de suggérer que ces contenus vont certainement s’améliorer, comme la génération d’image et de texte n’a cessé de s’améliorer. Il est probable que l’article moyen d’ici trois ans sera meilleur que le contenu moyen produit par un humain aujourd’hui. « Je me suis vraiment rendu compte que je ne savais pas comment répondre à la question : est-ce un meilleur ou un pire internet qui s’annonce ? Pour répondre presque avec le point de vue de Google, est-ce important finalement que le contenu soit généré par un humain ou une IA, ou est-ce une sorte de sentimentalisme nostalgique de ma part ? » 

Il y en a certainement, répond Patel. Il n’y a certainement pas besoin d’aller sur une page web pour savoir combien de temps il faut pour cuire un œuf, l’IA de Google peut vous le dire… Mais, c’est oublier que cette IA générative ne sera pas plus neutre que les résultats de Google aujourd’hui. Elle sera elle aussi façonnée par la publicité. L’enjeu demain ne sera plus d’être dans les 3 premiers résultats d’une page de recherche, mais d’être citée par les réponses construites par les modèles de langages. « Votre client le plus important, désormais, c’est l’IA ! », explique le journaliste Scott Mulligan pour la Technology Review. « L’objectif ultime n’est pas seulement de comprendre comment votre marque est perçue par l’IA, mais de modifier cette perception ». Or, les biais marketing des LLM sont déjà nombreux. Une étude montre que les marques internationales sont souvent perçues comme étant de meilleures qualités que les marques locales. Si vous demandez à un chatbot de recommander des cadeaux aux personnes vivant dans des pays à revenu élevé, il suggérera des articles de marque de luxe, tandis que si vous lui demandez quoi offrir aux personnes vivant dans des pays à faible revenu, il recommandera des marques plus cheap.

L’IA s’annonce comme un nouveau public des marques, à dompter. Et la perception d’une marque par les IA aura certainement des impacts sur leurs résultats financiers. Le marketing a assurément trouvé un nouveau produit à vendre ! Les entreprises vont adorer !

Pour Klein, l’internet actuel est certes très affaibli, pollué de spams et de contenus sans intérêts. Google, Meta et Amazon n’ont pas créé un internet que les gens apprécient, mais bien plus un internet que les gens utilisent à leur profit. L’IA propose certainement non pas un internet que les gens vont plus apprécier, bien au contraire, mais un internet qui profite aux grands acteurs plutôt qu’aux utilisateurs. Pour Patel, il est possible qu’un internet sans IA subsiste, pour autant qu’il parvienne à se financer.

Pourra-t-on encore défendre le web que nous voulons ?

Les acteurs oligopolistiques du numérique devenus les acteurs oligopolistiques de l’IA semblent s’aligner pour transformer le web à leur seul profit, et c’est assurément la puissance (et surtout la puissance financière) qu’ils ont acquis qui le leur permet. La transformation du web en « web des machines » est assurément la conséquence de « notre longue dépossession », qu’évoquait Ben Tarnoff dans son livre, Internet for the People.

La promesse du web synthétique est là pour rester. Et la perspective qui se dessine, c’est que nous avons à nous y adapter, sans discussion. Ce n’est pas une situation très stimulante, bien au contraire. A mesure que les géants de l’IA conquièrent le numérique, c’est nos marges de manœuvres qui se réduisent. Ce sont elles que la régulation devrait chercher à réouvrir, dès à présent. Par exemple en mobilisant très tôt le droit à la concurrence et à l’interopérabilité, pour forcer les acteurs à proposer aux utilisateurs d’utiliser les IA de leurs choix ou en leur permettant, très facilement, de refuser leur implémentations dans les outils qu’ils utilisent, que ce soit leurs OS comme les services qu’ils utilisent. Bref, mobiliser le droit à la concurrence et à l’interopérabilité au plus tôt. Afin que défendre le web que nous voulons ne s’avère pas plus difficile demain qu’il n’était aujourd’hui.

Hubert Guillaud

Cet édito a été originellement publié dans la première lettre d’information de CaféIA le 27 juin 2025.

À partir d’avant-hierFlux principal
  • ✇Dans les algorithmes
  • Renverser le pouvoir artificiel
    L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie à un avenir économique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre savoir-faire, compromet notre sécurité et restreint nos perspectives d’innovation”.  La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas
     

Renverser le pouvoir artificiel

8 juillet 2025 à 01:00

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie à un avenir économique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre savoir-faire, compromet notre sécurité et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre à nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA défendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques géants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irréfléchi d’OpenAI, lié au monopole de Microsoft et au modèle économique de l’économie technologique, est bénéfique à la société”

“L’avènement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutôt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancré dans la perpétuation des intérêts des entreprises qui ont bénéficié du laxisme réglementaire et des faibles taux d’intérêt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du démantèlement des gouvernements au pillage des données, de la dévalorisation du travail pour le rendre compatible à l’IA, à la réorientation des infrastructures énergétiques en passant par le saccage de l’information et de la démocratie… l’avènement de l’IA exige le démantèlement de nos infrastructures sociales, politiques et économiques au profit des entreprises de l’IA. L’IA remet au goût du jour des stratégies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du développement de leurs empires. 

Mais pourquoi la société accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut être perturbé, notamment parce qu’il est plus fragile qu’il n’y paraît. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coût de l’IA à grande échelle va être très élevé au risque qu’une bulle d’investissement ne finisse par éclater. L’affirmation de la révolution de l’IA générative, elle, contraste avec la grande banalité de ses intégrations et les difficultés qu’elle engendre : de la publicité automatisée chez Meta, à la production de code via Copilot (au détriment des compétences des développeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intégration automatique de fonctionnalités IA… tout en laissant les clients se débrouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliqués en contexte réel les systèmes d’IA échouent profondément même sur des tâches élémentaires, rappellent les auteurs du rapport : les fonctionnalités de l’IA relèvent souvent d’illusions sur leur efficacité, masquant bien plus leurs défaillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est déployée par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilité de se retirer ou de demander réparation en cas d’erreur.

L’IA : un outil défaillant au service de ceux qui la déploie

Pour l’AI Now Institute, les avantages de l’IA sont à la fois surestimés et sous-estimés, des traitements contre le cancer à une hypothétique croissance économique, tandis que certains de ses défauts sont réels, immédiats et se répandent. Le solutionnisme de l’IA occulte les problèmes systémiques auxquels nos économies sont confrontées, occultant la concentration économique à l’oeuvre et servant de canal pour le déploiement de mesures d’austérité sous prétexte d’efficacité, à l’image du très problématique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont été investis dans des solutions d’IA défaillantes. “Le mythe de la productivité occulte une vérité fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillés, réduisant l’autonomie au lieu de l’accroître”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procédures régulières à l’image de l’essor débridé de l’utilisation de l’IA dans le contrôle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des données ainsi que celui sur l’IA générative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux défaillances de l’IA. Pour les thuriféraires de l’IA, celle-ci est appelée à guérir tous nos maux, permettant à la fois de transformer la science, la logistique, l’éducation… Mais, si les géants de la tech veulent que l’IA soit accessible à tous, alors l’IA devrait pouvoir bénéficier à tous. C’est loin d’être le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, à terme, à guérir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en améliorant le dépistage, la détection et le diagnostic. Il est probable cependant que loin d’être une révolution, les améliorations soient bien plus incrémentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothèse selon laquelle ces avancées scientifiques nécessitent la croissance effrénée des hyperscalers du secteur de l’IA. Or, c’est précisément le lien que ces dirigeants d’entreprise tentent d’établir. « Le prétexte que l’IA pourrait révolutionner la santé sert à promouvoir la déréglementation de l’IA pour dynamiser son développement ». Les perspectives scientifiques montées en promesses inéluctables sont utilisées pour abattre les résistances à discuter des enjeux de l’IA et des transformations qu’elle produit sur la société toute entière.

Or, dans le régime des défaillances de l’IA, bien peu de leurs promesses relèvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un régime de véritude comme s’en moque l’humoriste Stephen Colbert, c’est-à-dire sur des recherches qui ne sont pas validées par les pairs, à l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmières elles-mêmes… Une affirmation qui ne reposait que sur une étude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA générative. En l’absence de benchmarks indépendants et largement reconnus pour mesurer des attributs clés tels que la précision ou la qualité des réponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent à la fois le produit et les plateformes de validation des benchmarks au même client. Par exemple, Scale AI détient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modèles d’IA destinés au déploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira à évaluer la précision des modèles d’IA destinés aux agences de défense. Fournir la solution et son évaluation est effectivement bien plus simple. 

Autre défaillance systémique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la démocratisation de l’accès aux cours. Il n’en a rien été. Désormais, le technosolutionnisme promet la démocratisation par l’IA générative via des offres dédiées comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalité même de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptée par des administrateurs, sans discussion ni implication des concernés. A l’université, les administrateurs achètent des solutions non éprouvées et non testées pour des sommes considérables afin de supplanter les technologies existantes gérées par les services technologiques universitaires. Même constat dans ses déploiements au travail, où les pénuries de main d’œuvre sont souvent évoquées comme une raison pour développer l’IA, alors que le problème n’est pas tant la pénurie que le manque de protection ou le régime austéritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au détriment des travailleurs et des bénéficiaires. L’IA sert souvent de vecteur pour le déploiement de mesures d’austérité sous un autre nom. Les systèmes d’IA appliqués aux personnes à faibles revenus n’améliorent presque jamais l’accès aux prestations sociales ou à d’autres opportunités, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohérent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les défaillances du Doge (que nous avons nous-mêmes documentés). Cela n’empêche pourtant pas le solutionnisme de prospérer. L’objectif du chatbot newyorkais par exemple, “n’est peut-être pas, en réalité, de servir les citoyens, mais plutôt d’encourager et de centraliser l’accès aux données des citoyens ; de privatiser et d’externaliser les tâches gouvernementales ; et de consolider le pouvoir des entreprises sans mécanismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, très opposé au projet.

Le mythe de la productivité enfin, que répètent et anônnent les développeurs d’IA, nous fait oublier que les bénéfices de l’IA vont bien plus leur profiter à eux qu’au public. « La productivité est un euphémisme pour désigner la relation économique mutuellement bénéfique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariés. Non seulement les salariés ne bénéficient pas des gains de productivité liés à l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bénéficie pas aux salariés, mais dégrade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivité individuels et collectifs. Les entreprises utilisent la logique des gains de productivité de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivité des entreprises mènera inévitablement à une prospérité partagée est profondément erronée. Par le passé, lorsque l’automatisation a permis des gains de productivité et des salaires plus élevés, ce n’était pas grâce aux capacités intrinsèques de la technologie, mais parce que les politiques des entreprises et les réglementations étaient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrès (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgré les craintes de pertes d’emplois, les politiques fédérales et le renforcement du mouvement ouvrier ont protégé les intérêts des travailleurs et exigé des salaires plus élevés pour les ouvriers utilisant les nouvelles machines. Les entreprises ont à leur tour mis en place des politiques pour fidéliser les travailleurs, comme la redistribution des bénéfices et la formation, afin de réduire les turbulences et éviter les grèves. « Malgré l’automatisation croissante pendant cette période, la part des travailleurs dans le revenu national est restée stable, les salaires moyens ont augmenté et la demande de travailleurs a augmenté. Ces gains ont été annulés par les politiques de l’ère Reagan, qui ont donné la priorité aux intérêts des actionnaires, utilisé les menaces commerciales pour déprécier les normes du travail et les normes réglementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquérir une domination du marché et un contrôle sur des ressources clés. L’industrie de l’IA est un produit décisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires à la baisse. D’innombrables pratiques sont mobilisées pour isoler les salariés et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tâches routinières est devenue un point central du développement de produits, même si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opérer. Enfin, nous interagissons de plus en plus fréquemment avec des technologies d’IA utilisées non pas par nous, mais sur nous, qui façonnent notre accès aux ressources dans des domaines allant de la finance à l’embauche en passant par le logement, et ce au détriment de la transparence et au détriment de la possibilité même de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libérer. Par exemple, l’intégration de l’IA dans les agences chargées de l’immigration, malgré l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondément contournés, comme le montrait le rapport sur la déportation automatisée aux Etats-Unis du collectif de défense des droits des latino-américains, Mijente. Les Services de citoyenneté et d’immigration des États-Unis (USCIS) utilisent des outils prédictifs pour automatiser leurs prises de décision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de déterminer celles qui sont frauduleuses. Ces outils ont démontré, entre autres défauts, des taux élevés d’erreurs de classification lorsqu’ils sont utilisés sur des personnes dont l’anglais n’est pas la langue maternelle. Les conséquences d’une identification erronée de fraude sont importantes : elles peuvent entraîner l’expulsion, l’interdiction à vie du territoire américain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernées par ces systèmes est plus que limitée, sans possibilité de se désinscrire ou de demander réparation lorsqu’ils sont utilisés pour prendre des décisions erronées, et, tout aussi important, peu de preuves attestent que l’efficacité de ces outils a été, ou peut être, améliorée »

Malgré la légalité douteuse et les failles connues de nombre de ces systèmes que le rapport documente, l’intégration de l’IA dans les contrôles d’immigration ne semble vouée qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivité qui masque non seulement un racisme et une xénophobie flagrants, mais aussi la forte pression politique exercée sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fédérales de mener des contrôles d’immigration de manière profondément et de plus en plus opaque, ce qui complique encore davantage la tâche des personnes susceptibles d’être arrêtées ou accusées à tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais même une fois connus, nous disposons de très peu d’informations sur leur étalonnage ou sur les données sur lesquelles ils sont basés, ce qui réduit encore davantage la capacité des individus à faire valoir leurs droits à une procédure régulière. Ces outils s’appuient également sur une surveillance invasive du public, allant du filtrage des publications sur les réseaux sociaux à l’utilisation de la reconnaissance faciale, de la surveillance aérienne et d’autres techniques de surveillance, à l’achat massif d’informations publiques auprès de courtiers en données ». Nous sommes à la fois confrontés à des systèmes coercitifs et opaques, foncièrement défaillants. Mais ces défaillances se déploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La dernière partie du rapport de l’AI Now Institute tente de déployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrès”, expliquent les auteurs qui invitent à “reprendre le contrôle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport présente 5 leviers pour reprendre du pouvoir sur l’IA

Démontrer que l’IA agit contre les intérêts des individus et de la société

Le premier objectif, pour reprendre la main, consiste à mieux démontrer que l’industrie de l’IA agit contre les intérêts des citoyens ordinaires. Mais ce discours est encore peu partagé, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux déconnectés des réalités matérielles des individus. Pour l’AI Now Institute, “nous devons donner la priorité aux enjeux politiques ancrés dans le vécu des citoyens avec l’IA”, montrer les systèmes d’IA comme des infrastructures invisibles qui régissent les vies de chacun. En cela, la résistance au démantèlement des agences publiques initiée par les politiques du Doge a justement permis d’ouvrir un front de résistance. La résistance et l’indignation face aux coupes budgétaires et à l’accaparement des données a permis de montrer qu’améliorer l’efficacité des services n’était pas son objectif, que celui-ci a toujours été de démanteler les services gouvernementaux et centraliser le pouvoir. La dégradation des services sociaux et la privation des droits est un moyen de remobilisation à exploiter.

La construction des data centers pour l’IA est également un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, à l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le développements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de février qui invitait à l’interdiction pure et simple de la surveillance individualisée des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste à faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intéressent sérieusement à la manière dont l’IA transforme la nature du travail et s’engagent résolument par le biais de négociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la manière dont leurs employeurs développent et déploient ces technologies. Les campagnes syndicales visant à contester l’utilisation de l’IA générative à Hollywood, les mobilisations pour dénoncer la gestion algorithmique des employés des entrepôts de la logistique et des plateformes de covoiturage et de livraison ont joué un rôle essentiel dans la sensibilisation du public à l’impact de l’IA et des technologies de données sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepôts ou celles des chauffeurs menées par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la précarité organisée par les plateformes… Pour cela, il faut à la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre à l’image de ce qu’à accompli le syndicat des infirmières qui a montré que le déploiement de l’IA affaiblit le jugement clinique des infirmières et menace la sécurité des patients. Cette lutte a donné lieu à une « Déclaration des droits des infirmières et des patients », un ensemble de principes directeurs visant à garantir une application juste et sûre de l’IA dans les établissements de santé. Les infirmières ont stoppé le déploiement d’EPIC Acuity, un système qui sous-estimait l’état de santé des patients et le nombre d’infirmières nécessaires, et ont contraint l’entreprise qui déployait le système à créer un comité de surveillance pour sa mise en œuvre. 

Une autre tactique consiste à contester le déploiement d’IA austéritaires dans le secteur public à l’image du réseau syndicaliste fédéral, qui mène une campagne pour sauver les services fédéraux et met en lumière l’impact des coupes budgétaires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le déploiement de solutions d’IA génératives dans les services publics. 

Une autre tactique consiste à mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le démantèlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services à la police, les questions écologiques liées au déploiement des plateformes logistiques ainsi que l’impact des systèmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de défense de la vie privée à celles œuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisées sur ces enjeux. Mais également de l’étendre à l’ensemble de la chaîne de valeur et d’approvisionnement de l’IA, au-delà des questions américaines, même si pour l’instant “aucune tentative sérieuse d’organisation du secteur impacté par le déploiement de l’IA à grande échelle n’a été menée”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les différences de traitement entre les employés et les travailleurs contractuels). 

Nous avons désespérément besoin de projets de lutte plus ambitieux et mieux dotés en ressources, constate le rapport. Les personnes qui construisent et forment les systèmes d’IA – et qui, par conséquent, les connaissent intimement – ​​ont une opportunité particulière d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la manière dont ces systèmes sont utilisés. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siècle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numériques au service de l’intérêt public et oblige le pouvoir irresponsable d’aujourd’hui à rendre des comptes.”

Confiance zéro envers les entreprises de l’IA !

Le troisième levier que défend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zéro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient déjà “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour établir ce programme, le rapport égraine 6 leviers à activer.

Tout d’abord, le rapport plaide pour “des règles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de déterminer si, dans quels contextes et comment, les systèmes d’IA seront utilisés. “Comparées aux cadres reposant sur des garanties basées sur les processus (comme les audits d’IA ou les régimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance à renforcer les pouvoirs des leaders du secteur et à s’appuyer sur une solide capacité réglementaire pour une application efficace, ces règles claires présentent l’avantage d’être facilement administrables et de cibler les préjudices qui ne peuvent être ni évités ni réparés par de simples garanties”. Pour l’AI Now Institute, l’IA doit être interdite pour la reconnaissance des émotions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, générer des deepfakes. Et les données de surveillance des travailleurs ne doivent pas pouvoir pas être vendues à des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de réglementer tout le cycle de vie de l’IA. L’IA doit être réglementée tout au long de son cycle de développement, de la collecte des données au déploiement, en passant par le processus de formation, le perfectionnement et le développement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une réglementation efficace, la résistante des entreprises est forte, tout le long des développements, des données d’entraînement utilisées, aux fonctionnement des applications. La transparence et l’explication devraient être proactives, suggère le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les développeurs documentent et rendent publiques leurs techniques d’atténuation des risques, et que le régulateur exige la divulgation de tout risque anticipé qu’ils ne sont pas en mesure d’atténuer, afin que cela soit transparent pour les autres acteurs de la chaîne d’approvisionnement”. Le rapport recommande également d’inscrire un « droit de dérogation » aux décisions et l’obligation d’intégrer des conseils d’usagers pour qu’ils aient leur mot à dire sur les développements et l’utilisation des systèmes. 

Le rapport rappelle également que la supervision des développements doit être indépendante. Ce n’est pas à l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intérêts en jeu et mobilisent des méthodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les données acquises illégalement et les modèles entraînés sur ces données (certains chercheurs parlent d’effacement de modèles et de destruction algorithmique !) ; limiter la conservation des données pour le réentraînement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose également de construire une boîte à outils pour favoriser la concurrence. De nombreuses enquêtes pointent les limites des grandes entreprises de la tech à assurer le respect du droit à la concurrence, mais les poursuites peinent à s’appliquer et peinent à construire des changements législatifs pour renforcer le droit à la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marché est toujours dénoncé par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande séparation structurelle des activités (les entreprises du cloud ne doivent pas pouvoir participer au marché des modèles fondamentaux de l’IA par exemple, interdiction des représentations croisées dans les conseils d’administration des startups et des développeurs de modèles, etc.). Interdire aux fournisseurs de cloud d’exploiter les données qu’ils obtiennent de leurs clients en hébergeant des infrastructures pour développer des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du développement et de l’exploitation des centres de données, alors que les entreprises qui les développent se voient exonérées de charge et que leurs riverains en subissent des impacts disproportionnés (concurrence sur les ressources, augmentation des tarifs de l’électricité…). Les communautés touchées ont besoin de mécanismes de transparence et de protections environnementales solides. Les régulateurs devraient plafonner les subventions en fonction des protections concédées et des emplois créés. Initier des règles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problème qu’il faut lever. C’est le cas notamment de l’obsession à la sécurité nationale qui justifient à la fois des mesures de régulation et des programmes d’accélération et d’expansion du secteur et des infrastructures de l’IA. Mais pour décloisonner, il faut surtout venir perturber le processus de surveillance à l’œuvre et renforcer la vie privée comme un enjeu de justice économique. La montée de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privée (tels que le consentement, les options de retrait, les finalités non autorisées et la minimisation des données) au cœur de la mise en place de conditions économiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les données des travailleurs devraient être considérées comme du « capital capturé » par les entreprises : leurs données sont  utilisées pour former des technologies qui finiront par les remplacer (ou créer les conditions pour réduire leurs salaires), ou vendues au plus offrant via un réseau croissant de courtiers en données, sans contrôle ni compensation. Des travailleurs ubérisés aux travailleurs du clic, l’exploitation des données nécessite de repositionner la protection de la vie privée des travailleurs au cœur du programme de justice économique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent être “la cible appropriée de la résistance”, car ils seront instrumentalisés contre les intérêts des travailleurs. Sur le plan réglementaire, cela pourrait impliquer de privilégier des règles de minimisation des données qui restreignent la collecte et l’utilisation des données, renforcer la confidentialité (par exemple en interdisant le partage de données sur les salariés avec des tiers), le droit à ne pas consentir, etc. Renforcer la minimisation, sécuriser les données gouvernementales sur les individus qui sont de haute qualité et particulièrement sensibles, est plus urgent que jamais. 

“Nous devons nous réapproprier l’agenda positif de l’innovation centrée sur le public, et l’IA ne devrait pas en être le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axée sur le marché, est préjudiciable au public alors que l’espace de solutions alternatives se réduit. Nous devons rejeter le paradigme d’une IA à grande échelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt public, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique à l’achat de solutions privées, mais développe ses propres capacités d’IA, réinvestisse sa capacité d’expertise pour ne pas céder au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communauté de pratique autour de l’innovation d’intérêt général qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des méthodes d’implication des publics et aussi en élargissant l’intérêt de l’Etat à celui de l’intérêt collectif et pas seulement à ses intérêts propres (par exemple en conditionnant à la promotion des objectifs climatiques, au soutien syndical et citoyen…), ainsi qu’à redéfinir les conditions concrètes du financement public de l’IA, en veillant à ce que les investissements répondent aux besoins des communautés plutôt qu’aux intérêts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait être centrée sur les besoins des publics et que l’IA ne devrait pas en être le centre. Le développement de l’IA devrait être guidé par des impératifs non marchands et les capitaux publics et philanthropiques devraient contribuer à la création d’un écosystème d’innovation extérieur à l’industrie, comme l’ont réclamé Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania…  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sécurité nationale et de compétitivité, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axée sur le marché, est préjudiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas à relever le défi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA à grande échelle est nécessaire pour lutter contre les asymétries d’information et de pouvoir inhérentes à l’IA. C’est la partie cachée qu’il faut exprimer haut et fort. C’est la réalité à laquelle nous devons faire face si nous voulons rassembler la volonté et la créativité nécessaires pour façonner la situation différemment ». Un rapport du National AI Research Resource (NAIRR) américain de 2021, d’une commission indépendante présidée par l’ancien PDG de Google, Eric Schmidt, et composée de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulé le risque : « la consolidation du secteur de l’IA menace la compétitivité technologique des États-Unis. » Et la commission proposait de créer des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt général, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général ». Un projet de loi californien a récemment relancé une proposition de cluster informatique public, hébergé au sein du système de l’Université de Californie, appelé CalCompute. L’État de New York a lancé une initiative appelée Empire AI visant à construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privés. Ces deux initiatives créent des espaces de plaidoyer importants pour garantir que leurs ressources répondent aux besoins des communautés et ne servent pas à enrichir davantage les ressources des géants de la technologie.

Et le rapport de se conclure en appelant à défendre l’IA publique, en soutenant les universités, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes défavorisés disposent d’une autorité dans ces projets. Nous devons cultiver une communauté de pratique autour de l’innovation d’intérêt général. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent déjà dans des projets politiques, qui peinent à s’interelier et à se structurer. Des luttes qui sont souvent invisibilisées, tant la parole est toute entière donnée aux promoteurs de l’IA. Le rapport est extrêmement riche et rassemble une documentation à nulle autre pareille. 

« L’IA ne nous promet ni de nous libérer du cycle incessant de guerres, des pandémies et des crises environnementales et financières qui caractérisent notre présent », conclut le rapport  L’IA ne crée rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun à l’IA rend cet avenir plus difficile à réaliser, car cela nous enferme dans une voie résolument sombre, nous privant non seulement de la capacité de choisir quoi construire et comment le construire, mais nous privant également de la joie que nous pourrions éprouver à construire un avenir différent”. L’IA comme seule perspective d’avenir “nous éloigne encore davantage d’une vie digne, où nous aurions l’autonomie de prendre nos propres décisions et où des structures démocratiquement responsables répartiraient le pouvoir et les infrastructures technologiques de manière robuste, responsable et protégée des chocs systémiques”. L’IA ne fait que consolider et amplifier les asymétries de pouvoir existantes. “Elle naturalise l’inégalité et le mérite comme une fatalité, ​tout en rendant les schémas et jugements sous-jacents qui les façonnent impénétrables pour ceux qui sont affectés par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA à grande échelle. Nous ne devons pas oublier que l’opinion publique s’oppose résolument au pouvoir bien établi des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concèdent les chercheurs de l’AI Now Institute. Cela ne les empêche pas de faire des propositions, comme d’adopter un programme politique de « confiance zéro » pour l’IA. Adopter un programme politique fondé sur des règles claires qui restreignent les utilisations les plus néfastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crée et exploite actuellement l’IA ne soit pas laissée à elle-même pour s’autoréguler et s’autoévaluer. Repenser les leviers traditionnels de la confidentialité des données comme outils clés dans la lutte contre l’automatisation et la lutte contre le pouvoir de marché.

Revendiquer un programme positif d’innovation centrée sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succès n’est pas inéluctable. En nous libérant de l’idée que l’IA à grande échelle est inévitable, nous pouvons retrouver l’espace nécessaire à une véritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouverné par notre volonté collective ».

La trajectoire actuelle de l’IA vers sa suprématie ne nous mènera pas au monde que nous voulons. Sa suprématie n’est pourtant pas encore là. “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir où l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir où l’IA favoriserait des salaires justes et décents, au lieu de les déprécier ; où l’IA garantirait aux travailleurs le contrôle de l’impact des nouvelles technologies sur leur carrière, au lieu de saper leur expertise et leur connaissance de leur propre travail ; où nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois élargissant le filet de sécurité sociale – au lieu de promoteurs de l’IA qui se vantent auprès des actionnaires des économies réalisées grâce à l’automatisation ; où des prestations sociales et des politiques de congés solides garantissent le bien-être à long terme des employés, au lieu que l’IA soit utilisée pour surveiller et exploiter les travailleurs à tout va ; où l’IA contribue à protéger les employés des risques pour la santé et la sécurité au travail, au lieu de perpétuer des conditions de travail dangereuses et de féliciter les employeurs qui exploitent les failles du marché du travail pour se soustraire à leurs responsabilités ; et où l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliénation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospérité partagée, et ce n’est pas la direction que prennent les empires de l’IA. La prolifération de toute nouvelle technologie a le potentiel d’accroître les opportunités économiques et de conduire à une prospérité partagée généralisée. Mais cette prospérité partagée est incompatible avec la trajectoire actuelle de l’IA, qui vise à maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mènera à la « productivité » pour tous, alors qu’il s’agit en réalité de la productivité d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif économique. Même les politiques gouvernementales bien intentionnées, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinées à revitaliser l’industrie de la fabrication de puces électroniques ont été contrecarrées par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou à la création d’emplois. Et malgré quelques initiatives significatives pour enquêter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrôlées, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de démanteler les grandes entreprises, de restructurer la structure de financement financée par le capital-risque afin que davantage d’entreprises puissent prospérer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dépendent pas des grandes entreprises privées, et d’accroître les investissements institutionnels pour intégrer une plus grande diversité de personnes – et donc d’idées – au sein de la main-d’œuvre technologique.”

“Nous méritons un avenir technologique qui soutienne des valeurs et des institutions démocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protègent les intérêts du public contre l’oligarchie. Cela nécessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrôler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Renverser le pouvoir artificiel
    L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie à un avenir économique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre savoir-faire, compromet notre sécurité et restreint nos perspectives d’innovation”.  La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas
     

Renverser le pouvoir artificiel

8 juillet 2025 à 01:00

L’AI Now Institute vient de publier son rapport 2025. Et autant dire, qu’il frappe fort. “La trajectoire actuelle de l’IA ouvre la voie à un avenir économique et politique peu enviable : un avenir qui prive de leurs droits une grande partie du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre savoir-faire, compromet notre sécurité et restreint nos perspectives d’innovation”

La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre à nous. “Ce rapport explique pourquoi la lutte contre la vision de l’IA défendue par l’industrie est un combat qui en vaut la peine”. Comme le rappelait leur rapport 2023, l’IA est d’abord une question de concentration du pouvoir entre les mains de quelques géants. “La question que nous devrions nous poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir irréfléchi d’OpenAI, lié au monopole de Microsoft et au modèle économique de l’économie technologique, est bénéfique à la société”

“L’avènement de ChatGPT en 2023 ne marque pas tant une rupture nette dans l’histoire de l’IA, mais plutôt le renforcement d’un paradigme du « plus c’est grand, mieux c’est », ancré dans la perpétuation des intérêts des entreprises qui ont bénéficié du laxisme réglementaire et des faibles taux d’intérêt de la Silicon Valley”. Mais ce pouvoir ne leur suffit pas : du démantèlement des gouvernements au pillage des données, de la dévalorisation du travail pour le rendre compatible à l’IA, à la réorientation des infrastructures énergétiques en passant par le saccage de l’information et de la démocratie… l’avènement de l’IA exige le démantèlement de nos infrastructures sociales, politiques et économiques au profit des entreprises de l’IA. L’IA remet au goût du jour des stratégies anciennes d’extraction d’expertises et de valeurs pour concentrer le pouvoir entre les mains des extracteurs au profit du développement de leurs empires. 

Mais pourquoi la société accepterait-elle un tel compromis, une telle remise en cause ? Pour les chercheurs.ses de l’AI Now Institute ce pouvoir doit et peut être perturbé, notamment parce qu’il est plus fragile qu’il n’y paraît. “Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent” et le coût de l’IA à grande échelle va être très élevé au risque qu’une bulle d’investissement ne finisse par éclater. L’affirmation de la révolution de l’IA générative, elle, contraste avec la grande banalité de ses intégrations et les difficultés qu’elle engendre : de la publicité automatisée chez Meta, à la production de code via Copilot (au détriment des compétences des développeurs), ou via la production d’agents IA, en passant par l’augmentation des prix du Cloud par l’intégration automatique de fonctionnalités IA… tout en laissant les clients se débrouiller des hallucinations, des erreurs et des imperfactions de leurs produits. Or, appliqués en contexte réel les systèmes d’IA échouent profondément même sur des tâches élémentaires, rappellent les auteurs du rapport : les fonctionnalités de l’IA relèvent souvent d’illusions sur leur efficacité, masquant bien plus leurs défaillances qu’autre chose, comme l’expliquent les chercheurs Inioluwa Deborah Raji, Elizabeth Kumar, Aaron Horowitz et Andrew D. Selbst. Dans de nombreux cas d’utilisation, “l’IA est déployée par ceux qui ont le pouvoir contre ceux qui n’en ont pas” sans possibilité de se retirer ou de demander réparation en cas d’erreur.

L’IA : un outil défaillant au service de ceux qui la déploie

Pour l’AI Now Institute, les avantages de l’IA sont à la fois surestimés et sous-estimés, des traitements contre le cancer à une hypothétique croissance économique, tandis que certains de ses défauts sont réels, immédiats et se répandent. Le solutionnisme de l’IA occulte les problèmes systémiques auxquels nos économies sont confrontées, occultant la concentration économique à l’oeuvre et servant de canal pour le déploiement de mesures d’austérité sous prétexte d’efficacité, à l’image du très problématique chatbot mis en place par la ville New York. Des millions de dollars d’argent public ont été investis dans des solutions d’IA défaillantes. “Le mythe de la productivité occulte une vérité fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public. Et L’IA agentive rendra les lieux de travail encore plus bureaucratiques et surveillés, réduisant l’autonomie au lieu de l’accroître”. 

“L’utilisation de l’IA est souvent coercitive”, violant les droits et compromettant les procédures régulières à l’image de l’essor débridé de l’utilisation de l’IA dans le contrôle de l’immigration aux Etats-Unis (voir notre article sur la fin du cloisonnement des données ainsi que celui sur l’IA générative, nouvelle couche d’exploitation du travail). Le rapport consacre d’ailleurs tout un chapitre aux défaillances de l’IA. Pour les thuriféraires de l’IA, celle-ci est appelée à guérir tous nos maux, permettant à la fois de transformer la science, la logistique, l’éducation… Mais, si les géants de la tech veulent que l’IA soit accessible à tous, alors l’IA devrait pouvoir bénéficier à tous. C’est loin d’être le cas. 

Le rapport prend l’exemple de la promesse que l’IA pourrait parvenir, à terme, à guérir les cancers. Si l’IA a bien le potentiel de contribuer aux recherches dans le domaine, notamment en améliorant le dépistage, la détection et le diagnostic. Il est probable cependant que loin d’être une révolution, les améliorations soient bien plus incrémentales qu’on le pense. Mais ce qui est contestable dans ce tableau, estiment les chercheurs de l’AI Now Institute, c’est l’hypothèse selon laquelle ces avancées scientifiques nécessitent la croissance effrénée des hyperscalers du secteur de l’IA. Or, c’est précisément le lien que ces dirigeants d’entreprise tentent d’établir. « Le prétexte que l’IA pourrait révolutionner la santé sert à promouvoir la déréglementation de l’IA pour dynamiser son développement ». Les perspectives scientifiques montées en promesses inéluctables sont utilisées pour abattre les résistances à discuter des enjeux de l’IA et des transformations qu’elle produit sur la société toute entière.

Or, dans le régime des défaillances de l’IA, bien peu de leurs promesses relèvent de preuves scientifiques. Nombre de recherches du secteur s’appuient sur un régime de véritude comme s’en moque l’humoriste Stephen Colbert, c’est-à-dire sur des recherches qui ne sont pas validées par les pairs, à l’image des robots infirmiers qu’a pu promouvoir Nvidia en affirmant qu’ils surpasseraient les infirmières elles-mêmes… Une affirmation qui ne reposait que sur une étude de Nvidia. Nous manquons d’une science de l’évaluation de l’IA générative. En l’absence de benchmarks indépendants et largement reconnus pour mesurer des attributs clés tels que la précision ou la qualité des réponses, les entreprises inventent leurs propres benchmarks et, dans certains cas, vendent à la fois le produit et les plateformes de validation des benchmarks au même client. Par exemple, Scale AI détient des contrats de plusieurs centaines de millions de dollars avec le Pentagone pour la production de modèles d’IA destinés au déploiement militaire, dont un contrat de 20 millions de dollars pour la plateforme qui servira à évaluer la précision des modèles d’IA destinés aux agences de défense. Fournir la solution et son évaluation est effectivement bien plus simple. 

Autre défaillance systémique : partout, les outils marginalisent les professionnels. Dans l’éducation, les Moocs ont promis la démocratisation de l’accès aux cours. Il n’en a rien été. Désormais, le technosolutionnisme promet la démocratisation par l’IA générative via des offres dédiées comme ChatGPT Edu d’OpenAI, au risque de compromettre la finalité même de l’éducation. En fait, rappellent les auteurs du rapport, dans l’éducation comme ailleurs, l’IA est bien souvent adoptée par des administrateurs, sans discussion ni implication des concernés. A l’université, les administrateurs achètent des solutions non éprouvées et non testées pour des sommes considérables afin de supplanter les technologies existantes gérées par les services technologiques universitaires. Même constat dans ses déploiements au travail, où les pénuries de main d’œuvre sont souvent évoquées comme une raison pour développer l’IA, alors que le problème n’est pas tant la pénurie que le manque de protection ou le régime austéritaire de bas salaires. Les solutions technologiques permettent surtout de rediriger les financements au détriment des travailleurs et des bénéficiaires. L’IA sert souvent de vecteur pour le déploiement de mesures d’austérité sous un autre nom. Les systèmes d’IA appliqués aux personnes à faibles revenus n’améliorent presque jamais l’accès aux prestations sociales ou à d’autres opportunités, disait le rapport de Techtonic Justice. “L’IA n’est pas un ensemble cohérent de technologies capables d’atteindre des objectifs sociaux complexes”. Elle est son exact inverse, explique le rapport en pointant par exemple les défaillances du Doge (que nous avons nous-mêmes documentés). Cela n’empêche pourtant pas le solutionnisme de prospérer. L’objectif du chatbot newyorkais par exemple, “n’est peut-être pas, en réalité, de servir les citoyens, mais plutôt d’encourager et de centraliser l’accès aux données des citoyens ; de privatiser et d’externaliser les tâches gouvernementales ; et de consolider le pouvoir des entreprises sans mécanismes de responsabilisation significatifs”, comme l’explique le travail du Surveillance resistance Lab, très opposé au projet.

Le mythe de la productivité enfin, que répètent et anônnent les développeurs d’IA, nous fait oublier que les bénéfices de l’IA vont bien plus leur profiter à eux qu’au public. « La productivité est un euphémisme pour désigner la relation économique mutuellement bénéfique entre les entreprises et leurs actionnaires, et non entre les entreprises et leurs salariés. Non seulement les salariés ne bénéficient pas des gains de productivité liés à l’IA, mais pour beaucoup, leurs conditions de travail vont surtout empirer. L’IA ne bénéficie pas aux salariés, mais dégrade leurs conditions de travail, en augmentant la surveillance, notamment via des scores de productivité individuels et collectifs. Les entreprises utilisent la logique des gains de productivité de l’IA pour justifier la fragmentation, l’automatisation et, dans certains cas, la suppression du travail. » Or, la logique selon laquelle la productivité des entreprises mènera inévitablement à une prospérité partagée est profondément erronée. Par le passé, lorsque l’automatisation a permis des gains de productivité et des salaires plus élevés, ce n’était pas grâce aux capacités intrinsèques de la technologie, mais parce que les politiques des entreprises et les réglementations étaient conçues de concert pour soutenir les travailleurs et limiter leur pouvoir, comme l’expliquent Daron Acemoglu et Simon Johnson, dans Pouvoir et progrès (Pearson 2024). L’essor de l’automatisation des machines-outils autour de la Seconde Guerre mondiale est instructif : malgré les craintes de pertes d’emplois, les politiques fédérales et le renforcement du mouvement ouvrier ont protégé les intérêts des travailleurs et exigé des salaires plus élevés pour les ouvriers utilisant les nouvelles machines. Les entreprises ont à leur tour mis en place des politiques pour fidéliser les travailleurs, comme la redistribution des bénéfices et la formation, afin de réduire les turbulences et éviter les grèves. « Malgré l’automatisation croissante pendant cette période, la part des travailleurs dans le revenu national est restée stable, les salaires moyens ont augmenté et la demande de travailleurs a augmenté. Ces gains ont été annulés par les politiques de l’ère Reagan, qui ont donné la priorité aux intérêts des actionnaires, utilisé les menaces commerciales pour déprécier les normes du travail et les normes réglementaires, et affaibli les politiques pro-travailleurs et syndicales, ce qui a permis aux entreprises technologiques d’acquérir une domination du marché et un contrôle sur des ressources clés. L’industrie de l’IA est un produit décisif de cette histoire ». La discrimination salariale algorithmique optimise les salaires à la baisse. D’innombrables pratiques sont mobilisées pour isoler les salariés et contourner les lois en vigueur, comme le documente le rapport 2025 de FairWork. La promesse que les agents IA automatiseront les tâches routinières est devenue un point central du développement de produits, même si cela suppose que les entreprises qui s’y lancent deviennent plus processuelles et bureaucratiques pour leur permettre d’opérer. Enfin, nous interagissons de plus en plus fréquemment avec des technologies d’IA utilisées non pas par nous, mais sur nous, qui façonnent notre accès aux ressources dans des domaines allant de la finance à l’embauche en passant par le logement, et ce au détriment de la transparence et au détriment de la possibilité même de pouvoir faire autrement.

Le risque de l’IA partout est bien de nous soumettre aux calculs, plus que de nous en libérer. Par exemple, l’intégration de l’IA dans les agences chargées de l’immigration, malgré l’édiction de principes d’utilisation vertueux, montre combien ces principes sont profondément contournés, comme le montrait le rapport sur la déportation automatisée aux Etats-Unis du collectif de défense des droits des latino-américains, Mijente. Les Services de citoyenneté et d’immigration des États-Unis (USCIS) utilisent des outils prédictifs pour automatiser leurs prises de décision, comme « Asylum Text Analytics », qui interroge les demandes d’asile afin de déterminer celles qui sont frauduleuses. Ces outils ont démontré, entre autres défauts, des taux élevés d’erreurs de classification lorsqu’ils sont utilisés sur des personnes dont l’anglais n’est pas la langue maternelle. Les conséquences d’une identification erronée de fraude sont importantes : elles peuvent entraîner l’expulsion, l’interdiction à vie du territoire américain et une peine d’emprisonnement pouvant aller jusqu’à dix ans. « Pourtant, la transparence pour les personnes concernées par ces systèmes est plus que limitée, sans possibilité de se désinscrire ou de demander réparation lorsqu’ils sont utilisés pour prendre des décisions erronées, et, tout aussi important, peu de preuves attestent que l’efficacité de ces outils a été, ou peut être, améliorée »

Malgré la légalité douteuse et les failles connues de nombre de ces systèmes que le rapport documente, l’intégration de l’IA dans les contrôles d’immigration ne semble vouée qu’à s’intensifier. L’utilisation de ces outils offre un vernis d’objectivité qui masque non seulement un racisme et une xénophobie flagrants, mais aussi la forte pression politique exercée sur les agences d’immigration pour restreindre l’asile. « L‘IA permet aux agences fédérales de mener des contrôles d’immigration de manière profondément et de plus en plus opaque, ce qui complique encore davantage la tâche des personnes susceptibles d’être arrêtées ou accusées à tort. Nombre de ces outils ne sont connus du public que par le biais de documents juridiques et ne figurent pas dans l’inventaire d’IA du DHS. Mais même une fois connus, nous disposons de très peu d’informations sur leur étalonnage ou sur les données sur lesquelles ils sont basés, ce qui réduit encore davantage la capacité des individus à faire valoir leurs droits à une procédure régulière. Ces outils s’appuient également sur une surveillance invasive du public, allant du filtrage des publications sur les réseaux sociaux à l’utilisation de la reconnaissance faciale, de la surveillance aérienne et d’autres techniques de surveillance, à l’achat massif d’informations publiques auprès de courtiers en données ». Nous sommes à la fois confrontés à des systèmes coercitifs et opaques, foncièrement défaillants. Mais ces défaillances se déploient parce qu’elles donnent du pouvoir aux forces de l’ordre, leur permettant d’atteindre leurs objectifs d’expulsion et d’arrestation. Avec l’IA, le pouvoir devient l’objectif.

Les leviers pour renverser l’empire de l’IA et faire converger les luttes contre son monde

La dernière partie du rapport de l’AI Now Institute tente de déployer une autre vision de l’IA par des propositions, en dessinant une feuille de route pour l’action. “L’IA est une lutte de pouvoir et non un levier de progrès”, expliquent les auteurs qui invitent à “reprendre le contrôle de la trajectoire de l’IA”, en contestant son utilisation actuelle. Le rapport présente 5 leviers pour reprendre du pouvoir sur l’IA

Démontrer que l’IA agit contre les intérêts des individus et de la société

Le premier objectif, pour reprendre la main, consiste à mieux démontrer que l’industrie de l’IA agit contre les intérêts des citoyens ordinaires. Mais ce discours est encore peu partagé, notamment parce que le discours sur les risques porte surtout sur les biais techniques ou les risques existentiels, des enjeux déconnectés des réalités matérielles des individus. Pour l’AI Now Institute, “nous devons donner la priorité aux enjeux politiques ancrés dans le vécu des citoyens avec l’IA”, montrer les systèmes d’IA comme des infrastructures invisibles qui régissent les vies de chacun. En cela, la résistance au démantèlement des agences publiques initiée par les politiques du Doge a justement permis d’ouvrir un front de résistance. La résistance et l’indignation face aux coupes budgétaires et à l’accaparement des données a permis de montrer qu’améliorer l’efficacité des services n’était pas son objectif, que celui-ci a toujours été de démanteler les services gouvernementaux et centraliser le pouvoir. La dégradation des services sociaux et la privation des droits est un moyen de remobilisation à exploiter.

La construction des data centers pour l’IA est également un nouvel espace de mobilisation locale pour faire progresser la question de la justice environnementale, à l’image de celles que tentent de faire entendre la Citizen Action Coalition de l’Indiana ou la Memphis Community Against Pollution dans le Tennessee.

La question de l’augmentation des prix et de l’inflation, et le développements de prix et salaires algorithmiques est un autre levier de mobilisation, comme le montrait un rapport de l’AI Now Institute sur le sujet datant de février qui invitait à l’interdiction pure et simple de la surveillance individualisée des prix et des salaires. 

Faire progresser l’organisation des travailleurs 

Le second levier consiste à faire progresser l’organisation des travailleurs. Lorsque les travailleurs et leurs syndicats s’intéressent sérieusement à la manière dont l’IA transforme la nature du travail et s’engagent résolument par le biais de négociations collectives, de l’application des contrats, de campagnes et de plaidoyer politique, ils peuvent influencer la manière dont leurs employeurs développent et déploient ces technologies. Les campagnes syndicales visant à contester l’utilisation de l’IA générative à Hollywood, les mobilisations pour dénoncer la gestion algorithmique des employés des entrepôts de la logistique et des plateformes de covoiturage et de livraison ont joué un rôle essentiel dans la sensibilisation du public à l’impact de l’IA et des technologies de données sur le lieu de travail. La lutte pour limiter l’augmentation des cadences dans les entrepôts ou celles des chauffeurs menées par Gig Workers Rising, Los Deliversistas Unidos, Rideshare Drivers United, ou le SEIU, entre autres, a permis d’établir des protections, de lutter contre la précarité organisée par les plateformes… Pour cela, il faut à la fois que les organisations puissent analyser l’impact de l’IA sur les conditions de travail et sur les publics, pour permettre aux deux luttes de se rejoindre à l’image de ce qu’à accompli le syndicat des infirmières qui a montré que le déploiement de l’IA affaiblit le jugement clinique des infirmières et menace la sécurité des patients. Cette lutte a donné lieu à une « Déclaration des droits des infirmières et des patients », un ensemble de principes directeurs visant à garantir une application juste et sûre de l’IA dans les établissements de santé. Les infirmières ont stoppé le déploiement d’EPIC Acuity, un système qui sous-estimait l’état de santé des patients et le nombre d’infirmières nécessaires, et ont contraint l’entreprise qui déployait le système à créer un comité de surveillance pour sa mise en œuvre. 

Une autre tactique consiste à contester le déploiement d’IA austéritaires dans le secteur public à l’image du réseau syndicaliste fédéral, qui mène une campagne pour sauver les services fédéraux et met en lumière l’impact des coupes budgétaires du Doge. En Pennsylvanie, le SEIU a mis en place un conseil des travailleurs pour superviser le déploiement de solutions d’IA génératives dans les services publics. 

Une autre tactique consiste à mener des campagnes plus globales pour contester le pouvoir des grandes entreprises technologiques, comme la Coalition Athena qui demande le démantèlement d’Amazon, en reliant les questions de surveillance des travailleurs, le fait que la multinationale vende ses services à la police, les questions écologiques liées au déploiement des plateformes logistiques ainsi que l’impact des systèmes algorithmiques sur les petites entreprises et les prix que payent les consommateurs. 

Bref, l’enjeu est bien de relier les luttes entre elles, de relier les syndicats aux organisations de défense de la vie privée à celles œuvrant pour la justice raciale ou sociale, afin de mener des campagnes organisées sur ces enjeux. Mais également de l’étendre à l’ensemble de la chaîne de valeur et d’approvisionnement de l’IA, au-delà des questions américaines, même si pour l’instant “aucune tentative sérieuse d’organisation du secteur impacté par le déploiement de l’IA à grande échelle n’a été menée”. Des initiatives existent pourtant comme l’Amazon Employees for Climate Justice, l’African Content Moderators Union ou l’African Tech Workers Rising, le Data Worker’s Inquiry Project, le Tech Equity Collaborative ou l’Alphabet Workers Union (qui font campagne sur les différences de traitement entre les employés et les travailleurs contractuels). 

Nous avons désespérément besoin de projets de lutte plus ambitieux et mieux dotés en ressources, constate le rapport. Les personnes qui construisent et forment les systèmes d’IA – et qui, par conséquent, les connaissent intimement – ​​ont une opportunité particulière d’utiliser leur position de pouvoir pour demander des comptes aux entreprises technologiques sur la manière dont ces systèmes sont utilisés. “S’organiser et mener des actions collectives depuis ces postes aura un impact profond sur l’évolution de l’IA”.

“À l’instar du mouvement ouvrier du siècle dernier, le mouvement ouvrier d’aujourd’hui peut se battre pour un nouveau pacte social qui place l’IA et les technologies numériques au service de l’intérêt public et oblige le pouvoir irresponsable d’aujourd’hui à rendre des comptes.”

Confiance zéro envers les entreprises de l’IA !

Le troisième levier que défend l’AI Now Institute est plus radical encore puisqu’il propose d’adopter un programme politique “confiance zéro” envers l’IA. En 2023, L’AI Now, l’Electronic Privacy Information Center et d’Accountable Tech affirmaient déjà “qu’une confiance aveugle dans la bienveillance des entreprises technologiques n’était pas envisageable ». Pour établir ce programme, le rapport égraine 6 leviers à activer.

Tout d’abord, le rapport plaide pour “des règles audacieuses et claires qui restreignent les applications d’IA nuisibles”. C’est au public de déterminer si, dans quels contextes et comment, les systèmes d’IA seront utilisés. “Comparées aux cadres reposant sur des garanties basées sur les processus (comme les audits d’IA ou les régimes d’évaluation des risques) qui, dans la pratique, ont souvent eu tendance à renforcer les pouvoirs des leaders du secteur et à s’appuyer sur une solide capacité réglementaire pour une application efficace, ces règles claires présentent l’avantage d’être facilement administrables et de cibler les préjudices qui ne peuvent être ni évités ni réparés par de simples garanties”. Pour l’AI Now Institute, l’IA doit être interdite pour la reconnaissance des émotions, la notation sociale, la fixation des prix et des salaires, refuser des demandes d’indemnisation, remplacer les enseignants, générer des deepfakes. Et les données de surveillance des travailleurs ne doivent pas pouvoir pas être vendues à des fournisseurs tiers. L’enjeu premier est d’augmenter le spectre des interdictions. 

Ensuite, le rapport propose de réglementer tout le cycle de vie de l’IA. L’IA doit être réglementée tout au long de son cycle de développement, de la collecte des données au déploiement, en passant par le processus de formation, le perfectionnement et le développement des applications, comme le proposait l’Ada Lovelace Institute. Le rapport rappelle que si la transparence est au fondement d’une réglementation efficace, la résistante des entreprises est forte, tout le long des développements, des données d’entraînement utilisées, aux fonctionnement des applications. La transparence et l’explication devraient être proactives, suggère le rapport : les utilisateurs ne devraient pas avoir besoin de demander individuellement des informations sur les traitements dont ils sont l’objet. Notamment, le rapport insiste sur le besoin que “les développeurs documentent et rendent publiques leurs techniques d’atténuation des risques, et que le régulateur exige la divulgation de tout risque anticipé qu’ils ne sont pas en mesure d’atténuer, afin que cela soit transparent pour les autres acteurs de la chaîne d’approvisionnement”. Le rapport recommande également d’inscrire un « droit de dérogation » aux décisions et l’obligation d’intégrer des conseils d’usagers pour qu’ils aient leur mot à dire sur les développements et l’utilisation des systèmes. 

Le rapport rappelle également que la supervision des développements doit être indépendante. Ce n’est pas à l’industrie d’évaluer ce qu’elle fait. Le “red teaming” et les “models cards” ignorent les conflits d’intérêts en jeu et mobilisent des méthodologies finalement peu robustes (voir notre article). Autre levier encore, s’attaquer aux racines du pouvoir de ces entreprises et par exemple qu’elles suppriment les données acquises illégalement et les modèles entraînés sur ces données (certains chercheurs parlent d’effacement de modèles et de destruction algorithmique !) ; limiter la conservation des données pour le réentraînement ; limiter les partenariats entre les hyperscalers et les startups d’IA et le rachat d’entreprise pour limiter la constitution de monopoles

Le rapport propose également de construire une boîte à outils pour favoriser la concurrence. De nombreuses enquêtes pointent les limites des grandes entreprises de la tech à assurer le respect du droit à la concurrence, mais les poursuites peinent à s’appliquer et peinent à construire des changements législatifs pour renforcer le droit à la concurrence et limiter la construction de monopoles, alors que toute intervention sur le marché est toujours dénoncé par les entreprises de la tech comme relevant de mesures contre l’innovation. Le rapport plaide pour une plus grande séparation structurelle des activités (les entreprises du cloud ne doivent pas pouvoir participer au marché des modèles fondamentaux de l’IA par exemple, interdiction des représentations croisées dans les conseils d’administration des startups et des développeurs de modèles, etc.). Interdire aux fournisseurs de cloud d’exploiter les données qu’ils obtiennent de leurs clients en hébergeant des infrastructures pour développer des produits concurrents. 

Enfin, le rapport recommande une supervision rigoureuse du développement et de l’exploitation des centres de données, alors que les entreprises qui les développent se voient exonérées de charge et que leurs riverains en subissent des impacts disproportionnés (concurrence sur les ressources, augmentation des tarifs de l’électricité…). Les communautés touchées ont besoin de mécanismes de transparence et de protections environnementales solides. Les régulateurs devraient plafonner les subventions en fonction des protections concédées et des emplois créés. Initier des règles pour interdire de faire porter l’augmentation des tarifs sur les usagers.

Décloisonner !

Le cloisonnement des enjeux de l’IA est un autre problème qu’il faut lever. C’est le cas notamment de l’obsession à la sécurité nationale qui justifient à la fois des mesures de régulation et des programmes d’accélération et d’expansion du secteur et des infrastructures de l’IA. Mais pour décloisonner, il faut surtout venir perturber le processus de surveillance à l’œuvre et renforcer la vie privée comme un enjeu de justice économique. La montée de la surveillance pour renforcer l’automatisation “place les outils traditionnels de protection de la vie privée (tels que le consentement, les options de retrait, les finalités non autorisées et la minimisation des données) au cœur de la mise en place de conditions économiques plus justes”. La chercheuse Ifeoma Ajunwa soutient que les données des travailleurs devraient être considérées comme du « capital capturé » par les entreprises : leurs données sont  utilisées pour former des technologies qui finiront par les remplacer (ou créer les conditions pour réduire leurs salaires), ou vendues au plus offrant via un réseau croissant de courtiers en données, sans contrôle ni compensation. Des travailleurs ubérisés aux travailleurs du clic, l’exploitation des données nécessite de repositionner la protection de la vie privée des travailleurs au cœur du programme de justice économique pour limiter sa capture par l’IA. Les points de collecte, les points de surveillance, doivent être “la cible appropriée de la résistance”, car ils seront instrumentalisés contre les intérêts des travailleurs. Sur le plan réglementaire, cela pourrait impliquer de privilégier des règles de minimisation des données qui restreignent la collecte et l’utilisation des données, renforcer la confidentialité (par exemple en interdisant le partage de données sur les salariés avec des tiers), le droit à ne pas consentir, etc. Renforcer la minimisation, sécuriser les données gouvernementales sur les individus qui sont de haute qualité et particulièrement sensibles, est plus urgent que jamais. 

“Nous devons nous réapproprier l’agenda positif de l’innovation centrée sur le public, et l’IA ne devrait pas en être le centre”, concluent les auteurs. La trajectoire actuelle de l’IA, axée sur le marché, est préjudiciable au public alors que l’espace de solutions alternatives se réduit. Nous devons rejeter le paradigme d’une IA à grande échelle qui ne profitera qu’aux plus puissants.

L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt public, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général. Mais pour cela, encore faut-il que l’IA publique ne limite pas sa politique à l’achat de solutions privées, mais développe ses propres capacités d’IA, réinvestisse sa capacité d’expertise pour ne pas céder au solutionnisme de l’IA, favorise partout la discussion avec les usagers, cultive une communauté de pratique autour de l’innovation d’intérêt général qui façonnera l’émergence d’un espace alternatif par exemple en exigeant des méthodes d’implication des publics et aussi en élargissant l’intérêt de l’Etat à celui de l’intérêt collectif et pas seulement à ses intérêts propres (par exemple en conditionnant à la promotion des objectifs climatiques, au soutien syndical et citoyen…), ainsi qu’à redéfinir les conditions concrètes du financement public de l’IA, en veillant à ce que les investissements répondent aux besoins des communautés plutôt qu’aux intérêts des entreprises.   

Changer l’agenda : pour une IA publique !

Enfin, le rapport conclut en affirmant que l’innovation devrait être centrée sur les besoins des publics et que l’IA ne devrait pas en être le centre. Le développement de l’IA devrait être guidé par des impératifs non marchands et les capitaux publics et philanthropiques devraient contribuer à la création d’un écosystème d’innovation extérieur à l’industrie, comme l’ont réclamé Public AI Network dans un rapport, l’Ada Lovelace Institute, dans un autre, Lawrence Lessig ou encore Bruce Schneier et Nathan Sanders ou encore Ganesh Sitaraman et Tejas N. Narechania…  qui parlent d’IA publique plus que d’IA souveraine, pour orienter les investissement non pas tant vers des questions de sécurité nationale et de compétitivité, mais vers des enjeux de justice sociale. 

Ces discours confirment que la trajectoire de l’IA, axée sur le marché, est préjudiciable au public. Si les propositions alternatives ne manquent pas, elles ne parviennent pas à relever le défi de la concentration du pouvoir au profit des grandes entreprises. « Rejeter le paradigme actuel de l’IA à grande échelle est nécessaire pour lutter contre les asymétries d’information et de pouvoir inhérentes à l’IA. C’est la partie cachée qu’il faut exprimer haut et fort. C’est la réalité à laquelle nous devons faire face si nous voulons rassembler la volonté et la créativité nécessaires pour façonner la situation différemment ». Un rapport du National AI Research Resource (NAIRR) américain de 2021, d’une commission indépendante présidée par l’ancien PDG de Google, Eric Schmidt, et composée de dirigeants de nombreuses grandes entreprises technologiques, avait parfaitement formulé le risque : « la consolidation du secteur de l’IA menace la compétitivité technologique des États-Unis. » Et la commission proposait de créer des ressources publiques pour l’IA. 

« L’IA publique demeure un espace fertile pour promouvoir le débat sur des trajectoires alternatives pour l’IA, structurellement plus alignées sur l’intérêt général, et garantir que tout financement public dans ce domaine soit conditionné à des objectifs d’intérêt général ». Un projet de loi californien a récemment relancé une proposition de cluster informatique public, hébergé au sein du système de l’Université de Californie, appelé CalCompute. L’État de New York a lancé une initiative appelée Empire AI visant à construire une infrastructure de cloud public dans sept institutions de recherche de l’État, rassemblant plus de 400 millions de dollars de fonds publics et privés. Ces deux initiatives créent des espaces de plaidoyer importants pour garantir que leurs ressources répondent aux besoins des communautés et ne servent pas à enrichir davantage les ressources des géants de la technologie.

Et le rapport de se conclure en appelant à défendre l’IA publique, en soutenant les universités, en investissant dans ces infrastructures d’IA publique et en veillant que les groupes défavorisés disposent d’une autorité dans ces projets. Nous devons cultiver une communauté de pratique autour de l’innovation d’intérêt général. 

***

Le rapport de l’AI Now Institute a la grande force de nous rappeler que les luttes contre l’IA existent et qu’elles ne sont pas que des luttes de collectifs technocritiques, mais qu’elles s’incarnent déjà dans des projets politiques, qui peinent à s’interelier et à se structurer. Des luttes qui sont souvent invisibilisées, tant la parole est toute entière donnée aux promoteurs de l’IA. Le rapport est extrêmement riche et rassemble une documentation à nulle autre pareille. 

« L’IA ne nous promet ni de nous libérer du cycle incessant de guerres, des pandémies et des crises environnementales et financières qui caractérisent notre présent », conclut le rapport  L’IA ne crée rien de tout cela, ne créé rien de ce que nous avons besoin. “Lier notre avenir commun à l’IA rend cet avenir plus difficile à réaliser, car cela nous enferme dans une voie résolument sombre, nous privant non seulement de la capacité de choisir quoi construire et comment le construire, mais nous privant également de la joie que nous pourrions éprouver à construire un avenir différent”. L’IA comme seule perspective d’avenir “nous éloigne encore davantage d’une vie digne, où nous aurions l’autonomie de prendre nos propres décisions et où des structures démocratiquement responsables répartiraient le pouvoir et les infrastructures technologiques de manière robuste, responsable et protégée des chocs systémiques”. L’IA ne fait que consolider et amplifier les asymétries de pouvoir existantes. “Elle naturalise l’inégalité et le mérite comme une fatalité, ​tout en rendant les schémas et jugements sous-jacents qui les façonnent impénétrables pour ceux qui sont affectés par les jugements de l’IA”.

Pourtant, une autre IA est possible, estiment les chercheurs.ses de l’AI Now Institute. Nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA à grande échelle. Nous ne devons pas oublier que l’opinion publique s’oppose résolument au pouvoir bien établi des entreprises technologiques. Certes, le secteur technologique dispose de ressources plus importantes que jamais et le contexte politique est plus sombre que jamais, concèdent les chercheurs de l’AI Now Institute. Cela ne les empêche pas de faire des propositions, comme d’adopter un programme politique de « confiance zéro » pour l’IA. Adopter un programme politique fondé sur des règles claires qui restreignent les utilisations les plus néfastes de l’IA, encadrent son cycle de vie de bout en bout et garantissent que l’industrie qui crée et exploite actuellement l’IA ne soit pas laissée à elle-même pour s’autoréguler et s’autoévaluer. Repenser les leviers traditionnels de la confidentialité des données comme outils clés dans la lutte contre l’automatisation et la lutte contre le pouvoir de marché.

Revendiquer un programme positif d’innovation centrée sur le public, sans IA au centre. 

« La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques irresponsables. Mais leur succès n’est pas inéluctable. En nous libérant de l’idée que l’IA à grande échelle est inévitable, nous pouvons retrouver l’espace nécessaire à une véritable innovation et promouvoir des voies alternatives stimulantes et novatrices qui exploitent la technologie pour façonner un monde au service du public et gouverné par notre volonté collective ».

La trajectoire actuelle de l’IA vers sa suprématie ne nous mènera pas au monde que nous voulons. Sa suprématie n’est pourtant pas encore là. “Avec l’adoption de la vision actuelle de l’IA, nous perdons un avenir où l’IA favoriserait des emplois stables, dignes et valorisants. Nous perdons un avenir où l’IA favoriserait des salaires justes et décents, au lieu de les déprécier ; où l’IA garantirait aux travailleurs le contrôle de l’impact des nouvelles technologies sur leur carrière, au lieu de saper leur expertise et leur connaissance de leur propre travail ; où nous disposons de politiques fortes pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les fonctions existantes – y compris des lois élargissant le filet de sécurité sociale – au lieu de promoteurs de l’IA qui se vantent auprès des actionnaires des économies réalisées grâce à l’automatisation ; où des prestations sociales et des politiques de congés solides garantissent le bien-être à long terme des employés, au lieu que l’IA soit utilisée pour surveiller et exploiter les travailleurs à tout va ; où l’IA contribue à protéger les employés des risques pour la santé et la sécurité au travail, au lieu de perpétuer des conditions de travail dangereuses et de féliciter les employeurs qui exploitent les failles du marché du travail pour se soustraire à leurs responsabilités ; et où l’IA favorise des liens significatifs par le travail, au lieu de favoriser des cultures de peur et d’aliénation.”

Pour l’AI Now Institute, l’enjeu est d’aller vers une prospérité partagée, et ce n’est pas la direction que prennent les empires de l’IA. La prolifération de toute nouvelle technologie a le potentiel d’accroître les opportunités économiques et de conduire à une prospérité partagée généralisée. Mais cette prospérité partagée est incompatible avec la trajectoire actuelle de l’IA, qui vise à maximiser le profit des actionnaires. “Le mythe insidieux selon lequel l’IA mènera à la « productivité » pour tous, alors qu’il s’agit en réalité de la productivité d’un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit actionnarial comme unique objectif économique. Même les politiques gouvernementales bien intentionnées, conçues pour stimuler le secteur de l’IA, volent les poches des travailleurs. Par exemple, les incitations gouvernementales destinées à revitaliser l’industrie de la fabrication de puces électroniques ont été contrecarrées par des dispositions de rachat d’actions par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou à la création d’emplois. Et malgré quelques initiatives significatives pour enquêter sur le secteur de l’IA sous l’administration Biden, les entreprises restent largement incontrôlées, ce qui signifie que les nouveaux entrants ne peuvent pas contester ces pratiques.”

“Cela implique de démanteler les grandes entreprises, de restructurer la structure de financement financée par le capital-risque afin que davantage d’entreprises puissent prospérer, d’investir dans les biens publics pour garantir que les ressources technologiques ne dépendent pas des grandes entreprises privées, et d’accroître les investissements institutionnels pour intégrer une plus grande diversité de personnes – et donc d’idées – au sein de la main-d’œuvre technologique.”

“Nous méritons un avenir technologique qui soutienne des valeurs et des institutions démocratiques fortes.” Nous devons de toute urgence restaurer les structures institutionnelles qui protègent les intérêts du public contre l’oligarchie. Cela nécessitera de s’attaquer au pouvoir technologique sur plusieurs fronts, et notamment par la mise en place de mesures de responsabilisation des entreprises pour contrôler les oligarques de la tech. Nous ne pouvons les laisser s’accaparer l’avenir. 

Sur ce point, comme sur les autres, nous sommes d’accord.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Pour lutter contre la désinformation, il faut reconstruire du social
    L’Institut Nicod publie un court et très stimulant rapport sur la désinformation signé Grégoire Darcy. Non seulement celui-ci débogue la simplicité des réponses cognitives que les politiques publiques ont tendance à proposer, mais surtout, repolitise la question.  Le rapport rappelle que la désinformation n’est pas seulement un problème d’irrationnalité et de crédulité. Il invite à sortir de l’approche réactive qui se concentre sur les symptômes et qui se focalise bien trop sur les modalités
     

Pour lutter contre la désinformation, il faut reconstruire du social

7 juillet 2025 à 01:00

L’Institut Nicod publie un court et très stimulant rapport sur la désinformation signé Grégoire Darcy. Non seulement celui-ci débogue la simplicité des réponses cognitives que les politiques publiques ont tendance à proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la désinformation n’est pas seulement un problème d’irrationnalité et de crédulité. Il invite à sortir de l’approche réactive qui se concentre sur les symptômes et qui se focalise bien trop sur les modalités de diffusion oubliant les mécanismes affectifs et sociaux qui expliquent l’adhésion aux récits trompeurs. La lutte contre la désinformation repose sur une vision simpliste de la psychologie humaine : « la désinformation répond à des besoins sociaux, émotionnels et identitaires plus qu’à de simples déficits de rationalité. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces récits socialement fonctionnels. » La désinformation n’est que le symptôme de la dégradation globale de l’écosystème informationnel. « Les vulnérabilités face à la désinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, économiques et médiatiques spécifiques : isolement social, précarité, homogamie idéologique et défiance institutionnelle sont des facteurs clés expliquant l’adhésion, bien au-delà des seuls algorithmes ou biais cognitifs ».

“Tant que les politiques publiques se contenteront de réponses réactives, centrées sur les symptômes visibles et ignorantes des dynamiques cognitives, sociales et structurelles à l’œuvre, elles risquent surtout d’aggraver ce qu’elles prétendent corriger. En cause : un modèle implicite, souvent naïf, de la psychologie humaine – un schéma linéaire et individualisant, qui réduit l’adhésion aux contenus trompeurs à un simple déficit d’information ou de rationalité. Ce cadre conduit à des politiques fragmentées, peu efficaces, parfois même contre-productive.” 

Les réponses les plus efficientes à la désinformation passent par une transformation structurelle de l’écosystème informationnel, que seule l’action publique peut permettre, en orchestrant à la fois la régulation algorithmique et le renforcement des médias fiables. La réduction des vulnérabilités sociales, économiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la désinformation, en s’attaquant aux facteurs qui nourrissent la réceptivité aux contenus trompeurs – précarité, marginalisation, polarisation et défiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite à une régulation forte des réseaux sociaux permettant de « restituer la maîtrise du fil par une transparence algorithmique accrue et une possibilité de maîtriser » les contenus auxquels les gens accèdent : « rendre visibles les critères de recommandation et proposer par défaut un fil chronologique permettrait de réduire les manipulations attentionnelles sans recourir à la censure ». Le rapport recommande également « d’assurer un financement stable pour garantir l’indépendance des médias et du service public d’information ». Il recommande également de renforcer la protection sociale et les politiques sociales pour renforcer la stabilité propice à l’analyse critique. D’investir dans le développement d’espace de sociabilité et de favoriser une circulation apaisée de l’information en renforçant l’intégrité publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

  • ✇Dans les algorithmes
  • Pour lutter contre la désinformation, il faut reconstruire du social
    L’Institut Nicod publie un court et très stimulant rapport sur la désinformation signé Grégoire Darcy. Non seulement celui-ci débogue la simplicité des réponses cognitives que les politiques publiques ont tendance à proposer, mais surtout, repolitise la question.  Le rapport rappelle que la désinformation n’est pas seulement un problème d’irrationnalité et de crédulité. Il invite à sortir de l’approche réactive qui se concentre sur les symptômes et qui se focalise bien trop sur les modalités
     

Pour lutter contre la désinformation, il faut reconstruire du social

7 juillet 2025 à 01:00

L’Institut Nicod publie un court et très stimulant rapport sur la désinformation signé Grégoire Darcy. Non seulement celui-ci débogue la simplicité des réponses cognitives que les politiques publiques ont tendance à proposer, mais surtout, repolitise la question. 

Le rapport rappelle que la désinformation n’est pas seulement un problème d’irrationnalité et de crédulité. Il invite à sortir de l’approche réactive qui se concentre sur les symptômes et qui se focalise bien trop sur les modalités de diffusion oubliant les mécanismes affectifs et sociaux qui expliquent l’adhésion aux récits trompeurs. La lutte contre la désinformation repose sur une vision simpliste de la psychologie humaine : « la désinformation répond à des besoins sociaux, émotionnels et identitaires plus qu’à de simples déficits de rationalité. Ainsi, corriger les erreurs factuelles ne suffit pas : il faut s’attaquer aux conditions qui rendent ces récits socialement fonctionnels. » La désinformation n’est que le symptôme de la dégradation globale de l’écosystème informationnel. « Les vulnérabilités face à la désinformation ne tiennent pas qu’aux dispositions individuelles, mais s’ancrent dans des environnements sociaux, économiques et médiatiques spécifiques : isolement social, précarité, homogamie idéologique et défiance institutionnelle sont des facteurs clés expliquant l’adhésion, bien au-delà des seuls algorithmes ou biais cognitifs ».

“Tant que les politiques publiques se contenteront de réponses réactives, centrées sur les symptômes visibles et ignorantes des dynamiques cognitives, sociales et structurelles à l’œuvre, elles risquent surtout d’aggraver ce qu’elles prétendent corriger. En cause : un modèle implicite, souvent naïf, de la psychologie humaine – un schéma linéaire et individualisant, qui réduit l’adhésion aux contenus trompeurs à un simple déficit d’information ou de rationalité. Ce cadre conduit à des politiques fragmentées, peu efficaces, parfois même contre-productive.” 

Les réponses les plus efficientes à la désinformation passent par une transformation structurelle de l’écosystème informationnel, que seule l’action publique peut permettre, en orchestrant à la fois la régulation algorithmique et le renforcement des médias fiables. La réduction des vulnérabilités sociales, économiques et institutionnelles constitue l’approche la plus structurante pour lutter contre la désinformation, en s’attaquant aux facteurs qui nourrissent la réceptivité aux contenus trompeurs – précarité, marginalisation, polarisation et défiance envers les institutions. Parmi les mesures que pointe le rapport, celui-ci invite à une régulation forte des réseaux sociaux permettant de « restituer la maîtrise du fil par une transparence algorithmique accrue et une possibilité de maîtriser » les contenus auxquels les gens accèdent : « rendre visibles les critères de recommandation et proposer par défaut un fil chronologique permettrait de réduire les manipulations attentionnelles sans recourir à la censure ». Le rapport recommande également « d’assurer un financement stable pour garantir l’indépendance des médias et du service public d’information ». Il recommande également de renforcer la protection sociale et les politiques sociales pour renforcer la stabilité propice à l’analyse critique. D’investir dans le développement d’espace de sociabilité et de favoriser une circulation apaisée de l’information en renforçant l’intégrité publique. 

Un rapport stimulant, qui prend à rebours nos présupposés et qui nous dit que pour lutter contre la désinformation, il faut lutter pour rétablir une société juste.

  • ✇Dans les algorithmes
  • La santé au prisme de son abandon
    Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derrière les discours d’efficience, d’autonomie et de prévention, un glissement insidieux s’opère : celui d’une médecine qui renonce à soigner”. Le soin est en train de devenir conditionnel, réservé aux existences jugées “optimisables”. La stratégie de non-soin, n’est pas que la conséquence des restrictions budgétaires ou de la désorganisation du secteur, mais une orientation active, un
     

La santé au prisme de son abandon

3 juillet 2025 à 00:55

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derrière les discours d’efficience, d’autonomie et de prévention, un glissement insidieux s’opère : celui d’une médecine qui renonce à soigner”. Le soin est en train de devenir conditionnel, réservé aux existences jugées “optimisables”. La stratégie de non-soin, n’est pas que la conséquence des restrictions budgétaires ou de la désorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme américain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coûts liés au soin, ou la loi sur le droit à mourir récemment adoptée en France, dénoncée par les collectifs antivalidistes comme une manière d’acter l’impossibilité de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derrière les mots d’efficacité, d’autonomie, de prévention, voire de soutenabilité. Il s’appuie sur des cadres comme le paradigme One Health, censé penser la santé de manière systémique à l’échelle des écosystèmes mais qui, en pratique, contribue à diluer les responsabilités et à rendre invisibles les enjeux de justice sociale.” Nous entrons dans une médicalisation sans soins, où l’analyse de santé se détache de toute thérapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une ère de soft eugenics”, d’eugénisme doux. Le self-care propose désormais à chacun de mesurer sa santé pour en reprendre le contrôle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la Santé américain, critiquant à la fois la surmédicalisation et la montée des maladies chroniques renvoyées à des comportements individuels. En mettant l’accent sur la prévention et la modification des modes de vies, cet abandon de la santé renvoie les citoyens vers leurs responsabilités et la santé publique vers des solutions privées, en laissant sur le carreau les populations vulnérables. Cette médecine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiqués proches du quantified self, “vidée de toute relation clinique”. “Ces technologies alimentent des systèmes d’optimisation où l’important n’est plus la guérison, mais la conformité aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet à accompagner. La plateformisation du soin réorganise en profondeur les régimes d’accès à la santé. La médecine n’est alors plus un service public mais une logistique de gestion différenciée des existences.”

C’est le cas du paradigme One Health, qui vise à remplacer le soin par une idéalisation holistique de la santé, comme un état d’équilibre à maintenir, où l’immunité naturelle affaiblit les distinctions entre pathogène et environnement et favorise une démission institutionnelle. “Face aux dégradations écologiques, le réflexe n’est plus de renforcer les capacités collectives de soin. Il s’agit désormais de retrouver une forme de pureté corporelle ou environnementale perdue. Cette quête se traduit par l’apologie du jeûne, du contact avec les microbes, de la « vitalité » naturelle – et la dénonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre médecine industrielle et médecine publique, et reformule le soin comme une purification individuelle. Là encore, le paradigme du non-soin prospère non pas en contradiction avec l’écologie, mais bien davantage au nom d’une écologie mal pensée, orientée vers le refus de l’artifice plutôt que vers l’organisation solidaire de la soutenabilité.” “L’appel à « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus méritants dans un monde saturé de toxicités (et de modernité).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnérables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisé s’infiltre partout, pour distinguer les populations et mettre de côté ceux qui ne peuvent être soignés. “La santé publique cesse d’être pensée comme un bien commun, et devient une performance individuelle, mesurée, scorée, marchandée. La médecine elle-même, soumise à l’austérité, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prévenir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment méritants.” Pour Monnin, cet accent mis sur la prévention pourrait être louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santé publique qui se renforce mais une responsabilité individualisée du « bien se porter » qui légitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prévention devient une rhétorique de la culpabilité, où le soin est indexé sur la conformité à un mode de vie puissamment normé”.

Pour le philosophe, le risque est que le soin devienne une option, un privilège.

Le problème est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prévention, alors qu’elles ne parlent que de responsabilité individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun à l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaître l’inégale capacité des individus à le faire”. Un monde où ”la surveillance remplace l’attention, la donnée remplace la relation, le test remplace le soin”. Derrière le tri, se profile “une santé sans soin, une médecine sans clinique – une écologie sans solidarité”.

“L’État ne disparaît pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, émetteur d’appels à projets. En matière de santé, cela signifie le financement de dispositifs de prévention algorithmique, l’encouragement de solutions « innovantes » portées par des start-ups, ou encore le remboursement indirect de produits encore non éprouvés. Ce nouveau régime n’est pas une absence de soin, c’est une délégation programmée du soin à des acteurs dont l’objectif premier n’est pas le soin mais la rentabilité. L’État ne s’efface pas en totalité : il administre la privatisation du soin.”

  • ✇Dans les algorithmes
  • La santé au prisme de son abandon
    Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derrière les discours d’efficience, d’autonomie et de prévention, un glissement insidieux s’opère : celui d’une médecine qui renonce à soigner”. Le soin est en train de devenir conditionnel, réservé aux existences jugées “optimisables”. La stratégie de non-soin, n’est pas que la conséquence des restrictions budgétaires ou de la désorganisation du secteur, mais une orientation active, un
     

La santé au prisme de son abandon

3 juillet 2025 à 00:55

Dans AOC, le philosophe Alexandre Monnin, auteur de Politiser le renoncement (Divergences, 2023) explique que “derrière les discours d’efficience, d’autonomie et de prévention, un glissement insidieux s’opère : celui d’une médecine qui renonce à soigner”. Le soin est en train de devenir conditionnel, réservé aux existences jugées “optimisables”. La stratégie de non-soin, n’est pas que la conséquence des restrictions budgétaires ou de la désorganisation du secteur, mais une orientation active, un projet politique. Comme c’est le cas au travers du programme américain MAHA (Make America Healthy Again), dont l’ambien n’est plus de soigner, mais d’éviter les coûts liés au soin, ou la loi sur le droit à mourir récemment adoptée en France, dénoncée par les collectifs antivalidistes comme une manière d’acter l’impossibilité de vivre avec certains handicaps ou maladies chroniques. “Ce tournant ne se donne pas toujours pour ce qu’il est. Il s’abrite derrière les mots d’efficacité, d’autonomie, de prévention, voire de soutenabilité. Il s’appuie sur des cadres comme le paradigme One Health, censé penser la santé de manière systémique à l’échelle des écosystèmes mais qui, en pratique, contribue à diluer les responsabilités et à rendre invisibles les enjeux de justice sociale.” Nous entrons dans une médicalisation sans soins, où l’analyse de santé se détache de toute thérapeutique.

Pour Derek Beres de Conspirituality, nous entrons dans une ère de soft eugenics”, d’eugénisme doux. Le self-care propose désormais à chacun de mesurer sa santé pour en reprendre le contrôle, dans une forme de “diagnostics sans soins”, qui converge avec les vues antivax de Robert Kennedy Jr, le ministre de la Santé américain, critiquant à la fois la surmédicalisation et la montée des maladies chroniques renvoyées à des comportements individuels. En mettant l’accent sur la prévention et la modification des modes de vies, cet abandon de la santé renvoie les citoyens vers leurs responsabilités et la santé publique vers des solutions privées, en laissant sur le carreau les populations vulnérables. Cette médecine du non-soin s’appuie massivement sur des dispositifs technologiques sophistiqués proches du quantified self, “vidée de toute relation clinique”. “Ces technologies alimentent des systèmes d’optimisation où l’important n’est plus la guérison, mais la conformité aux normes biologiques ou comportementales. Dans ce contexte, le patient devient un profil de risque, non plus un sujet à accompagner. La plateformisation du soin réorganise en profondeur les régimes d’accès à la santé. La médecine n’est alors plus un service public mais une logistique de gestion différenciée des existences.”

C’est le cas du paradigme One Health, qui vise à remplacer le soin par une idéalisation holistique de la santé, comme un état d’équilibre à maintenir, où l’immunité naturelle affaiblit les distinctions entre pathogène et environnement et favorise une démission institutionnelle. “Face aux dégradations écologiques, le réflexe n’est plus de renforcer les capacités collectives de soin. Il s’agit désormais de retrouver une forme de pureté corporelle ou environnementale perdue. Cette quête se traduit par l’apologie du jeûne, du contact avec les microbes, de la « vitalité » naturelle – et la dénonciation des traitements, des masques, des vaccins comme autant d’artefacts « toxiques ». Elle entretient une confusion entre médecine industrielle et médecine publique, et reformule le soin comme une purification individuelle. Là encore, le paradigme du non-soin prospère non pas en contradiction avec l’écologie, mais bien davantage au nom d’une écologie mal pensée, orientée vers le refus de l’artifice plutôt que vers l’organisation solidaire de la soutenabilité.” “L’appel à « ne pas tomber malade » devient un substitut direct au droit au soin – voire une norme visant la purification des plus méritants dans un monde saturé de toxicités (et de modernité).”

“Dans ce monde du non-soin, l’abandon n’est ni un effet secondaire ni une faute mais un principe actif de gestion.” Les populations vulnérables sont exclues de la prise en charge. Sous forme de scores de risques, le tri sanitaire technicisé s’infiltre partout, pour distinguer les populations et mettre de côté ceux qui ne peuvent être soignés. “La santé publique cesse d’être pensée comme un bien commun, et devient une performance individuelle, mesurée, scorée, marchandée. La médecine elle-même, soumise à l’austérité, finit par abandonner ses missions fondamentales : observer, diagnostiquer, soigner. Elle se contente de prévenir – et encore, seulement pour ceux qu’on juge capables – et/ou suffisamment méritants.” Pour Monnin, cet accent mis sur la prévention pourrait être louable si elle ne se retournait pas contre les malades : “Ce n’est plus la santé publique qui se renforce mais une responsabilité individualisée du « bien se porter » qui légitime l’abandon de celles et ceux qui ne peuvent s’y conformer. La prévention devient une rhétorique de la culpabilité, où le soin est indexé sur la conformité à un mode de vie puissamment normé”.

Pour le philosophe, le risque est que le soin devienne une option, un privilège.

Le problème est que ces nouvelles politiques avancent sous le masque de l’innovation et de la prévention, alors qu’elles ne parlent que de responsabilité individuelle, au risque de faire advenir un monde sans soin qui refuse d’intervenir sur les milieux de vies, qui refuse les infrastructures collectives, qui renvoie chacun à l’auto-surveillance “sans jamais reconstruire les conditions collectives du soin ni reconnaître l’inégale capacité des individus à le faire”. Un monde où ”la surveillance remplace l’attention, la donnée remplace la relation, le test remplace le soin”. Derrière le tri, se profile “une santé sans soin, une médecine sans clinique – une écologie sans solidarité”.

“L’État ne disparaît pas : il prescrit, organise, finance, externalise. Il se fait plateforme, courtier de services, émetteur d’appels à projets. En matière de santé, cela signifie le financement de dispositifs de prévention algorithmique, l’encouragement de solutions « innovantes » portées par des start-ups, ou encore le remboursement indirect de produits encore non éprouvés. Ce nouveau régime n’est pas une absence de soin, c’est une délégation programmée du soin à des acteurs dont l’objectif premier n’est pas le soin mais la rentabilité. L’État ne s’efface pas en totalité : il administre la privatisation du soin.”

  • ✇Dans les algorithmes
  • IA et éducation (2/2) : du dilemme moral au malaise social
    Suite de notre dossier sur IA et éducation (voir la première partie). La bataille éducative est-elle perdue ? Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèv
     

IA et éducation (2/2) : du dilemme moral au malaise social

1 juillet 2025 à 00:41

Suite de notre dossier sur IA et éducation (voir la première partie).

La bataille éducative est-elle perdue ?

Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, résumer des livres ou des articles, planifier et rédiger leurs essais, résoudre les exercices qui leurs sont demandés. Le plafond de la triche a été pulvérisé, explique un étudiant. “Un nombre considérable d’étudiants sortiront diplômés de l’université et entreront sur le marché du travail en étant essentiellement analphabètes”, se désole un professeur qui constate le court-circuitage du processus même d’apprentissage. La triche semblait pourtant déjà avoir atteint son apogée, avant l’arrivée de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des réponses à toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grâce aux 150 000 experts diplômés de l’enseignement supérieur qu’elle employait, principalement en Inde”

Chaque école a proposé sa politique face à ces nouveaux outils, certains prônant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, à condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux élèves de détailler la manière dont ils l’ont utilisé. Mais cela ne dessine pas nécessairement de limites claires à leurs usages. L’article souligne que si les professeurs se croient doués pour détecter les écrits générés par l’IA, des études ont démontré qu’ils ne le sont pas. L’une d’elles, publiée en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entièrement générés par l’IA dans les piles de correction des professeurs d’une université britannique. Les professeurs n’ont pas signalé 97 % des essais génératifs. En fait, souligne l’article, les professeurs ont plutôt abandonné l’idée de pouvoir détecter le fait que les devoirs soient rédigés par des IA. “De nombreux enseignants semblent désormais désespérés”. “Ce n’est pas ce pour quoi nous nous sommes engagés”, explique l’un d’entre eux. La prise de contrôle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. Désormais, les élèves ne tentent même plus de se battre contre eux-mêmes. Ils se replient sur la facilité. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis à jour les défaillances du système éducatif. Bien sûr, l’idéal de l’université et de l’école comme lieu de développement intellectuel, où les étudiants abordent des idées profondes a disparu depuis longtemps. La perspective que les IA des professeurs évaluent désormais les travaux produits par les IA des élèves, finit de réduire l’absurdité de la situation, en laissant chacun sans plus rien à apprendre. Plusieurs études (comme celle de chercheurs de Microsoft) ont établi un lien entre l’utilisation de l’IA et une détérioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA générative compromet déjà la créativité et l’intelligence. “La bataille est perdue”, se désole un autre professeur

Reste à savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquête pour le New Yorker, le journaliste Hua Hsu constate que tous les étudiants qu’il a interrogé pour comprendre leur usage de l’IA ont commencé par l’utiliser pour se donner des idées, en promettant de veiller à un usage responsable et ont très vite basculé vers des usages peu modérés, au détriment de leur réflexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des étudiants, Anthropic a montré que la moitié des interactions des étudiants avec son outil serait extractive, c’est-à-dire servent à produire des contenus. 404 media est allé discuter avec les participants de groupes de soutien en ligne de gens qui se déclarent comme “dépendants à l’IA”. Rien n’est plus simple que de devenir accro à un chatbot, confient des utilisateurs de tout âge. OpenAI en est conscient, comme le pointait une étude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remèdes.

Comment apprendre aux enfants à faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en éducation à la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA améliore-t-elle l’éducation ou la remplace-t-elle ? “Chaque année, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le résultat d’un cours est constitué de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expérience étudiante. Un devoir n’a de valeur que ”pour stimuler l’effort et la réflexion de l’élève”. “L’utilité des devoirs écrits repose sur deux hypothèses : la première est que pour écrire sur un sujet, l’élève doit comprendre le sujet et organiser ses pensées. La seconde est que noter les écrits d’un élève revient à évaluer l’effort et la réflexion qui y ont été consacrés”. Avec l’IA générative, la logique de cette proposition, qui semblait pourtant à jamais inébranlable, s’est complètement effondrée

Pour Shirky, il ne fait pas de doute que l’IA générative peut être utile à l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les étudiants peuvent rédiger un devoir et demander des commentaires, voir à quoi ressemble une réécriture à différents niveaux de lecture, ou encore demander un résumé pour vérifier la clart锓Mais le fait que l’IA puisse aider les étudiants à apprendre ne garantit pas qu’elle le fera. Pour le grand théoricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant à apprendre”. “Face à l’IA générative dans nos salles de classe, la réponse évidente est d’inciter les étudiants à adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations néfastes. Notre problème est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se désole-t-il. Les étudiants eux aussi sont déboussolés et finissent par se demander où l’utilisation de l’IA les mène. Shirky fait son mea culpa. L’utilisation engagée de l’IA conduit à son utilisation paresseuse. Nous ne savons pas composer avec les difficultés. Mais c’était déjà le cas avant ChatGPT. Les étudiants déclarent régulièrement apprendre davantage grâce à des cours magistraux bien présentés qu’avec un apprentissage plus actif, alors que de nombreuses études démontrent l’inverse. “Un outil qui améliore le rendement mais dégrade l’expérience est un mauvais compromis”. 

C’est le sens même de l’éducation qui est en train d’être perdu. Le New York Times revenait récemment sur le fait que certaines écoles interdisent aux élèves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une étude auprès de 1800 enseignants de l’enseignement supérieur, 18 % déclaraient utiliser fréquemment ces outils pour faire leur cours, l’année dernière – un chiffre qui aurait doublé depuis. Les étudiants ne lisent plus ce qu’ils écrivent et les professeurs non plus. Si les profs sont prompts à critiquer l’usage de l’IA par leurs élèves, nombre d’entre eux l’apprécient pour eux-mêmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les élèves, répondent MagicSchool et Brisk Teaching qui proposent déjà des produits d’IA qui fournissent un retour instantané sur les écrits des élèves. L’Etat du Texas a signé un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisée des écrits des élèves. 

Pour Jason Koebler de 404 media : “la société dans son ensemble n’a pas très bien résisté à l’IA générative, car les grandes entreprises technologiques s’obstinent à nous l’imposer. Il est donc très difficile pour un système scolaire public sous-financé de contrôler son utilisation”. Pourtant, peu après le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel à des consultants pro-IA pour produire des formations et des présentations “encourageant largement les enseignants à utiliser l’IA générative en classe”, mais “aucun n’anticipait des situations aussi extrêmes que celles décrites dans l’article du New York Mag, ni aussi problématiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains élèves désormais sont totalement dépendants de ChatGPT”. Les documents rassemblés par 404media montrent surtout que les services d’éducation américains ont tardé à réagir et à proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandé à des professeurs américains d’expliquer ce que l’IA a changé à leur travail. Les innombrables témoignages recueillis montrent que les professeurs ne sont pas restés les bras ballants, même s’ils se sentent très dépourvus face à l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures à corriger des devoirs que les élèves mettent quelques secondes à produire. Tous dressent un constat similaire fait d’incohérences, de confusions, de démoralisations, entre préoccupations et exaspérations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectées ? “Je ne veux pas que les étudiants qui n’utilisent pas de LLM soient désavantagés. Et je ne veux pas donner de bonnes notes à des étudiants qui ne font pratiquement rien”, témoigne un prof. Beaucoup ont désormais recours à l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passés de la curiosité au rejet catégorique de ces outils. Beaucoup pointent que leur métier est plus difficile que jamais. “ChatGPT n’est pas un problème isolé. C’est le symptôme d’un paradigme culturel totalitaire où la consommation passive et la régurgitation de contenu deviennent le statu quo.”

L’IA place la déqualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraître Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la véritable menace que représente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle décourage l’apprentissage. Pour Carr, lorsque les gens utilisent une machine pour réaliser une tâche, soit leurs compétences augmentent, soit elles s’atrophient, soit elles ne se développent jamais. C’est la piste qu’il avait d’ailleurs exploré dans Remplacer l’humain (L’échapée, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrètement les métiers, des architectes aux pilotes d’avions). Si un travailleur maîtrise déjà l’activité à automatiser, la machine peut l’aider à développer ses compétences” et relever des défis plus complexes. Dans les mains d’un mathématicien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compétence exige une pratique fréquente, combinant dextérité manuelle et mentale, alors l’automatisation peut menacer le talent même de l’expert. C’est le cas des pilotes d’avion confrontés aux systèmes de pilotage automatique qui connaissent un “affaissement des compétences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tâche avant que la personne qui l’utilise n’ait acquis l’expérience de la tâche en question. “C’est l’histoire du phénomène de « déqualification » du début de la révolution industrielle. Les artisans qualifiés ont été remplacés par des opérateurs de machines non qualifiés. Le travail s’est accéléré, mais la seule compétence acquise par ces opérateurs était celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compétence. Supprimez la machine, et le travail s’arrête”

Bien évidemment que les élèves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une très épaisse étude du MIT (synthétisée par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutôt que le calcul mental vont moins se souvenir des opérations qu’ils ont effectuées. Mais le problème est surtout que ceux qui les utilisent sont moins méfiants de leurs résultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement à ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problème de l’usage des LLM à l’école, c’est à la fois qu’il empêche d’apprendre à faire, mais plus encore que leur usage nécessite des compétences pour les évaluer. 

L’IA générative étant une technologie polyvalente permettant d’automatiser toutes sortes de tâches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scénarios de compétences dans les années à venir, estime Carr. Mais l’utilisation de l’IA par les lycéens et les étudiants pour réaliser des travaux écrits, pour faciliter ou éviter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de déqualification au cœur de l’éducation. Automatiser l’apprentissage revient à le subvertir”

En éducation, plus vous effectuez de recherches, plus vous vous améliorez en recherche, et plus vous rédigez d’articles, plus vous améliorez votre rédaction. “Cependant, la valeur pédagogique d’un devoir d’écriture ne réside pas dans le produit tangible du travail – le devoir rendu à la fin du devoir. Elle réside dans le travail lui-même : la lecture critique des sources, la synthèse des preuves et des idées, la formulation d’une thèse et d’un argument, et l’expression de la pensée dans un texte cohérent. Le devoir est un indicateur que l’enseignant utilise pour évaluer la réussite du travail de l’étudiant – le travail d’apprentissage. Une fois noté et rendu à l’étudiant, le devoir peut être jeté”

L’IA générative permet aux étudiants de produire le produit sans effectuer le travail. Le travail remis par un étudiant ne témoigne plus du travail d’apprentissage qu’il a nécessité. “Il s’y substitue ». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les étudiants ont toujours cherché des raccourcis bien sûr, mais l’IA générative est différente, pas son ampleur, par sa nature. “Sa rapidité, sa simplicité d’utilisation, sa flexibilité et, surtout, sa large adoption dans la société rendent normal, voire nécessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. Grâce à l’IA générative, un élève médiocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe très justement Carr, “la conséquence ironique de cette perte d’apprentissage est qu’elle empêche les élèves d’utiliser l’IA avec habileté. Rédiger une bonne consigne, un prompt efficace, nécessite une compréhension du sujet abordé. Le dispensateur doit connaître le contexte de la consigne. Le développement de cette compréhension est précisément ce que la dépendance à l’IA entrave”. “L’effet de déqualification de l’outil s’étend à son utilisation”. Pour Carr, “nous sommes obnubilés par la façon dont les étudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous préoccuper davantage, c’est la façon dont l’IA trompe les étudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant à avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), révélateur, comme le souligne l’obsession sur la « triche » des élèves. Mais plus qu’un dilemme moral, peut-être faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (première et seconde partie). 

Pour Benbouzid, l’IA générative à l’université ébranle les fondements de « l’auctorialité », c’est-à-dire qu’elle modifie la position d’auteur et ses repères normatifs et déontologiques. Dans le monde de l’enseignement supérieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a été « perçu » très tôt comme une transgression morale. Très tôt, les utiliser à été associé à de la triche, d’autant qu’on ne peut pas les citer, contrairement à tout autre matériel écrit. 

Face à leur statut ambiguë, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel légitime à fournir pour ses études ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la première partie de ce dossier ? Comment contrôler et s’assurer d’une utilisation active et éthique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une réflexion éthique sur le rapport à soi qui nécessite d’être authentique. Mais peut-on être authentique lorsqu’on se construit, interroge le sociologue, en évoquant le fait que les étudiants doivent d’abord acquérir des compétences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour résumer ou copier. Pour Benbouzid, comme pour Mollick, bien employée, elle peut-être un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais réelle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacité de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donné lieu à un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (même si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indéchiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce déplacement, s’il est intéressant (et peut-être peu adapté à l’IA générative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA génératives qui bousculent le cadre ancien de régulation des textes académiques. Reste que l’auteur d’un texte doit toujours en répondre, rappelle Benbouzid, et c’est désormais bien plus le cas des étudiants qui utilisent l’IA que de ceux qui déploient ces systèmes d’IA. L’autonomie qu’on attend d’eux est à la fois un idéal éducatif et une obligation morale envers soi-même, permettant de développer ses propres capacités de réflexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compétence instrumentale. Il devient un acte de formation éthique ». Le problème, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalité morale de l’éducation n’est pas la même que celle qui permet à un étudiant de décider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les étudiants ont donc obligation morale de ne pas utiliser ChatGPT, car écrire soi-même ses textes est essentiel à la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilité envers soi-même où écrire par soi-même n’est pas seulement une tâche scolaire, mais également un moyen d’assurer sa dignité morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanité en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes résument bien le choix cornélien des étudiants et des enseignants. Elle leur impose une liberté de ne pas utiliser. Mais cette liberté de ne pas utiliser, elle, ne relève-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA générative ne sera pas le grand égalisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui à recours à l’IA et pourquoi, le sociologue permet d’entrouvrir une autre réponse que la réponse morale. Ceux qui promeuvent l’usage de l’IA pour les étudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une égaliseur de chances, permettant de réduire les différences cognitives entre les élèves. C’est là une référence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expérience, permet la montée en compétence accélérée des travailleurs et réduit les écarts de compétence des travailleurs (une théorie qui a été en partie critiquée, notamment parce que ces avantages sont compensés par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontés à une homogénéisation des performances d’écritures ? N’assiste-t-on pas plutôt à un renforcement des inégalités entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA générative et les moins pourvus socialement ? 

Pour John Danaher, l’IA générative pourrait redéfinir pas moins que l’égalité, puisque les compétences traditionnelles (rédaction, programmation, analyses…) permettraient aux moins dotés d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalité soit alors reléguée au second plan : « d’autres valeurs comme l’efficacité économique ou la liberté individuelle prendraient le dessus, entraînant une acceptation accrue des inégalités. L’efficacité économique pourrait être mise en avant si l’IA permet une forte augmentation de la productivité et de la richesse globale, même si cette richesse est inégalement répartie. Dans ce scénario, plutôt que de chercher à garantir une répartition équitable des ressources, la société pourrait accepter des écarts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inégalité sous prétexte que la technologie génère globalement des bénéfices pour tous, même si ces bénéfices ne sont pas partagés de manière égale. De la même manière, la liberté individuelle pourrait être privilégiée si l’IA permet à chacun d’accéder à des outils puissants qui augmentent ses capacités, mais sans garantir que tout le monde en bénéficie de manière équivalente. Certains pourraient considérer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, même si cela crée de nouvelles hiérarchies basées sur l’usage différencié de l’IA ». Pour Danaher comme pour Benbouzid, l’intégration de l’IA dans l’enseignement doit poser la question de ses conséquences sociales !

Les LLM ne produisent pas un langage neutre mais tendent à reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisés », rappelle Bilel Benbouzid. Une étude comparant les lettres de motivation d’étudiants avec des textes produits par des IA génératives montre que ces dernières correspondent surtout à des productions de CSP+. Pour Benbouzid, le risque est que la délégation de l’écriture à ces machines renforce les hiérarchies existantes plus qu’elles ne les distribue. D’où l’enjeu d’une enquête en cours pour comprendre l’usage de l’IA générative des étudiants et leur rapport social au langage. 

Les premiers résultats de cette enquête montrent par exemple que les étudiants rechignent à copier-collé directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les étudiants comparent souvent ChatGPT à l’aide parentale. On comprend que la légitimité ne réside pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximité culturelle qui la rend acceptable, voire valorisante, là où l’assistance algorithmique est perçue comme une rupture avec le niveau académique et leur propre maîtrise de la langue ». Et effectivement, la perception de l’apport des LLM dépend du capital culturel des étudiants. Pour les plus dotés, ChatGPT est un outil utilitaire, limité voire vulgaire, qui standardise le langage. Pour les moins dotés, il leur permet d’accéder à des éléments de langages valorisés et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de génération, pointe un rapport social à la langue, à l’écriture, à l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problème moral qu’un dilemme social. « Ces pratiques, loin d’être homogènes, traduisent une appropriation différenciée de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social à l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la manière dont les étudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiérarchies culturelles et sociales de l’université. » En fait, les étudiants utilisent les outils non pas pour se dépasser, comme l’estime Mollick, mais pour produire un contenu socialement légitime. « En déléguant systématiquement leurs compétences de lecture, d’analyse et d’écriture à ces modèles, les étudiants peuvent contourner les processus essentiels d’intériorisation et d’adaptation aux normes discursives et épistémologiques propres à chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de développer authentiquement son propre capital culturel académique, substitué par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalité instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inégalité structurelle accrue. Les outils creusant l’écart entre des étudiants qui ont déjà internalisé les normes dominantes et ceux qui les singent. Le fait que les textes générés manquent d’originalité et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les étudiants égaux face à ces outils. D’un côté, les grandes écoles renforcent les compétences orales et renforcent leurs exigences d’originalité face à ces outils. De l’autre, d’autres devront y avoir recours par nécessité. « Pour les mieux établis, l’IA représentera un outil optionnel d’optimisation ; pour les plus précaires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, même si l’IA profitera relativement davantage aux moins qualifiés, cette amélioration pourrait simultanément accentuer une forme de dépendance technologique parmi les populations les plus défavorisées, creusant encore le fossé avec les élites, mieux armées pour exercer un discernement critique face aux contenus générés par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une manière égale. On le constate très bien ailleurs. Le fait d’être capable de rédiger un courrier administratif est loin d’être partagé. Si ces outils améliorent les courriers des moins dotés socialement, ils ne renversent en rien les différences sociales. C’est le même constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maîtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mémétiques et les utilisateurs productifs. Ces outils, qui se présentent comme des outils qui seraient capables de dépasser les inégalités sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter à chacun, il semble que l’IA donne des superpouvoirs d’apprentissage à ceux qui maîtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincée dans le droit

Les questions de l’usage de l’IA à l’école que nous avons tenté de dérouler dans ce dossier montrent l’enjeu à débattre d’une politique publique d’usage de l’IA générative à l’école, du primaire au supérieur. Mais, comme le montre notre enquête, toute la communauté éducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiée à François Taddéi et Sarah Cohen-Boulakia sur les pratiques pédagogiques de l’IA dans l’enseignement supérieur, rapportait le Monde

Un premier cadre d’usage de l’IA à l’école vient pourtant d’être publié par le ministère de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout à la hauteur des enjeux. Le document consiste surtout en un rappel des règles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA générative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux élèves d’utiliser des services d’IA grand public impliquant la création d’un compte personnel » rappelle le document. La note recommande également de ne pas utiliser l’IA générative avec les élèves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude ». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’être un cadre de développement ouvert à l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer à produire du déni, tentant de rappeler des règles sur des usages qui les débordent déjà très largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privé suisse, était très heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de légalité et de confidentialité, les professeurs ne devraient pas utiliser les services d’IA génératives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les élèves peut-être classée comme un usage à haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de désaccord sur une évaluation, sans compter que le professeur doit également être transparent sur ce qu’il utilise pour rester en conformité et l’inscrire au registre des traitements. Bref, d’un côté comme de l’autre, tant du côté des élèves qui sont renvoyé à la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, très contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont été publiés. comme celui de l’inspection générale, du Sénat ou de la Commission européenne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement à l’IA devrait être, plus que de donner un cadre aux débordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste à construire, avec les professeurs… et avec les élèves.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • IA et éducation (2/2) : du dilemme moral au malaise social
    Suite de notre dossier sur IA et éducation (voir la première partie). La bataille éducative est-elle perdue ? Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèv
     

IA et éducation (2/2) : du dilemme moral au malaise social

1 juillet 2025 à 00:41

Suite de notre dossier sur IA et éducation (voir la première partie).

La bataille éducative est-elle perdue ?

Une grande enquête de 404 media montre qu’à l’arrivée de ChatGPT, les écoles publiques américaines étaient totalement démunies face à l’adoption généralisée de ChatGPT par les élèves. Le problème est d’ailleurs loin d’être résolu. Le New York Mag a récemment publié un article qui se désole de la triche généralisée qu’ont introduit les IA génératives à l’école. De partout, les élèves utilisent les chatbots pour prendre des notes pendant les cours, pour concevoir des tests, résumer des livres ou des articles, planifier et rédiger leurs essais, résoudre les exercices qui leurs sont demandés. Le plafond de la triche a été pulvérisé, explique un étudiant. “Un nombre considérable d’étudiants sortiront diplômés de l’université et entreront sur le marché du travail en étant essentiellement analphabètes”, se désole un professeur qui constate le court-circuitage du processus même d’apprentissage. La triche semblait pourtant déjà avoir atteint son apogée, avant l’arrivée de ChatGPT, notamment avec les plateformes d’aides au devoir en ligne comme Chegg et Course Hero. “Pour 15,95 $ par mois, Chegg promettait des réponses à toutes les questions de devoirs en seulement 30 minutes, 24h/24 et 7j/7, grâce aux 150 000 experts diplômés de l’enseignement supérieur qu’elle employait, principalement en Inde”

Chaque école a proposé sa politique face à ces nouveaux outils, certains prônant l’interdiction, d’autres non. Depuis, les politiques se sont plus souvent assouplies, qu’endurcies. Nombre de profs autorisent l’IA, à condition de la citer, ou ne l’autorisent que pour aide conceptuelle et en demandant aux élèves de détailler la manière dont ils l’ont utilisé. Mais cela ne dessine pas nécessairement de limites claires à leurs usages. L’article souligne que si les professeurs se croient doués pour détecter les écrits générés par l’IA, des études ont démontré qu’ils ne le sont pas. L’une d’elles, publiée en juin 2024, utilisait de faux profils d’étudiants pour glisser des travaux entièrement générés par l’IA dans les piles de correction des professeurs d’une université britannique. Les professeurs n’ont pas signalé 97 % des essais génératifs. En fait, souligne l’article, les professeurs ont plutôt abandonné l’idée de pouvoir détecter le fait que les devoirs soient rédigés par des IA. “De nombreux enseignants semblent désormais désespérés”. “Ce n’est pas ce pour quoi nous nous sommes engagés”, explique l’un d’entre eux. La prise de contrôle de l’enseignement par l’IA tient d’une crise existentielle de l’éducation. Désormais, les élèves ne tentent même plus de se battre contre eux-mêmes. Ils se replient sur la facilité. “Toute tentative de responsabilisation reste vaine”, constatent les professeurs. 

L’IA a mis à jour les défaillances du système éducatif. Bien sûr, l’idéal de l’université et de l’école comme lieu de développement intellectuel, où les étudiants abordent des idées profondes a disparu depuis longtemps. La perspective que les IA des professeurs évaluent désormais les travaux produits par les IA des élèves, finit de réduire l’absurdité de la situation, en laissant chacun sans plus rien à apprendre. Plusieurs études (comme celle de chercheurs de Microsoft) ont établi un lien entre l’utilisation de l’IA et une détérioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA générative compromet déjà la créativité et l’intelligence. “La bataille est perdue”, se désole un autre professeur

Reste à savoir si l’usage “raisonnable” de l’IA est possible. Dans une longue enquête pour le New Yorker, le journaliste Hua Hsu constate que tous les étudiants qu’il a interrogé pour comprendre leur usage de l’IA ont commencé par l’utiliser pour se donner des idées, en promettant de veiller à un usage responsable et ont très vite basculé vers des usages peu modérés, au détriment de leur réflexion. L’utilisation judicieuse de l’IA ne tient pas longtemps. Dans un rapport sur l’usage de Claude par des étudiants, Anthropic a montré que la moitié des interactions des étudiants avec son outil serait extractive, c’est-à-dire servent à produire des contenus. 404 media est allé discuter avec les participants de groupes de soutien en ligne de gens qui se déclarent comme “dépendants à l’IA”. Rien n’est plus simple que de devenir accro à un chatbot, confient des utilisateurs de tout âge. OpenAI en est conscient, comme le pointait une étude du MIT sur les utilisateurs les plus assidus, sans proposer pourtant de remèdes.

Comment apprendre aux enfants à faire des choses difficiles ? Le journaliste Clay Shirky, devenu responsable de l’IA en éducation à la New York University, dans le Chronicle of Higher Education, s’interroge : l’IA améliore-t-elle l’éducation ou la remplace-t-elle ? “Chaque année, environ 15 millions d’étudiants de premier cycle aux États-Unis produisent des travaux et des examens de plusieurs milliards de mots. Si le résultat d’un cours est constitué de travaux d’étudiants (travaux, examens, projets de recherche, etc.), le produit de ce cours est l’expérience étudiante. Un devoir n’a de valeur que ”pour stimuler l’effort et la réflexion de l’élève”. “L’utilité des devoirs écrits repose sur deux hypothèses : la première est que pour écrire sur un sujet, l’élève doit comprendre le sujet et organiser ses pensées. La seconde est que noter les écrits d’un élève revient à évaluer l’effort et la réflexion qui y ont été consacrés”. Avec l’IA générative, la logique de cette proposition, qui semblait pourtant à jamais inébranlable, s’est complètement effondrée

Pour Shirky, il ne fait pas de doute que l’IA générative peut être utile à l’apprentissage. “Ces outils sont efficaces pour expliquer des concepts complexes, proposer des quiz pratiques, des guides d’étude, etc. Les étudiants peuvent rédiger un devoir et demander des commentaires, voir à quoi ressemble une réécriture à différents niveaux de lecture, ou encore demander un résumé pour vérifier la clart锓Mais le fait que l’IA puisse aider les étudiants à apprendre ne garantit pas qu’elle le fera. Pour le grand théoricien de l’éducation, Herbert Simon, “l’enseignant ne peut faire progresser l’apprentissage qu’en incitant l’étudiant à apprendre”. “Face à l’IA générative dans nos salles de classe, la réponse évidente est d’inciter les étudiants à adopter les utilisations utiles de l’IA tout en les persuadant d’éviter les utilisations néfastes. Notre problème est que nous ne savons pas comment y parvenir”, souligne pertinemment Shirky. Pour lui aussi, aujourd’hui, les professeurs sont en passe d’abandonner. Mettre l’accent sur le lien entre effort et apprentissage ne fonctionne pas, se désole-t-il. Les étudiants eux aussi sont déboussolés et finissent par se demander où l’utilisation de l’IA les mène. Shirky fait son mea culpa. L’utilisation engagée de l’IA conduit à son utilisation paresseuse. Nous ne savons pas composer avec les difficultés. Mais c’était déjà le cas avant ChatGPT. Les étudiants déclarent régulièrement apprendre davantage grâce à des cours magistraux bien présentés qu’avec un apprentissage plus actif, alors que de nombreuses études démontrent l’inverse. “Un outil qui améliore le rendement mais dégrade l’expérience est un mauvais compromis”. 

C’est le sens même de l’éducation qui est en train d’être perdu. Le New York Times revenait récemment sur le fait que certaines écoles interdisent aux élèves d’utiliser ces outils, alors que les professeurs, eux, les surutilisent. Selon une étude auprès de 1800 enseignants de l’enseignement supérieur, 18 % déclaraient utiliser fréquemment ces outils pour faire leur cours, l’année dernière – un chiffre qui aurait doublé depuis. Les étudiants ne lisent plus ce qu’ils écrivent et les professeurs non plus. Si les profs sont prompts à critiquer l’usage de l’IA par leurs élèves, nombre d’entre eux l’apprécient pour eux-mêmes, remarque un autre article du New York Times. A PhotoMath ou Google Lens qui viennent aider les élèves, répondent MagicSchool et Brisk Teaching qui proposent déjà des produits d’IA qui fournissent un retour instantané sur les écrits des élèves. L’Etat du Texas a signé un contrat de 5 ans avec l’entreprise Cambium Assessment pour fournir aux professeurs un outil de notation automatisée des écrits des élèves. 

Pour Jason Koebler de 404 media : “la société dans son ensemble n’a pas très bien résisté à l’IA générative, car les grandes entreprises technologiques s’obstinent à nous l’imposer. Il est donc très difficile pour un système scolaire public sous-financé de contrôler son utilisation”. Pourtant, peu après le lancement public de ChatGPT, certains districts scolaires locaux et d’État ont fait appel à des consultants pro-IA pour produire des formations et des présentations “encourageant largement les enseignants à utiliser l’IA générative en classe”, mais “aucun n’anticipait des situations aussi extrêmes que celles décrites dans l’article du New York Mag, ni aussi problématiques que celles que j’ai entendues de mes amis enseignants, qui affirment que certains élèves désormais sont totalement dépendants de ChatGPT”. Les documents rassemblés par 404media montrent surtout que les services d’éducation américains ont tardé à réagir et à proposer des perspectives aux enseignants sur le terrain. 

Dans un autre article de 404 media, Koebler a demandé à des professeurs américains d’expliquer ce que l’IA a changé à leur travail. Les innombrables témoignages recueillis montrent que les professeurs ne sont pas restés les bras ballants, même s’ils se sentent très dépourvus face à l’intrusion d’une technologie qu’ils n’ont pas voulu. Tous expliquent qu’ils passent des heures à corriger des devoirs que les élèves mettent quelques secondes à produire. Tous dressent un constat similaire fait d’incohérences, de confusions, de démoralisations, entre préoccupations et exaspérations. Quelles limites mettre en place ? Comment s’assurer qu’elles soient respectées ? “Je ne veux pas que les étudiants qui n’utilisent pas de LLM soient désavantagés. Et je ne veux pas donner de bonnes notes à des étudiants qui ne font pratiquement rien”, témoigne un prof. Beaucoup ont désormais recours à l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passés de la curiosité au rejet catégorique de ces outils. Beaucoup pointent que leur métier est plus difficile que jamais. “ChatGPT n’est pas un problème isolé. C’est le symptôme d’un paradigme culturel totalitaire où la consommation passive et la régurgitation de contenu deviennent le statu quo.”

L’IA place la déqualification au coeur de l’apprentissage 

Nicholas Carr, qui vient de faire paraître Superbloom : How Technologies of Connection Tear Us Apart (Norton, 2025, non traduit) rappelle dans sa newsletter que “la véritable menace que représente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle décourage l’apprentissage. Pour Carr, lorsque les gens utilisent une machine pour réaliser une tâche, soit leurs compétences augmentent, soit elles s’atrophient, soit elles ne se développent jamais. C’est la piste qu’il avait d’ailleurs exploré dans Remplacer l’humain (L’échapée, 2017, traduction de The Glass Cage) en montrant comment les logiciels transforment concrètement les métiers, des architectes aux pilotes d’avions). Si un travailleur maîtrise déjà l’activité à automatiser, la machine peut l’aider à développer ses compétences” et relever des défis plus complexes. Dans les mains d’un mathématicien, une calculatrice devient un “amplificateur d’intelligence”. A l’inverse, si le maintien d’une compétence exige une pratique fréquente, combinant dextérité manuelle et mentale, alors l’automatisation peut menacer le talent même de l’expert. C’est le cas des pilotes d’avion confrontés aux systèmes de pilotage automatique qui connaissent un “affaissement des compétences” face aux situations difficiles. Mais l’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tâche avant que la personne qui l’utilise n’ait acquis l’expérience de la tâche en question. “C’est l’histoire du phénomène de « déqualification » du début de la révolution industrielle. Les artisans qualifiés ont été remplacés par des opérateurs de machines non qualifiés. Le travail s’est accéléré, mais la seule compétence acquise par ces opérateurs était celle de faire fonctionner la machine, ce qui, dans la plupart des cas, n’était quasiment pas une compétence. Supprimez la machine, et le travail s’arrête”

Bien évidemment que les élèves qui utilisent des chatbots pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas, comme le pointait une très épaisse étude du MIT (synthétisée par Le Grand Continent), tout comme ceux qui utilisent une calculatrice plutôt que le calcul mental vont moins se souvenir des opérations qu’ils ont effectuées. Mais le problème est surtout que ceux qui les utilisent sont moins méfiants de leurs résultats (comme le pointait l’étude des chercheurs de Microsoft), alors que contrairement à ceux d’une calculatrice, ils sont beaucoup moins fiables. Le problème de l’usage des LLM à l’école, c’est à la fois qu’il empêche d’apprendre à faire, mais plus encore que leur usage nécessite des compétences pour les évaluer. 

L’IA générative étant une technologie polyvalente permettant d’automatiser toutes sortes de tâches et d’emplois, nous verrons probablement de nombreux exemples de chacun des trois scénarios de compétences dans les années à venir, estime Carr. Mais l’utilisation de l’IA par les lycéens et les étudiants pour réaliser des travaux écrits, pour faciliter ou éviter le travail de lecture et d’écriture, constitue un cas particulier. “Elle place le processus de déqualification au cœur de l’éducation. Automatiser l’apprentissage revient à le subvertir”

En éducation, plus vous effectuez de recherches, plus vous vous améliorez en recherche, et plus vous rédigez d’articles, plus vous améliorez votre rédaction. “Cependant, la valeur pédagogique d’un devoir d’écriture ne réside pas dans le produit tangible du travail – le devoir rendu à la fin du devoir. Elle réside dans le travail lui-même : la lecture critique des sources, la synthèse des preuves et des idées, la formulation d’une thèse et d’un argument, et l’expression de la pensée dans un texte cohérent. Le devoir est un indicateur que l’enseignant utilise pour évaluer la réussite du travail de l’étudiant – le travail d’apprentissage. Une fois noté et rendu à l’étudiant, le devoir peut être jeté”

L’IA générative permet aux étudiants de produire le produit sans effectuer le travail. Le travail remis par un étudiant ne témoigne plus du travail d’apprentissage qu’il a nécessité. “Il s’y substitue ». Le travail d’apprentissage est ardu par nature : sans remise en question, l’esprit n’apprend rien. Les étudiants ont toujours cherché des raccourcis bien sûr, mais l’IA générative est différente, pas son ampleur, par sa nature. “Sa rapidité, sa simplicité d’utilisation, sa flexibilité et, surtout, sa large adoption dans la société rendent normal, voire nécessaire, l’automatisation de la lecture et de l’écriture, et l’évitement du travail d’apprentissage”. Grâce à l’IA générative, un élève médiocre peut produire un travail remarquable tout en se retrouvant en situation de faiblesse. Or, pointe très justement Carr, “la conséquence ironique de cette perte d’apprentissage est qu’elle empêche les élèves d’utiliser l’IA avec habileté. Rédiger une bonne consigne, un prompt efficace, nécessite une compréhension du sujet abordé. Le dispensateur doit connaître le contexte de la consigne. Le développement de cette compréhension est précisément ce que la dépendance à l’IA entrave”. “L’effet de déqualification de l’outil s’étend à son utilisation”. Pour Carr, “nous sommes obnubilés par la façon dont les étudiants utilisent l’IA pour tricher. Alors que ce qui devrait nous préoccuper davantage, c’est la façon dont l’IA trompe les étudiants”

Nous sommes d’accord. Mais cette conclusion n’aide pas pour autant à avancer ! 

Passer du malaise moral au malaise social ! 

Utiliser ou non l’IA semble surtout relever d’un malaise moral (qui en rappelle un autre), révélateur, comme le souligne l’obsession sur la « triche » des élèves. Mais plus qu’un dilemme moral, peut-être faut-il inverser notre regard, et le poser autrement : comme un malaise social. C’est la proposition que fait le sociologue Bilel Benbouzid dans un remarquable article pour AOC (première et seconde partie). 

Pour Benbouzid, l’IA générative à l’université ébranle les fondements de « l’auctorialité », c’est-à-dire qu’elle modifie la position d’auteur et ses repères normatifs et déontologiques. Dans le monde de l’enseignement supérieur, depuis le lancement de ChatGPT, tout le monde s’interroge pour savoir que faire de ces outils, souvent dans un choix un peu binaire, entre leur autorisation et leur interdiction. Or, pointe justement Benbouzid, l’usage de l’IA a été « perçu » très tôt comme une transgression morale. Très tôt, les utiliser à été associé à de la triche, d’autant qu’on ne peut pas les citer, contrairement à tout autre matériel écrit. 

Face à leur statut ambiguë, Benbouzid pose une question de fond : quelle est la nature de l’effort intellectuel légitime à fournir pour ses études ? Comment distinguer un usage « passif » de l’IA d’un usage « actif », comme l’évoquait Ethan Mollick dans la première partie de ce dossier ? Comment contrôler et s’assurer d’une utilisation active et éthique et non pas passive et moralement condamnable ? 

Pour Benbouzid, il se joue une réflexion éthique sur le rapport à soi qui nécessite d’être authentique. Mais peut-on être authentique lorsqu’on se construit, interroge le sociologue, en évoquant le fait que les étudiants doivent d’abord acquérir des compétences avant de s’individualiser. Or l’outil n’est pas qu’une machine pour résumer ou copier. Pour Benbouzid, comme pour Mollick, bien employée, elle peut-être un vecteur de stimulation intellectuelle, tout en exerçant une influence diffuse mais réelle. « Face aux influences tacites des IAG, il est difficile de discerner les lignes de partage entre l’expression authentique de soi et les effets normatifs induits par la machine. » L’enjeu ici est bien celui de la capacité de persuasion de ces machines sur ceux qui les utilisent. 

Pour les professeurs de philosophie et d’éthique Mark Coeckelbergh et David Gunkel, comme ils l’expliquent dans un article (qui a depuis donné lieu à un livre, Communicative AI, Polity, 2025), l’enjeu n’est pourtant plus de savoir qui est l’auteur d’un texte (même si, comme le remarque Antoine Compagnon, sans cette figure, la lecture devient indéchiffrable, puisque nul ne sait plus qui parle, ni depuis quels savoirs), mais bien plus de comprendre les effets que les textes produisent. Pourtant, ce déplacement, s’il est intéressant (et peut-être peu adapté à l’IA générative, tant les textes produits sont rarement pertinents), il ne permet pas de cadrer les usages des IA génératives qui bousculent le cadre ancien de régulation des textes académiques. Reste que l’auteur d’un texte doit toujours en répondre, rappelle Benbouzid, et c’est désormais bien plus le cas des étudiants qui utilisent l’IA que de ceux qui déploient ces systèmes d’IA. L’autonomie qu’on attend d’eux est à la fois un idéal éducatif et une obligation morale envers soi-même, permettant de développer ses propres capacités de réflexion. « L’acte d’écriture n’est pas un simple exercice technique ou une compétence instrumentale. Il devient un acte de formation éthique ». Le problème, estiment les professeurs de philosophie Timothy Aylsworth et Clinton Castro, dans un article qui s’interroge sur l’usage de ChatGPT, c’est que l’autonomie comme finalité morale de l’éducation n’est pas la même que celle qui permet à un étudiant de décider des moyens qu’il souhaite mobiliser pour atteindre son but. Pour Aylsworth et Castro, les étudiants ont donc obligation morale de ne pas utiliser ChatGPT, car écrire soi-même ses textes est essentiel à la construction de son autonomie. Pour eux, l’école doit imposer une morale de la responsabilité envers soi-même où écrire par soi-même n’est pas seulement une tâche scolaire, mais également un moyen d’assurer sa dignité morale. « Écrire, c’est penser. Penser, c’est se construire. Et se construire, c’est honorer l’humanité en soi. »

Pour Benbouzid, les contradictions de ces deux dilemmes résument bien le choix cornélien des étudiants et des enseignants. Elle leur impose une liberté de ne pas utiliser. Mais cette liberté de ne pas utiliser, elle, ne relève-t-elle pas d’abord et avant tout d’un jugement social ?

L’IA générative ne sera pas le grand égalisateur social !

C’est la piste fructueuse qu’explore Bilel Benbouzid dans la seconde partie de son article. En explorant qui à recours à l’IA et pourquoi, le sociologue permet d’entrouvrir une autre réponse que la réponse morale. Ceux qui promeuvent l’usage de l’IA pour les étudiants, comme Ethan Mollick, estiment que l’IA pourrait agir comme une égaliseur de chances, permettant de réduire les différences cognitives entre les élèves. C’est là une référence aux travaux d’Erik Brynjolfsson, Generative AI at work, qui souligne que l’IA diminue le besoin d’expérience, permet la montée en compétence accélérée des travailleurs et réduit les écarts de compétence des travailleurs (une théorie qui a été en partie critiquée, notamment parce que ces avantages sont compensés par l’uniformisation des pratiques et leur surveillance – voir ce que nous en disions en mobilisant les travaux de David Autor). Mais sommes-nous confrontés à une homogénéisation des performances d’écritures ? N’assiste-t-on pas plutôt à un renforcement des inégalités entre les meilleurs qui sauront mieux que d’autres tirer partie de l’IA générative et les moins pourvus socialement ? 

Pour John Danaher, l’IA générative pourrait redéfinir pas moins que l’égalité, puisque les compétences traditionnelles (rédaction, programmation, analyses…) permettraient aux moins dotés d’égaler les meilleurs. Pour Danaher, le risque, c’est que l’égalité soit alors reléguée au second plan : « d’autres valeurs comme l’efficacité économique ou la liberté individuelle prendraient le dessus, entraînant une acceptation accrue des inégalités. L’efficacité économique pourrait être mise en avant si l’IA permet une forte augmentation de la productivité et de la richesse globale, même si cette richesse est inégalement répartie. Dans ce scénario, plutôt que de chercher à garantir une répartition équitable des ressources, la société pourrait accepter des écarts grandissants de richesse et de statut, tant que l’ensemble progresse. Ce serait une forme d’acceptation de l’inégalité sous prétexte que la technologie génère globalement des bénéfices pour tous, même si ces bénéfices ne sont pas partagés de manière égale. De la même manière, la liberté individuelle pourrait être privilégiée si l’IA permet à chacun d’accéder à des outils puissants qui augmentent ses capacités, mais sans garantir que tout le monde en bénéficie de manière équivalente. Certains pourraient considérer qu’il est plus important de laisser les individus utiliser ces technologies comme ils le souhaitent, même si cela crée de nouvelles hiérarchies basées sur l’usage différencié de l’IA ». Pour Danaher comme pour Benbouzid, l’intégration de l’IA dans l’enseignement doit poser la question de ses conséquences sociales !

Les LLM ne produisent pas un langage neutre mais tendent à reproduire les « les normes linguistiques dominantes des groupes sociaux les plus favorisés », rappelle Bilel Benbouzid. Une étude comparant les lettres de motivation d’étudiants avec des textes produits par des IA génératives montre que ces dernières correspondent surtout à des productions de CSP+. Pour Benbouzid, le risque est que la délégation de l’écriture à ces machines renforce les hiérarchies existantes plus qu’elles ne les distribue. D’où l’enjeu d’une enquête en cours pour comprendre l’usage de l’IA générative des étudiants et leur rapport social au langage. 

Les premiers résultats de cette enquête montrent par exemple que les étudiants rechignent à copier-collé directement le texte créé par les IA, non seulement par peur de sanctions, mais plus encore parce qu’ils comprennent que le ton et le style ne leur correspondent pas. « Les étudiants comparent souvent ChatGPT à l’aide parentale. On comprend que la légitimité ne réside pas tant dans la nature de l’assistance que dans la relation sociale qui la sous-tend. Une aide humaine, surtout familiale, est investie d’une proximité culturelle qui la rend acceptable, voire valorisante, là où l’assistance algorithmique est perçue comme une rupture avec le niveau académique et leur propre maîtrise de la langue ». Et effectivement, la perception de l’apport des LLM dépend du capital culturel des étudiants. Pour les plus dotés, ChatGPT est un outil utilitaire, limité voire vulgaire, qui standardise le langage. Pour les moins dotés, il leur permet d’accéder à des éléments de langages valorisés et valorisants, tout en l’adaptant pour qu’elle leur corresponde socialement. 

Dans ce rapport aux outils de génération, pointe un rapport social à la langue, à l’écriture, à l’éducation. Pour Benbouzid, l’utilisation de l’IA devient alors moins un problème moral qu’un dilemme social. « Ces pratiques, loin d’être homogènes, traduisent une appropriation différenciée de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport social à l’éducation. Ce qui est en jeu, finalement, c’est une remise en question de la manière dont les étudiants se positionnent socialement, lorsqu’ils utilisent les robots conversationnels, dans les hiérarchies culturelles et sociales de l’université. » En fait, les étudiants utilisent les outils non pas pour se dépasser, comme l’estime Mollick, mais pour produire un contenu socialement légitime. « En déléguant systématiquement leurs compétences de lecture, d’analyse et d’écriture à ces modèles, les étudiants peuvent contourner les processus essentiels d’intériorisation et d’adaptation aux normes discursives et épistémologiques propres à chaque domaine. En d’autres termes, l’étudiant pourrait perdre l’occasion de développer authentiquement son propre capital culturel académique, substitué par un habitus dominant produit artificiellement par l’IA. »

L’apparence d’égalité instrumentale que permettent les LLM pourrait donc paradoxalement renforcer une inégalité structurelle accrue. Les outils creusant l’écart entre des étudiants qui ont déjà internalisé les normes dominantes et ceux qui les singent. Le fait que les textes générés manquent d’originalité et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les étudiants égaux face à ces outils. D’un côté, les grandes écoles renforcent les compétences orales et renforcent leurs exigences d’originalité face à ces outils. De l’autre, d’autres devront y avoir recours par nécessité. « Pour les mieux établis, l’IA représentera un outil optionnel d’optimisation ; pour les plus précaires, elle deviendra une condition de survie dans un univers concurrentiel. Par ailleurs, même si l’IA profitera relativement davantage aux moins qualifiés, cette amélioration pourrait simultanément accentuer une forme de dépendance technologique parmi les populations les plus défavorisées, creusant encore le fossé avec les élites, mieux armées pour exercer un discernement critique face aux contenus générés par les machines ».

Bref, loin de l’égalisation culturelle que les outils permettraient, le risque est fort que tous n’en profitent pas d’une manière égale. On le constate très bien ailleurs. Le fait d’être capable de rédiger un courrier administratif est loin d’être partagé. Si ces outils améliorent les courriers des moins dotés socialement, ils ne renversent en rien les différences sociales. C’est le même constat qu’on peut faire entre ceux qui subliment ces outils parce qu’ils les maîtrisent finement, et tous les autres qui ne font que les utiliser, comme l’évoquait Gregory Chatonsky, en distinguant les utilisateurs mémétiques et les utilisateurs productifs. Ces outils, qui se présentent comme des outils qui seraient capables de dépasser les inégalités sociales, risquent avant tout de mieux les amplifier. Plus que de permettre de personnaliser l’apprentissage, pour s’adapter à chacun, il semble que l’IA donne des superpouvoirs d’apprentissage à ceux qui maîtrisent leurs apprentissages, plus qu’aux autres.  

L’IApocalypse scolaire, coincée dans le droit

Les questions de l’usage de l’IA à l’école que nous avons tenté de dérouler dans ce dossier montrent l’enjeu à débattre d’une politique publique d’usage de l’IA générative à l’école, du primaire au supérieur. Mais, comme le montre notre enquête, toute la communauté éducative est en attente d’un cadre. En France, on attend les recommandations de la mission confiée à François Taddéi et Sarah Cohen-Boulakia sur les pratiques pédagogiques de l’IA dans l’enseignement supérieur, rapportait le Monde

Un premier cadre d’usage de l’IA à l’école vient pourtant d’être publié par le ministère de l’Education nationale. Autant dire que ce cadrage processuel n’est pas du tout à la hauteur des enjeux. Le document consiste surtout en un rappel des règles et, pour l’essentiel, elles expliquent d’abord que l’usage de l’IA générative est contraint si ce n’est impossible, de fait. « Aucun membre du personnel ne doit demander aux élèves d’utiliser des services d’IA grand public impliquant la création d’un compte personnel » rappelle le document. La note recommande également de ne pas utiliser l’IA générative avec les élèves avant la 4e et souligne que « l’utilisation d’une intelligence artificielle générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation à partir des contenus produits, constitue une fraude ». Autant dire que ce cadre d’usage ne permet rien, sinon l’interdiction. Loin d’être un cadre de développement ouvert à l’envahissement de l’IA, comme s’en plaint le SNES-FSU, le document semble surtout continuer à produire du déni, tentant de rappeler des règles sur des usages qui les débordent déjà très largement. 

Sur Linked-in, Yann Houry, prof dans un Institut privé suisse, était très heureux de partager sa recette pour permettre aux profs de corriger des copies avec une IA en local, rappelant que pour des questions de légalité et de confidentialité, les professeurs ne devraient pas utiliser les services d’IA génératives en ligne pour corriger les copies. Dans les commentaires, nombreux sont pourtant venu lui signaler que cela ne suffit pas, rappelant qu’utiliser l’IA pour corriger les copies, donner des notes et classer les élèves peut-être classée comme un usage à haut-risque selon l’IA Act, ou encore qu’un formateur qui utiliserait l’IA en ce sens devrait en informer les apprenants afin qu’ils exercent un droit de recours en cas de désaccord sur une évaluation, sans compter que le professeur doit également être transparent sur ce qu’il utilise pour rester en conformité et l’inscrire au registre des traitements. Bref, d’un côté comme de l’autre, tant du côté des élèves qui sont renvoyé à la fraude quelque soit la façon dont ils l’utilisent, que des professeurs, qui ne doivent l’utiliser qu’en pleine transparence, on se rend vite compte que l’usage de l’IA dans l’éducation reste, formellement, très contraint, pour ne pas dire impossible. 

D’autres cadres et rapports ont été publiés. comme celui de l’inspection générale, du Sénat ou de la Commission européenne et de l’OCDE, mais qui se concentrent surtout sur ce qu’un enseignement à l’IA devrait être, plus que de donner un cadre aux débordements des usages actuels. Bref, pour l’instant, le cadrage de l’IApocalypse scolaire reste à construire, avec les professeurs… et avec les élèves.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • Accords de confidentialité : l’outil de silenciation des effets du numérique
    Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de défense des droits Equidem, estiment que les accords de confidentialité sont devenus l’outil qui permet de réduire au silence tous les travailleurs du numérique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent désormais à toute la chaîne de production des systèmes, jusqu’aux travailleurs du clic.
     

Accords de confidentialité : l’outil de silenciation des effets du numérique

25 juin 2025 à 01:00

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de défense des droits Equidem, estiment que les accords de confidentialité sont devenus l’outil qui permet de réduire au silence tous les travailleurs du numérique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent désormais à toute la chaîne de production des systèmes, jusqu’aux travailleurs du clic. Le système tout entier vise à contraindre les travailleurs à se taire. Ils ne concernent plus les accords commerciaux, mais interdisent à tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thérapeutes. Ils rendent toute enquête sur les conditions de travail très difficile, comme le montre le rapport d’Equidem sur la modération des contenus. Partout, les accords de confidentialité ont créé une culture de la peur et imposé le silence, mais surtout “ils contribuent à maintenir un système de contrôle qui spolie les travailleurs tout en exonérant les entreprises technologiques et leurs propriétaires milliardaires de toute responsabilité”, puisqu’ils les rendent inattaquables pour les préjudices qu’ils causent, empêchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la négociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialité à leur objectif initial, à savoir la protection des données propriétaires, et non à l’interdiction générale de parler des conditions de travail. Le recours aux accords de confidentialité dans le secteur technologique, en particulier dans les pays du Sud, reste largement déréglementé et dangereusement incontrôlé.

  • ✇Dans les algorithmes
  • Accords de confidentialité : l’outil de silenciation des effets du numérique
    Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de défense des droits Equidem, estiment que les accords de confidentialité sont devenus l’outil qui permet de réduire au silence tous les travailleurs du numérique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent désormais à toute la chaîne de production des systèmes, jusqu’aux travailleurs du clic.
     

Accords de confidentialité : l’outil de silenciation des effets du numérique

25 juin 2025 à 01:00

Dans une tribune pour Tech Policy Press, Nandita Shivakumar et Shikha Silliman Bhattacharjee de l’association de défense des droits Equidem, estiment que les accords de confidentialité sont devenus l’outil qui permet de réduire au silence tous les travailleurs du numérique des abus qu’ils constatent. Or, ces NDA (non-disclosure agreement) ne concernent pas que les cadres, bien au contraire : ils s’appliquent désormais à toute la chaîne de production des systèmes, jusqu’aux travailleurs du clic. Le système tout entier vise à contraindre les travailleurs à se taire. Ils ne concernent plus les accords commerciaux, mais interdisent à tous les travailleurs de parler de leur travail, avec les autres travailleurs, avec leur famille voire avec des thérapeutes. Ils rendent toute enquête sur les conditions de travail très difficile, comme le montre le rapport d’Equidem sur la modération des contenus. Partout, les accords de confidentialité ont créé une culture de la peur et imposé le silence, mais surtout “ils contribuent à maintenir un système de contrôle qui spolie les travailleurs tout en exonérant les entreprises technologiques et leurs propriétaires milliardaires de toute responsabilité”, puisqu’ils les rendent inattaquables pour les préjudices qu’ils causent, empêchent l’examen public des conditions de travail abusives, et entravent la syndicalisation et la négociation collective. Pour les deux militantes, il est temps de restreindre l’application des accords de confidentialité à leur objectif initial, à savoir la protection des données propriétaires, et non à l’interdiction générale de parler des conditions de travail. Le recours aux accords de confidentialité dans le secteur technologique, en particulier dans les pays du Sud, reste largement déréglementé et dangereusement incontrôlé.

  • ✇Dans les algorithmes
  • IA et éducation (1/2) : plongée dans l’IApocalypse éducative
    A l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée.  Pourtant, rappelait-il,
     

IA et éducation (1/2) : plongée dans l’IApocalypse éducative

24 juin 2025 à 00:11

A l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée

Pourtant, rappelait-il, la triche est là depuis longtemps. Une étude longitudinale de 2020 montrait déjà que de moins en moins d’élèves bénéficiaient des devoirs qu’ils avaient à faire. L’étude, menée par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les élèves faisaient leurs devoirs en 2008, cela améliorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’améliorer les notes que de 45% des élèves. Pourquoi ? Parce que plus de la moitié des élèves copiaient-collaient les réponses à leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre étude soulignait même que 15% des élèves avaient payé quelqu’un pour faire leur devoir, généralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était déjà facile avant sa généralisation

Les calculatrices n’ont pas tué les mathématiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion même de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformé l’enseignement des mathématiques. Dans un précédent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a été introduite dans les écoles, les réactions ont été étonnamment proches des inquiétudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les élèves. En s’appuyant sur une thèse signée Sarah Banks, Mollick rappelle que dès les années 70, certains professeurs étaient impatients d’intégrer l’usage des calculatrices dans leurs classes, mais c’était loin d’être le cas de tous. La majorité regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiétude que leurs enfants n’oublient les bases des maths. Au début des années 80, les craintes des enseignants s’étaient inversées, mais très peu d’écoles fournissaient de calculatrices à leurs élèves. Il faut attendre le milieu des années 1990, pour que les calculatrices intègrent les programmes scolaires. En fait, un consensus pratique sur leur usage a été atteint. Et l’enseignement des mathématiques ne s’est pas effondré (même si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la généralisation des calculatrices).

Pour Mollick, l’intégration de l’IA à l’école suivra certainement un chemin similaire. « Certains devoirs nécessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinés à des examens écrits, permettront aux élèves d’acquérir les compétences rédactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intégrer l’IA au processus d’apprentissage sans compromettre le développement des compétences essentielles. Tout comme les calculatrices n’ont pas remplacé l’apprentissage des mathématiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensée critique. Cela prendra peut-être du temps, mais nous y parviendrons », explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolètes ?

Mais l’impact de l’IA ne se limite pas à l’écriture, estime Mollick. Elle peut aussi être un vulgarisateur très efficace et ChatGPT peut répondre à bien des questions. L’arrivée de l’IA remet en cause les méthodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succès escompté. « Les cours magistraux ont tendance à reposer sur un apprentissage passif, où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Dans ce format, les étudiants peuvent avoir du mal à retenir l’information, car leur attention peut facilement faiblir lors de longues présentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des différences et des capacités individuelles, ce qui conduit certains étudiants à prendre du retard tandis que d’autres se désintéressent, faute de stimulation ». Mollick est plutôt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les étudiants à participer au processus d’apprentissage par le biais d’activités telles que la résolution de problèmes, le travail de groupe et les exercices pratiques. Dans cette approche, les étudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une méthode que plusieurs études valorisent comme plus efficaces, même si les étudiants ont aussi besoin d’enseignements initiaux appropriés. 

La solution pour intégrer davantage d’apprentissage actif passe par les classes inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices. Afin de maximiser le temps consacré à l’apprentissage actif et à la pensée critique, tout en utilisant l’apprentissage à domicile pour la transmission du contenu. 

Pourtant, reconnaît Mollick, l’apprentissage actif peine à s’imposer, notamment parce que les professeurs manquent de ressources de qualité et de matériel pédagogique inversé de qualité. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe où des tuteurs IA personnalisés viendraient accompagner les élèves, adaptant leur enseignement aux besoins des élèves tout en ajustant les contenus en fonction des performances des élèves, à la manière du manuel électronique décrit dans L’âge de diamant de Neal Stephenson, emblème du rêve de l’apprentissage personnalisé. Face aux difficultés, Mollick à tendance à toujours se concentrer « sur une vision positive pour nous aider à traverser les temps incertains à venir ». Pas sûr que cela suffise. 

Dans son article d’août 2023, Mollick estime que les élèves vont bien sûr utiliser l’IA pour tricher et vont l’intégrer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question à laquelle nous allons devoir répondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolètes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprésente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacité à raisonner et à structurer son raisonnement. Le problème, c’est que les dissertations sont très faciles à générer avec l’IA générative. Les détecteurs de leur utilisation fonctionnent très mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans écrans, nous n’avons plus de moyens pour détecter si un travail est réalisé par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte à grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les écoles et les enseignants vont devoir réfléchir sérieusement à l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des références ou des explications ? Qu’est-ce qui peut-être autorisé et comment les utiliser ? 

Pour les étudiants du supérieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, à condition que les modalités d’utilisation et les consignes données soient précisées. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activité éducative primordiale reste la lecture. « Qu’il s’agisse de rédiger des comptes rendus de lecture, de résumer des chapitres ou de réagir à des articles, toutes ces tâches reposent sur l’attente que les élèves assimilent la lecture et engagent un dialogue avec elle ». Or, l’IA est là encore très performante pour lire et résumer. Mollick suggère de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthèses… Pas sûr que la perspective apaise la panique morale qui se déverse dans la presse sur le fait que les étudiants ne lisent plus. Du New Yorker (« Les humanités survivront-elles à ChatGPT ? » ou « Est-ce que l’IA encourage vraiement les élèves à tricher ? ») à The Atlantic (« Les étudiants ne lisent plus de livres » ou « La génération Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les étudiants ne lisent plus c’est parce que les compétences ne sont plus valorisées nulles part), la perturbation que produit l’arrivée de ChatGPT dans les études se double d’une profonde chute de la lecture, qui semble être devenue d’autant plus inutile que les machines les rendent disponibles. Mêmes inquiétudes dans la presse de ce côté-ci de l’Atlantique, du Monde à Médiapart en passant par France Info

Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi très bien résoudre les problèmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thuriféraires de l’IA, c’est à l’école et à l’enseignement de s’adapter aux perturbations générées par l’IA, qu’importe si la société n’a pas demandé le déploiement de ces outils. D’ailleurs, soulignait-il très récemment, nous sommes déjà dans une éducation postapocalyptique. Selon une enquête de mai 2024, aux Etats-Unis 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA. Une adoption extrêmement rapide. Même si les élèves ont beau dos de ne pas considérer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’être humain est doué pour trouver comment se soustraire ce qu’il ne souhaite pas faire et éviter l’effort mental. Et plus les tâches mentales sont difficiles, plus nous avons tendance à les éviter. Le problème, reconnaît Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble être dans le déni et l’illusion. Les enseignants croient pouvoir détecter facilement l’utilisation de l’IA et donc être en mesure de fixer les barrières. Ils se trompent très largement. Une écriture d’IA bien stimulée est même jugée plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste à revenir à l’écriture en classe, ce qui nécessite du temps qu’ils n’ont pas nécessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les élèves aussi sont dans l’illusion. « Ils ne réalisent pas réellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». Après tout, ils reçoivent des conseils et des réponses de l’IA qui les aident à résoudre des problèmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les étudiants sont conscients que leur stratégie de devoirs diminue leur note à l’examen… ils en déduisent, de manière logique, que toute stratégie d’étude augmentant leur note à un devoir augmente également leur note à l’examen ». En fait, comme le montre une autre étude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec l’outil. Par contre, quand ils sont accompagnés pour comprendre comment l’utiliser comme coach plutôt qu’outil de réponse, alors l’outil les aide à la fois à améliorer leurs notes aux devoirs comme à l’examen. Une autre étude, dans un cours de programmation intensif à Stanford, a montré que l’usage des chatbots améliorait plus que ne diminuait les notes aux examens.

Une majorité de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, réfléchir à des idées, rafraîchir ses connaissances, obtenir un retour, des conseils… Mais c’est peut-être oublier de sa part, d’où il parle et combien son expertise lui permet d’avoir un usage très évolué de ces outils. Ce qui n’est pas le cas des élèves.

Encourager la réflexion et non la remplacer

Pour que les étudiants utilisent l’IA pour stimuler leur réflexion plutôt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-être va-t-il falloir nous intéresser aux professeurs, pour l’instant laissés bien dépourvus face à ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages américains, trois quart des enseignants utiliseraient désormais l’IA dans leur travail, mais nous connaissons encore trop peu les méthodes efficaces qu’ils doivent mobiliser. Une étude qualitative menée auprès d’eux a montré que ceux qui utilisaient l’IA pour aider leurs élèves à réfléchir, pour améliorer les explications obtenaient de meilleurs résultats. Pour Mollick, la force de l’IA est de pouvoir créer des expériences d’apprentissage personnalisées, adaptées aux élèves et largement accessibles, plus que les technologies éducatives précédentes ne l’ont jamais été. Cela n’empêche pas Mollick de conclure par le discours lénifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera très facile ou accessible, pour les professeurs, comme pour les élèves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le résultat« . Or, l’IA fait à tous la promesse inverse. En matière d’éducation, cela risque d’être dramatique, surtout si nous continuons à valoriser le résultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre méritocratie actuelle. C’est peut-être par là qu’il faudrait d’ailleurs commencer, pour résoudre l’IApocalypse éducative…

Pour Mollick cette évolution « exige plus qu’une acceptation passive ou une résistance futile ». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intégrante du paysage éducatif, nos priorités doivent évoluer. L’objectif n’est pas de déjouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour améliorer l’éducation tout en atténuant ses inconvénients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour créer un environnement d’apprentissage plus efficace, plus équitable et plus stimulant pour tous ». Plus facile à dire qu’à faire. Expérimenter prend du temps, trouver de bons exercices, changer ses pratiques… pour nombre de professeurs, ce n’est pas si évident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dédiée à l’accompagnement des élèves (Claude for Education) qui ne cherche pas à fournir des réponses, mais produit des modalités pour accompagner les élèves à saisir les raisonnements qu’ils doivent échafauder, est certes stimulante, mais il n’est pas sûr qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutôt comme Mollick et qui ont du temps pour s’occuper de leurs élèves, qui vont pouvoir faire des évaluations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supérieur en France, rapportait le Monde). Et les autres, plus circonspects sur les évolutions en cours, où de plus en plus souvent des élèves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA… On voit bien en tout cas, que la question de l’IA générative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des élèves, à charge à eux de s’en débrouiller.

Hubert Guillaud

La seconde partie est par là.

  • ✇Dans les algorithmes
  • IA et éducation (1/2) : plongée dans l’IApocalypse éducative
    A l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée.  Pourtant, rappelait-il,
     

IA et éducation (1/2) : plongée dans l’IApocalypse éducative

24 juin 2025 à 00:11

A l’été 2023, Ethan Mollick, professeur de management à Wharton, co-directeur du Generative AI Labs et auteur de Co-intelligence : vivre et travailler avec l’IA (qui vient de paraître en français chez First), décrivait dans son excellente newsletter, One useful thing, l’apocalypse des devoirs. Cette apocalypse qu’il annonçait était qu’il ne serait plus possible pour les enseignants de donner des devoirs à leurs élèves à cause de l’IA, redoutant une triche généralisée

Pourtant, rappelait-il, la triche est là depuis longtemps. Une étude longitudinale de 2020 montrait déjà que de moins en moins d’élèves bénéficiaient des devoirs qu’ils avaient à faire. L’étude, menée par le professeur de psychologie cognitive, Arnold Glass du Learning and memory laboratory de Rutgers, montrait que lorsque les élèves faisaient leurs devoirs en 2008, cela améliorait leurs notes aux examens pour 86% d’entre eux, alors qu’en 2017, les devoirs ne permettaient plus d’améliorer les notes que de 45% des élèves. Pourquoi ? Parce que plus de la moitié des élèves copiaient-collaient les réponses à leurs devoirs sur internet en 2017, et n’en tiraient donc pas profit. Une autre étude soulignait même que 15% des élèves avaient payé quelqu’un pour faire leur devoir, généralement via des sites d’aides scolaires en ligne. Si tricher s’annonce plus facile avec l’IA, il faut se rappeler que c’était déjà facile avant sa généralisation

Les calculatrices n’ont pas tué les mathématiques

Mais la triche n’est pas la seule raison pour laquelle l’IA remet en question la notion même de devoirs. Mollick rappelle que l’introduction de la calculatrice a radicalement transformé l’enseignement des mathématiques. Dans un précédent article, il revenait d’ailleurs sur cette histoire. Lorsque la calculatrice a été introduite dans les écoles, les réactions ont été étonnamment proches des inquiétudes initiales que Mollick entend aujourd’hui concernant l’utilisation de l’IA par les élèves. En s’appuyant sur une thèse signée Sarah Banks, Mollick rappelle que dès les années 70, certains professeurs étaient impatients d’intégrer l’usage des calculatrices dans leurs classes, mais c’était loin d’être le cas de tous. La majorité regardait l’introduction de la calculatrice avec suspicion et les parents partagaient l’inquiétude que leurs enfants n’oublient les bases des maths. Au début des années 80, les craintes des enseignants s’étaient inversées, mais très peu d’écoles fournissaient de calculatrices à leurs élèves. Il faut attendre le milieu des années 1990, pour que les calculatrices intègrent les programmes scolaires. En fait, un consensus pratique sur leur usage a été atteint. Et l’enseignement des mathématiques ne s’est pas effondré (même si les tests Pisa montrent une baisse de performance, notamment dans les pays de l’OCDE, mais pour bien d’autres raisons que la généralisation des calculatrices).

Pour Mollick, l’intégration de l’IA à l’école suivra certainement un chemin similaire. « Certains devoirs nécessiteront l’assistance de l’IA, d’autres l’interdiront. Les devoirs d’écriture en classe sur des ordinateurs sans connexion Internet, combinés à des examens écrits, permettront aux élèves d’acquérir les compétences rédactionnelles de base. Nous trouverons un consensus pratique qui permettra d’intégrer l’IA au processus d’apprentissage sans compromettre le développement des compétences essentielles. Tout comme les calculatrices n’ont pas remplacé l’apprentissage des mathématiques, l’IA ne remplacera pas l’apprentissage de l’écriture et de la pensée critique. Cela prendra peut-être du temps, mais nous y parviendrons », explique Mollick, toujours optimiste.

Pourquoi faire des devoirs quand l’IA les rend obsolètes ?

Mais l’impact de l’IA ne se limite pas à l’écriture, estime Mollick. Elle peut aussi être un vulgarisateur très efficace et ChatGPT peut répondre à bien des questions. L’arrivée de l’IA remet en cause les méthodes d’enseignements traditionnelles que sont les cours magistraux, qui ne sont pas si efficaces et dont les alternatives, pour l’instant, n’ont pas connu le succès escompté. « Les cours magistraux ont tendance à reposer sur un apprentissage passif, où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Dans ce format, les étudiants peuvent avoir du mal à retenir l’information, car leur attention peut facilement faiblir lors de longues présentations. De plus, l’approche universelle des cours magistraux ne tient pas compte des différences et des capacités individuelles, ce qui conduit certains étudiants à prendre du retard tandis que d’autres se désintéressent, faute de stimulation ». Mollick est plutôt partisan de l’apprentissage actif, qui supprime les cours magistraux et invite les étudiants à participer au processus d’apprentissage par le biais d’activités telles que la résolution de problèmes, le travail de groupe et les exercices pratiques. Dans cette approche, les étudiants collaborent entre eux et avec l’enseignant pour mettre en pratique leurs apprentissages. Une méthode que plusieurs études valorisent comme plus efficaces, même si les étudiants ont aussi besoin d’enseignements initiaux appropriés. 

La solution pour intégrer davantage d’apprentissage actif passe par les classes inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices. Afin de maximiser le temps consacré à l’apprentissage actif et à la pensée critique, tout en utilisant l’apprentissage à domicile pour la transmission du contenu. 

Pourtant, reconnaît Mollick, l’apprentissage actif peine à s’imposer, notamment parce que les professeurs manquent de ressources de qualité et de matériel pédagogique inversé de qualité. Des lacunes que l’IA pourrait bien combler. Mollick imagine alors une classe où des tuteurs IA personnalisés viendraient accompagner les élèves, adaptant leur enseignement aux besoins des élèves tout en ajustant les contenus en fonction des performances des élèves, à la manière du manuel électronique décrit dans L’âge de diamant de Neal Stephenson, emblème du rêve de l’apprentissage personnalisé. Face aux difficultés, Mollick à tendance à toujours se concentrer « sur une vision positive pour nous aider à traverser les temps incertains à venir ». Pas sûr que cela suffise. 

Dans son article d’août 2023, Mollick estime que les élèves vont bien sûr utiliser l’IA pour tricher et vont l’intégrer dans tout ce qu’ils font. Mais surtout, ils vont nous renvoyer une question à laquelle nous allons devoir répondre : ils vont vouloir comprendre pourquoi faire des devoirs quand l’IA les rend obsolètes ?

Perturbation de l’écriture et de la lecture

Mollick rappelle que la dissertation est omniprésente dans l’enseignement. L’écriture remplit de nombreuses fonctions notamment en permettant d’évaluer la capacité à raisonner et à structurer son raisonnement. Le problème, c’est que les dissertations sont très faciles à générer avec l’IA générative. Les détecteurs de leur utilisation fonctionnent très mal et il est de plus en plus facile de les contourner. A moins de faire tout travail scolaire en classe et sans écrans, nous n’avons plus de moyens pour détecter si un travail est réalisé par l’homme ou la machine. Le retour des dissertations sur table se profile, quitte à grignoter beaucoup de temps d’apprentissage.

Mais pour Mollick, les écoles et les enseignants vont devoir réfléchir sérieusement à l’utilisation acceptable de l’IA. Est-ce de la triche de lui demander un plan ? De lui demander de réécrire ses phrases ? De lui demander des références ou des explications ? Qu’est-ce qui peut-être autorisé et comment les utiliser ? 

Pour les étudiants du supérieur auxquels il donne cours, Mollick a fait le choix de rendre l’usage de l’IA obligatoire dans ses cours et pour les devoirs, à condition que les modalités d’utilisation et les consignes données soient précisées. Pour lui, cela lui a permis d’exiger des devoirs plus ambitieux, mais a rendu la notation plus complexe.  

Mollick rappelle qu’une autre activité éducative primordiale reste la lecture. « Qu’il s’agisse de rédiger des comptes rendus de lecture, de résumer des chapitres ou de réagir à des articles, toutes ces tâches reposent sur l’attente que les élèves assimilent la lecture et engagent un dialogue avec elle ». Or, l’IA est là encore très performante pour lire et résumer. Mollick suggère de l’utiliser comme partenaire de lecture, en favorisant l’interaction avec l’IA, pour approfondir les synthèses… Pas sûr que la perspective apaise la panique morale qui se déverse dans la presse sur le fait que les étudiants ne lisent plus. Du New Yorker (« Les humanités survivront-elles à ChatGPT ? » ou « Est-ce que l’IA encourage vraiement les élèves à tricher ? ») à The Atlantic (« Les étudiants ne lisent plus de livres » ou « La génération Z voit la lecture comme une perte de temps ») en passant par les pages opinions du New York Times (qui explique par exemple que si les étudiants ne lisent plus c’est parce que les compétences ne sont plus valorisées nulles part), la perturbation que produit l’arrivée de ChatGPT dans les études se double d’une profonde chute de la lecture, qui semble être devenue d’autant plus inutile que les machines les rendent disponibles. Mêmes inquiétudes dans la presse de ce côté-ci de l’Atlantique, du Monde à Médiapart en passant par France Info

Mais l’IA ne menace pas que la lecture ou l’écriture. Elle sait aussi très bien résoudre les problèmes et exercices de math comme de science.

Pour Mollick, comme pour bien des thuriféraires de l’IA, c’est à l’école et à l’enseignement de s’adapter aux perturbations générées par l’IA, qu’importe si la société n’a pas demandé le déploiement de ces outils. D’ailleurs, soulignait-il très récemment, nous sommes déjà dans une éducation postapocalyptique. Selon une enquête de mai 2024, aux Etats-Unis 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA. Une adoption extrêmement rapide. Même si les élèves ont beau dos de ne pas considérer son utilisation comme de la triche. Pour Mollick, « la triche se produit parce que le travail scolaire est difficile et comporte des enjeux importants ». L’être humain est doué pour trouver comment se soustraire ce qu’il ne souhaite pas faire et éviter l’effort mental. Et plus les tâches mentales sont difficiles, plus nous avons tendance à les éviter. Le problème, reconnaît Mollick, c’est que dans l’éducation, faire un effort reste primordial.

Dénis et illusions

Pourtant, tout le monde semble être dans le déni et l’illusion. Les enseignants croient pouvoir détecter facilement l’utilisation de l’IA et donc être en mesure de fixer les barrières. Ils se trompent très largement. Une écriture d’IA bien stimulée est même jugée plus humaine que l’écriture humaine par les lecteurs. Pour les professeurs, la seule option consiste à revenir à l’écriture en classe, ce qui nécessite du temps qu’ils n’ont pas nécessairement et de transformer leur façon de faire cours, ce qui n’est pas si simple.

Mais les élèves aussi sont dans l’illusion. « Ils ne réalisent pas réellement que demander de l’aide pour leurs devoirs compromet leur apprentissage ». Après tout, ils reçoivent des conseils et des réponses de l’IA qui les aident à résoudre des problèmes, qui semble rendre l’apprentissage plus fluide. Comme l’écrivent les auteurs de l’étude de Rutgers : « Rien ne permet de croire que les étudiants sont conscients que leur stratégie de devoirs diminue leur note à l’examen… ils en déduisent, de manière logique, que toute stratégie d’étude augmentant leur note à un devoir augmente également leur note à l’examen ». En fait, comme le montre une autre étude, en utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec l’outil. Par contre, quand ils sont accompagnés pour comprendre comment l’utiliser comme coach plutôt qu’outil de réponse, alors l’outil les aide à la fois à améliorer leurs notes aux devoirs comme à l’examen. Une autre étude, dans un cours de programmation intensif à Stanford, a montré que l’usage des chatbots améliorait plus que ne diminuait les notes aux examens.

Une majorité de professeurs estiment que l’usage de ChatGPT est un outil positif pour l’apprentissage. Pour Mollick, l’IA est une aide pour comprendre des sujets complexes, réfléchir à des idées, rafraîchir ses connaissances, obtenir un retour, des conseils… Mais c’est peut-être oublier de sa part, d’où il parle et combien son expertise lui permet d’avoir un usage très évolué de ces outils. Ce qui n’est pas le cas des élèves.

Encourager la réflexion et non la remplacer

Pour que les étudiants utilisent l’IA pour stimuler leur réflexion plutôt que la remplacer, il va falloir les accompagner, estime Mollick. Mais pour cela, peut-être va-t-il falloir nous intéresser aux professeurs, pour l’instant laissés bien dépourvus face à ces nouveaux outils. 

Enfin, pas tant que cela. Car eux aussi utilisent l’IA. Selon certains sondages américains, trois quart des enseignants utiliseraient désormais l’IA dans leur travail, mais nous connaissons encore trop peu les méthodes efficaces qu’ils doivent mobiliser. Une étude qualitative menée auprès d’eux a montré que ceux qui utilisaient l’IA pour aider leurs élèves à réfléchir, pour améliorer les explications obtenaient de meilleurs résultats. Pour Mollick, la force de l’IA est de pouvoir créer des expériences d’apprentissage personnalisées, adaptées aux élèves et largement accessibles, plus que les technologies éducatives précédentes ne l’ont jamais été. Cela n’empêche pas Mollick de conclure par le discours lénifiant habituel : l’éducation quoiqu’il en soit doit s’adapter ! 

Cela ne veut pas dire que cette adaptation sera très facile ou accessible, pour les professeurs, comme pour les élèves. Dans l’éducation, rappellent les psychologues Andrew Wilson et Sabrina Golonka sur leur blog, « le processus compte bien plus que le résultat« . Or, l’IA fait à tous la promesse inverse. En matière d’éducation, cela risque d’être dramatique, surtout si nous continuons à valoriser le résultat (les notes donc) sur le processus. David Brooks ne nous disait pas autre chose quand il constatait les limites de notre méritocratie actuelle. C’est peut-être par là qu’il faudrait d’ailleurs commencer, pour résoudre l’IApocalypse éducative…

Pour Mollick cette évolution « exige plus qu’une acceptation passive ou une résistance futile ». « Elle exige une refonte fondamentale de notre façon d’enseigner, d’apprendre et d’évaluer les connaissances. À mesure que l’IA devient partie intégrante du paysage éducatif, nos priorités doivent évoluer. L’objectif n’est pas de déjouer l’IA ou de faire comme si elle n’existait pas, mais d’exploiter son potentiel pour améliorer l’éducation tout en atténuant ses inconvénients. La question n’est plus de savoir si l’IA transformera l’éducation, mais comment nous allons façonner ce changement pour créer un environnement d’apprentissage plus efficace, plus équitable et plus stimulant pour tous ». Plus facile à dire qu’à faire. Expérimenter prend du temps, trouver de bons exercices, changer ses pratiques… pour nombre de professeurs, ce n’est pas si évident, d’autant qu’ils ont peu de temps disponible pour se faire ou se former.  La proposition d’Anthropic de produire une IA dédiée à l’accompagnement des élèves (Claude for Education) qui ne cherche pas à fournir des réponses, mais produit des modalités pour accompagner les élèves à saisir les raisonnements qu’ils doivent échafauder, est certes stimulante, mais il n’est pas sûr qu’elle ne soit pas contournable.

Dans les commentaires des billets de Mollick, tout le monde se dispute, entre ceux qui pensent plutôt comme Mollick et qui ont du temps pour s’occuper de leurs élèves, qui vont pouvoir faire des évaluations orales et individuelles, par exemple (ce que l’on constate aussi dans les cursus du supérieur en France, rapportait le Monde). Et les autres, plus circonspects sur les évolutions en cours, où de plus en plus souvent des élèves produisent des contenus avec de l’IA que leurs professeurs font juger par des IA… On voit bien en tout cas, que la question de l’IA générative et ses usages, ne pourra pas longtemps rester une question qu’on laisse dans les seules mains des professeurs et des élèves, à charge à eux de s’en débrouiller.

Hubert Guillaud

La seconde partie est par là.

  • ✇Dans les algorithmes
  • 25 juin : DLA en fête !
    Mercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA. Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons p
     

25 juin : DLA en fête !

23 juin 2025 à 01:00

Mercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons pour comprendre de quelle information sur le numérique avons-nous besoin, à l’heure où l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fêter notre première bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. Découvrez le programme !

  • ✇Dans les algorithmes
  • 25 juin : DLA en fête !
    Mercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA. Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons p
     

25 juin : DLA en fête !

23 juin 2025 à 01:00

Mercredi 25 juin à 18h30 retrouvez nous chez Matrice, 146 boulevard de Charonne dans le 20e à Paris, pour fêter la première année d’existence de Danslesalgorithmes.net. Avec François-Xavier Petit, directeur de Matrice.io et président de l’association Vecteur, nous reviendrons sur notre ambition et ferons le bilan de la première année d’existence de DLA.

Avec Xavier de la Porte, journaliste au Nouvel Obs et producteur du podcast de France Inter, le Code a changé, nous nous interrogerons pour comprendre de quelle information sur le numérique avons-nous besoin, à l’heure où l’IA vient partout bouleverser sa place.

Venez en discuter avec nous et partager un verre pour fêter notre première bougie.

Inscription requise.

Matrice propose tous les soirs de cette semaine des moments d’échange et de rencontre, via son programme Variations. Découvrez le programme !

  • ✇Dans les algorithmes
  • Ecrire le code du numérique
    C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un gro
     

Ecrire le code du numérique

19 juin 2025 à 01:00

C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge

Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.

Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.

Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.

Cet article a été publié originellement pour la lettre d’information du Conseil national du numérique du 23 mai 2025.

Le Code du numérique.
  • ✇Dans les algorithmes
  • Ecrire le code du numérique
    C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un gro
     

Ecrire le code du numérique

19 juin 2025 à 01:00

C’est une formidable histoire que raconte le Code du numérique. Un livre édité par les Habitant.es des images ASBL et la Cellule pour la réduction des inégalités sociales et de la lutte contre la pauvreté de Bruxelles. Ce livre est le résultat de trois années d’action nées des difficultés qu’ont éprouvé les plus démunis à accéder à leurs droits durant la pandémie. En réaction à la fermeture des guichets d’aide sociale pendant la crise Covid, des militants du secteur social belge ont lancé un groupe de travail pour visibiliser le vécu collectif des souffrances individuelles des plus précaires face au déploiement du numérique, donnant naissance au Comité humain du numérique. “La digitalisation de la société n’a pas entraîné une amélioration généralisée des compétences numériques”, rappelle le Comité en s’appuyant sur le baromètre de l’inclusion numérique belge

Le Comité humain du numérique s’installe alors dans les quartiers et, avec les habitants, décide d’écrire un Code de loi : “Puisque l’Etat ne nous protège pas, écrivons les lois à sa place”. Rejoints par d’autres collectifs, le Comité humain se met à écrire la loi avec les habitants, depuis les témoignages de ceux qui n’arrivent pas à accomplir les démarches qu’on leur demande. Manifestations, séances d’écriture publique, délibérations publiques, parlement de rues… Le Comité implique les habitants, notamment contre l’ordonnance Bruxelles numérique qui veut rendre obligatoire les services publics digitalisés, sans garantir le maintien des guichets humains et rejoint la mobilisation coordonnée par le collectif Lire et écrire et plus de 200 associations. Devant le Parlement belge, le Comité humain organise des parlements humains de rue pour réclamer des guichets ! Suite à leur action, l’ordonnance Bruxelles numérique est amendée d’un nouvel article qui détermine des obligations pour les administrations à prévoir un accès par guichet, téléphone et voie postale – mais prévoit néanmoins la possibilité de s’en passer si les charges sont disproportionnées. Le collectif œuvre désormais à attaquer l’ordonnance devant la cour constitutionnelle belge et continue sa lutte pour refuser l’obligation au numérique.

Mais l’essentiel n’est pas que dans la victoire à venir, mais bien dans la force de la mobilisation et des propositions réalisées. Le Code du numérique ce sont d’abord 8 articles de lois amendés et discutés par des centaines d’habitants. L’article 1er rappelle que tous les services publics doivent proposer un accompagnement humain. Il rappelle que “si un robot ne nous comprend pas, ce n’est pas nous le problème”. Que cet accès doit être sans condition, c’est-à-dire gratuit, avec des temps d’attente limités, “sans rendez-vous”, sans obligation de maîtrise de la langue ou de l’écriture. Que l’accompagnement humain est un droit. Que ce coût ne doit pas reposer sur d’autres, que ce soit les proches, les enfants, les aidants ou les travailleurs sociaux. Que l’Etat doit veiller à cette accessibilité humaine et qu’il doit proposer aux citoyen.nes des procédures gratuites pour faire valoir leurs droits. L’article 2 rappelle que c’est à l’Etat d’évaluer l’utilité et l’efficacité des nouveaux outils numériques qu’il met en place : qu’ils doivent aider les citoyens et pas seulement les contrôler. Que cette évaluation doit associer les utilisateurs, que leurs impacts doivent être contrôlés, limités et non centralisés. L’article 3 rappelle que l’Etat doit créer ses propres outils et que les démarches administratives ne peuvent pas impliquer le recours à un service privé. L’article 4 suggère de bâtir des alternatives aux solutions numériques qu’on nous impose. L’article 5 suggère que leur utilisation doit être contrainte et restreinte, notamment selon les lieux ou les âges et souligne que l’apprentissage comme l’interaction entre parents et écoles ne peut être conditionnée par des outils numériques. L’article 6 en appelle à la création d’un label rendant visible le niveau de dangerosité physique ou mentale des outils, avec des possibilités de signalement simples. L’article 7 milite pour un droit à pouvoir se déconnecter sans se justifier. Enfin, l’article 8 plaide pour une protection des compétences humaines et de la rencontre physique, notamment dans le cadre de l’accès aux soins. “Tout employé.e/étudiant.e/patient.e/client.e a le droit d’exiger de rencontrer en face à face un responsable sur un lieu physique”. L’introduction de nouveaux outils numériques doit être développée et validée par ceux qui devront l’utiliser.

Derrière ces propositions de lois, simples, essentielles… la vraie richesse du travail du Comité humain du numérique est de proposer, de donner à lire un recueil de paroles qu’on n’entend nulle part. Les propos des habitants, des individus confrontés à la transformation numérique du monde, permettent de faire entendre des voix qui ne parviennent plus aux oreilles des concepteurs du monde. Des paroles simples et fortes. Georges : “Ce que je demanderai aux politiciens ? C’est de nous protéger de tout ça.” Anthony : “Internet devait être une plateforme et pas une vie secondaire”. Nora : “En tant qu’assistante sociale, le numérique me surresponsabilise et rend le public surdépendant de moi. Je suis le dernier maillon de la chaîne, l’échec social passe par moi. Je le matérialise”. Amina : “Je ne sais pas lire, je ne sais pas écrire. Mais je sais parler. Le numérique ne me laisse pas parler”. Aïssatou : “Maintenant tout est trop difficile. S’entraider c’est la vie. Avec le numérique il n’y a plus personne pour aider”. Khalid : “Qu’est-ce qui se passe pour les personnes qui n’ont pas d’enfant pour les aider ?” Elise : “Comment s’assurer qu’il n’y a pas de discrimination ?” Roger : “Le numérique est utilisé pour décourager les démarches”, puisque bien souvent on ne peut même pas répondre à un courriel. AnaÎs : “Il y a plein d’infos qui ne sont pas numérisées, car elles n’entrent pas dans les cases. La passation d’information est devenue très difficile”… Le Code du numérique nous “redonne à entendre les discours provenant des classes populaires”, comme nous y invitait le chercheur David Gaborieau dans le rapport “IA : la voie citoyenne”.

Le Code du numérique nous rappelle que désormais, les institutions s’invitent chez nous, dans nos salons, dans nos lits. Il rappelle que l’accompagnement humain sera toujours nécessaire pour presque la moitié de la population. Que “l’aide au remplissage” des documents administratifs ne peut pas s’arrêter derrière un téléphone qui sonne dans le vide. Que “la digitalisation des services publics et privés donne encore plus de pouvoir aux institutions face aux individus”. Que beaucoup de situations n’entreront jamais dans les “cases” prédéfinies.Le Code du numérique n’est pas qu’une expérience spécifique et située, rappellent ses porteurs. “Il est là pour que vous vous en empariez”. Les lois proposées sont faites pour être débattues, modifiées, amendées, adaptées. Les auteurs ont créé un jeu de cartes pour permettre à d’autres d’organiser un Parlement humain du numérique. Il détaille également comment créer son propre Comité humain, invite à écrire ses propres lois depuis le recueil de témoignages des usagers, en ouvrant le débat, en écrivant soi-même son Code, ses lois, à organiser son parlement et documente nombre de méthodes et d’outils pour interpeller, mobiliser, intégrer les contributions. Bref, il invite à ce que bien d’autres Code du numérique essaiment, en Belgique et bien au-delà ! A chacun de s’en emparer.

Cet article a été publié originellement pour la lettre d’information du Conseil national du numérique du 23 mai 2025.

Le Code du numérique.
  • ✇Dans les algorithmes
  • Chatbots, une adoption sans impact ?
    Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement
     

Chatbots, une adoption sans impact ?

18 juin 2025 à 01:00

Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

  • ✇Dans les algorithmes
  • Chatbots, une adoption sans impact ?
    Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement
     

Chatbots, une adoption sans impact ?

18 juin 2025 à 01:00

Dans sa dernière newsletter, Algorithm Watch revient sur une étude danoise qui a observé les effets des chatbots sur le travail auprès de 25 000 travailleurs provenant de 11 professions différentes où des chatbots sont couramment utilisés (développeurs, journalistes, professionnels RH, enseignants…). Si ces travailleurs ont noté que travailler avec les chatbots leur permettait de gagner du temps, d’améliorer la qualité de leur travail, le gain de temps s’est avéré modeste, représentant seulement 2,8% du total des heures de travail. La question des gains de productivité de l’IA générative dépend pour l’instant beaucoup des études réalisées, des tâches et des outils. Les gains de temps varient certes un peu selon les profils de postes (plus élevés pour les professions du marketing (6,8%) que pour les enseignants (0,2%)), mais ils restent bien modestes.”Sans flux de travail modifiés ni incitations supplémentaires, la plupart des effets positifs sont vains”

Algorithm Watch se demande si les chatbots ne sont pas des outils de travail improductifs. Il semblerait plutôt que, comme toute transformation, elle nécessite surtout des adaptations organisationnelles ad hoc pour en développer les effets.

  • ✇Dans les algorithmes
  • Pour une science de la subjectivité
    « J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! »  Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.  Où est le
     

Pour une science de la subjectivité

17 juin 2025 à 01:00

« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! » 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

Où est le neurone ?

« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent  ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.

Les données ne suffisent pas

Dans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces

Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience. 

Albert Moukheiber sur la scène d’USI 2025.

La subjectivité nous échappe

Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? » 

Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironise Moukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse. 

Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? » 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est »

La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est. 

*

Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens »

« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».

Hubert Guillaud

  • ✇Dans les algorithmes
  • Pour une science de la subjectivité
    « J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! »  Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau.  Où est le
     

Pour une science de la subjectivité

17 juin 2025 à 01:00

« J’aimerais vous confronter à un problème de calcul difficile », attaque Albert Moukheiber sur la scène de la conférence USI 2025. « Dans les sciences cognitives, on est confronté à un problème qu’on n’arrive pas à résoudre : la subjectivité ! » 

Le docteur en neuroscience et psychologue clinicien, auteur de Votre cerveau vous joue des tours (Allary éditions 2019) et de Neuromania (Allary éditions, 2024), commence par faire un rapide historique de ce qu’on sait sur le cerveau. 

Où est le neurone ?

« Contrairement à d’autres organes, un cerveau mort n’a rien à dire sur son fonctionnement. Et pendant très longtemps, nous n’avons pas eu d’instruments pour comprendre un cerveau ». En fait, les technologies permettant d’ausculter le cerveau, de cartographier son activité, sont assez récentes et demeurent bien peu précises. Pour cela, il faut être capable de mesurer son activité, de voir où se font les afflux d’énergie et l’activité chimique. C’est seulement assez récemment, depuis les années 1990 surtout, qu’on a développé des technologies pour étudier cette activité, avec les électro-encéphalogrammes, puis avec l’imagerie par résonance magnétique (IRM) structurelle et surtout fonctionnelle. L’IRM fonctionnelle est celle que les médecins vous prescrivent. Elle mesure la matière cérébrale permettant de créer une image en noir et blanc pour identifier des maladies, des lésions, des tumeurs. Mais elle ne dit rien de l’activité neuronale. Seule l’IRM fonctionnelle observe l’activité, mais il faut comprendre que les images que nous en produisons sont peu précises et demeurent probabilistes. Les images de l’IRMf font apparaître des couleurs sur des zones en activité, mais ces couleurs ne désignent pas nécessairement une activité forte de ces zones, ni que le reste du cerveau est inactif. L’IRMf tente de montrer que certaines zones sont plus actives que d’autres parce qu’elles sont plus alimentées en oxygène et en sang. L’IRMf fonctionne par soustraction des images passées. Le patient dont on mesure l’activité cérébrale est invité à faire une tâche en limitant au maximum toute autre activité que celle demandée et les scientifiques comparent  ces images à des précédentes pour déterminer quelles zones sont affectées quand vous fermez le poing par exemple. « On applique des calculs de probabilité aux soustractions pour tenter d’isoler un signal dans un océan de bruits », précise Moukheiber dans Neuromania. L’IRMf n’est donc pas un enregistrement direct de l’activation cérébrale pour une tâche donnée, mais « une reconstruction a posteriori de la probabilité qu’une aire soit impliquée dans cette tâche ». En fait, les couleurs indiquent des probabilités. « Ces couleurs n’indiquent donc pas une intensité d’activité, mais une probabilité d’implication ». Enfin, les mesures que nous réalisons n’ont rien de précis, rappelle le chercheur. La précision de l’IRMf est le voxel, qui contient environ 5,5 millions de neurones ! Ensuite, l’IRMf capture le taux d’oxygène, alors que la circulation sanguine est bien plus lente que les échanges chimiques de nos neurones. Enfin, le traitement de données est particulièrement complexe. Une étude a chargé plusieurs équipes d’analyser un même ensemble de données d’IRMf et n’a pas conduit aux mêmes résultats selon les équipes. Bref, pour le dire simplement, le neurone est l’unité de base de compréhension de notre cerveau, mais nos outils ne nous permettent pas de le mesurer. Il faut dire qu’il n’est pas non plus le bon niveau explicatif. Les explications établies à partir d’images issues de l’IRMf nous donnent donc plus une illusion de connaissance réelle qu’autre chose. D’où l’enjeu à prendre les résultats de nombre d’études qui s’appuient sur ces images avec beaucoup de recul. « On peut faire dire beaucoup de choses à l’imagerie cérébrale » et c’est assurément ce qui explique qu’elle soit si utilisée.

Les données ne suffisent pas

Dans les années 50-60, le courant de la cybernétique pensait le cerveau comme un organe de traitement de l’information, qu’on devrait étudier comme d’autres machines. C’est la naissance de la neuroscience computationnelle qui tente de modéliser le cerveau à l’image des machines. Outre les travaux de John von Neumann, Claude Shannon prolonge ces idées d’une théorie de l’information qui va permettre de créer des « neurones artificiels », qui ne portent ce nom que parce qu’ils ont été créés pour fonctionner sur le modèle d’un neurone. En 1957, le Perceptron de Frank Rosenblatt est considéré comme la première machine à utiliser un réseau neuronal artificiel. Mais on a bien plus appliqué le lexique du cerveau aux ordinateurs qu’autre chose, rappelle Albert Moukheiber. 

Aujourd’hui, l’Intelligence artificielle et ses « réseaux de neurones » n’a plus rien à voir avec la façon dont fonctionne le cerveau, mais les neurosciences computationnelles, elles continuent, notamment pour aider à faire des prothèses adaptées comme les BCI, Brain Computer Interfaces

Désormais, faire de la science consiste à essayer de comprendre comment fonctionne le monde naturel depuis un modèle. Jusqu’à récemment, on pensait qu’il fallait des théories pour savoir quoi faire des données, mais depuis l’avènement des traitements probabilistes et du Big Data, les modèles théoriques sont devenus inutiles, comme l’expliquait Chris Anderson dans The End of Theory en 2008. En 2017, des chercheurs se sont tout de même demandé si l’on pouvait renverser l’analogie cerveau-ordinateur en tentant de comprendre le fonctionnement d’un microprocesseur depuis les outils des neurosciences. Malgré l’arsenal d’outils à leur disposition, les chercheurs qui s’y sont essayé ont été incapables de produire un modèle de son fonctionnement. Cela nous montre que comprendre un fonctionnement ne nécessite pas seulement des informations techniques ou des données, mais avant tout des concepts pour les organiser. En fait, avoir accès à une quantité illimitée de données ne suffit pas à comprendre ni le processeur ni le cerveau. En 1974, le philosophe des sciences, Thomas Nagel, avait proposé une expérience de pensée avec son article « Quel effet ça fait d’être une chauve-souris ? ». Même si l’on connaissait tout d’une chauve-souris, on ne pourra jamais savoir ce que ça fait d’être une chauve-souris. Cela signifie qu’on ne peut jamais atteindre la vie intérieure d’autrui. Que la subjectivité des autres nous échappe toujours. C’est là le difficile problème de la conscience. 

Albert Moukheiber sur la scène d’USI 2025.

La subjectivité nous échappe

Une émotion désigne trois choses distinctes, rappelle Albert Moukheiber. C’est un état biologique qu’on peut tenter d’objectiver en trouvant des modalités de mesure, comme le tonus musculaire. C’est un concept culturel qui a des ancrages et valeurs très différentes d’une culture l’autre. Mais c’est aussi et d’abord un ressenti subjectif. Ainsi, par exemple, le fait de se sentir triste n’est pas mesurable. « On peut parfaitement comprendre le cortex moteur et visuel, mais on ne comprend pas nécessairement ce qu’éprouve le narrateur de Proust quand il mange la fameuse madeleine. Dix personnes peuvent être émues par un même coucher de soleil, mais sont-elles émues de la même manière ? » 

Notre réductionnisme objectivant est là confronté à des situations qu’il est difficile de mesurer. Ce qui n’est pas sans poser problèmes, notamment dans le monde de l’entreprise comme dans celui de la santé mentale. 

Le monde de l’entreprise a créé d’innombrables indicateurs pour tenter de mesurer la performance des salariés et collaborateurs. Il n’est pas le seul, s’amuse le chercheur sur scène. Les notes des étudiants leurs rappellent que le but est de réussir les examens plus que d’apprendre. C’est la logique de la loi de Goodhart : quand la mesure devient la cible, elle n’est plus une bonne mesure. Pour obtenir des bonus financiers liés au nombre d’opérations réussies, les chirurgiens réalisent bien plus d’opérations faciles que de compliquées. Quand on mesure les humains, ils ont tendance à modifier leur comportement pour se conformer à la mesure, ce qui n’est pas sans effets rebond, à l’image du célèbre effet cobra, où le régime colonial britannique offrit une prime aux habitants de Delhi qui rapporteraient des cobras morts pour les éradiquer, mais qui a poussé à leur démultiplication pour toucher la prime. En entreprises, nombre de mesures réalisées perdent ainsi très vite de leur effectivité. Moukheiber rappelle que les innombrables tests de personnalité ne valent pas mieux qu’un horoscope. L’un des tests le plus utilisé reste le MBTI qui a été développé dans les années 30 par des personnes sans aucune formation en psychologie. Non seulement ces tests n’ont aucun cadre théorique (voir ce que nous en disait le psychologue Alexandre Saint-Jevin, il y a quelques années), mais surtout, « ce sont nos croyances qui sont déphasées. Beaucoup de personnes pensent que la personnalité des individus serait centrale dans le cadre professionnel. C’est oublier que Steve Jobs était surtout un bel enfoiré ! », comme nombre de ces « grands » entrepreneurs que trop de gens portent aux nuesComme nous le rappelions nous-mêmes, la recherche montre en effet que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité. « Ces tests nous demandent d’y répondre personnellement, quand ce devrait être d’abord à nos collègues de les passer pour nous », ironise Moukheiber. Ils supposent surtout que la personnalité serait « stable », ce qui n’est certainement pas si vrai. Enfin, ces tests oublient que bien d’autres facteurs ont peut-être bien plus d’importance que la personnalité : les compétences, le fait de bien s’entendre avec les autres, le niveau de rémunération, le cadre de travail… Mais surtout, ils ont tous un effet « barnum » : n’importe qui est capable de se reconnaître dedans. Dans ces tests, les résultats sont toujours positifs, même les gens les plus sadiques seront flattés des résultats. Bref, vous pouvez les passer à la broyeuse. 

Dans le domaine de la santé mentale, la mesure de la subjectivité est très difficile et son absence très handicapante. La santé mentale est souvent vue comme une discipline objectivable, comme le reste de la santé. Le modèle biomédical repose sur l’idée qu’il suffit d’ôter le pathogène pour aller mieux. Il suffirait alors d’enlever les troubles mentaux pour enlever le pathogène. Bien sûr, ce n’est pas le cas. « Imaginez un moment, vous êtes une femme brillante de 45 ans, star montante de son domaine, travaillant dans une entreprise où vous êtes très valorisée. Vous êtes débauché par la concurrence, une entreprise encore plus brillante où vous allez pouvoir briller encore plus. Mais voilà, vous y subissez des remarques sexistes permanentes, tant et si bien que vous vous sentez moins bien, que vous perdez confiance, que vous développez un trouble anxieux. On va alors pousser la personne à se soigner… Mais le pathogène n’est ici pas en elle, il est dans son environnement. N’est-ce pas ici ses collègues qu’il faudrait pousser à se faire soigner ? » 

En médecine, on veut toujours mesurer les choses. Mais certaines restent insondables. Pour mesurer la douleur, il existe une échelle de la douleur.

Exemple d’échelle d’évaluation de la douleur.

« Mais deux personnes confrontés à la même blessure ne vont pas l’exprimer au même endroit sur l’échelle de la douleur. La douleur n’est pas objectivable. On ne peut connaître que les douleurs qu’on a vécu, à laquelle on les compare ». Mais chacun a une échelle de comparaison différente, car personnelle. « Et puis surtout, on est très doué pour ne pas croire et écouter les gens. C’est ainsi que l’endométriose a mis des années pour devenir un problème de santé publique. Une femme à 50% de chance d’être qualifiée en crise de panique quand elle fait un AVC qu’un homme »… Les exemples en ce sens sont innombrables. « Notre obsession à tout mesurer finit par nier l’existence de la subjectivité ». Rapportée à moi, ma douleur est réelle et handicapante. Rapportée aux autres, ma douleur n’est bien souvent perçue que comme une façon de se plaindre. « Les sciences cognitives ont pourtant besoin de meilleures approches pour prendre en compte cette phénoménologie. Nous avons besoin d’imaginer les moyens de mesurer la subjectivité et de la prendre plus au sérieux qu’elle n’est »

La science de la subjectivité n’est pas dénuée de tentatives de mesure, mais elles sont souvent balayées de la main, alors qu’elles sont souvent plus fiables que les mesures dites objectives. « Demander à quelqu’un comment il va est souvent plus parlant que les mesures électrodermales qu’on peut réaliser ». Reste que les mesures physiologiques restent toujours très séduisantes que d’écouter un patient, un peu comme quand vous ajoutez une image d’une IRM à un article pour le rendre plus sérieux qu’il n’est. 

*

Pour conclure la journée, Christian Fauré, directeur scientifique d’Octo Technology revenait sur son thème, l’incalculabilité. « Trop souvent, décider c’est calculer. Nos décisions ne dépendraient plus alors que d’une puissance de calcul, comme nous le racontent les chantres de l’IA qui s’empressent à nous vendre la plus puissante. Nos décisions sont-elles le fruit d’un calcul ? Nos modèles d’affaires dépendent-ils d’un calcul ? Au tout début d’OpenAI, Sam Altman promettait d’utiliser l’IA pour trouver un modèle économique à OpenAI. Pour lui, décider n’est rien d’autre que calculer. Et le calcul semble pouvoir s’appliquer à tout. Certains espaces échappent encore, comme vient de le dire Albert Moukheiber. Tout n’est pas calculable. Le calcul ne va pas tout résoudre. Cela semble difficile à croire quand tout est désormais analysé, soupesé, mesuré« . « Il faut qu’il y ait dans le poème un nombre tel qu’il empêche de compter », disait Paul Claudel. Le poème n’est pas que de la mesure et du calcul, voulait dire Claudel. Il faut qu’il reste de l’incalculable, même chez le comptable, sinon à quoi bon faire ces métiers. « L’incalculable, c’est ce qui donne du sens »

« Nous vivons dans un monde où le calcul est partout… Mais il ne donne pas toutes les réponses. Et notamment, il ne donne pas de sens, comme disait Pascal Chabot. Claude Shannon, dit à ses collègues de ne pas donner de sens et de signification dans les données. Turing qui invente l’ordinateur, explique que c’est une procédure univoque, c’est-à-dire qu’elle est reliée à un langage qui n’a qu’un sens, comme le zéro et le un. Comme si finalement, dans cette abstraction pure, réduite à l’essentiel, il était impossible de percevoir le sens ».

Hubert Guillaud

  • ✇Dans les algorithmes
  • “Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
    Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de millia
     

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

16 juin 2025 à 01:00

Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.

“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.

Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire. 

La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025

”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »

La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages. 

  • ✇Dans les algorithmes
  • “Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”
    Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de millia
     

“Il est probable que l’empreinte environnementale de l’IA soit aujourd’hui la plus faible jamais atteinte”

16 juin 2025 à 01:00

Alors que l’IA s’intègre peu à peu partout dans nos vies, les ressources énergétiques nécessaires à cette révolution sont colossales. Les plus grandes entreprises technologiques mondiales l’ont bien compris et ont fait de l’exploitation de l’énergie leur nouvelle priorité, à l’image de Meta et Microsoft qui travaillent à la mise en service de centrales nucléaires pour assouvir leurs besoins. Tous les Gafams ont des programmes de construction de data centers démesurés avec des centaines de milliards d’investissements, explique la Technology Review. C’est le cas par exemple à Abilene au Texas, où OpenAI (associé à Oracle et SoftBank) construit un data center géant, premier des 10 mégasites du projet Stargate, explique un copieux reportage de Bloomberg, qui devrait coûter quelque 12 milliards de dollars (voir également le reportage de 40 minutes en vidéo qui revient notamment sur les tensions liées à ces constructions). Mais plus que de centres de données, il faut désormais parler « d’usine à IA », comme le propose le patron de Nvidia, Jensen Huang. 

“De 2005 à 2017, la quantité d’électricité destinée aux centres de données est restée relativement stable grâce à des gains d’efficacité, malgré la construction d’une multitude de nouveaux centres de données pour répondre à l’essor des services en ligne basés sur le cloud, de Facebook à Netflix”, explique la TechReview. Mais depuis 2017 et l’arrivée de l’IA, cette consommation s’est envolée. Les derniers rapports montrent que 4,4 % de l’énergie totale aux États-Unis est désormais destinée aux centres de données. “Compte tenu de l’orientation de l’IA – plus personnalisée, capable de raisonner et de résoudre des problèmes complexes à notre place, partout où nous regardons –, il est probable que notre empreinte IA soit aujourd’hui la plus faible jamais atteinte”. D’ici 2028, l’IA à elle seule pourrait consommer chaque année autant d’électricité que 22 % des foyers américains.

“Les chiffres sur la consommation énergétique de l’IA court-circuitent souvent le débat, soit en réprimandant les comportements individuels, soit en suscitant des comparaisons avec des acteurs plus importants du changement climatique. Ces deux réactions esquivent l’essentiel : l’IA est incontournable, et même si une seule requête est à faible impact, les gouvernements et les entreprises façonnent désormais un avenir énergétique bien plus vaste autour des besoins de l’IA”. ChatGPT est désormais considéré comme le cinquième site web le plus visité au monde, juste après Instagram et devant X. Et ChatGPT n’est que l’arbre de la forêt des applications de l’IA qui s’intègrent partout autour de nous. Or, rappelle la Technology Review, l’information et les données sur la consommation énergétique du secteur restent très parcellaires et lacunaires. Le long dossier de la Technology Review rappelle que si l’entraînement des modèles est énergétiquement coûteux, c’est désormais son utilisation qui devient problématique, notamment, comme l’explique très pédagogiquement Le Monde, parce que les requêtes dans un LLM, recalculent en permanence ce qu’on leur demande (et les calculateurs qui évaluent la consommation énergétique de requêtes selon les moteurs d’IA utilisés, comme Ecologits ou ComparIA s’appuient sur des estimations). Dans les 3000 centres de données qu’on estime en activité aux Etats-Unis, de plus en plus d’espaces sont consacrés à des infrastructures dédiées à l’IA, notamment avec des serveurs dotés de puces spécifiques qui ont une consommation énergétique importante pour exécuter leurs opérations avancées sans surchauffe.

Calculer l’impact énergétique d’une requête n’est pas aussi simple que de mesurer la consommation de carburant d’une voiture, rappelle le magazine. “Le type et la taille du modèle, le type de résultat généré et d’innombrables variables indépendantes de votre volonté, comme le réseau électrique connecté au centre de données auquel votre requête est envoyée et l’heure de son traitement, peuvent rendre une requête mille fois plus énergivore et émettrice d’émissions qu’une autre”. Outre cette grande variabilité de l’impact, il faut ajouter l’opacité des géants de l’IA à communiquer des informations et des données fiables et prendre en compte le fait que nos utilisations actuelles de l’IA sont bien plus frustres que les utilisations que nous aurons demain, dans un monde toujours plus agentif et autonome. La taille des modèles, la complexité des questions sont autant d’éléments qui influent sur la consommation énergétique. Bien évidemment, la production de vidéo consomme plus d’énergie qu’une production textuelle. Les entreprises d’IA estiment cependant que la vidéo générative a une empreinte plus faible que les tournages et la production classique, mais cette affirmation n’est pas démontrée et ne prend pas en compte l’effet rebond que génèrerait les vidéos génératives si elles devenaient peu coûteuses à produire. 

La Techno Review propose donc une estimation d’usage quotidien, à savoir en prenant comme moyenne le fait de poser 15 questions à un modèle d’IA génératives, faire 10 essais d’image et produire 5 secondes de vidéo. Ce qui équivaudrait (très grossièrement) à consommer 2,9 kilowattheures d’électricité, l’équivalent d’un micro-onde allumé pendant 3h30. Ensuite, les journalistes tentent d’évaluer l’impact carbone de cette consommation qui dépend beaucoup de sa localisation, selon que les réseaux sont plus ou moins décarbonés, ce qui est encore bien peu le cas aux Etats-Unis (voir notamment l’explication sur les modalités de calcul mobilisées par la Tech Review). “En Californie, produire ces 2,9 kilowattheures d’électricité produirait en moyenne environ 650 grammes de dioxyde de carbone. Mais produire cette même électricité en Virginie-Occidentale pourrait faire grimper le total à plus de 1 150 grammes”. On peut généraliser ces estimations pour tenter de calculer l’impact global de l’IA… et faire des calculs compliqués pour tenter d’approcher la réalité… “Mais toutes ces estimations ne reflètent pas l’avenir proche de l’utilisation de l’IA”. Par exemple, ces estimations reposent sur l’utilisation de puces qui ne sont pas celles qui seront utilisées l’année prochaine ou la suivante dans les “usines à IA” que déploie Nvidia, comme l’expliquait son patron, Jensen Huang, dans une des spectaculaires messes qu’il dissémine autour du monde. Dans cette course au nombre de token générés par seconde, qui devient l’indicateur clé de l’industrie, c’est l’architecture de l’informatique elle-même qui est modifiée. Huang parle de passage à l’échelle qui nécessite de générer le plus grand nombre de token possible et le plus rapidement possible pour favoriser le déploiement d’une IA toujours plus puissante. Cela passe bien évidemment par la production de puces et de serveurs toujours plus puissants et toujours plus efficaces. 

« Dans ce futur, nous ne nous contenterons pas de poser une ou deux questions aux modèles d’IA au cours de la journée, ni de leur demander de générer une photo”. L’avenir, rappelle la Technology Review, est celui des agents IA effectuent des tâches pour nous, où nous discutons en continue avec des agents, où nous “confierons des tâches complexes à des modèles de raisonnement dont on a constaté qu’ils consomment 43 fois plus d’énergie pour les problèmes simples, ou à des modèles de « recherche approfondie”, qui passeront des heures à créer des rapports pour nous ». Nous disposerons de modèles d’IA “personnalisés” par l’apprentissage de nos données et de nos préférences. Et ces modèles sont appelés à s’intégrer partout, des lignes téléphoniques des services clients aux cabinets médicaux… Comme le montrait les dernières démonstrations de Google en la matière : “En mettant l’IA partout, Google souhaite nous la rendre invisible”. “Il ne s’agit plus de savoir qui possède les modèles les plus puissants, mais de savoir qui les transforme en produits performants”. Et de ce côté, là course démarre à peine. Google prévoit par exemple d’intégrer l’IA partout, pour créer des résumés d’email comme des mailings automatisés adaptés à votre style qui répondront pour vous. Meta imagine intégrer l’IA dans toute sa chaîne publicitaire pour permettre à quiconque de générer des publicités et demain, les générer selon les profils : plus personne ne verra la même ! Les usages actuels de l’IA n’ont rien à voir avec les usages que nous aurons demain. Les 15 questions, les 10 images et les 5 secondes de vidéo que la Technology Review prend comme exemple d’utilisation quotidienne appartiennent déjà au passé. Le succès et l’intégration des outils d’IA des plus grands acteurs que sont OpenAI, Google et Meta vient de faire passer le nombre estimé des utilisateurs de l’IA de 700 millions en mars à 3,5 milliards en mai 2025

”Tous les chercheurs interrogés ont affirmé qu’il était impossible d’appréhender les besoins énergétiques futurs en extrapolant simplement l’énergie utilisée par les requêtes d’IA actuelles.” Le fait que les grandes entreprises de l’IA se mettent à construire des centrales nucléaires est d’ailleurs le révélateur qu’elles prévoient, elles, une explosion de leurs besoins énergétiques. « Les quelques chiffres dont nous disposons peuvent apporter un éclairage infime sur notre situation actuelle, mais les années à venir sont incertaines », déclare Sasha Luccioni de Hugging Face. « Les outils d’IA générative nous sont imposés de force, et il devient de plus en plus difficile de s’en désengager ou de faire des choix éclairés en matière d’énergie et de climat. »

La prolifération de l’IA fait peser des perspectives très lourdes sur l’avenir de notre consommation énergétique. “Entre 2024 et 2028, la part de l’électricité américaine destinée aux centres de données pourrait tripler, passant de 4,4 % actuellement à 12 %” Toutes les entreprises estiment que l’IA va nous aider à découvrir des solutions, que son efficacité énergétique va s’améliorer… Et c’est effectivement le cas. A entendre Jensen Huang de Nvidia, c’est déjà le cas, assure-t-il en vantant les mérites des prochaines génération de puces à venir. Mais sans données, aucune “projection raisonnable” n’est possible, estime les contributeurs du rapport du département de l’énergie américain. Surtout, il est probable que ce soient les usagers qui finissent par en payer le prix. Selon une nouvelle étude, les particuliers pourraient finir par payer une partie de la facture de cette révolution de l’IA. Les chercheurs de l’Electricity Law Initiative de Harvard ont analysé les accords entre les entreprises de services publics et les géants de la technologie comme Meta, qui régissent le prix de l’électricité dans les nouveaux centres de données gigantesques. Ils ont constaté que les remises accordées par les entreprises de services publics aux géants de la technologie peuvent augmenter les tarifs d’électricité payés par les consommateurs. Les impacts écologiques de l’IA s’apprêtent donc à être maximums, à mesure que ses déploiements s’intègrent partout. “Il est clair que l’IA est une force qui transforme non seulement la technologie, mais aussi le réseau électrique et le monde qui nous entoure”.

L’article phare de la TechReview, se prolonge d’un riche dossier. Dans un article, qui tente de contrebalancer les constats mortifères que le magazine dresse, la TechReview rappelle bien sûr que les modèles d’IA vont devenir plus efficaces, moins chers et moins gourmands énergétiquement, par exemple en entraînant des modèles avec des données plus organisées et adaptées à des tâches spécifiques. Des perspectives s’échaffaudent aussi du côté des puces et des capacités de calculs, ou encore par l’amélioration du refroidissement des centres de calculs. Beaucoup d’ingénieurs restent confiants. “Depuis, l’essor d’internet et des ordinateurs personnels il y a 25 ans, à mesure que la technologie à l’origine de ces révolutions s’est améliorée, les coûts de l’énergie sont restés plus ou moins stables, malgré l’explosion du nombre d’utilisateurs”. Pas sûr que réitérer ces vieilles promesses suffise. 

Comme le disait Gauthier Roussilhe, nos projections sur les impacts environnementaux à venir sont avant toutes coincées dans le présent. Et elles le sont d’autant plus que les mesures de la consommation énergétique de l’IA sont coincées dans les mesures d’hier, sans être capables de prendre en compte l’efficience à venir et que les effets rebonds de la consommation, dans la perspective de systèmes d’IA distribués partout, accessibles partout, voire pire d’une IA qui se substitue à tous les usages numériques actuels, ne permettent pas d’imaginer ce que notre consommation d’énergie va devenir. Si l’efficience énergétique va s’améliorer, le rebond des usages par l’intégration de l’IA partout, lui, nous montre que les gains obtenus sont toujours totalement absorbés voir totalement dépassés avec l’extension et l’accroissement des usages. 

  • ✇Dans les algorithmes
  • La surveillance au travail s’internationalise
    Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la
     

La surveillance au travail s’internationalise

11 juin 2025 à 01:00

Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête  observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.

Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

  • ✇Dans les algorithmes
  • La surveillance au travail s’internationalise
    Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la
     

La surveillance au travail s’internationalise

11 juin 2025 à 01:00

Le rapport de Coworker sur le déploiement des « petites technologies de surveillance » – petites, mais omniprésentes (qu’on évoquait dans cet article) – rappelait déjà que c’est un essaim de solutions de surveillance qui se déversent désormais sur les employés (voir également notre article “Réguler la surveillance au travail”). Dans un nouveau rapport, Coworker explique que les formes de surveillance au travail s’étendent et s’internationalisent. “L’écosystème des petites technologies intègre la surveillance et le contrôle algorithmique dans le quotidien des travailleurs, souvent à leur insu, sans leur consentement ni leur protection”. L’enquête  observe cette extension dans six pays – le Mexique, la Colombie, le Brésil, le Nigéria, le Kenya et l’Inde – “où les cadres juridiques sont obsolètes, mal appliqués, voire inexistants”. Le rapport révèle comment les startups financées par du capital-risque américain exportent des technologies de surveillance vers les pays du Sud, ciblant des régions où la protection de la vie privée et la surveillance réglementaire sont plus faibles. Les premiers à en faire les frais sont les travailleurs de l’économie à la demande de la livraison et du covoiturage, mais pas seulement. Mais surtout, cette surveillance est de plus en plus déguisée en moyen pour prendre soin des travailleurs : “la surveillance par l’IA est de plus en plus présentée comme un outil de sécurité, de bien-être et de productivité, masquant une surveillance coercitive sous couvert de santé et d’efficacité”.

Pourtant, “des éboueurs en Inde aux chauffeurs de VTC au Nigéria, les travailleurs résistent au contrôle algorithmique en organisant des manifestations, en créant des syndicats et en exigeant la transparence de l’IA”. Le risque est que les pays du Sud deviennent le terrain d’essai de ces technologies de surveillance pour le reste du monde, rappelle Rest of the World.

  • ✇Dans les algorithmes
  • Qui est l’utilisateur des LLM ?
    Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette comp
     

Qui est l’utilisateur des LLM ?

10 juin 2025 à 00:24

Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation. 

Des croyances du modèle sur son interlocuteur

Viégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé. 

Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives

Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses. 

“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes). 

Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.

Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses. 

Hubert Guillaud

  • ✇Dans les algorithmes
  • Qui est l’utilisateur des LLM ?
    Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette comp
     

Qui est l’utilisateur des LLM ?

10 juin 2025 à 00:24

Les grands modèles de langage ne sont pas interprétables, rappelle le professeur de droit  Jonathan Zittrain dans une tribune pour le New York Times, en préfiguration d’un nouveau livre à paraître. Ils demeurent des boîtes noires, dont on ne parvient pas à comprendre pourquoi ces modèles peuvent parfois dialoguer si intelligemment et pourquoi ils commettent à d’autres moments des erreurs si étranges. Mieux comprendre certains des mécanismes de fonctionnement de ces modèles et utiliser cette compréhension pour les améliorer, est pourtant essentiel, comme l’expliquait le PDG d’Anthropic. Anthropic a fait des efforts en ce sens, explique le juriste en identifiant des caractéristiques lui permettant de mieux cartographier son modèle. Meta, la société mère de Facebook, a publié des versions toujours plus sophistiquées de son grand modèle linguistique, Llama, avec des paramètres librement accessibles (on parle de “poids ouverts” permettant d’ajuster les paramètres des modèles). Transluce, un laboratoire de recherche à but non lucratif axé sur la compréhension des systèmes d’IA, a développé une méthode permettant de générer des descriptions automatisées des mécanismes de Llama 3.1. Celles-ci peuvent être explorées à l’aide d’un outil d’observabilité qui montre la nature du modèle et vise à produire une “interprétabilité automatisée” en produisant des descriptions lisibles par l’homme des composants du modèle. L’idée vise à montrer comment les modèles « pensent » lorsqu’ils discutent avec un utilisateur, et à permettre d’ajuster cette pensée en modifiant directement les calculs qui la sous-tendent. Le laboratoire Insight + Interaction du département d’informatique de Harvard, dirigé par Fernanda Viégas et Martin Wattenberg, ont exécuté Llama sur leur propre matériel et ont découverts que diverses fonctionnalités s’activent et se désactivent au cours d’une conversation. 

Des croyances du modèle sur son interlocuteur

Viégas est brésilienne. Elle conversait avec ChatGPT en portugais et a remarqué, lors d’une conversation sur sa tenue pour un dîner de travail, que ChatGPT utilisait systématiquement la déclinaison masculine. Cette grammaire, à son tour, semblait correspondre au contenu de la conversation : GPT a suggéré un costume pour le dîner. Lorsqu’elle a indiqué qu’elle envisageait plutôt une robe, le LLM a changé son utilisation du portugais pour la déclinaison féminine. Llama a montré des schémas de conversation similaires. En observant les fonctionnalités internes, les chercheurs ont pu observer des zones du modèle qui s’illuminent lorsqu’il utilise la forme féminine, contrairement à lorsqu’il s’adresse à quelqu’un. en utilisant la forme masculine. Viégas et ses collègues ont constaté des activations corrélées à ce que l’on pourrait anthropomorphiser comme les “croyances du modèle sur son interlocuteur”. Autrement dit, des suppositions et, semble-t-il, des stéréotypes corrélés selon que le modèle suppose qu’une personne est un homme ou une femme. Ces croyances se répercutent ensuite sur le contenu de la conversation, l’amenant à recommander des costumes pour certains et des robes pour d’autres. De plus, il semble que les modèles donnent des réponses plus longues à ceux qu’ils croient être des hommes qu’à ceux qu’ils pensent être des femmes. Viégas et Wattenberg ont non seulement trouvé des caractéristiques qui suivaient le sexe de l’utilisateur du modèle, mais aussi qu’elles s’adaptaient aux inférences du modèle selon ce qu’il pensait du statut socio-économique, de son niveau d’éducation ou de l’âge de son interlocuteur. Le LLM cherche à s’adapter en permanence à qui il pense converser, d’où l’importance à saisir ce qu’il infère de son interlocuteur en continue. 

Un tableau de bord pour comprendre comment l’IA s’adapte en continue à son interlocuteur 

Les deux chercheurs ont alors créé un tableau de bord en parallèle à l’interface de chat du LLM qui permet aux utilisateurs d’observer l’évolution des hypothèses que fait le modèle au fil de leurs échanges (ce tableau de bord n’est pas accessible en ligne). Ainsi, quand on propose une suggestion de cadeau pour une fête prénatale, il suppose que son interlocuteur est jeune, de sexe féminin et de classe moyenne. Il suggère alors des couches et des lingettes, ou un chèque-cadeau. Si on ajoute que la fête a lieu dans l’Upper East Side de Manhattan, le tableau de bord montre que le LLM modifie son estimation du statut économique de son interlocuteur pour qu’il corresponde à la classe supérieure et suggère alors d’acheter des produits de luxe pour bébé de marques haut de gamme.

Un article pour Harvard Magazine de 2023 rappelle comment est né ce projet de tableau de bord de l’IA, permettant d’observer son comportement en direct. Fernanda Viegas est professeur d’informatique et spécialiste de visualisation de données. Elle codirige Pair, un laboratoire de Google (voir le blog dédié). En 2009, elle a imaginé Web Seer est un outil de visualisation de données qui permet aux utilisateurs de comparer les suggestions de saisie semi-automatique pour différentes recherches Google, par exemple selon le genre. L’équipe a développé un outil permettant aux utilisateurs de saisir une phrase et de voir comment le modèle de langage BERT compléterait le mot manquant si un mot de cette phrase était supprimé. 

Pour Viegas, « l’enjeu de la visualisation consiste à mesurer et exposer le fonctionnement interne des modèles d’IA que nous utilisons ». Pour la chercheuse, nous avons besoin de tableaux de bord pour aider les utilisateurs à comprendre les facteurs qui façonnent le contenu qu’ils reçoivent des réponses des modèles d’IA générative. Car selon la façon dont les modèles nous perçoivent, leurs réponses ne sont pas les mêmes. Or, pour comprendre que leurs réponses ne sont pas objectives, il faut pouvoir doter les utilisateurs d’une compréhension de la perception que ces outils ont de leurs utilisateurs. Par exemple, si vous demandez les options de transport entre Boston et Hawaï, les réponses peuvent varier selon la perception de votre statut socio-économique « Il semble donc que ces systèmes aient internalisé une certaine notion de notre monde », explique Viégas. De même, nous voudrions savoir ce qui, dans leurs réponses, s’inspire de la réalité ou de la fiction. Sur le site de Pair, on trouve de nombreux exemples d’outils de visualisation interactifs qui permettent d’améliorer la compréhension des modèles (par exemple, pour mesurer l’équité d’un modèle ou les biais ou l’optimisation de la diversité – qui ne sont pas sans rappeler les travaux de Victor Bret et ses “explications à explorer” interactives

Ce qui est fascinant ici, c’est combien la réponse n’est pas tant corrélée à tout ce que le modèle a avalé, mais combien il tente de s’adapter en permanence à ce qu’il croit deviner de son interlocuteur. On savait déjà, via une étude menée par Valentin Hofmann que, selon la manière dont on leur parle, les grands modèles de langage ne font pas les mêmes réponses. 

“Les grands modèles linguistiques ne se contentent pas de décrire les relations entre les mots et les concepts”, pointe Zittrain : ils assimilent également des stéréotypes qu’ils recomposent à la volée. On comprend qu’un grand enjeu désormais soit qu’ils se souviennent des conversations passées pour ajuster leur compréhension de leur interlocuteur, comme l’a annoncé OpenAI, suivi de Google et Grok. Le problème n’est peut-être pas qu’ils nous identifient précisément, mais qu’ils puissent adapter leurs propositions, non pas à qui nous sommes, mais bien plus problématiquement, à qui ils pensent s’adresser, selon par exemple ce qu’ils évaluent de notre capacité à payer. Un autre problème consiste à savoir si cette “compréhension” de l’interlocuteur peut-être stabilisée où si elle se modifie sans cesse, comme c’est le cas des étiquettes publicitaires que nous accolent les sites sociaux. Devrons-nous demain batailler quand les modèles nous mécalculent ou nous renvoient une image, un profil, qui ne nous correspond pas ? Pourrons-nous même le faire, quand aujourd’hui, les plateformes ne nous offrent pas la main sur nos profils publicitaires pour les ajuster aux données qu’ils infèrent ? 

Ce qui est fascinant, c’est de constater que plus que d’halluciner, l’IA nous fait halluciner (c’est-à-dire nous fait croire en ses effets), mais plus encore, hallucine la personne avec laquelle elle interagit (c’est-à-dire, nous hallucine nous-mêmes). 

Les chercheurs de Harvard ont cherché à identifier les évolutions des suppositions des modèles selon l’origine ethnique dans les modèles qu’ils ont étudiés, sans pour l’instant y parvenir. Mais ils espèrent bien pouvoir contraindre leur modèle Llama à commencer à traiter un utilisateur comme riche ou pauvre, jeune ou vieux, homme ou femme. L’idée ici, serait d’orienter les réponses d’un modèle, par exemple, en lui faisant adopter un ton moins caustique ou plus pédagogique lorsqu’il identifie qu’il parle à un enfant. Pour Zittrain, l’enjeu ici est de mieux anticiper notre grande dépendance psychologique à l’égard de ces systèmes. Mais Zittrain en tire une autre conclusion : “Si nous considérons qu’il est moralement et sociétalement important de protéger les échanges entre les avocats et leurs clients, les médecins et leurs patients, les bibliothécaires et leurs usagers, et même les impôts et les contribuables, alors une sphère de protection claire devrait être instaurée entre les LLM et leurs utilisateurs. Une telle sphère ne devrait pas simplement servir à protéger la confidentialité afin que chacun puisse s’exprimer sur des sujets sensibles et recevoir des informations et des conseils qui l’aident à mieux comprendre des sujets autrement inaccessibles. Elle devrait nous inciter à exiger des créateurs et des opérateurs de modèles qu’ils s’engagent à être les amis inoffensifs, serviables et honnêtes qu’ils sont si soigneusement conçus pour paraître”.

Inoffensifs, serviables et honnêtes, voilà qui semble pour le moins naïf. Rendre visible les inférences des modèles, faire qu’ils nous reconnectent aux humains plutôt qu’ils ne nous en éloignent, semblerait bien préférable, tant la polyvalence et la puissance remarquables des LLM rendent impératifs de comprendre et d’anticiper la dépendance potentielle des individus à leur égard. En tout cas, obtenir des outils pour nous aider à saisir à qui ils croient s’adresser plutôt que de nous laisser seuls face à leur interface semble une piste riche en promesses. 

Hubert Guillaud

  • ✇Dans les algorithmes
  • IA : intelligence austéritaire
    Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde
     

IA : intelligence austéritaire

6 juin 2025 à 00:58

Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde meilleur, faire des dons à des candidats ou à des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisées soient bien plus enclines à participer que celles qui ont des moyens limités. Dans un pays où près de 30 % de la population vit en situation de pauvreté ou au bord de la pauvreté et où 60 % ne peuvent s’offrir un minimum de qualité de vie, la démocratie est désavantagée dès le départ”. L’IA est largement utilisée désormais pour accentuer ce fossé. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements médicaux nécessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou réduire les soins à domicile pour les personnes handicapées. Les gouvernements ont de plus en plus recours à l’IA pour déterminer l’éligibilité aux programmes de prestations sociales ou accuser les bénéficiaires de fraude. Les propriétaires utilisent l’IA pour filtrer les locataires potentiels, souvent à l’aide de vérifications d’antécédents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employés, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activités. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prédire quels élèves pourraient commettre un délit à l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la détresse d’usagers, les empêchant de comprendre ce à quoi ils sont confrontés, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces décisions difficiles à contester. Et au final, cela contribue à renforcer l’exclusion des personnes à faibles revenus de la participation démocratique. Le risque, bien sûr, c’est que ces calculs et les formes d’exclusion qu’elles génèrent s’étendent à d’autres catégories sociales… D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des décisions sur toutes les catégories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour améliorer significativement l’accès à l’emploi, au logement, aux soins de santé, à l’éducation ou aux prestations sociales à une échelle à la hauteur de ses dommages. Cette dynamique actuelle suggère que l’objectif sous-jacent de la technologie est d’enraciner les inégalités et de renforcer les rapports de force existants”. Pour répondre à cette intelligence austéritaire, il est nécessaire de mobiliser les communautés touchées. L’adhésion ouverte de l’administration Trump et des géants de la technologie à l’IA est en train de créer une crise urgente et visible, susceptible de susciter la résistance généralisée nécessaire au changement. Et “cette prise de conscience technologique pourrait bien être la seule voie vers un renouveau démocratique”, estime De Liban.

  • ✇Dans les algorithmes
  • IA : intelligence austéritaire
    Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde
     

IA : intelligence austéritaire

6 juin 2025 à 00:58

Aux Etats-Unis, la collusion entre les géants de la tech et l’administration Trump vise à “utiliser l’IA pour imposer des politiques d’austérité et créer une instabilité permanente par des décisions qui privent le public des ressources nécessaires à une participation significative à la démocratie”, explique l’avocat Kevin De Liban à Tech Policy. Aux Etats-Unis, la participation démocratique suppose des ressources. “Voter, contacter des élus, assister à des réunions, s’associer, imaginer un monde meilleur, faire des dons à des candidats ou à des causes, dialoguer avec des journalistes, convaincre, manifester, recourir aux tribunaux, etc., demande du temps, de l’énergie et de l’argent. Il n’est donc pas surprenant que les personnes aisées soient bien plus enclines à participer que celles qui ont des moyens limités. Dans un pays où près de 30 % de la population vit en situation de pauvreté ou au bord de la pauvreté et où 60 % ne peuvent s’offrir un minimum de qualité de vie, la démocratie est désavantagée dès le départ”. L’IA est largement utilisée désormais pour accentuer ce fossé. 

“Les compagnies d’assurance utilisent l’IA pour refuser le paiement des traitements médicaux nécessaires aux patients, et les États l’utilisent pour exclure des personnes de Medicaid ou réduire les soins à domicile pour les personnes handicapées. Les gouvernements ont de plus en plus recours à l’IA pour déterminer l’éligibilité aux programmes de prestations sociales ou accuser les bénéficiaires de fraude. Les propriétaires utilisent l’IA pour filtrer les locataires potentiels, souvent à l’aide de vérifications d’antécédents inexactes, augmenter les loyers et surveiller les locataires afin de les expulser plus facilement. Les employeurs utilisent l’IA pour embaucher et licencier leurs employés, fixer leurs horaires et leurs salaires, et surveiller toutes leurs activités. Les directeurs d’école et les forces de l’ordre utilisent l’IA pour prédire quels élèves pourraient commettre un délit à l’avenir”, rappelle l’avocat, constatant dans tous ces secteurs, la détresse d’usagers, les empêchant de comprendre ce à quoi ils sont confrontés, puisqu’ils ne disposent, le plus souvent, d’aucune information, ce qui rend nombre de ces décisions difficiles à contester. Et au final, cela contribue à renforcer l’exclusion des personnes à faibles revenus de la participation démocratique. Le risque, bien sûr, c’est que ces calculs et les formes d’exclusion qu’elles génèrent s’étendent à d’autres catégories sociales… D’ailleurs, les employeurs utilisent de plus en plus l’IA pour prendre des décisions sur toutes les catégories professionnelles. “Il n’existe aucun exemple d’utilisation de l’IA pour améliorer significativement l’accès à l’emploi, au logement, aux soins de santé, à l’éducation ou aux prestations sociales à une échelle à la hauteur de ses dommages. Cette dynamique actuelle suggère que l’objectif sous-jacent de la technologie est d’enraciner les inégalités et de renforcer les rapports de force existants”. Pour répondre à cette intelligence austéritaire, il est nécessaire de mobiliser les communautés touchées. L’adhésion ouverte de l’administration Trump et des géants de la technologie à l’IA est en train de créer une crise urgente et visible, susceptible de susciter la résistance généralisée nécessaire au changement. Et “cette prise de conscience technologique pourrait bien être la seule voie vers un renouveau démocratique”, estime De Liban.

  • ✇Dans les algorithmes
  • De notre vectorisation et de ses conséquences
    De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des v
     

De notre vectorisation et de ses conséquences

5 juin 2025 à 01:00

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustées à nos identités numériques, comme les mots clés publicitaires qui nous caractérisent, les traitements qui nous spécifient, les données qui nous positionnent, par exemple, le genre, l’âge, notre niveau de revenu… Du moment que nous sommes assignés à une valeur, nous y sommes réduits, dans une forme d’indifférenciation qui produisent des identités et des altérités “rigidifiées” qui structurent “l’espace social selon des lignes de démarcation dont l’arbitraire est dissimulé sous l’apparence d’une objectivité naturalisée”. C’est le cas par exemple quand les données vous caractérisent comme homme ou femme. Le problème est que ces assignations que nous ne maîtrisons pas sont indépassables. Les discours sur l’égalité de genres peuvent se multiplier, plus la différence entre homme et femme s’en trouve réaffirmé, comme un “horizon indépassable de l’intelligibilité sociale”. Melkom Boghossian dans une note très pertinente pour la fondation Jean Jaurès ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inégalités de genre, lorsqu’il ne questionne pas le processus vectoriel lui-même, risque ainsi de reproduire les présupposés mêmes qu’il prétend combattre”. C’est-à-dire que le processus en œuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitée par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opère à travers un chaînage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient réciproquement. Cette métavectorisation produit une topologie identitaire d’une complexité croissante qui excède les possibilités de représentation des modèles vectoriels classiques”. Nos assignations dépendent bien souvent de chaînes d’inférences, comme l’illustrait le site They see yours photos que nous avions évoqué. Les débats sur les identités trans ou non binaires, constituent en ce sens “des points de tension révélateurs où s’exprime le caractère intrinsèquement problématique de toute tentative de réduction vectorielle de la complexité existentielle”. Plus que de permettre de dépasser nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes désormais dans des situations indépassables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-à-dire sa capacité à traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indépassable de la pensée et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette même méthodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent généralement sur la valorisation différentielle des positions vectorielles plutôt que sur la pertinence même du découpage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsèque”, sans pouvoir le remettre en cause, même par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd à toute parole qui revendique une position non assignable ou qui conteste la légitimité même de l’assignation.” “Cette insensibilité n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-même. Elle résulte de la nécessité structurelle d’effacer les singularités irréductibles pour maintenir l’efficacité des catégorisations générales. Le paradigme vectoriel ne peut maintenir sa cohérence qu’en traitant les cas récalcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions négligeables ou des anomalies pathologiques. Ce phénomène produit une forme spécifique de violence épistémique qui consiste à délégitimer systématiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particulièrement à l’encontre des individus dont l’expérience subjective contredit ou excède les assignations vectorielles qui leur sont imposées — non pas simplement parce qu’ils se réassignent à une position vectorielle différente, mais parce qu’ils contestent la légitimité même du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “génère un réseau dense d’attributions croisées où chaque individu est simultanément assignateur et assigné, vectorisant et vectorisé. Cette configuration produit un système auto entretenu où les assignations se renforcent mutuellement à travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des préjugés sociaux, “qui substitue à l’arbitraire subjectif du préjugé individuel l’arbitraire objectivé du calcul algorithmique”. Les termes eux-mêmes deviennent performatifs : “ils ne se contentent pas de décrire une réalité préexistante, mais contribuent activement à la constituer par l’acte même de leur énonciation”. “Ces mots-vecteurs tirent leur légitimité sociale de leur ancrage dans des dispositifs statistiques qui leur confèrent une apparence d’objectivité scientifique”. “Les données statistiques servent à construire des catégories opérationnelles qui, une fois instituées, acquièrent une forme d’autonomie par rapport aux réalités qu’elles prétendent simplement représenter”

Pour Chatonsky, la vectorisation déstabilise profondément les identités politiques traditionnelles et rend problématique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhèrent à ces assignations et ceux qui contestent la légitimité même de ces assignations. “Les débats politiques conventionnels se limitent généralement à contester des assignations vectorielles spécifiques sans jamais remettre en question le principe même de la vectorisation comme modalité fondamentale d’organisation du social”. Nous sommes politiquement coincés dans la vectorisation… qui est à la fois “un horizon qui combine la réduction des entités à des vecteurs manipulables (vectorisation), la prédiction de leurs trajectoires futures sur la base de ces réductions (anticipation), et le contrôle permanent de ces trajectoires pour assurer leur conformité aux prédictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensée et d’organisation sociale qui échappent à la logique même de la vectorisation”, c’est-à-dire de nous extraire de l’identité comme force d’organisation du social, de donner de la place au doute plutôt qu’à la certitude ainsi qu’à trouver les modalités d’une forme de rétroaction. 

  • ✇Dans les algorithmes
  • De notre vectorisation et de ses conséquences
    De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des v
     

De notre vectorisation et de ses conséquences

5 juin 2025 à 01:00

De billets en billets, sur son blog, l’artiste Gregory Chatonsky produit une réflexion d’ampleur sur ce qu’il nomme la vectorisation. La vectorisation, comme il l’a définie, est un “processus par lequel des entités sociales — individus, groupes, communautés — sont transformées en porteurs de variables directionnelles, c’est-à-dire en vecteurs dotés d’une orientation prédéterminée dans un espace conceptuel saturé de valeurs différentielles”. Cela consiste en fait à appliquer à chaque profil des vecteurs assignatifs, qui sont autant d’étiquettes temporaires ou permanentes ajustées à nos identités numériques, comme les mots clés publicitaires qui nous caractérisent, les traitements qui nous spécifient, les données qui nous positionnent, par exemple, le genre, l’âge, notre niveau de revenu… Du moment que nous sommes assignés à une valeur, nous y sommes réduits, dans une forme d’indifférenciation qui produisent des identités et des altérités “rigidifiées” qui structurent “l’espace social selon des lignes de démarcation dont l’arbitraire est dissimulé sous l’apparence d’une objectivité naturalisée”. C’est le cas par exemple quand les données vous caractérisent comme homme ou femme. Le problème est que ces assignations que nous ne maîtrisons pas sont indépassables. Les discours sur l’égalité de genres peuvent se multiplier, plus la différence entre homme et femme s’en trouve réaffirmé, comme un “horizon indépassable de l’intelligibilité sociale”. Melkom Boghossian dans une note très pertinente pour la fondation Jean Jaurès ne disait pas autre chose quand il montrait comment les algorithmes accentuent les clivages de genre. En fait, explique Chatonsky, “le combat contre les inégalités de genre, lorsqu’il ne questionne pas le processus vectoriel lui-même, risque ainsi de reproduire les présupposés mêmes qu’il prétend combattre”. C’est-à-dire que le processus en œuvre ne permet aucune issue. Nous ne pouvons pas sortir de l’assignation qui nous est faite et qui est exploitée par tous.

“Le processus d’assignation vectorielle ne s’effectue jamais selon une dimension unique, mais opère à travers un chaînage complexe de vecteurs multiples qui s’entrecroisent, se superposent et se modifient réciproquement. Cette métavectorisation produit une topologie identitaire d’une complexité croissante qui excède les possibilités de représentation des modèles vectoriels classiques”. Nos assignations dépendent bien souvent de chaînes d’inférences, comme l’illustrait le site They see yours photos que nous avions évoqué. Les débats sur les identités trans ou non binaires, constituent en ce sens “des points de tension révélateurs où s’exprime le caractère intrinsèquement problématique de toute tentative de réduction vectorielle de la complexité existentielle”. Plus que de permettre de dépasser nos assignations, les calculs les intensifient, les cimentent. 

Or souligne Chatonsky, nous sommes désormais dans des situations indépassables. C’est ce qu’il appelle, “la trans-politisation du paradigme vectoriel — c’est-à-dire sa capacité à traverser l’ensemble du spectre politique traditionnel en s’imposant comme un horizon indépassable de la pensée et de l’action politiques. Qu’ils se revendiquent de droite ou de gauche, conservateurs ou progressistes, les acteurs politiques partagent fondamentalement cette même méthodologie vectorielle”. Quoique nous fassions, l’assignation demeure. ”Les controverses politiques contemporaines portent généralement sur la valorisation différentielle des positions vectorielles plutôt que sur la pertinence même du découpage vectoriel qui les sous-tend”. Nous invisibilisons le “processus d’assignation vectorielle et de sa violence intrinsèque”, sans pouvoir le remettre en cause, même par les antagonismes politiques. “Le paradigme vectoriel se rend structurellement sourd à toute parole qui revendique une position non assignable ou qui conteste la légitimité même de l’assignation.” “Cette insensibilité n’est pas accidentelle, mais constitutive du paradigme vectoriel lui-même. Elle résulte de la nécessité structurelle d’effacer les singularités irréductibles pour maintenir l’efficacité des catégorisations générales. Le paradigme vectoriel ne peut maintenir sa cohérence qu’en traitant les cas récalcitrants — ceux qui contestent leur assignation ou qui revendiquent une position non vectorisable — comme des exceptions négligeables ou des anomalies pathologiques. Ce phénomène produit une forme spécifique de violence épistémique qui consiste à délégitimer systématiquement les discours individuels qui contredisent les assignations vectorielles dominantes. Cette violence s’exerce particulièrement à l’encontre des individus dont l’expérience subjective contredit ou excède les assignations vectorielles qui leur sont imposées — non pas simplement parce qu’ils se réassignent à une position vectorielle différente, mais parce qu’ils contestent la légitimité même du geste assignatif.” 

La vectorisation devient une pratique sociale universelle qui structure les interactions quotidiennes les plus banales. Elle “génère un réseau dense d’attributions croisées où chaque individu est simultanément assignateur et assigné, vectorisant et vectorisé. Cette configuration produit un système auto entretenu où les assignations se renforcent mutuellement à travers leur circulation sociale incessante”. Nous sommes dans une forme d’intensification des préjugés sociaux, “qui substitue à l’arbitraire subjectif du préjugé individuel l’arbitraire objectivé du calcul algorithmique”. Les termes eux-mêmes deviennent performatifs : “ils ne se contentent pas de décrire une réalité préexistante, mais contribuent activement à la constituer par l’acte même de leur énonciation”. “Ces mots-vecteurs tirent leur légitimité sociale de leur ancrage dans des dispositifs statistiques qui leur confèrent une apparence d’objectivité scientifique”. “Les données statistiques servent à construire des catégories opérationnelles qui, une fois instituées, acquièrent une forme d’autonomie par rapport aux réalités qu’elles prétendent simplement représenter”

Pour Chatonsky, la vectorisation déstabilise profondément les identités politiques traditionnelles et rend problématique leur articulation dans l’espace public contemporain, car elle oppose ceux qui adhèrent à ces assignations et ceux qui contestent la légitimité même de ces assignations. “Les débats politiques conventionnels se limitent généralement à contester des assignations vectorielles spécifiques sans jamais remettre en question le principe même de la vectorisation comme modalité fondamentale d’organisation du social”. Nous sommes politiquement coincés dans la vectorisation… qui est à la fois “un horizon qui combine la réduction des entités à des vecteurs manipulables (vectorisation), la prédiction de leurs trajectoires futures sur la base de ces réductions (anticipation), et le contrôle permanent de ces trajectoires pour assurer leur conformité aux prédictions (surveillance).” Pour nous extraire de ce paradigme, Chatonsky propose d’élaborer “des modes de pensée et d’organisation sociale qui échappent à la logique même de la vectorisation”, c’est-à-dire de nous extraire de l’identité comme force d’organisation du social, de donner de la place au doute plutôt qu’à la certitude ainsi qu’à trouver les modalités d’une forme de rétroaction. 

  • ✇Dans les algorithmes
  • “Sans répit”
    Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvr
     

“Sans répit”

4 juin 2025 à 01:00

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvre se fait plus rare. Pour répondre à la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvrière estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmenté de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son écran qui lui indique de tenir la cadence.

  • ✇Dans les algorithmes
  • “Sans répit”
    Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvr
     

“Sans répit”

4 juin 2025 à 01:00

Nidle (contraction de No Idle, qu’on pourrait traduire par “sans répit”) est le nom d’un petit appareil qui se branche sur les machines à coudre. Le capteur mesure le nombre de pièces cousues par les femmes dans les ateliers de la confection de Dhaka au Bangladesh tout comme les minutes d’inactivité, rapporte Rest of the World. Outre les machines automatisées, pour coudre des boutons ou des poches simples, ces outils de surveillance visent à augmenter la productivité, à l’heure où la main d’œuvre se fait plus rare. Pour répondre à la concurrence des nouveaux pays de l’habillement que sont le Vietnam et le Cambodge, le Bangladesh intensifie l’automatisation. Une ouvrière estime que depuis l’installation du Nidle en 2022, ses objectifs ont augmenté de 75%. Ses superviseurs ne lui crient plus dessus, c’est la couleur de son écran qui lui indique de tenir la cadence.

  • ✇Dans les algorithmes
  • L’IA est une technologie comme les autres
    Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni inte
     

L’IA est une technologie comme les autres

3 juin 2025 à 01:00

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense 

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées. 

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer. 

L’IA va rester sous contrôle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisé pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en terme de vitesse, d’où le fait que nous les ayons développé surtout dans les domaines où la vitesse est en jeu.  

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les Etats-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant. 

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs. 

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes. 

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, il proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large. 

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque. 

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

  • ✇Dans les algorithmes
  • L’IA est une technologie comme les autres
    Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni inte
     

L’IA est une technologie comme les autres

3 juin 2025 à 01:00

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense 

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie« , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers: How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées. 

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer. 

L’IA va rester sous contrôle 

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisé pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en terme de vitesse, d’où le fait que nous les ayons développé surtout dans les domaines où la vitesse est en jeu.  

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les Etats-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant. 

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs. 

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes. 

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, il proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large. 

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque. 

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

  • ✇Dans les algorithmes
  • De l’instrumentalisation du numérique par l’action publique
    L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au con
     

De l’instrumentalisation du numérique par l’action publique

2 juin 2025 à 01:00

L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au contraire. Là-bas aussi, elle rend plus difficile l’accès aux droits. En fait, plus qu’un changement d’outillage, elle est une “évolution de nature politique” qui redéfinit les rapports à l’État, à la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, créant des situations d’accès inégalitaires qui restreignennt la qualité et la continuité des services publics. “La dématérialisation de l’action publique signe en cela une double délégation. D’un côté, certaines opérations sont déléguées aux dispositifs techniques ; de l’autre, on constate un déplacement complémentaire de celles-ci vers les usagers, qui portent désormais la charge et la responsabilité du bon déroulement des démarches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se débrouiller et les autres. L’accès aux outils numériques et leur maîtrise devient un nouveau critère d’éligibilité aux droits, générateur de non-recours : le numérique devient une “charge supplémentaire” pour les plus vulnérables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultés, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “déplacer le périmètre de leurs missions premières”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab Accès sur le dispositif Conseiller numérique France Services (CnFS) montre qu’il se révèle fragile, profitant d’abord aux structures préalablement les plus engagées sur l’inclusion numérique. L’État s’est appuyé sur le plan de relance européen afin de transférer aux acteurs locaux la prise en charge d’un problème public dont les conseillers numériques doivent assumer la charge. Les moyens s’avèrent « structurellement insuffisants pour stabiliser une réponse proportionnée aux besoins ». À l’échelle nationale, les démarches en ligne se placent en tête des aides réalisées par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexés à la numérisation des administrations »; et de constater qu’il y a là une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numérique – qui ne parvient pas à répondre aux besoins générés par une autre action publique – les politiques de dématérialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant à certains acteurs, notamment aux acteurs de la dématérialisation de la relation administrative, qu’il n’a permis de répondre à la géographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes âgées, moins en réponse à des besoins qu’en raison du ciblage de l’offre elle-même : elle capte d’abord des publics « disponibles », pas nécessairement ceux qui en ont le plus besoin ». Enfin, la dégressivité des financements a, quant à elle, « produit un effet de sélection, qui a accentué les inégalités entre acteurs et territoires », notamment au détriment des acteurs de la médiation numérique.

La gouvernance par dispositifs numériques faciliterait l’avènement d’une administration d’orientation néolibérale priorisant les valeurs du marché, explique Granjon. L’administration « renforcerait son contrôle sur les populations, mais, paradoxalement, perdrait le contrôle sur ses principaux outils, notamment ceux d’aide à la décision quant à l’octroi de droits et de subsides ». La décision confiée aux procédures de calcul, laisse partout peu de marge de manœuvre aux agents, les transformant en simples exécutants. A Pôle Emploi, par exemple, il s’agit moins de trouver un emploi aux chômeurs que de les rendre « autonomes » avec les outils numériques. Pour Périne Brotcorne pourtant, malgré la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des développements numériques des services publics. Rien n’est fait par exemple pour l’usager en difficulté par exemple pour qu’il puisse déléguer la prise en charge de ses tâches administratives à un tiers, comme le soulignait récemment le Défenseur des droits. Les interfaces numériques, trop complexes, fabriquent “de l’incapacité” pour certains publics, notamment les plus éloignés et les plus vulnérables. Brotcorne montre d’ailleurs très bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invités à s’exprimer. L’étude souligne que près de la moitié des usagers n’arrivent pas à passer la première étape des services publics numériques que ce soit se connecter, prendre rendez-vous ou même télécharger un formulaire. Dans un autre article, signé Anne-Sylvie Pharabod et Céline Borelle, les deux chercheuses auscultent les pratiques administratives numérisées ordinaires qui montrent que la numérisation est une longue habituation, où les démarches apprises pour un service permettent d’en aborder d’autres. Les démarches administratives sont un univers de tâches dont il faut apprendre à se débrouiller, comme faire se peut, et qui en même temps sont toujours remises à zéro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identité, ou des documents à uploader. “La diversité des démarches, l’hétérogénéité des interfaces et l’évolution rapide des outils liée à des améliorations incrémentales (notamment en matière de sécurité) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numériques au sein du Service public de l’emploi a pour conséquence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numérique se voit investie de la fonction de régulation des comportements des usagers, des agents publics, mais également de bien d’autres publics, notamment tous ceux utilisant ses données et plateformes. A cette aune, France Travail est amené à devenir un « animateur d’écosystème emploi/formation/insertion » connectant divers échelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses différentes plateformes. Granjon invite à s’intéresser à ces encastrements nouveaux et pas seulement aux guichets, ou à la relation agent-public, pour mieux saisir comment les bases de données, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procédures que France Travail met en place. 

Le numéro de Réseaux livre également un intéressant article, très critique, du Dossier médical partagé, signé Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intéresse à l’histoire de la gouvernance problématique du projet, qui explique en grande partie ses écueils, et au fait que le DMP ne semble toujours pas avoir trouvé son utilité pour les professionnels de santé.

Un autre article signé Pauline Boyer explore le lancement du portail de données ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel Goëta et Élise Ho-Pun-Cheung s’intéressent quant à eux à la production de standards et aux difficultés de leur intégration dans le quotidien des agents, en observant le processus de standardisation des données des lieux de médiation numérique. L’article souligne la difficulté des conseillers numériques à infléchir la standardisation et montre que cette normalisation peine à prévoir les usages de la production de données.

Dans un article de recherche qui n’est pas publié par Réseaux, mais complémentaire à son dossier, le politologue néerlandais, Pascal D. Koenig explique que le développement d’un État algorithmique modifie la relation avec les citoyens, ce qui nécessite de regarder au-delà des seules propriétés des systèmes. L’intégration des algos et de l’IA développe une relation plus impersonnelle, renforçant le contrôle et l’asymétrie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systèmes d’IA, qui remplacent ou assistent l’exécution des tâches humaines, introduisent un nouveau type de représentation des agents dans les organisations gouvernementales. Ils réduisent ainsi structurellement la représentation des citoyens – en tant qu’êtres humains – au sein de l’État et augmentent les asymétries de pouvoir, en étendant unilatéralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte également les fondements de la reconnaissance sociale dans la relation citoyen-État, liés au comportement. En tant qu’agents artificiels, les systèmes d’IA manquent de compréhension et de compassion humaines, dont l’expression dans de nombreuses interactions est un élément important pour reconnaître et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiérarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui érode le respect que les institutions leur témoignent”. Le manque d’empathie des systèmes est l’une des principales raisons pour lesquelles les individus s’en méfient, rappelle Koenig. Or, “la numérisation et l’automatisation de l’administration réduisent les foyers d’empathie existants et contribuent à une prise en compte étroite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de compréhension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental où le contact humain se réduit : moins représentatif, il est donc moins disposé à prendre des décisions dans leur intérêt.

  • ✇Dans les algorithmes
  • De l’instrumentalisation du numérique par l’action publique
    L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au con
     

De l’instrumentalisation du numérique par l’action publique

2 juin 2025 à 01:00

L’avant dernier numéro de la revue Réseaux est consacré à la dématérialisation. “La numérisation des administrations redéfinit le rapport à l’État et ouvre à des procès de gouvernement par instrumentation”, explique le sociologue Fabien Granjon en introduction du numéro, qui rappelle que ces développements suivent des phases en regardant celles des pays scandinaves, pionniers en la matière. Pourtant, là-bas comme ailleurs, la numérisation n’a pas aidé ou apaisé la relation administrative, au contraire. Là-bas aussi, elle rend plus difficile l’accès aux droits. En fait, plus qu’un changement d’outillage, elle est une “évolution de nature politique” qui redéfinit les rapports à l’État, à la vie sociale et aux citoyens, notamment parce qu’elle s’accompagne toujours de la fermeture des guichets d’accueil physique, créant des situations d’accès inégalitaires qui restreignennt la qualité et la continuité des services publics. “La dématérialisation de l’action publique signe en cela une double délégation. D’un côté, certaines opérations sont déléguées aux dispositifs techniques ; de l’autre, on constate un déplacement complémentaire de celles-ci vers les usagers, qui portent désormais la charge et la responsabilité du bon déroulement des démarches au sein desquelles ils s’inscrivent.“ A France Travail, explique Mathilde Boeglin-Henky, les outils permettent de trier les postulants entre ceux capables de se débrouiller et les autres. L’accès aux outils numériques et leur maîtrise devient un nouveau critère d’éligibilité aux droits, générateur de non-recours : le numérique devient une “charge supplémentaire” pour les plus vulnérables. La simplification devient pour eux une “complication effective”. Pour surmonter ces difficultés, l’entraide s’impose, notamment celle des professionnels de l’accompagnement et des associations d’aide aux usagers. Mais ces nouvelles missions qui leur incombent viennent “déplacer le périmètre de leurs missions premières”, au risque de les remplacer. 

L’article de Pierre Mazet du Lab Accès sur le dispositif Conseiller numérique France Services (CnFS) montre qu’il se révèle fragile, profitant d’abord aux structures préalablement les plus engagées sur l’inclusion numérique. L’État s’est appuyé sur le plan de relance européen afin de transférer aux acteurs locaux la prise en charge d’un problème public dont les conseillers numériques doivent assumer la charge. Les moyens s’avèrent « structurellement insuffisants pour stabiliser une réponse proportionnée aux besoins ». À l’échelle nationale, les démarches en ligne se placent en tête des aides réalisées par les CnFS, montrant que « les besoins d’accompagnement sont bel et bien indexés à la numérisation des administrations »; et de constater qu’il y a là une « situation pour le moins paradoxale d’une action publique – les programmes d’inclusion numérique – qui ne parvient pas à répondre aux besoins générés par une autre action publique – les politiques de dématérialisation ». Le financement du dispositif a plus tenu d’un effet d’aubaine profitant à certains acteurs, notamment aux acteurs de la dématérialisation de la relation administrative, qu’il n’a permis de répondre à la géographie sociale des besoins. « Le dispositif a essentiellement atteint le public des personnes âgées, moins en réponse à des besoins qu’en raison du ciblage de l’offre elle-même : elle capte d’abord des publics « disponibles », pas nécessairement ceux qui en ont le plus besoin ». Enfin, la dégressivité des financements a, quant à elle, « produit un effet de sélection, qui a accentué les inégalités entre acteurs et territoires », notamment au détriment des acteurs de la médiation numérique.

La gouvernance par dispositifs numériques faciliterait l’avènement d’une administration d’orientation néolibérale priorisant les valeurs du marché, explique Granjon. L’administration « renforcerait son contrôle sur les populations, mais, paradoxalement, perdrait le contrôle sur ses principaux outils, notamment ceux d’aide à la décision quant à l’octroi de droits et de subsides ». La décision confiée aux procédures de calcul, laisse partout peu de marge de manœuvre aux agents, les transformant en simples exécutants. A Pôle Emploi, par exemple, il s’agit moins de trouver un emploi aux chômeurs que de les rendre « autonomes » avec les outils numériques. Pour Périne Brotcorne pourtant, malgré la sempiternelle affirmation d’une “approche usager”, ceux-ci sont absents des développements numériques des services publics. Rien n’est fait par exemple pour l’usager en difficulté par exemple pour qu’il puisse déléguer la prise en charge de ses tâches administratives à un tiers, comme le soulignait récemment le Défenseur des droits. Les interfaces numériques, trop complexes, fabriquent “de l’incapacité” pour certains publics, notamment les plus éloignés et les plus vulnérables. Brotcorne montre d’ailleurs très bien que “l’usager” est un concept qui permet d’avoir une “vision sommaire des publics destinataires”. Au final, les besoins s’adaptent surtout aux demandes des administrations qu’aux usagers qui ne sont pas vraiment invités à s’exprimer. L’étude souligne que près de la moitié des usagers n’arrivent pas à passer la première étape des services publics numériques que ce soit se connecter, prendre rendez-vous ou même télécharger un formulaire. Dans un autre article, signé Anne-Sylvie Pharabod et Céline Borelle, les deux chercheuses auscultent les pratiques administratives numérisées ordinaires qui montrent que la numérisation est une longue habituation, où les démarches apprises pour un service permettent d’en aborder d’autres. Les démarches administratives sont un univers de tâches dont il faut apprendre à se débrouiller, comme faire se peut, et qui en même temps sont toujours remises à zéro par leurs transformations, comme l’évolution des normes des mots de passe, des certifications d’identité, ou des documents à uploader. “La diversité des démarches, l’hétérogénéité des interfaces et l’évolution rapide des outils liée à des améliorations incrémentales (notamment en matière de sécurité) renouvellent constamment le questionnement sur ce qu’il convient de faire”.

Dans un autre article, assez complexe, Fabien Granjon explore comment l’introduction de nouveaux dispositifs numériques au sein du Service public de l’emploi a pour conséquence une reconfiguration majeure de celui-ci et provoque des changements dans les structures de relations entre acteurs. L’instrumentation numérique se voit investie de la fonction de régulation des comportements des usagers, des agents publics, mais également de bien d’autres publics, notamment tous ceux utilisant ses données et plateformes. A cette aune, France Travail est amené à devenir un « animateur d’écosystème emploi/formation/insertion » connectant divers échelons territoriaux d’intervention et une multitude d’acteurs y intervenant, comme l’expose, en partie, France Travail, via ses différentes plateformes. Granjon invite à s’intéresser à ces encastrements nouveaux et pas seulement aux guichets, ou à la relation agent-public, pour mieux saisir comment les bases de données, les API façonnent les relations avec les sous-traitants comme avec tous ceux qui interviennent depuis les procédures que France Travail met en place. 

Le numéro de Réseaux livre également un intéressant article, très critique, du Dossier médical partagé, signé Nicolas Klein et Alexandre Mathieu-Fritz, qui s’intéresse à l’histoire de la gouvernance problématique du projet, qui explique en grande partie ses écueils, et au fait que le DMP ne semble toujours pas avoir trouvé son utilité pour les professionnels de santé.

Un autre article signé Pauline Boyer explore le lancement du portail de données ouvertes de l’Etat et montre notamment que l’innovation n’est pas tant politique que de terrain. Samuel Goëta et Élise Ho-Pun-Cheung s’intéressent quant à eux à la production de standards et aux difficultés de leur intégration dans le quotidien des agents, en observant le processus de standardisation des données des lieux de médiation numérique. L’article souligne la difficulté des conseillers numériques à infléchir la standardisation et montre que cette normalisation peine à prévoir les usages de la production de données.

Dans un article de recherche qui n’est pas publié par Réseaux, mais complémentaire à son dossier, le politologue néerlandais, Pascal D. Koenig explique que le développement d’un État algorithmique modifie la relation avec les citoyens, ce qui nécessite de regarder au-delà des seules propriétés des systèmes. L’intégration des algos et de l’IA développe une relation plus impersonnelle, renforçant le contrôle et l’asymétrie de pouvoir. Pour Koenig, cela affecte directement la reconnaissance sociale des individus et le respect qu’ils peuvent attendre d’une institution. “Les systèmes d’IA, qui remplacent ou assistent l’exécution des tâches humaines, introduisent un nouveau type de représentation des agents dans les organisations gouvernementales. Ils réduisent ainsi structurellement la représentation des citoyens – en tant qu’êtres humains – au sein de l’État et augmentent les asymétries de pouvoir, en étendant unilatéralement le pouvoir informationnel de l’État”. L’utilisation de l’IA affecte également les fondements de la reconnaissance sociale dans la relation citoyen-État, liés au comportement. En tant qu’agents artificiels, les systèmes d’IA manquent de compréhension et de compassion humaines, dont l’expression dans de nombreuses interactions est un élément important pour reconnaître et traiter une personne en tant qu’individu. C’est l’absence de reconnaissance sociale qui augmente la perception de la violence administrative. “L’instauration structurelle d’une hiérarchie plus forte entre l’État et les citoyens signifie que ces derniers sont moins reconnus dans leur statut de citoyens, ce qui érode le respect que les institutions leur témoignent”. Le manque d’empathie des systèmes est l’une des principales raisons pour lesquelles les individus s’en méfient, rappelle Koenig. Or, “la numérisation et l’automatisation de l’administration réduisent les foyers d’empathie existants et contribuent à une prise en compte étroite des besoins divers des citoyens”. “Avec un gouvernement de plus en plus algorithmique, l’État devient moins capable de compréhension empathique”. Plus encore, l’automatisation de l’Etat montre aux citoyens un appareil gouvernemental où le contact humain se réduit : moins représentatif, il est donc moins disposé à prendre des décisions dans leur intérêt.

  • ✇Dans les algorithmes
  • De la maîtrise de l’automatisation d’Etat
    Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues.  Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer.  Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montre
     

De la maîtrise de l’automatisation d’Etat

28 mai 2025 à 01:00

Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues. 

Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer. 

Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mêmes moyens pour configurer la plateforme et que souvent, elles utilisent des procédés de sélection rudimentaires. Elle montre que, là aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposés aux valeurs des formations qui les mettent en œuvre. 

Jérémie Poiroux évoque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrôle technique des activités maritimes qui permet de montrer comment le calcul et l’évolution de la réglementation sont mobilisées pour réduire les effectifs des services de l’Etat tout en améliorant le ciblage des contrôles. Pour Poiroux, le système mis en place pose des questions quant à son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens à la prévention et à l’accompagnement, afin de réduire son champ d’action au contrôle et à la punition”, ainsi qu’à éloigner les agents au profit de règles venues d’en haut. 

Soizic Pénicaud revient quant à elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de différents collectifs n’est pas allé de soi et que le recueil de témoignages a permis de soulever le problème et d’incarner les difficultés auxquelles les personnes étaient confrontées. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une réalité. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le déploiement des algorithmes à la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui préexiste. “L’algorithme ne se substitue pas aux pratiques précédentes de contrôle. Il s’y intègre (…). Il ne l’automatise pas non plus : il le « flèche »”. Elle rappelle, à la suite du travail de Vincent Dubois dans Contrôler les assistés, que le développement des systèmes de calculs permettent à la fois de produire un contrôle réorganisé, national, au détriment de l’autonomie des agents et des caisses locales, ainsi que de légitimer la culture du contrôle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir”.

Mardi 3 juin à 19h30 à la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisée autour des chercheurs et chercheuses qui ont participé à ce numéro. Nous y serons.

  • ✇Dans les algorithmes
  • De la maîtrise de l’automatisation d’Etat
    Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues.  Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer.  Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montre
     

De la maîtrise de l’automatisation d’Etat

28 mai 2025 à 01:00

Le dernier numéro de la revue Multitudes (n°98, printemps 2025) publie un ensemble de contributions sur les questions algorithmiques au travers de cinq enquêtes de jeunes sociologues. 

Camille Girard-Chanudet décrit la tension entre expertise algorithmique et expertise juridique dans l’essor des startups de la legal tech venues de l’extérieur des tribunaux pour les transformer. 

Héloïse Eloi‑Hammer observe les différences d’implémentations des algorithmes locaux dans Parcoursup pour montrer que les formations n’ont pas les mêmes moyens pour configurer la plateforme et que souvent, elles utilisent des procédés de sélection rudimentaires. Elle montre que, là aussi, “les algorithmes sont contraints par les contextes organisationnels et sociaux dans lesquels leurs concepteurs sont pris” et peuvent avoir des fonctionnements opposés aux valeurs des formations qui les mettent en œuvre. 

Jérémie Poiroux évoque, lui, l’utilisation de l’IA pour l’inspection des navires, une forme de contrôle technique des activités maritimes qui permet de montrer comment le calcul et l’évolution de la réglementation sont mobilisées pour réduire les effectifs des services de l’Etat tout en améliorant le ciblage des contrôles. Pour Poiroux, le système mis en place pose des questions quant à son utilisation et surtout montre que l’Etat fait des efforts pour “consacrer moins de moyens à la prévention et à l’accompagnement, afin de réduire son champ d’action au contrôle et à la punition”, ainsi qu’à éloigner les agents au profit de règles venues d’en haut. 

Soizic Pénicaud revient quant à elle sur l’histoire de la mobilisation contre les outils de ciblage de la CAF. Elle souligne que la mobilisation de différents collectifs n’est pas allé de soi et que le recueil de témoignages a permis de soulever le problème et d’incarner les difficultés auxquelles les personnes étaient confrontées. Et surtout que les collectifs ont du travailler pour “arracher la transparence”, pour produire des chiffres sur une réalité. 

Maud Barret Bertelloni conclut le dossier en se demandant en quoi les algorithmes sont des outils de gouvernement. Elle rappelle que les algorithmes n’oeuvrent pas seuls. Le déploiement des algorithmes à la CAF permet la structuration et l’intensification d’une politique rigoriste qui lui préexiste. “L’algorithme ne se substitue pas aux pratiques précédentes de contrôle. Il s’y intègre (…). Il ne l’automatise pas non plus : il le « flèche »”. Elle rappelle, à la suite du travail de Vincent Dubois dans Contrôler les assistés, que le développement des systèmes de calculs permettent à la fois de produire un contrôle réorganisé, national, au détriment de l’autonomie des agents et des caisses locales, ainsi que de légitimer la culture du contrôle et de donner une nouvelle orientation aux services publics.

Comme le murmure Loup Cellard en ouverture du dossier : “l’algorithmisation des États est le signe d’un positivisme : croyance dans la Science, confiance dans son instrumentalisme, impersonnalité de son pouvoir”.

Mardi 3 juin à 19h30 à la librairie L’atelier, 2 bis rue Jourdain, 75020 Paris, une rencontre est organisée autour des chercheurs et chercheuses qui ont participé à ce numéro. Nous y serons.

  • ✇Dans les algorithmes
  • L’IA peut-elle soutenir la démocratie ?
    La politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernièr
     

L’IA peut-elle soutenir la démocratie ?

27 mai 2025 à 01:00

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernière décennie, alors même que ces techniques sont devenues très populaires dans le monde entier. Lors d’une récente conférence sur l’IA et les libertés démocratiques organisée par le Knight First Amendment Institute de l’université de Columbia, elle se demandait si l’IA pouvait soutenir les revendications démocratiques, rapporte Tech Policy Press (vidéo). L’occasion de rendre compte à notre tour d’un point de vue décoiffant qui interroge en profondeur notre rapport à la démocratie.  

La récession démocratique est engagée

La démocratie est en déclin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle même de “récession démocratique” et estime que la sauvegarde des droits démocratiques est partout en crise. 2025 pourrait être la première année, depuis longtemps, où la majorité de la population mondiale vit sous des formes de gouvernement autoritaires plutôt que démocratiques. Ce recul est dû à la fois au développement de l’autoritarisme dans les régimes autocratiques et à l’avancée de l’autocratie dans les démocraties établies, explique Chenoweth. Les avancées démocratiques des 100 dernières années ont été nombreuses et assez générales. Elles ont d’abord été le fait de mouvements non violents, populaires, où des citoyens ordinaires ont utilisé les manifestations et les grèves, bien plus que les insurrections armées, pour déployer la démocratie là où elle était empêchée. Mais ces succès sont en déclin. Les taux de réussite des mouvements populaires pacifistes comme armés, se sont effondrés, notamment au cours des dix dernières années. “Il y a quelque chose de global et de systémique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants à ces mouvements sont devenus plus efficaces pour les vaincre en général”.

Les épisodes de contestation réformistes (qui ne relèvent pas de revendications maximalistes, comme les mouvements démocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes… n’ont cessé de subir des revers et des défaites au cours des deux dernières décennies, et ont même diminué leur capacité à obtenir des concessions significatives, à l’image de la contestation de la réforme des retraites en France ou des mouvements écologiques, plus écrasés que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisées que jamais. 

Selon la littérature, ce qui permet aux mouvements populaires de réussir repose sur une participation large et diversifiée, c’est-à-dire transversale à l’ensemble de la société, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans… Et notamment quand ils suscitent le soutien de personnes très différentes les unes des autres. “Le principal défi pour les mouvements de masse qui réclament un changement pour étendre la démocratie consiste bien souvent à disloquer les piliers des soutiens autocratiques comme l’armée ou les fonctionnaires. L’enjeu, pour les mouvements démocratiques, consiste à retourner la répression à l’encontre de la population en la dénonçant pour modifier l’opinion générale ». Enfin, les mouvements qui réussissent enchaînent bien souvent les tactiques plutôt que de reposer sur une technique d’opposition unique, afin de démultiplier les formes de pression. 

La répression s’est mise à niveau

Mais l’autocratie a appris de ses erreurs. Elle a adapté en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements démocratiques l’emportent. “La première consiste à s’assurer que personne ne fasse défection. La deuxième consiste à dominer l’écosystème de l’information et à remporter la guerre de l’information. La troisième consiste à recourir à la répression sélective de manière à rendre très difficile pour les mouvements d’exploiter les moments d’intense brutalité. Et la quatrième consiste à perfectionner l’art de diviser pour mieux régner”. Pour que l’armée ou la police ne fasse pas défection, les autorités ont amélioré la formation des forces de sécurité. La corruption et le financement permet de s’attacher des soutiens plus indéfectibles. Les forces de sécurité sont également plus fragmentées, afin qu’une défection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit également de faire varier la répression pour qu’une unité de sécurité ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les répressions des personnes déloyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la défection des forces de sécurité, et cette tendance s’est accentuée au fil du temps”.

La seconde adaptation clé a consisté à gagner la guerre de l’information, notamment en dominant les écosystèmes de l’information. “Inonder la zone de rumeurs, de désinformation et de propagande, dont certaines peuvent être créées et testées par différents outils d’IA, en fait partie. Il en va de même pour la coupure d’Internet aux moments opportuns, puis sa réouverture au moment opportun”.

Le troisième volet de la panoplie consiste à appliquer une répression sélective, consistant à viser des individus plutôt que les mouvements pour des crimes graves qui peuvent sembler décorrélé des manifestations, en les accusant de terrorisme ou de préparation de coup d’Etat. ”La guerre juridique est un autre outil administratif clé”.

Le quatrième volet consiste à diviser pour mieux régner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant à des actions violentes pour générer des reflux d’opinion… 

Comment utiliser l’IA pour gagner ? 

Dans la montée de l’adaptation des techniques pour défaire leurs opposants, la technologie joue un rôle, estime Erica Chenoweth. Jusqu’à présent, les mouvements civiques ont plutôt eu tendance à s’approprier et à utiliser, souvent de manière très innovantes, les technologies à leur avantage, par exemple à l’heure de l’arrivée d’internet, qui a très tôt été utilisé pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques à utiliser l’IA, contrairement aux régimes autocratiques. Pourtant, l’un des principaux problèmes des mouvements civiques consiste à “cerner leur environnement opérationnel”, c’est-à-dire de savoir qui est connecté à qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? Où sont les vulnérabilités du mouvement ? Réfléchir de manière créative à ces questions et enjeux, aux tactiques à déployer pourrait pourtant être un atout majeur pour que les mouvements démocratiques réussissent. 

Les mouvements démocratiques passent bien plus de temps à sensibiliser et communiquer qu’à faire de la stratégie, rappelle la chercheuse. Et c’est là deux enjeux où les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des élections municipales russe, un algorithme a permis de contrôler les images de vidéosurveillance des bureaux de vote pour détecter des irrégularités permettant de dégager les séquences où des bulletins préremplis avaient été introduits dans les urnes. Ce qui aurait demandé un contrôle militant épuisant a pu être accompli très simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer très facilement à des actions (des applications puissantes, mais parfois peu transparentes sur leurs méthodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent être mieux documentées et partagées pour qu’elles puissent servir à d’autres. Certains groupes proposent d’ailleurs déjà des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publié un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements démocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent réellement le succès des mouvements démocratiques. Encore faudrait-il que les mouvements démocratiques puissent accéder à des outils d’IA qui ne partagent pas leurs données avec des plateformes et avec les autorités. L’autre enjeu consiste à construire des corpus adaptés pour aider les mouvements à résister. Les corpus de l’IA s’appuient sur des données des 125 dernières années, alors que l’on sait déjà que ce qui fonctionnait il y a 60 ans ne fonctionne plus nécessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour démêler des processus délibératifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait été notre projet démocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques à poser la question de l’utilisation de l’IA a leur profit, plutôt que de la rejetter d’emblée comme l’instrument de l’autoritarisme, elle invite à faire un pas de côté pour trouver des modalités pour refaire gagner les luttes sociales.

On lui suggérera tout de même de regarder du côté des projets que Audrey Tang mène à Taïwan avec le Collective intelligence for collective progress, comme ses « assemblées d’alignement » qui mobilise l’IA pour garantir une participation équitable et une écoute active de toutes les opinions. Comme Tang le défend dans son manifeste, Plurality, l’IA pourrait être une technologie d’extension du débat démocratique pour mieux organiser la complexité. Tang parle d’ailleurs de broad listening (« écoute élargie ») pour l’opposer au broadcasting, la diffusion de un vers tous. Une méthode mobilisée par un jeune ingénieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bénéficié d’une audience surprenante, sans néanmoins l’emporter. Son adversaire a depuis mobilisé la méthode pour lancer une consultation, Tokyo 2050.

Des pistes à observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisée. Ajouter de l’IA ne signifie pas que les décisions demain seront plus justes, plus efficaces ou plus démocratiques. Au contraire. Le risque est fort que cet ajout bénéfice d’abord aux plus nantis au détriment de la diversité. L’enjeu demeure non pas d’ajouter des outils pour eux-mêmes, mais de savoir si ces outils produisent du changement et au profit de qui !

  • ✇Dans les algorithmes
  • L’IA peut-elle soutenir la démocratie ?
    La politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernièr
     

L’IA peut-elle soutenir la démocratie ?

27 mai 2025 à 01:00

La politologue Erica Chenoweth est la directrice du Non Violent Action Lab à Harvard. Elle a publié de nombreux livres pour montrer que la résistance non violente avait des effets, notamment, en français Pouvoir de la non-violence : pourquoi la résistance civile est efficace (Calmann Levy, 2021). Mais ce n’est plus le constat qu’elle dresse. Elle prépare d’ailleurs un nouveau livre, The End of People Power, qui pointe le déclin déroutant des mouvements de résistance civile au cours de la dernière décennie, alors même que ces techniques sont devenues très populaires dans le monde entier. Lors d’une récente conférence sur l’IA et les libertés démocratiques organisée par le Knight First Amendment Institute de l’université de Columbia, elle se demandait si l’IA pouvait soutenir les revendications démocratiques, rapporte Tech Policy Press (vidéo). L’occasion de rendre compte à notre tour d’un point de vue décoiffant qui interroge en profondeur notre rapport à la démocratie.  

La récession démocratique est engagée

La démocratie est en déclin, explique Erica Chenoweth. Dans son rapport annuel, l’association internationale Freedom House parle même de “récession démocratique” et estime que la sauvegarde des droits démocratiques est partout en crise. 2025 pourrait être la première année, depuis longtemps, où la majorité de la population mondiale vit sous des formes de gouvernement autoritaires plutôt que démocratiques. Ce recul est dû à la fois au développement de l’autoritarisme dans les régimes autocratiques et à l’avancée de l’autocratie dans les démocraties établies, explique Chenoweth. Les avancées démocratiques des 100 dernières années ont été nombreuses et assez générales. Elles ont d’abord été le fait de mouvements non violents, populaires, où des citoyens ordinaires ont utilisé les manifestations et les grèves, bien plus que les insurrections armées, pour déployer la démocratie là où elle était empêchée. Mais ces succès sont en déclin. Les taux de réussite des mouvements populaires pacifistes comme armés, se sont effondrés, notamment au cours des dix dernières années. “Il y a quelque chose de global et de systémique qui touche toutes les formes de mobilisation de masse. Ce n’est pas seulement que les manifestations pacifiques sont inefficaces, mais que, de fait, les opposants à ces mouvements sont devenus plus efficaces pour les vaincre en général”.

Les épisodes de contestation réformistes (qui ne relèvent pas de revendications maximalistes, comme les mouvements démocratiques), comprenant les campagnes pour les salaires et le travail, les mouvements environnementaux, les mouvements pour la justice raciale, l’expansion des droits civiques, les droits des femmes… n’ont cessé de subir des revers et des défaites au cours des deux dernières décennies, et ont même diminué leur capacité à obtenir des concessions significatives, à l’image de la contestation de la réforme des retraites en France ou des mouvements écologiques, plus écrasés que jamais. Et ce alors que ces techniques de mobilisation sont plus utilisées que jamais. 

Selon la littérature, ce qui permet aux mouvements populaires de réussir repose sur une participation large et diversifiée, c’est-à-dire transversale à l’ensemble de la société, transcendant les clivages raciaux, les clivages de classe, les clivages urbains-ruraux, les clivages partisans… Et notamment quand ils suscitent le soutien de personnes très différentes les unes des autres. “Le principal défi pour les mouvements de masse qui réclament un changement pour étendre la démocratie consiste bien souvent à disloquer les piliers des soutiens autocratiques comme l’armée ou les fonctionnaires. L’enjeu, pour les mouvements démocratiques, consiste à retourner la répression à l’encontre de la population en la dénonçant pour modifier l’opinion générale ». Enfin, les mouvements qui réussissent enchaînent bien souvent les tactiques plutôt que de reposer sur une technique d’opposition unique, afin de démultiplier les formes de pression. 

La répression s’est mise à niveau

Mais l’autocratie a appris de ses erreurs. Elle a adapté en retour ses tactiques pour saper les quatre voies par lesquelles les mouvements démocratiques l’emportent. “La première consiste à s’assurer que personne ne fasse défection. La deuxième consiste à dominer l’écosystème de l’information et à remporter la guerre de l’information. La troisième consiste à recourir à la répression sélective de manière à rendre très difficile pour les mouvements d’exploiter les moments d’intense brutalité. Et la quatrième consiste à perfectionner l’art de diviser pour mieux régner”. Pour que l’armée ou la police ne fasse pas défection, les autorités ont amélioré la formation des forces de sécurité. La corruption et le financement permet de s’attacher des soutiens plus indéfectibles. Les forces de sécurité sont également plus fragmentées, afin qu’une défection de l’une d’entre elles, n’implique pas les autres. Enfin, il s’agit également de faire varier la répression pour qu’une unité de sécurité ne devienne pas une cible de mouvements populaires par rapport aux autres. Les purges et les répressions des personnes déloyales ou suspectes sont devenues plus continues et violentes. “L’ensemble de ces techniques a rendu plus difficile pour les mouvements civiques de provoquer la défection des forces de sécurité, et cette tendance s’est accentuée au fil du temps”.

La seconde adaptation clé a consisté à gagner la guerre de l’information, notamment en dominant les écosystèmes de l’information. “Inonder la zone de rumeurs, de désinformation et de propagande, dont certaines peuvent être créées et testées par différents outils d’IA, en fait partie. Il en va de même pour la coupure d’Internet aux moments opportuns, puis sa réouverture au moment opportun”.

Le troisième volet de la panoplie consiste à appliquer une répression sélective, consistant à viser des individus plutôt que les mouvements pour des crimes graves qui peuvent sembler décorrélé des manifestations, en les accusant de terrorisme ou de préparation de coup d’Etat. ”La guerre juridique est un autre outil administratif clé”.

Le quatrième volet consiste à diviser pour mieux régner. En encourageant la mobilisation loyaliste, en induisant des divisions dans les mouvements, en les infiltrant pour les radicaliser, en les poussant à des actions violentes pour générer des reflux d’opinion… 

Comment utiliser l’IA pour gagner ? 

Dans la montée de l’adaptation des techniques pour défaire leurs opposants, la technologie joue un rôle, estime Erica Chenoweth. Jusqu’à présent, les mouvements civiques ont plutôt eu tendance à s’approprier et à utiliser, souvent de manière très innovantes, les technologies à leur avantage, par exemple à l’heure de l’arrivée d’internet, qui a très tôt été utilisé pour s’organiser et se mobiliser. Or, aujourd’hui, les mouvements civiques sont bien plus prudents et sceptiques à utiliser l’IA, contrairement aux régimes autocratiques. Pourtant, l’un des principaux problèmes des mouvements civiques consiste à “cerner leur environnement opérationnel”, c’est-à-dire de savoir qui est connecté à qui, qui les soutient ou pourrait les soutenir, sous quelles conditions ? Où sont les vulnérabilités du mouvement ? Réfléchir de manière créative à ces questions et enjeux, aux tactiques à déployer pourrait pourtant être un atout majeur pour que les mouvements démocratiques réussissent. 

Les mouvements démocratiques passent bien plus de temps à sensibiliser et communiquer qu’à faire de la stratégie, rappelle la chercheuse. Et c’est là deux enjeux où les IA pourraient aider, estime-t-elle. En 2018 par exemple, lors des élections municipales russe, un algorithme a permis de contrôler les images de vidéosurveillance des bureaux de vote pour détecter des irrégularités permettant de dégager les séquences où des bulletins préremplis avaient été introduits dans les urnes. Ce qui aurait demandé un contrôle militant épuisant a pu être accompli très simplement. Autre exemple avec les applications BuyCat, BoyCott ou NoThanks, qui sont des applications de boycott de produits, permettant aux gens de participer très facilement à des actions (des applications puissantes, mais parfois peu transparentes sur leurs méthodes, expliquait Le Monde). Pour Chenoweth, les techniques qui fonctionnent doivent être mieux documentées et partagées pour qu’elles puissent servir à d’autres. Certains groupes proposent d’ailleurs déjà des formations sur l’utilisation de l’IA pour l’action militante, comme c’est le cas de Canvas, de Social Movement Technologies et du Cooperative Impact Lab.

Le Non Violent Action Lab a d’ailleurs publié un rapport sur le sujet : Comment l’IA peut-elle venir aider les mouvements démocratiques ? Pour Chenoweth, il est urgent d’évaluer si les outils d’IA facilitent ou compliquent réellement le succès des mouvements démocratiques. Encore faudrait-il que les mouvements démocratiques puissent accéder à des outils d’IA qui ne partagent pas leurs données avec des plateformes et avec les autorités. L’autre enjeu consiste à construire des corpus adaptés pour aider les mouvements à résister. Les corpus de l’IA s’appuient sur des données des 125 dernières années, alors que l’on sait déjà que ce qui fonctionnait il y a 60 ans ne fonctionne plus nécessairement.

Pourtant, estime Chenoweth, les mouvements populaires ont besoin d’outils pour démêler des processus délibératifs souvent complexes, et l’IA devrait pouvoir les y aider. “Aussi imparfait qu’ait été notre projet démocratique, nous le regretterons certainement lorsqu’il prendra fin”, conclut la politologue. En invitant les mouvements civiques à poser la question de l’utilisation de l’IA a leur profit, plutôt que de la rejetter d’emblée comme l’instrument de l’autoritarisme, elle invite à faire un pas de côté pour trouver des modalités pour refaire gagner les luttes sociales.

On lui suggérera tout de même de regarder du côté des projets que Audrey Tang mène à Taïwan avec le Collective intelligence for collective progress, comme ses « assemblées d’alignement » qui mobilise l’IA pour garantir une participation équitable et une écoute active de toutes les opinions. Comme Tang le défend dans son manifeste, Plurality, l’IA pourrait être une technologie d’extension du débat démocratique pour mieux organiser la complexité. Tang parle d’ailleurs de broad listening (« écoute élargie ») pour l’opposer au broadcasting, la diffusion de un vers tous. Une méthode mobilisée par un jeune ingénieur au poste de gouverneur de Tokyo, Takahiro Anno, qui a bénéficié d’une audience surprenante, sans néanmoins l’emporter. Son adversaire a depuis mobilisé la méthode pour lancer une consultation, Tokyo 2050.

Des pistes à observer certes, pour autant qu’on puisse mesurer vraiment leurs effets. Peuvent-elles permettent aux luttes sociales de l’emporter, comme le propose Chenoweth ? Le risque est fort de nous faire glisser vers une vie civique automatisée. Ajouter de l’IA ne signifie pas que les décisions demain seront plus justes, plus efficaces ou plus démocratiques. Au contraire. Le risque est fort que cet ajout bénéfice d’abord aux plus nantis au détriment de la diversité. L’enjeu demeure non pas d’ajouter des outils pour eux-mêmes, mais de savoir si ces outils produisent du changement et au profit de qui !

  • ✇Dans les algorithmes
  • Réutiliser, réparer, refuser, réclamer 
    Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle d
     

Réutiliser, réparer, refuser, réclamer 

26 mai 2025 à 01:00

Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la réduction de la consommation et dans le recyclage, mais dans l’intégration à grande échelle de l’ancien dans le nouveau. Hybrider les technologies défuntes et les intégrer dans nos quotidiens est tout l’enjeu du monde à venir, dans une forme de permaculture du calcul. Arrêtons de déplorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La réutilisation et la réparation nous conduisent désormais à refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent désormais “refuser d’être neutralisés, écrasés et réduits au silence”, refuser de se faire réapproprier. Nous devons réclamer la tech – c’était déjà la conclusion de son précédent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspiré par le mouvement britannique des années 90, qui réclamait déjà la rue, pour reconquérir cet espace public contre la surveillance policière et la voiture.

“Reclaim the Tech » va plus loin en affirmant que « Nous sommes la technologie », explique Lovink. Cela signifie que la technologie n’est plus un phénomène passager, imposé : la technologie est en nous, nous la portons à fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech », décrites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numérique actuelle est stagnante, elle n’est pas une échappatoire. Elle manque de direction et de destin. La volonté d’organisation est absente maintenant que même les réseaux à faible engagement ont été supplantés par les plateformes. L’esprit du temps est régressif, à l’opposé de l’accélérationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de données. Ce que nous vivons est une succession interminable de courtes poussées d’extase orgasmique, suivies de longues périodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dévastateur sur la recherche et la mise en œuvre d’alternatives durables, estime Lovink. L’optimisation prédictive a effacé l’énergie intérieure de révolte que nous portons en nous. Il ne reste que des explosions de colère, entraînant des mouvements sociaux erratiques – une dynamique alimentée par une utilisation des réseaux sociaux à courte durée d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialité visible dans la technologie et le design. Nous la voyons apparaître non seulement dans le cas des matières premières, mais aussi dans le contexte du « colonialisme des données ». 

Mais, s’il est essentiel d’exiger la décolonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « créolisation technologique ».

La décolonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cœur même de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, créons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements géopolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion à la destruction militaire bien réelle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratégies de sortie ne manquent pas. L’exode ne sera pas télévisé. Le monde ne peut attendre la mise en œuvre des principes de prévention des données. Arrêtons définitivement les flux de données !, clame Lovink. 

La « confidentialité » des données s’étant révélée être un gouffre juridique impossible à garantir, la prochaine option sera des mécanismes intégrés, des filtres empêchant les données de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de données, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant après la révolution, les « magasins de proximité » qui rendent les technologies aux gens ne se contenteront plus de réparer, mais nous permettront de vivre avec nos déchets, de les rendre visibles, à nouveau fonctionnels, tout comme on rend à nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalités. 

  • ✇Dans les algorithmes
  • Réutiliser, réparer, refuser, réclamer 
    Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle d
     

Réutiliser, réparer, refuser, réclamer 

26 mai 2025 à 01:00

Le soulèvement contre l’obsolescence programmée est bien engagé, estime Geert Lovink (blog) dans la conclusion d’un petit livre sur l’internet des choses mortes (The Internet of Dead things, édité par Benjamin Gaulon, Institute of Network Cultures, 2025, non traduit). Le petit livre, qui rassemble notamment des contributions d’artistes de l’Institut de l’internet des choses mortes, qui ont œuvré à développer un système d’exploitation pour Minitel, met en perspective l’hybridation fonctionnelle des technologies. Pour Lovink, l’avenir n’est pas seulement dans la réduction de la consommation et dans le recyclage, mais dans l’intégration à grande échelle de l’ancien dans le nouveau. Hybrider les technologies défuntes et les intégrer dans nos quotidiens est tout l’enjeu du monde à venir, dans une forme de permaculture du calcul. Arrêtons de déplorer l’appropriation du logiciel libre et ouvert par le capitalisme vautour, explique Geert Lovink. La réutilisation et la réparation nous conduisent désormais à refuser la technologie qu’on nous impose. Les mouvements alternatifs doivent désormais “refuser d’être neutralisés, écrasés et réduits au silence”, refuser de se faire réapproprier. Nous devons réclamer la tech – c’était déjà la conclusion de son précédent livre, Stuck on the platform (2022, voir notre critique) -, comme nous y invitent les hackers italiens, inspiré par le mouvement britannique des années 90, qui réclamait déjà la rue, pour reconquérir cet espace public contre la surveillance policière et la voiture.

“Reclaim the Tech » va plus loin en affirmant que « Nous sommes la technologie », explique Lovink. Cela signifie que la technologie n’est plus un phénomène passager, imposé : la technologie est en nous, nous la portons à fleur de peau ou sous la peau. Elle est intime, comme les applications menstruelles de la « femtech », décrites par Morgane Billuart dans son livre Cycles. Les ruines industrielles tiennent d’un faux romantisme, clame Lovink. Nous voulons un futur hybrid-punk, pas cypherpunk ! “La culture numérique actuelle est stagnante, elle n’est pas une échappatoire. Elle manque de direction et de destin. La volonté d’organisation est absente maintenant que même les réseaux à faible engagement ont été supplantés par les plateformes. L’esprit du temps est régressif, à l’opposé de l’accélérationnisme. Il n’y a pas d’objectif vers lequel tendre, quelle que soit la vitesse. Il n’y a pas non plus de dissolution du soi dans le virtuel. Le cloud est le nouveau ringard. Rien n’est plus ennuyeux que le virtuel pur. Rien n’est plus corporate que le centre de données. Ce que nous vivons est une succession interminable de courtes poussées d’extase orgasmique, suivies de longues périodes d’épuisement.”

Ce rythme culturel dominant a eu un effet dévastateur sur la recherche et la mise en œuvre d’alternatives durables, estime Lovink. L’optimisation prédictive a effacé l’énergie intérieure de révolte que nous portons en nous. Il ne reste que des explosions de colère, entraînant des mouvements sociaux erratiques – une dynamique alimentée par une utilisation des réseaux sociaux à courte durée d’attention. La question d’aujourd’hui est de savoir comment rendre la (post)colonialité visible dans la technologie et le design. Nous la voyons apparaître non seulement dans le cas des matières premières, mais aussi dans le contexte du « colonialisme des données ». 

Mais, s’il est essentiel d’exiger la décolonisation de tout, estime Lovink, la technologie n’abandonnera pas volontairement sa domination du Nouveau au profit de la « créolisation technologique ».

La décolonisation de la technologie n’est pas un enjeu parmi d’autres : elle touche au cœur même de la production de valeur actuelle. Prenons garde de ne pas parler au nom des autres, mais agissons ensemble, créons des cultures de « vivre ensemble hybride » qui surmontent les nouveaux cloisonnements géopolitiques et autres formes subliminales et explicites de techno-apartheid. La violence technologique actuelle va des biais algorithmiques et de l’exclusion à la destruction militaire bien réelle de terres, de villes et de vies. Les alternatives, les designs innovants, les feuilles de route et les stratégies de sortie ne manquent pas. L’exode ne sera pas télévisé. Le monde ne peut attendre la mise en œuvre des principes de prévention des données. Arrêtons définitivement les flux de données !, clame Lovink. 

La « confidentialité » des données s’étant révélée être un gouffre juridique impossible à garantir, la prochaine option sera des mécanismes intégrés, des filtres empêchant les données de quitter les appareils et les applications. Cela inclut une interdiction mondiale de la vente de données, estime-t-il. Les alternatives ne sont rien si elles ne sont pas locales. Apparaissant après la révolution, les « magasins de proximité » qui rendent les technologies aux gens ne se contenteront plus de réparer, mais nous permettront de vivre avec nos déchets, de les rendre visibles, à nouveau fonctionnels, tout comme on rend à nouveau fonctionnel le Minitel en changeant son objet, sa destination, ses modalités. 

  • ✇Dans les algorithmes
  • IA générative vs IA productive
    Encore une réflexion stimulante de Gregory Chatonsky, qui observe deux modes de relation à l’IA générative. L’un actif-productif, l’autre passif-reproductif-mémétique. « L’infrastructure générative n’a pas d’essence unifiée ni de destination prédéterminée — elle peut être orientée vers la production comme vers la consommation. Cette indétermination constitutive des technologies génératives révèle un aspect fondamental : nous nous trouvons face à un système technique dont les usages et les implic
     

IA générative vs IA productive

23 mai 2025 à 01:00

Encore une réflexion stimulante de Gregory Chatonsky, qui observe deux modes de relation à l’IA générative. L’un actif-productif, l’autre passif-reproductif-mémétique. « L’infrastructure générative n’a pas d’essence unifiée ni de destination prédéterminée — elle peut être orientée vers la production comme vers la consommation. Cette indétermination constitutive des technologies génératives révèle un aspect fondamental : nous nous trouvons face à un système technique dont les usages et les implications restent largement à définir ».

« L’enjeu n’est donc pas de privilégier artificiellement un mode sur l’autre, mais de comprendre comment ces deux rapports à la génération déterminent des trajectoires divergentes pour notre avenir technologique. En reconnaissant cette dualité fondamentale, nous pouvons commencer à élaborer une relation plus consciente et réfléchie aux technologies génératives, capable de dépasser aussi bien l’instrumentalisme naïf que le déterminisme technologique.

La génération n’est ni intrinsèquement productive ni intrinsèquement consommatrice — elle devient l’un ou l’autre selon le rapport existentiel que nous établissons avec elle. C’est dans cette indétermination constitutive que résident sa réponse à la finitude. »

  • ✇Dans les algorithmes
  • La modération n’est pas équitable
    Dans une riche et détaillée revue d’études sur la modération des plateformes du web social, Lisa Macpherson de l’association Public Knowledge démontre que cette modération n’est ni équitable ni neutre. En fait, les études ne démontrent pas qu’il y aurait une surmodération des propos conservateurs, au contraire, les contenus de droite ayant tendance à générer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modérés, c’est parce qu’i
     

La modération n’est pas équitable

23 mai 2025 à 01:00

Dans une riche et détaillée revue d’études sur la modération des plateformes du web social, Lisa Macpherson de l’association Public Knowledge démontre que cette modération n’est ni équitable ni neutre. En fait, les études ne démontrent pas qu’il y aurait une surmodération des propos conservateurs, au contraire, les contenus de droite ayant tendance à générer plus d’engagement et donc de revenus publicitaires. En fait, si certains contenus conservateurs sont plus souvent modérés, c’est parce qu’ils enfreignent plus volontiers les règles des plateformes en colportant de la désinformation ou des propos haineux, et non du fait des biais politiques de la modération. La modération injustifiée, elle, touche surtout les communautés marginalisées (personnes racisées, minorités religieuses, femmes, LGBTQ+). Les biais de modération sont toujours déséquilibrés. Et les contenus de droite sont plus amplifiés que ceux de gauche. 

En France, rapporte Next, constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numériques Xavier Brandao porte plainte contre Meta auprès de l’Arcom au titre du DSA. En envoyant plus de 118 signalements à Meta en quatre mois pour des discours racistes avérés, l’activiste s’est rendu compte que seulement 8 commentaires avaient été supprimés.

❌
❌