Vue normale

À partir d’avant-hierFlux principal
  • ✇affordance.info
  • Algorithmes et société. Pint Of Science 2025.
    J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».   Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la prépar
     

Algorithmes et société. Pint Of Science 2025.

22 mai 2025 à 05:47

J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».

 

Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.

Voici donc ce que j’ai raconté de mon côté.

Je vais vous faire écouter un algorithme.

Je vais vous faire écouter un algorithme.

 

Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).

Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).

Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :

  • D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.

Les algorithmes sont cela.

  • Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.

Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.

Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.

  • Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. » 

Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.

Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.

 

Je vais maintenant vous parler du rythme des algorithmes.

Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.

Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.

Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.

Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.

L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.

L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.

L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.

Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.

Dans un article j’écrivais :

« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.« 

 

Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.

On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.

Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.

Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)

  • ✇affordance.info
  • Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).
    Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »   Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime co
     

Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).

20 mai 2025 à 05:08

Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »

 

Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.

Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.

Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.

La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.

La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».

Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)

Je leur dirai les mots noirs. 

Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».

Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation)  leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.

 

Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :

  • activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.

Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.

« Erase Baby, Erase ! »

Il faut effacer. « Erase Baby, Erase. » Comme Anne-Cécile Mailfert le rappelait dans sa chronique sur France Inter :

Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)

Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.

 

Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …

Ingénieries de l’effacement.

Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »

Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »

Les LGBTQIA+, les Noirs, les peuples indigènes, les Juifs et les Latinos. Le tout dans un monde où un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde où plus personne ne semble capable de simplement le qualifier pour ce qu’il est.

Un grand remplacement documentaire et linguistique.

Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.

Une boucle paradoxale dans laquelle les mêmes technologies d’IA utilisées pour générer des contenus jusqu’au-delà de la saturation sont également mobilisées et utilisées pour rechercher, détecter et supprimer les mots interdits. Et à partir de là de nouveau générer des contenus à saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.

La certitude d’une ingérence.

Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.

Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :

Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s). 

 

Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).

Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de déposer plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectés, c’est à dire d’Apple à Amazon en passant par Facebook, Microsoft et Google, et par-delà ce qu’Olivier Tesquet qualifie de « Watergate domestique », qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrées et qui relèvent de l’intime et du privé ?

Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.

Calculer la langue.

Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.

Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.

En conclusion il semble important de redire, de ré-expliquer et de réaffirmer qu’à chaque fois que nous utilisons des artefacts génératifs, et qu’à chaque fois que nous sommes confrontés à leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face à un système de valeurs. Un article récent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :

Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]

 

En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.

En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »

En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.

  • ✇affordance.info
  • Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre le Cabinet Louis Reynaud et moi.
    Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article. J’avais alors formulé plusieurs souhaits : que des journalistes et des associations de défense des libertés num
     

Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre le Cabinet Louis Reynaud et moi.

11 mai 2025 à 08:10

Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.

J’avais alors formulé plusieurs souhaits :

  1. que des journalistes et des associations de défense des libertés numériques se saisissent de ces éléments et enquêtent.
  2. que d’autres associations ayant reçu de pareilles sollicitations me contactent ou publient aussi ces éléments.
  3. que les autorités indépendantes que sont la CNIL et l’ANSSI s’expriment sur ce sujet.

Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière 🙂 Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.

Côté presse d’abord.

Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein 🙂

Cela commence avec une brève (mais saignante) dans Stratégies du 23 Avril : « Du don de data organique contre la précarité. »

 

Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.

 

Cela continue avec un autre article, cette fois dans l’Humanité en date du 25 Avril : « Aide alimentaire contre données biométriques ? L’étrange deal proposé par le cabinet Louis Reynaud, spécialisé dans la cybersécurité, à une épicerie solidaire. »

 

Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf

 

Et Ouest-France à son tour sort un papier le 2 Mai : « Comment on a offert à des étudiants bénéficiaires d’une épicerie solidaire de ficher leur visage. »

 

Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).

 

Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).

Effet Streisand.

L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »

Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant 🙂 Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).

Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).

L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.

 

 

Je rappelle par ailleurs à toutes fins utiles, que ce blog ést doté depuis Juin 2012, par la Bibliothèque Nationale de France, d’un numéro ISSN, et qu’il est donc régulièrement archivé et conservé à titre patrimonial dans le cadre du dépôt légal numérique (parmi 4 millions d’autres sites).

Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.

J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.

Cherry On The Cake.

Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)

J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.

Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.

Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.

Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là 😉

  • ✇affordance.info
  • Les effets de Tiktok sur les mineurs. Retour sur mon audition à l’assemblée nationale.
    Le 29 Avril 2025 j’ai été (avec d’autres) auditionné à l’assemblée nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». L’ensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de l’assemblée. Initialement invité en compagnie d’Aurélie Jean et de David Chavalarias qui ont finalement dû décliner (j’espère qu’ils pourront tout de même être entendus), le périmètre de cette audition a finalement réuni : Mme Sihem Amer-Yahia, directrice de r
     

Les effets de Tiktok sur les mineurs. Retour sur mon audition à l’assemblée nationale.

4 mai 2025 à 11:00

Le 29 Avril 2025 j’ai été (avec d’autres) auditionné à l’assemblée nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». L’ensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de l’assemblée.

Initialement invité en compagnie d’Aurélie Jean et de David Chavalarias qui ont finalement dû décliner (j’espère qu’ils pourront tout de même être entendus), le périmètre de cette audition a finalement réuni :

  • Mme Sihem Amer-Yahia, directrice de recherche au CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
  • Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
  • M. Marc Faddoul, directeur et cofondateur d’AI Forensics.
  • et moi 🙂

 

 

Pour préparer cette audition, on nous avait envoyé une liste de 18 questions. Je vous livre ci-dessous les réponses que j’y ai apportées et que j’ai également transmises à ladite commission. Comme j’aime bien partager ma vie avec mes étudiant.e.s du meilleur BUT Infocom de la galaxie connue, je leur avais raconté et annoncé cette audition et leur avais aussi demandé de répondre à quelques-unes des questions qui m’avaient été adressées, en le faisant depuis leur point de vue d’utilisateur et d’utilisatrice de la plateforme. J’en ai extrait (avec leur accord et en les anonymisant) quelques verbatims que vous trouverez en toute fin d’article.

A titre personnel cette expérience fut à la fois intéressante mais essentiellement frustrante. Il s’agit d’un dispositif « court » : nous étions ici 4 universitaires à être auditionnés sur un temps d’un peu plus d’une heure. Ajoutez-y les questions et les propos « liminaires » et cela reste court. Mais chaque commission auditionne énormément de personnes et il est donc normal et nécessaire de limiter la temporalité de ces temps d’échange. Il y a aussi une forme de solennité biaisée : nous sommes conviés en tant que praticiens et praticiennes spécialistes d’un sujet auquel nous avons consacré plusieurs dizaines d’années de recherche, de travaux, d’ouvrages et d’articles, mais nous nous adressons à la puissance publique dans un cadre dont il est difficile de déterminer quelle est la part attendue de l’analyse réflexive, et celle de l’opérationnalité immédiate exigée ; car à la fin, tout cela devra se traduire par des mesures concrètes susceptibles de produire ou d’orienter des cadres législatifs à l’origine de décisions politiques. Le dernier point de difficulté est que nous débarquons dans cette commission sans savoir quel est le niveau réel d’acculturation des députés aux éléments que nous allons présenter. J’avais de mon côté écouté l’ensemble des auditions précédentes pour tenter d’éviter les redites et produire un minimum de continuité dans les travaux de la commission, mais même en ayant pris le temps de le faire, l’exercice reste délicat.

Tout ça pour dire que je suis bien content de pouvoir, au calme, transmettre par écrit mes réflexions à cette commission, car si elle devait se fonder uniquement sur ce que je lui ai déclaré à l’oral (ainsi que mes camarades d’audition), je ne pense pas qu’elle serait très avancée ou informée 😉 J’espère donc surtout qu’elle pourra prendre le temps de lire tout cela (ainsi que la synthèse que j’en dresse à la fin en mode TLDR).

Cela a commencé ainsi.

[On nous demande d’abord de nous présenter brièvement et on nous laisse un « propos liminaire » de 5 minutes] Je suis enseignant chercheur en sciences de l’information. Si les universitaires qui étudient la sociologie se définissent comme sociologues, je peux me définir comme « médiologue ». J’étudie les médias numériques (moteurs de recherche, réseaux sociaux, plateformes) et ce qu’ils modifient dans notre rapport à l’information, à la connaissance, aux autres et à nous-mêmes. Depuis 25 ans je documente l’évolution de ces outils avec – essentiellement – des méthodes d’observation participante. Et si je devais résumer 25 ans de recherche en une seule phrase je dirai que tout est de la faute du modèle économique de ces plateformes. Ou pour reprendre le titre d’une conférence d’une collègue, Zeinep Tufekci : « nous avons construit une dystopie, juste pour obliger les gens à cliquer sur des publicités« .

[Propos liminaire 1] En guise de propos liminaires je veux rappeler et insister sur le fait que ces « réseaux sociaux » qui sont en fait des « médias sociaux » doivent être pensés et analysés comme des biotopes particuliers dans un écosystème général qui est celui de l’économie des médias (radio, télé, presse, etc.). Et que ces médias sociaux procèdent (en partie) comme des parasites qui vont littéralement venir phagogyter les autres écosystèmes médiatiques. Les exemples sont nombreux. Il y avait eu à l’époque (circa 2010) le fait que plein de sites de presse ou de médias avaient accepté d’installer sur leur site le bouton « Like » de Facebook qui avait fait d’eux de simples vassaux numériques et médiatiques de cette plateforme devenue hôte. J’écrivais alors et alertais : « Le Like tuera le lien« .

Aujourd’hui il y a toujours des liens d’écho, de résonance très forts entre différents écosystèmes médiatiques mais dans certains cas d’usages, auprès de certaines populations, pour certains segments d’âge ou d’éducation, les médias sociaux sont le premier biotope informationnel. C’est cette question qu’il faut adresser (pour TikTok comme pour les autres) et pour laquelle la part « éditoriale » de ce que l’on appelle « les algorithmes » doit être clarifiée, débattue, encadrée. Encadrée de manière contraignante.

[Propos liminaire 2] Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :

  1. D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
  2. Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
  3. Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »

[Propos liminaire 3] La question nous est posée de savoir si l’on peut « exiger des réseaux sociaux d’être entièrement transparents sur leur algorithme« . Oui. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un bouton like vaut 1 point et qu’un bouton colère vaut 5 points, nos comportements sont susceptibles de changer).

Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, dans des mondes « réels » ou dans d’autres « virtuels », etc.

Nous parlons d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.

Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.

Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.

Et a fortiori encore dans un monde où ces applications et plateformes sont devenues totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).

[Propos liminaire 4] Je veux citer ce que j’écrivais dans l’article « Ouvrir le code des algorithmes ne suffit plus »

Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. 

 

Les questions de la commission (et mes réponses).

Ces questions étaient organisées en cinq grandes parties :

  1. Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux.
  2. Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
  3. Sur la transparence des réseaux sociaux
  4. Sur l’éducation aux réseaux sociaux
  5. Questions générales
Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux

1. Quels sont les multiples facteurs pris en compte par les algorithmes utilisés par les réseaux sociaux, notamment pour déterminer les contenus présentés aux utilisateurs ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?

De manière générale les algorithmes de recommandation fonctionnent sur 4 critères.

  • Le premier est celui de la personnalisation déclarative (on dit ce que l’on aime ou ce que l’on n’aime pas).
  • Le second est celui de l’historique de navigation réel : indépendamment de ce que l’on dit aimer, les plateformes « voient » ce que l’on consomme réellement et ce sur quoi on est appétent.
  • Le troisième critère est celui de la moyenne statistique (comparativement à d’autres ayant déclaré les mêmes centres d’intérêt, et/ou dans le même groupe d’âge, de genre, etc.)
  • le quatrième critère est celui de la stochastique, de l’aléatoire. Depuis le début des systèmes de recommandation, les ingénieurs qui fabriquent ces algorithmes savent que si on ne sort pas de temps en temps de nos centres d’intérêt déclaratifs on va avoir des phénomènes de désintérêt ou de lassitude. Ils injectent donc un peu (ou beaucoup) d’aléatoire pour « affiner » et « ajuster » mais aussi pour (souvent) nous « ramener » des des contenus plus directement monétisables. La question c’est de savoir jusqu’où peut aller cet aléatoire (plus ou moins loin de nos habitudes de. navigation et de consultation) et de quelle manière et en quelles proportions il peut-être corrélé à d’autres moyennes statistiques.

Reste la particularité de l’algorithme de Tiktok qui est la question du rythme. Alors que la durée moyenne d’une vidéo TikTok est de 15 ou 16 secondes, toutes les 3, 4, 5 ou 6 secondes, donc sur des temps et des rythmes extrêmement courts, il y a une interaction, donc une documentation de notre pratique, donc une information pour l’algorithme.  La vitesse de consommation est en elle-même une information. Elle fonctionne comme un arc réflexe. Chaque vidéo, chaque contenu affiché est l’équivalent du petit coup de marteau sur votre genou pour déclencher l’arc réflexe. Sauf que cette fois l’arc réflexe recherché est un arc réflexe cognitif. Cette rythmique a été copiée par les autres plateformes : Reels sur Insta, Spotlights sur Snapchat, Shorts sur Youtube.

A cette rythmique s’ajoute aussi la multiplication des points d’entrée dans les logiques de recommandation : « Pour toi » mais aussi « abonnements » (« suivis »), « amis », « lives », « explorer ».

Et une stratégie du fou, de l’irrationalité : certains contenus mis en avant disposent de chiffres de visibilité et d’engagement hallucinants (plusieurs centaines de millions de vues) alors que d’autres beaucoup plus travaillés et pertinents ne décolleront jamais. La question des métriques est par ailleurs là aussi une spécificité de TikTok qui fonctionne comme un vertige, une ivresse de notoriété : la moindre vidéo peut atteindre des nombres de vues immensément plus important que sur d’autres plateformes. Comme sur les autres plateformes, absolument rien ne permet en revanche d’authentifier la sincérité de ces métriques.

 

2. Les algorithmes des réseaux sociaux peuvent-ils favoriser certains types de contenus ? Le font-ils effectivement ? Si oui, selon quels facteurs et quelles modalités ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?

Dans l’absolu la réponse est oui car la nature même d’un algorithme est de trier et d’organiser l’information et les contenus. Donc de hiérarchiser. Donc d’éditorialiser (cf « Un algorithme est un éditorialiste comme les autres« ). Ce qui est plus complexe c’est de documenter finement la manière dont ils procèdent. Mais on a eu un exemple indépassable avec le rachat de Twitter par Elon Musk et la manière dont du jour au lendemain la ligne éditoriale a totalement changé (cf mon article « ouvrir le code des algorithmes ne suffit plus« ).

[Nota-Bene] J’entends le terme « d’éditorialisation » comme le définit Marcello Vitali-Rosati : « L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »

L’autre enjeu c’est de comprendre à quels intérêts ces changements correspondent ; un algorithme étant nécessairement la décision de quelqu’un d’autre, qu’est-ce qui motive ces décisions ?

  • L’idéologie ? Exemples récents et récurrents de rétablissement de comptes masculinistes ou pro-avortement, prime donnée à ces contenus, etc.
  • La géopolitique ? Exemples récents de contenus plutôt pro-israëliens sur Facebook après le 7 Octobre (en tout cas invisibilisation de contenus pro-palestiniens) à l’inverse de contenus plutôt pro-palestiniens sur TikTok.
  • L’argent (recettes et monétisation publicitaire) ?

Un concept clé pour comprendre la favorisation de certains contenus c’est celui de la publicitarisation. La « publicitarisation » c’est une notion définie ainsi par Valérie Patrin-Leclère, enseignante au CELSA :

« une adaptation de la forme, des contenus, ainsi que d’un ensemble de pratiques professionnelles médiatiques à la nécessité d’accueillir la publicité. Cette adaptation consiste en un aménagement destiné à réduire la rupture sémiotique entre contenu éditorial et contenu publicitaire – elle se traduit, par exemple, par l’augmentation des contenus éditoriaux relevant des catégories « société » et « consommation » ou par le déploiement de formats facilitant l’intégration publicitaire, comme la « téléréalité » – mais aussi en un ménagement éditorial des acteurs économiques susceptibles d’apporter des revenus publicitaires au média (…) »

 

Cette publicitarisation est là encore très ancienne. Un des responsables partenariats de Google (David Eun) déclarait il y a plus de 20 ans : « Ads Are Content ». Traduction : « les publicités sont du contenu« , et par extension, « les publicités c’est le contenu« . Le résultat aujourd’hui c’est ce verbatim d’utilisateurs et d’utilisatrices pour qui « le fait que le contenu est sponsorisé n’est pas toujours explicite et même parfois volontairement dissimulé. Les publicitaires reprennent également les codes des influenceurs et les trends, ce qui floute la frontière entre une recommandation personnelle et un contenu sponsorisé. »

Concernant la dimension géopolitique ou idéologique, là où TikTok est un objet encore plus complexe c’est parce que lui-même est en quelque sorte le premier réseau social directement, presqu’ontologiquement géopolitique. Créé par la Chine, comme un facteur, vecteur, agent d’influence. Mais avec des déclinaisons différentes dans chaque pays ou zone : le TikTok Chinois n’est pas le TikTok américain qui lui-même n’est pas exactement le TikTok européen, etc.

Une autre particularité forte de l’algorithmie de TikTok (en plus de son rythme propre) c’est ce qu’on appelle le « beauty / pretty privilege » et qui fait que des phénomènes comme le SkinnyTok ont un impact majeur presqu’indépendamment du nombre d’utilisateurs actifs de la plateforme (saisine par Clara Chappaz de l’ARCOM et de la commission européenne à ce sujet). Et qui fait que certains corps (noirs, gros, trans, etc.) sont invisibilisés ou dénigrés.

Les réseaux et médias sociaux, via leurs décisions et tamis algorithmiques, sont essentiellement deux choses :

  • des machines à cash
  • des machines à fabriquer de la norme

Et plus il y aura de normes édictées par les médias sociaux, plus elles seront facilement suivies (public captif), plus elles seront publicitarisables, plus il y aura de cash, plus il y aura de nouveaux espaces de publicitarisation. Ad Libitum.

Et pour être ces machines à cash et à fabriquer de la norme, les algorithmes de ces plateformes ont un rapport particulier à la mémoire : ils sont structurellement dans une forme d’hypermnésie permanente (du fait de la conservation de nos historiques) mais sont conjoncturellement tout à fait capables d’amnésie lorsque cela les arrange ou le nécessite (par exemple pour nous re-proposer des contenus dont nous avons dit qu’ils ne nous intéressaient pas mais qui sont rentables pour la plateforme).

 

3. Quels sont les conséquences du modèle économique des réseaux sociaux et particulièrement de TikTok quant à la construction et la mise en œuvre des algorithmes utilisés ?

Ils cadrent tout. Au sens où le sociologue Erving Goffman parle des « cadres de l’expérience ».

Toute expérience humaine renvoie, selon Goffman, à un cadre donné, généralement partagé par toutes les personnes en présence ; ce cadre oriente leurs perceptions de la situation ainsi que les comportements qu’elles adoptent par rapport à elle. Ceci étant posé, l’auteur s’attache, selon son habitude, à classer les différents types de cadres, en distinguant d’abord les cadres primaires des cadres transformés. (Source)

 

Ces cadres vont ensuite être « modalisés », c’est à dire subir différentes transformations. Et donc la conséquence du modèle économique des réseaux sociaux c’est que la publicité, ou plus exactement la publicitarisation est la première modalisation de ce cadre d’expérience commun qu’est la navigation dans les contenus de chaque plateforme.

La publicitarisation fabrique littéralement de la consommation (au sens économique mais aussi informationnel et navigationnel), consommation qui elle-même fabrique des formes de compulsion (FOMO, etc.) qui elles-mêmes viennent nourrir et optimiser la rentabilité du cadre de la publicitarisation.

Sur ce sujet, je cite souvent l’exemple de la position des deux fondateurs du moteur de recherche Google, Serguei Brin et Larry Page; En 1998, ils publient un article scientifique pour expliquer le fonctionnement de l’algorithme Pagerank qui va révolutionner le monde de la recherche en ligne. Et dans une annexe de leur article scientifique ils écrivent :

« nous déclarons que les moteurs de recherche reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs. S’il est vrai qu’il est particulièrement difficile, même pour les experts du domaine, d’évaluer les moteurs de recherche, les biais qu’ils comportent sont particulièrement insidieux. Une nouvelle fois, le Google de ces dernières années en est un bon exemple puisque nous avons vendu à des entreprises le droit d’être listé en lien sponsorisé tout en haut de la page de résultats pour certaines requêtes. Ce type de biais est encore plus insidieux que la « simple » publicité parce qu’il masque l’intention à l’origine de l’affichage du résultat. Si nous persistons dans ce modèle économique, Google cessera d’être un moteur de recherche viable. »

Et ils concluent par :

 « Mais nous croyons que le modèle publicitaire cause un nombre tellement important d’incitations biaisées qu’il est crucial de disposer d’un moteur de recherche compétitif qui soit transparent et transcrive la réalité du monde. »

 

On a donc des plateformes qui « ontologiquement » ont pleine conscience et connaissance de la dénaturation opérée par leur modèle de régie publicitaire mais qui passent outre à la seule fin d’une rentabilité maximale. Cela pourrait être simplement considéré comme du cynisme. Mais à l’échelle des dégâts produits à la fois dans le débat public mais aussi dans la psyché de certains des plus jeunes ou des plus fragiles, c’est de l’irresponsabilité. Et c’est pénalement condamnable. Cela devrait l’être en tout cas.

 

4. Quelles sont les conséquences des opinions des concepteurs des algorithmes utilisés par les réseaux sociaux, et notamment de leurs éventuels biais, dans la construction et la mise en œuvre de ces algorithmes ?

J’ai déjà répondu plus haut avec l’exemple du rachat de Twitter par Musk et dans mon article « Ouvrir le code des algorithmes ne suffit plus« . Mais on peut aussi compléter par le récent changement de Zuckerberg qui impacte directement les contenus diffusés sur Facebook. Encore une fois : il n’y a pas d’algorithmes, juste la décision de quelqu’un d’autre. Très longtemps on a refusé de le voir. Aujourd’hui, plus le monde se clive, plus les conflits sont mondialisés dans leur médiatisation, plus les plateformes sont par nature ou par intérêt des outils de Soft Power, et plus l’opinion ou l’agenda de leurs concepteurs est déterminant et cadrant.

Ce qui est très frappant aujourd’hui c’est ce qu’écrivait Kate Crawford dans son Atlas de l’IA (2021) et qui s’applique tout particulièrement aux algorithmes en tant que systèmes de pouvoir et que facteurs de puissance.

(…) il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.

Pour les algorithmes, c’est exactement la même chose : il faut nous intéresser simultanément à leurs architectures matérielles, à leurs environnements contextuels et aux politiques qui les façonnent, et retracer la manière dont ils sont reliés. Un algorithme, aujourd’hui, n’est plus uniquement une suite d’instructions logico-mathématiques, c’est une suite de systèmes de pouvoirs entrelacés.

 

5. Faut-il considérer les algorithmes comme des objets statiques ? Comment un algorithme évolue-t-il ? Peut-il évoluer sans intervention humaine, en apprenant de son propre fonctionnement ? À votre connaissance, comment cela s’applique-t-il aux réseaux sociaux, et particulièrement à TikTok ?

Je reprends ici ce que j’indiquais dans mes propos liminaires. Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :

  1. D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
  2. Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
  3. Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »

L’algorithme de TikTok n’est pas plus intelligent, plus efficace ou plus machiavélique que d’autres ; simplement, nous passons beaucoup plus de temps à nous en occuper, et nous le faisons, du fait de sa rythmique propre, avec une fréquence beaucoup plus élevée et avec un soin sans commune mesure avec les autres. Notre rapport à l’algorithme de Tiktok relève littéralement d’une forme de clinique au sens étymologique du terme, c’est à dire emprunté au grec klinikos, « propre au médecin qui exerce son art près du lit de ses malades » (lui-même de klinê, « le lit »). Selon que nous adoptons le point de vue de la plateforme ou le notre, nous sommes le médecin ou le malade.

 

6. Comment les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok, s’adaptent-ils à des comportements humains parfois changeants d’un jour à l’autre ?

Par effet d’entrainement. Nous éduquons et entraînons les algorithmes au moins autant qu’ils ne nous formatent en retour. Et tout parciculièrement celui de TikTok comme je l’expliquais juste ci-dessus.

Et puis par leur rythme (cf supra). L’algorithme se moque de savoir si vous êtes de gauche aujourd’hui alors que vous étiez de droite hier, végétarien aujourd’hui alors que vous étiez végan hier. Ce qui intéresse les concepteurs de l’algorithme c’est la captation en temps réel de l’ensemble de ce qui définit votre surface informationnelle numérique. L’algorithme a pour objet de scanner en permanence et si possible en temps réel des éléments qui constituent à la fois votre surface informationnelle (ce qui vous intéresse), votre surface sociale (avec qui partagez-vous ces intérêts) et votre surface comportementale (« sur quoi » ou « avec qui » passez-vous plus ou moins de temps).

Le grand problème est d’ailleurs aussi celui de la personnalisation : c’est à dire que, sur certains types de requêtes en tout cas, plus personne ne voit la même chose en réponse à la même question (ceci vaut pour les plateformes dans lesquels on démarre la navigation par une recherche). Et pour les plateformes, comme TikTok, dans lesquelles il n’est besoin d’aucun amorçage mais uniquement de scroller, tout le monde à l’impression de voir des choses différentes (personnalisées) alors qu’en fait tout le monde voit pour l’essentiel la même chose ; mais cette « même chose » se réduit exclusivement à ce qui est bon économiquement pour la plateforme, c’est à dire soit ce qui fait le buzz et va vous obliger à réagir (polarisation émotionnelle), soit ce qui vous maintient attentionnellement captif et peut donc possiblement renforcer des troubles conatifs (« Symptômes liés à une réduction des capacités d’effort, d’initiative, et à une dégradation de la volonté et des tendances à l’action. Les formes majeures peuvent aboutir à une inactivité avec repli, parfois incurie et résistance aux sollicitations de l’entourage, voire indifférence affective.« )

Je ne sais pas si l’image vous parlera mais plutôt que l’idée des « bulles de filtres » d’Eli pariser (idée que les algorithmes enferment chacun d’entre nous dans une bulle informationnelle plus ou moins étanche) je parlais de mon côté d’un comportement d’autarcithécaires ; cette idée que, du point de vue des plateformes et de leurs algorithmes, il s’agit de nous faire croire que nous sommes en situation d’autarcie informationnelle, c’est à dire de nous donner l’impression que ce qu’elles nous donnent à voir est à la fois suffisant, complet et représentatif, précisément pour que nous perdions progressivement le besoin d’aller regarder ailleurs ou même simplement de considérer qu’il existe un ailleurs informationnel. Ou pour le dire d’une autre manière, comment nous faire passer de la peur de rater quelques chose (FOMO) à la certitude d’une non-nécessité d’aller voir ailleurs.

 

7. Peut-on envisager des algorithmes « éthiques », notamment eu égard aux enjeux de santé mentale ? Pouvez-vous expliquer le concept d’« informatique sociale » ?

Pour moi l’éthique algorithmique passe par le rendu public de l’ensemble des critères et métriques relevant de formes d’éditorialisation. Et pour répondre par une comparaison, bien sûr que oui, on peut tout à fait imaginer des algorithmes éthiques comme on peut imaginer des vêtements fabriquées de manière éthique, des aliments fabriqués de manière éthique et qui ne soient pas immensément transformés. La seule question est : pourquoi ne le faisons-nous pas ? Pourquoi lorsqu’il en existe parfois personne ne s’y intéresse ?

La réponse à ces questions est évidemment la même que pour l’agro-alimentaire ou les vêtements : c’est une question de coût (ce qui n’est pas éthique est moins cher) et de cadres sociétaux de consommation (où l’on minore et où l’on invisibilise les problèmes posés par cette absence d’éthique).

A chaque fois il faut des drames pour que la société parvienne à se réveiller temporairement. Comme lors de l’effondrement du Rana Plaza au Bangladesh en 2013 qui fait exploser le scandale de la fast fashion. Mais malheureusement à chaque fois au lendemain de ces réveils sociétaux il se produit deux choses : le pouvoir politique ne saisit pas l’opportunité impérieuse de légiférer, et lorsqu’il le fait, la puissance du lobbying et du pantouflage vient tout édulcorer ou tout remettre à plus tard.

En complément, il y a un point particulier d’une éthique algorithmique qui consiste à se mettre en situation (pour les plateformes), où à donner l’injonction (pour la puissance publique) de casser les chaînes de contamination virales. De ralentir. D’ajouter de la friction dans les possibilités de partage, etc. On a vu et on a documenté que cela marchait, et que les plateformes le savaient. Je cite ici, avec les exemples en lien, ce que j’écrivais en Mars 2022 dans mon article « Par-delà le Like et la colère » :

« Ensuite il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu’elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que l’on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu’elles permettaient d’aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s’ils avaient bien lu l’article qu’ils s’apprêtaient à partager avant que de le faire sous le coup de l’émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c’était Youtube qui annonçait supprimer l’affichage public du compteur des « dislikes » pour « protéger » les créateurs notamment de formes de harcèlement, un effet qu’il connaît et documente pourtant depuis déjà de longues années. »

 

 

Sur les données personnelles utilisées par les algorithmes des réseaux sociaux

8. Pouvez-vous expliquer le concept d’« identité numérique » ? Quelles données personnelles partageons-nous lorsque nous utilisons les réseaux ? Comment ces données sont-elles utilisées par les algorithmes des réseaux sociaux et particulièrement de TikTok ?

Pour reprendre, en l’actualisant, la définition que j’en donnais dans mon ouvrage éponyme paru en 2013, je dirai que :

L’identité numérique peut être définie comme la collection des traces (écrits, contenus audios ou vidéos, messages sur des forums, identifiants de connexion, navigations, éléments d’interactions, etc.) que nous laissons derrière nous, consciemment ou inconsciemment, au fil de nos activités connectées, et le reflet de cet ensemble de traces tel qu’il apparaît « remixé » par les moteurs de recherche ainsi que par les médias et les plateformes sociales, et qui sont autant d’éléments en capacité de nourrir des choix algorithmiques visant à mieux cibler les contenus qui nous seront proposés dans le cadre du modèle économique de la plateforme concernée.

(version actualisée de Ertzscheid, Olivier. Qu’est-ce que l’identité numérique ?. OpenEdition Press, 2013, https://doi.org/10.4000/books.oep.332.)

 

9. Est-il possible de limiter ce partage de données personnelles ? Est-il possible et souhaitable d’en limiter la collecte, par exemple par le paramétrage des réseaux sociaux ?

Concernant la première partie de la question (est-il possible d’en limiter le partage), et pour autant qu’elle s’adresse aux utilisateurs et utilisatrices de ces plateformes, je réponds oui pour les données personnelles « déclaratives » (nous pouvons disposer d’un tamis plus ou moins large). Mais je réponds « non » pour les données personnelles qui relèvent de la sphère comportementale (ce que l’on voit, ce avec quoi l’on interagit, etc.).

Si la question s’adresse aux plateformes, alors là c’est un oui pour les données personnelles déclaratives comme pour les données comportementales. Elles sont tout à fait en capacité d’en limiter la collecte (mais cela vient heurter leur modèle publicitaire) et sont tout autant en capacité d’en limiter les usages dans le temps.

Le problème principal tient au statut discursif ou énonciatif de l’ensemble de ce qui circule, se dit et se voit dans ces plateformes ou applications : nous ne savons jamais réellement si nous sommes dans un espace discursif ou médiatique intime (où il serait OK et parfois nécessaire de partager ces données personnelles), privé, ou public. Dès 2007, trois ans après le lancement de Facebook, danah boyd indiquait que le problème des réseaux sociaux est qu’ils étaient des espaces semi-publics et semi-privés (« la privauté de ces espaces publics ou semi-publics pose problème« ). Ce problème n’a jamais été résolu.

L’autre problème (et la grande responsabilité des plateformes) c’est qu’elles changent en permanence et sous plein de prétextes différents, le réglage de nos paramètres de confidentialité ou de navigation. Et qu’elles complexifient, par défaut, la possibilité de limiter ce partage de données personnelles (dark patterns, etc.)

Sur la deuxième partie de la question (est-ce possible et souhaitable de limiter cette collecte), je réponds que c’est possible, que c’est souhaitable, et que c’est, surtout, absolument nécessaire.

Il y a un grand récit marketing et technologique qui nous fait croire que plus on collecte de données personnelles, et plus on peut nous proposer de l’information et des contenus personnalisés, et plus ce serait donc intéressant pour nous. C’est une vaste et totale fumisterie. Le seul récit qui vaille est le suivant : plus on collecte de données personnelles, plus on propose des contenus personnalisés, plus on ne fait que « publicitariser » les expériences navigationnelles et informationnelles, et plus on efface la notion de référent commun sur tout un ensemble de sujets, plus on saborde à l’échelle d’une société la question des « régimes de vérité » (cf Foucault ci-dessous), et plus on crée donc à la fois de l’isolement, du conflit, et de la défiance.

« Chaque société a son régime de vérité, sa politique générale de la vérité : c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. » Michel Foucault

 

Longtemps la « personnalisation » n’a été que thématique et déclarative. Du genre : je préfère l’actualité sportive à l’actualité politique, et dans l’actualité sportive, je préfère le rugby au foot. Dès que la personnalisation a gommé cette dimension déclarative explicite, dès qu’elle a surtout été indexée sur nos propres croyances, comportements et opinions plutôt que sur des médias aux formes et aux pratiques d’éditorialisation transparentes, elle est devenue un instrument purement marketing avec un impact politique massivement délétère.

 

Sur la transparence des réseaux sociaux

10. Pensez-vous qu’il soit possible d’exiger des réseaux sociaux d’être entièrement transparents sur leur fonctionnement et les algorithmes qu’ils utilisent ?

Je reprends ici une partie de mes propos liminaires. Oui il est possible de l’exiger. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un like vaut 1 point et qu’une colère vaut 5 points, nos comportements sont susceptibles de changer mais pour autant il est impératif que chacun sache combien « vaut » chaque type d’interaction mobilisée).

Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, etc.

Et d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.

Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.

Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.

Et a fortiori encore dans un monde où elles sont devenus totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).

 

11. Est-on en mesure de contrôler cette transparence ? Comment, tant au niveau européen qu’au niveau français ?

Nous n’avons aujourd’hui plus besoin de produire des textes, lois et règlements. Nous avons besoin de faire appliquer ceux qui existent déjà (DSA, DMA, RGPD). Et d’organiser un cadre politique dans lequel la main de l’exécutif ne tremblera pas. Par exemple au titre de l’application du DSA, Twitter devenu X aurait pu et probablement dû être au moins temporairement fermé et interdit à l’échelle européenne (il l’a été au Brésil pendant plusieurs mois).

Nous sommes aujourd’hui pour la régulation de ces mass média en plein paradoxe de la tolérance tel qu’exprimé par Popper. A force d’être tolérants y compris avec les intolérants, nous courrons droit dans le mur. [« Popper affirme que si une société est tolérante sans limite, sa capacité à être tolérante est finalement détruite par l’intolérant. Il la décrit comme l’idée apparemment paradoxale que « pour maintenir une société tolérante, la société doit être intolérante à l’intolérance. » Wikipedia]

Il faut à ce titre aussi exiger des plateformes qu’elles appliquent leurs propres règles, et par exemple ne traitent pas différemment leurs « power users » car à ce jour ces plateformes, toutes ces plateformes, ont d’abord un immense problème de démocratie interne.

 

12.  Les apports du DSA sont-ils suffisants ?

Oui pour autant qu’il y ait la volonté politique de l’appliquer en chacun de ses termes.

 

13.  Est-ce techniquement possible, a minima, d’exiger des réseaux sociaux des garanties que leurs algorithmes ne comprennent pas de biais susceptibles d’avoir des conséquences néfastes (sur-représentation de contenus dangereux pour la santé mentale, propagation de fake news, discriminations, etc) ?

Je crois qu’on se trompe en plaçant cette question sous l’angle « technique ». Ce n’est pas à la « technique » d’arbitrer des questions qui relèvent de la santé publique ou de l’éthique. Je me permets une comparaison. Se poserait-on la question de savoir s’il est possible « techniquement » d’exiger d’une bibliothèque que son plan de classement de comprenne pas de biais ? Non. Parce que le problème ce n’est pas le plan de classement, ce sont les unités documentaires que l’on choisit de classer, donc de donner à voir, ou de ne pas classer. Les plateformes et leurs algorithmes sont « techniquement » en pleine capacité de faire respecter des règles a minima de représentativité sur un ensemble de sujets, y compris politiques, religieux ou sociétaux. Jamais en réalité nous n’avons disposé d’outils aussi puissants et aussi précis pour y parvenir. Si les plateformes (et leurs algorithmes) ne le font pas ce n’est en rien un problème technique. En rien. C’est un problème de choix économiques (business first). Et d’idéologies et d’interêts partisans (ou cyniquement opportunistes) de leurs propriétaires et de leurs actionnariats.

 

14.  Quelle méthodologie utilisez-vous pour étudier les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok ? Quelles difficultés rencontrez-vous ? Que signifierait, pour le monde de la recherche, la publicité des algorithmes utilisés par les réseaux sociaux ?

A titre personnel, dans mon domaine de recherche, soit on procède par enquête sociologique, soit par observation participante. Comme les sociologues allaient à l’usine pour documenter au plus près le travail concret des ouvriers, on va « aux algorithmes » pour documenter au plus près leurs effets.

Un des grands sujets de notre temps, c’est que nous avons perdu la maîtrise des corpus. Quand je dis « nous » je parle du monde universitaire et donc ensuite du monde de la décision politique. Tous les programmes partenariaux publics permettant à des universitaires d’avoir accès à l’immensité des corpus détenus par les plateformes, tous ces programmes partenariaux ont été fermés. La plupart des API supprimées. L’opacité, hier sur les algorithmes, aujourd’hui sur les données, est absolument totale. Et nous en sommes réduits à faire confiance aux chercheurs employés par ces plateformes (mauvaise idée), ou à attendre la prochaine fuite d’un repenti ou d’une lanceuse d’alerte (encore plus mauvaise idée). La puissance publique, les chercheurs et universitaires de la puissance publique, n’ont plus aucune entrée ou maîtrise des corpus (linguistiques, sociologiques, etc) qui circulent dans ces plateformes et qui les constituent. Et c’est non seulement très inquiétant, mais c’est surtout très inacceptable.

 

Sur l’éducation aux réseaux sociaux

15.  Le grand public est-il familiarisé avec le fonctionnement des algorithmes, et particulièrement de ceux utilisés par les réseaux sociaux ? Adapte-t-il son comportement en conséquence ?

Les travaux existants montrent qu’en effet, lorsqu’un fonctionnement algorithmique est suffisamment connu on a tendance à l’intégrer à notre pratique. Et en général les plateformes mettent donc en place des dispositifs pour contrer ces usages « non naturels » (exemple du Google Bombing). Aujourd’hui, même en connaissant certains « tips » agorithmiques, on ne s’en affranchit pas automatiquement. Et il est beaucoup plus difficile de connaître ou de tricher avec la « totalité » d’un algorithme aujourd’hui que cela ne l’était hier.

Par ailleurs, y compris les ingénieurs qui développent ces algorithmes sont de moins en moins nombreux à en connaître la totalité des fonctionnements. Et la capacité de tourner à plein sans supervision humaine des ces algorithmes n’a jamais cessé d’augmenter. Et cela ne vas pas s’arranger. Récemment le CEO de Google, Sundar Pinchai, confiait qu’environ 30% de l’ensemble du « code » informatique utilisé par l’ensemble des produits de la société Alphabet (maison mère de Google, Youtube, etc) était directement produite par des IA.

Quand à notre comportement adaptatif, il demeure très relatif. Nous ne l’adaptons que dans la mesure où nous avons l’impression que cette adaptation va servir directement (et rapidement) nos intérêts immédiats. Sur le reste, nous sommes plutôt d’une passivité totale, nous nous laissons algorithmiser parce que tout est fait pour fausser notre perception de la balance bénéfices / risques.

 

16.  Pensez-vous que les enfants et adolescents soient suffisamment outillés, notamment par leurs établissements scolaires, pour se protéger des risques que ces algorithmes présentent ? Pensez-vous que les parents soient suffisamment outillés pour en protéger leurs enfants ?

La question de l’accompagnement aux écrans est une question … complexe. Ce que les jeunes et adolescents cherchent dans ces espaces (cf notamment les travaux de danah boyd aux USA ou d’Anne Cordier en France) ce sont des espaces qui soient transgressifs, la première transgression étant cette d’être à l’abri du regard des parents et des adultes. Les espaces numériques sont aussi ces alcôves algorithmiques qui permettent à la fois de se mettre à l’abri (du regard de l’adulte), d’être ensemble (y compris parfois « seuls ensemble » comme l’explique Shirley Turckle), et d’être dans la transgression autant que dans la construction d’un intime. Et cela est tout à fait normal et ne doit sous aucun prétexte être condamné ou, pire, criminalisé. Le problème, le seul et le grand problème, c’est que la construction de cet intime est toujours scruté par des autorités qui ne sont plus « parentales » mais industrielles.

Bonne nouvelle : on observe déjà et très largement des pratiques de « sevrage » temporaire mises en place par les adolescents et jeunes adultes. Cela peut-être à l’approche d’un examen à la fac, du bac français, etc. Pratiques où ils et elles désinstallent temporairement l’application de leur smartphone. Cela veut dire (pour ces publics) qu’une bonne partie du travail de pédagogie est déjà fait. Il faut ensuite trouver un effet cliquet, qui permette d’éviter de délétères retours en arrière. Et c’est bien là le rôle de la puissance publique.

Rappeler aussi que l’enjeu n’est et ne doit pas être d’interdire les écrans, mais de disposer, dans le cadre de l’organisation de notre vie sociale, éducative, publique et citoyenne, d’espaces qui demeurent des espaces non nécessairement déconnectés ou sans écrans, mais à tout le moins sans écrans et connexions qui ne soient autres que collectives ou a minima duales.

A ce titre oui, je suis convaincu par exemple qu’à l’école et au collège, les smartphones devraient être totalement interdits, dans les cours (de récréation) comme en cours. Et vous savez quoi ? Accrochez-vous bien. BINGO. C’est déjà le cas 🙂

Et qu’au lycée et même à l’université, ils devraient continuer de l’être pendant les cours. Mais qu’il n’est pour cela ni utile ni nécessaire de passer par la loi. C’est à chaque enseignante ou enseignant et éventuellement à chaque université ou composante de le décider et surtout, surtout, surtout, de l’expliquer. Parce qu’il ne s’agit pas de faire oeuvre de censure ou de police. Mais parce que si l’on considère que la transmission de savoirs tout comme l’acquisition des sociabilités primaires et fondamentales, passe par un pacte attentionnel minimal aux autres et à celui ou celle en charge de vous les transmettre et de vous les faire acquérir, alors il faut aussi accepter que celui ou celle qui est en charge de cela, quelque soit son talent et sa détermination, ne sera jamais, absolument jamais, en situation de rivaliser attentionnellement avec un objet technologique qui contient à lui seul tous les savoirs et toutes les sociabilités du monde.

Rappeler aussi que la question de la santé mentale, notamment chez les jeunes, est toujours, toujours multi-factorielle : elle tient à la fois à des paramètres éducatifs, culturels, familiaux, économiques. Donc il peut y avoir aussi bien des corrélations que, dans certains contextes, des causalités entre l’usage de TikTok et les questions de santé mentale. Mais si l’on veut s’attaquer (et il le faut) aux questions de santé mentale qui affectent désormais de manière alarmante des générations entières, alors il faut aussi et surtout traiter la question des politiques de santé publiques.

Rappeler enfin qu’il existe des métiers (professeurs documentalistes) et des organismes (CLEMI) qui font ce travail formidable au long cours. Il faut en créer davantage et leur donner des moyens sans aucune commune mesure avec ceux actuels.

Questions générales

17.  De quels mécanismes de contrôle étrangers la France ou l’Europe devraient-elles, d’après-vous, s’inspirer ?

Je crois avoir déjà répondu plus haut que nous disposions de suffisamment de textes et règlements à l’échelle Européenne. Et qu’il reste à les appliquer entièrement.

 

18.  Avez-vous des recommandations à transmettre à la commission d’enquête ?

Ma première recommandation est un avertissement que je reprends de mes propos liminaires et d’un article que j’avais publié.

« Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes.

Nous avons aimé croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nécessiterait pas de mineurs de fond, que l’informatique en nuage (Cloud Computing) ne dissimulait pas la réalité d’une industrie lourde. Nous ne pouvons plus aujourd’hui nous réfugier dans ces mensonges. Sur les industries extractivistes de l’information, nous avons l’avantage d’en connaître déjà les mécanismes et les routines ; la chance d’en observer les infrastructures de marché (du Cloud Computing au High Frequency Trading en passant par la précarisation des différentes formes de Digital Labor) ; la chance d’être capables de documenter la toxicité de ces prismes dans le cadre de certains sujets de société ; la chance d’avoir pu documenter et prouver à de trop nombreuses reprises l’insincérité fondamentale et aujourd’hui fondatrice de toutes ces plateformes et de leurs créateurs et administrateurs. Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. »

 

Pour le dire en d’autres termes, connaître la recette exacte du Coca-Cola ne change rien au phénomène de l’obésité : la seule chose qui compte c’est de se doter de politiques de santé publique qui éduquent, régulent, contraignent et qui dépublicitarisent, qui démonétisent symboliquement ce qu’est et ce que représente le Coca-Cola.

De la même manière, connaître l’impact du pétrole sur le réchauffement climatique et la part qu’y jouent nos modes de transport et les industriels extractivistes ne changera rien à l’avenir de la planète si l’on n’a pas de politique publiques sur l’écologie capable de proposer des alternatives aux premiers mais aussi de contraindre les seconds, et là encore de dépublicitariser, de démonétiser tout cela.

Pour les algorithmes, y compris et a fortiori pour celui de TikTok, c’est exactement la même chose : connaître son mode exact de fonctionnement ne changera rien aux errances et aux effondrements affectifs, psychologiques, conatifs, informationnels qu’il alimente. Il nous faut des politiques publiques du numérique. Dont des politiques de santé publique numérique.

Et il faut davantage de postes de professeurs documentalistes dans les lycées et collèges, avec davantage d’heures de cours dédiées à la culture numérique. Et aussi il faut financer et multiplier les structures et opérateurs comme le CLEMI. Oui je l’ai déjà dit. Mais oui je le redis. Et le redirai sans cesse.

 

[Verbatim étudiantes et étudiants]

L’échantillon est d’une petite soixantaine d’étudiantes et d’étudiants, en 1ère année de BUT Information et Communication (donc en gros âgés de 18 ou 19 ans) et avec qui j’ai déjà effectué quelques heures de cours autour des questions de culture numérique, de l’histoire d’internet et du web, et aussi un peu des enjeux sociétaux des algorithmes. La seule consigne donnée était de partir de leur expérience personnelle de la plateforme pour répondre aux questions de la commmission.

De manière générale ils et elles soulignent l’importance (et le manque) de politiques de santé publique et de communication, dans l’espace public, sur ce sujet.

  • « On voir rarement de campagne de prévention dans l’espace public sur le lien entre utilisation RS et questions de santé mentale, alors même que jamais les jeunes n’ont autant parlé de l’importance et de la fragilité de la santé mentale« 
  • « il faut renforcer la communication publique, notamment dans le cadre scolaire« 

Ils et elles soulignent également l’importance de faire à ces sujets davantage de place au collège et au lycée et surtout, d’en parler autrement que sous le seul angle de la culpabilisation ou des dérives comme le cyberharcèlement.

  • « tout le monde accuse tiktok d’être dangereux mais personne ne parle réellement des risques qui y sont associés et comment on s’en protège« 
  • « intégrer ces questions dans les machins genre Pix« 
  • « la plupart du temps, au lycée ou au collègue, ces plateformes ne sont abordées que sous l’angle du cyberharcèlement, mais jamais sous l’angle des algorithmes, de leur côté addictif, chronophage, démotivant« .

Ils et elles ont aussi une grande maturité sur la nécessité d’un contrôle d’accès réel avec une vérification de l’âge qui soit autre chose qu’un bouton « oui promis j’ai 18 ans » :

  • « faire un vrai contrôle d’accès selon l’âge, comme sur blablacar avec présentation d’un document d’identité« 

Ils et elles ont des idées très concrètes de ce qu’il faudrait obliger Tiktok (et d’autres plateformes) à mettre en place :

  • « obliger TikTok à implémenter des fonctionnalités permettant de mieux gérer le temps d’écran et à sensibiliser ses utilisateurs aux risques d’une utilisation excessive« 
  • « être plus à l’écoute des signalements. Et plus vigilants sur les contenus de type suicide : personne n’aime regarder des vidéos de suicide (ou de comment se suicider) et personne ne devrait se voir recommander des vidéos comme ça« 

J’ai enfin été particulièrement frappé, dans leurs verbatims, d’une large majorité qui indique explicitement que les impacts et effets négatifs sur leur humeur sont plus importants que les aspects positifs. Et de la manière dont ils documentent et analysent cela. Le verbatim ci-dessous résume très bien ce que j’ai lu dans beaucoup de leurs réponses individuelles :

  • « À titre personnel, tik tok a plus d’impact négatif que positif. En effet, une fois que je suis sur l’application, il m’est presque impossible de réguler mon temps passé sur cette
    dernière. Une heure est ressentie comme 15 minutes et arrêter de scroller est très compliqué. De plus, lorsque mon application est active, l’heure ne s’affiche plus sur mon écran, ce qui biaise encore plus mon rapport au temps. Ce temps passé sur tik tok est perdu pour faire d’autre activité, et souvent, je repousse les tâches que j’ai à faire. Après avoir passé plusieurs heures sur tik tok je culpabilise énormément et me sens mal. J’ai remarqué que mon moral était affecté par mon utilisation de tik tok, plus je passe de temps à scroller moins je suis de bonne humeur.« 

[Et puis soudain Gabriel Attal]

Voilà je m’apprêtais à demander à ChatGPT une version synthétique de ce long texte en extrayant les éléments mobilisables immédiatement dans le cadre d’une proposition de loi et puis soudain, je tombe sur plusieurs éléments complémentaires.

Premier élément : Gabriel Attal. Qui s’allie au pédopsychiatre Marcel Ruffo pour proposer des mesures qui sont, pour l’essentiel, des caricatures au carré. Caricature d’une pensée magique où tout est, sans indistinction, la faute aux écrans et où leur suppression guérirait donc tous les maux, et où toute cette faute mériterait donc des régimes disciplinaires qui sont autant imbéciles qu’inapplicables et dangereux en démocratie. Voici donc ce qu’ils proposent :

  • une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde.
  • interdire l’accès des moins de 15 ans aux réseaux sociaux (et imposer une vérification d’âge sur ces plateformes).
  • imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h.
  • faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation.
  • création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes.
  • créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale.

J’ai donc immédiatement réfléchi à une critériologie assez fine permettant de caractériser chaque mesure proposée. Critériologie que voici :

  • « C’est complètement con » : 3C
  • « Inapplicable et Imbécile » : 2I.
  • « Pourquoi pas mais surtout … pourquoi ? » :  3P.

Revoici maintenant ces mesures à l’aune de mon analyse subtile.

  • une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde : 3P
  • interdire l’accès des moins de 15 ans aux réseaux sociaux : 3C2I
  • imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h : 3C2I
  • faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation. 3C3P
  • création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes. 3P

Je ne retiens donc que deux mesures :

  • « imposer une vérification d’âge sur ces plateformes. » Mais certainement pas pour « interdire » l’accès mais pour responsabiliser les plateformes qui organisent cet accès et font absolument n’importe quoi quelque soit l’âge réel de leurs utilisateurs et utilisatrices, âge réel que de leur côté elles sont la plupart du temps en pleine capacité de connaître (et donc d’en déduire la part d’utilisateurs et d’utilisatrices qui n’ont absolument rien à faire là puisqu’elles sont normalement interdites aux moins de 13 ans).
  • « créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale. » Là je dis oui, mais je dis surtout « seulement 2% ?! »

Pour le reste, je vous invite à lire la chronique et l’analyse impeccable de François Saltiel dont je partage chaque ligne et chaque mot.

Et je vous invite aussi, à chaque fois que vous entendrez diverses gesticulations politico-médiatiques sur une interdiction totale ou partielle des écrans chez les enfants et adolescents, à relire (notamment) cet article grand public et surtout de grande utilité publique d’Anne Cordier, publié en Mai 2024, et dans lequel elle rappelle la réalité de deux points fondamentaux, celui de la panique morale sur ce sujet, et celui de la réalité des études scientifiques sur ce même sujet :

Ce phénomène des paniques morales exprime une crainte quant à la déstabilisation des valeurs sociétales, et se cristallise autour des usages juvéniles desdits écrans et des conséquences de ces usages sur la santé mentale et sociale des enfants et adolescents, ainsi que sur leur développement cognitif et leur culture générale.

Pourtant une importante et robuste étude américaine, menée sur le long terme auprès de 12000 enfants entre 9 et 12 ans, conclut sans hésitation à l’absence de lien entre temps passé « devant les écrans » et incidence sur les fonctions cérébrales et le bien-être des enfants. Pourtant encore, en France, une enquête longitudinale d’envergure, déployée cette fois auprès de 18000 enfants depuis leur naissance, montre que ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant.

Malgré ces faits scientifiques, le débat autour de la place desdits écrans dans notre société se polarise, et se caractérise récemment par une ultraradicalisation des postures, ce qui a pour premier effet de porter préjudice à la compréhension de tout un chacun.

 

Je répète : « ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant. » La place et l’usage des écrans n’est que l’un de ces facteurs sociaux parmi d’autres bien plus essentiels.

[Et puis soudain le Pew Internet Research Center]

Le 22 Avril 2025 est sortie une étude du Pew Internet Research Center, pile poil sur le sujet qui nous occupe : « Teens, Social Media and Mental Health. » Elle est, comme souvent, fondamentale pour bien cerner les enjeux de ce sujet. Et j’en retire les éléments suivants.

D’abord si environ 40% émettent un avis plutôt « neutre » sur l’influence des médias sociaux sur leur santé mentale, les 60% d’adolescents restants (entre 13 et 17 ans) indiquent clairement que les effets négatifs sur leur santé mentale l’emportent sur les effets positifs.

Ensuite là où les parents considèrent que les médias sociaux sont la première cause des problèmes de santé mentale, du côté des adolescents, c’est tout autre chose : 22% des adolescents désignent les médias sociaux, 17% d’entre elles et eux les phénomènes de harcèlement (j’ai bien dit de harcèlement et pas seulement de cyber-harcèlement), et 16% les « pressures and expectations« , c’est à dire les attentes sociales et parentales vécues comme autant de pressions. Là est l’un des noeuds centraux du problème de la santé mentale des adolescentes et adolescents.

Autre point essentiel qui rend encore plus débile toute tentative d’interdiction, plus d’un tiers (34%) des adolescentes et adolescents interrogés indiquent s’informer sur les réseaux sociaux sur les questions de santé mentale. Et parmi ceux-là, plus de la moitié indiquent que c’est une source d’information importante.

Enfin, et c’est là aussi absolument déterminant pour comprendre ce qui se joue et comment le réguler, les adolescentes et adolescents identifient clairement l’impact délétère et toxiques des médias sociaux sur leur travail et leurs études, sur leur santé mentale, sur leur productivité et sur leur sommeil mais dans le même temps ils indiquent tout aussi clairement l’impact très positif sur leurs amitiés et leurs socialisations. Constat qui rejoint en effet tous les travaux universitaires sur ce point : ces espaces numériques de socialisation sont nécessaires et précieux dans la construction des identités (et des intimités) adolescentes à l’abri du regard des adultes. En revanche rien n’oblige à ce qu’ils soient traversés de contenus ne répondant qu’à des logiques commerciales et qui n’ont de considération que pour des dynamiques de viralité garantissant à tout prix des effets de rente attentionnelle. La responsabilité d’y faire le tri et le ménage et d’y injecter la dose minimale de responsabilité déontologique au regard des publics ciblés et des enjeux sociétaux concernés incombe donc entièrement aux plateformes elles-mêmes, et c’est à la puissance publique de le leur rappeler et de les y contraindre. Quoi qu’il en coûte.

 

One More Thing.

J’ai ensuite demandé à ChatGPT, sur la base de ce (long) texte (celui de mes réponses à la commission), de faire une liste de 10 propositions (ou plus) concrètes dont le législateur pourrait se saisir et de reformuler ces propositions dans un format destiné à une note parlementaire ou à une présentation en commission. Je vous en livre ici le résultat.

Liste de 10 propositions pour une prochaine loi ou cadrage législatif.

[c’est ChatGPT qui parle, enfin qui écrit]

Voici une liste de dix propositions et recommandations concrètes issues du document de contribution à la commission parlementaire, que le législateur pourrait saisir pour élaborer une nouvelle loi sur le numérique et l’accès aux réseaux sociaux :

🔐 Transparence et régulation algorithmique
  1. Exiger la transparence des algorithmes sur leur dimension éditoriale : rendre publics les critères et pondérations qui déterminent l’affichage des contenus, notamment en lien avec les réactions émotionnelles (likes, colère, etc.).

  2. Obliger les plateformes à ralentir les chaînes virales : limiter les fonctionnalités favorisant la viralité (nombre de partages simultanés, forwarding de messages, etc.) pour réduire les effets de masse sur la désinformation et le harcèlement.

  3. Supprimer l’affichage public de certaines métriques (likes, vues, dislikes) pour atténuer les effets de conformité sociale et limiter les impacts délétères sur la santé mentale.

🧠 Santé publique et usage responsable
  1. Instaurer des mécanismes de contrôle d’accès efficaces pour les mineurs (vérification d’identité, seuils d’âge vérifiés comme sur Blablacar), en évitant les simples déclarations « j’ai plus de 13/18 ans ».

  2. Imposer des limites d’usage paramétrables par défaut (temps d’écran, alertes de dépassement, pause obligatoire après un temps de scroll continu) intégrées directement dans les applications.

  3. Créer une politique de santé publique numérique : reconnaître les effets psychiques négatifs des réseaux sur les plus jeunes et y répondre par des campagnes nationales et des dispositifs de prévention dans les écoles et les médias.

📚 Éducation et formation
  1. Renforcer l’éducation au numérique dès le collège : intégrer des modules spécifiques sur les algorithmes, la captation attentionnelle, les risques informationnels et les logiques économiques des plateformes.

  2. Doter chaque collège et lycée d’un(e) professeur(e) documentaliste formé(e) aux enjeux numériques et augmenter leurs heures dédiées à l’éducation aux médias.

⚖ Pouvoirs publics et contrôle
  1. Faire appliquer strictement les lois existantes (RGPD, DSA, DMA) : prévoir des sanctions réellement dissuasives en cas de non-conformité et ne pas hésiter à suspendre ou interdire temporairement des services comme cela a été fait ailleurs.

  2. Créer un droit d’accès des chercheurs publics aux corpus algorithmiques : obliger les plateformes à ouvrir des API sécurisées permettant à la recherche indépendante d’analyser les effets sociaux, psychologiques et politiques de leurs systèmes.

La note parlementaire (faite par ChatGPT).

[c’est toujours ChatGPT qui parle, enfin qui écrit]

Voici une note parlementaire structurée présentant les propositions issues du document d’Olivier Ertzscheid, à destination d’un(e) député(e) souhaitant nourrir une réflexion législative sur le numérique et les réseaux sociaux.

Objet : Propositions pour une loi sur les usages numériques et l’accès aux réseaux sociaux
Auteur : Synthèse des travaux d’Olivier Ertzscheid, Maître de conférences en Sciences de l’information
Date : [à compléter]

Contexte général

Dans un environnement où les réseaux sociaux sont devenus des médias d’“hyper-masse”, leur impact sur les comportements, la santé mentale, la circulation de l’information et la démocratie est désormais massif, continu et documenté. L’urgence n’est plus de comprendre ces effets, mais de réguler concrètement les modèles qui les produisent. Cette note propose dix axes d’action législatifs concrets.

1. Transparence algorithmique et lutte contre la manipulation attentionnelle

1.1. Transparence des logiques éditoriales des algorithmes

Obligation pour les plateformes de rendre publics les critères et pondérations influençant la hiérarchisation des contenus (types de réactions, temps de visionnage, etc.), en particulier ceux relevant de la manipulation émotionnelle.

1.2. Ralentissement des chaînes virales

Limitation par la loi des mécanismes de partage automatisés ou massifs (groupes WhatsApp, forwardings, etc.) afin de freiner les phénomènes de désinformation, de harcèlement et de polarisation.

1.3. Encadrement des métriques visibles

Obligation pour les plateformes de masquer certains compteurs (likes, vues, partages) aux utilisateurs non-créateurs pour atténuer les effets de conformité sociale et d’addiction à la reconnaissance.

2. Santé publique et encadrement de l’usage

2.1. Vérification d’âge robuste à l’inscription

Mise en œuvre d’un dispositif réel de contrôle d’âge (type pièce d’identité) pour limiter l’accès des mineurs aux plateformes sans médiation.

2.2. Limites d’usage intégrées par défaut

Imposition à toutes les applications sociales d’une fonction de régulation du temps passé : alertes, pauses obligatoires, et tableaux de bord accessibles.

2.3. Lancement d’un plan national de santé publique numérique

Campagnes publiques et programmes éducatifs pour sensibiliser aux impacts psychologiques des réseaux sociaux, en particulier chez les jeunes.

3. Éducation aux médias et renforcement scolaire

3.1. Intégration obligatoire de modules sur les logiques des plateformes

Enseignement dès le collège sur le fonctionnement des algorithmes, la captation attentionnelle et les logiques économiques des contenus.

3.2. Déploiement renforcé de professeurs documentalistes et du CLEMI

Augmentation du nombre de professeurs documentalistes et du budget alloué au CLEMI, pour assurer un accompagnement continu et de qualité dans les établissements.

4. Régulation effective et contrôle public

4.1. Application sans compromis des règlements européens (RGPD, DSA, DMA)

Sanctions systématiques et dissuasives en cas de non-respect des règles ; possibilité d’interdiction temporaire d’un service comme dans d’autres pays (ex. X/Twitter au Brésil).

4.2. Accès aux corpus pour la recherche publique

Obligation légale pour les plateformes d’ouvrir aux chercheurs indépendants l’accès à des jeux de données anonymisés, via API, afin de permettre une évaluation scientifique indépendante des effets des algorithmes.

Conclusion

Ces propositions, réalistes, urgentes et largement documentées, peuvent constituer la base d’un cadre législatif de souveraineté numérique, de protection des jeunes publics et de régulation démocratique des puissances algorithmiques.

 

Argumentaire synthétique pour une intervention en commission.

Tant que j’y suis je vous livre aussi l’introduction et la conclusion du même ChatGPT lorsque je lui demande un argumentaire synthétique de sa note parlementaire pour une intervention en commission.

Introduction.

Mesdames et Messieurs les membres de la commission,

Nous sommes aujourd’hui face à des outils devenus centraux dans la vie sociale, affective, cognitive de millions de citoyens, notamment les plus jeunes. Ces outils sont à la fois des médias d’hyper-masse, des machines à fabriquer la norme et des systèmes de captation attentionnelle, dont les effets sur la santé mentale, la désinformation et les inégalités sont désormais documentés.

Il ne s’agit plus de produire des rapports ou des constats, mais d’agir, de légiférer, de protéger.

Conclusion : l’exigence du courage politique.

Ce que nous proposons n’est ni technophobe, ni moraliste. C’est une politique de santé publique, d’éducation, et de souveraineté.
Il faut démonétiser l’attention, dépublicitariser l’espace social, et remettre du sens dans nos usages.

L’histoire nous jugera comme elle a jugé ceux qui n’ont rien fait face au tabac ou au réchauffement climatique. Il est encore temps d’agir.

 

Voilà. Le boulot est fait de mon côté. J’ai transmis à la commission mon texte avec l’intégralité de mes réponses aux questions, et leur ai également adressé les 10 propositions pour une évolution du cadrage législatif (en précisant bien sûr qu’elles étaient formulées par ChatGPT sur la base de l’analyse de mon texte). Le reste appartient maintenant à ce truc formidable qu’on appelle la démocratie.

Mourir pour des données, d’accord, mais de mort lente. Ou pourquoi pour la 1ère fois j’ai cédé à une menace de procès.

21 avril 2025 à 13:03

Suite à une mise en demeure d’avocats représentant les intérêts du cabinet dont je dénonçais les agissements dans un article, mise en demeure m’enjoignant de supprimer la totalité de cet article avant le 22 Avril, je fais le choix de m’y plier et de le retirer de la publication. Vous trouverez donc ci-dessous des éléments d’explication détaillés sur la justification de cette décision.

——————————

Voila plus de 20 ans que je tiens ce blog en mon seul nom et sous ma seule responsabilité éditoriale. Près de 3000 articles (une moyenne de douze par mois), avec beaucoup d’articles d’analyses, pas mal d’articles d’opinions, et quelques bons coups de gueule à valeur essentiellement cathartique (pour moi en tout cas).

En 20 ans je n’ai été menacé de procédure juridique qu’à 3 reprises.

La première fois c’était en 2015, lorsque j’avais diffusé le journal d’Anne Frank, dans sa version originale, à date de son entrée dans le domaine public. Les avocats du fonds Anne Frank m’avaient alors menacé d’une action en justice et d’une astreinte journalière de plusieurs milliers d’euros tant que je ne retirerai pas le texte. J’ai maintenu le texte original en ligne. D’autres, dont la députée Isabelle Attard m’ont rejoint et ont également partagé le texte. Et je n’ai plus eu de nouvelles des avocats du fonds Anne Frank.

La deuxième fois c’était en 2017 à l’occasion d’un article sur les dynamiques de haine en ligne, lorsque je revenais vers les premières dérives des campagnes Adwords avec Arnault Dassier à leur initiative lorsqu’il était responsable de la stratégie digitale de l’UMP. C’est lui qui me menaça de poursuites, ne supportant pas de voir son nom accolé à l’expression « marketing de la haine » dans mon article et considérant cela comme diffamatoire et m’enjoignant de supprimer son nom de l’article. Résultat : je vous laisse juges de ce qu’il advînt dans la mise à jour au début de l’article.

Et la troisième fois c’est donc cette semaine d’Avril 2025. Et c’est un cabinet « d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » qui, via un cabinet d’avocats, menace de me poursuivre en justice pour diffamation, injure publique, et violation du secret des correspondances. Au regard des critères éclairés de Maître Eolas, même si je suis totalement serein sur le fond de l’affaire, la forme du courrier du cabinet d’avocat ne laisse que peu de doute sur leur détermination de réellement me poursuivre si je ne retire pas l’article en question.

Pour rappel, ce « cabinet d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » a contacté l’association étudiante dont je m’occupe (la Ma’Yonnaise épicerie) et qui organise des distributions alimentaires pour les étudiant.e.s sur le campus de Nantes Université à La Roche-sur-Yon, pour nous proposer un scénario dans lequel nos bénéficiaires (donc des étudiant.e.s précaires) pourraient, contre rétribution versée à l’association, vendre leurs données biométriques à ce cabinet.

S’ensuivit un échange entre moi (depuis la boite mail de l’épicerie solidaire) et le cabinet en question. Echange auquel j’ai rapidement mis fin considérant l’activité de ce cabinet plus que suspecte sur le fond, totalement déplacée sur la forme, et considérant qu’accessoirement en droit français, la vente de données biométriques contre rémunération (a fortiori pour des populations précaires) ne peut et ne doit devenir ni un marché ni un horizon.

Je prends donc la décision de raconter toute cette affaire dans un article sur ce blog sous le titre « Etudiants en situation de précarité ? Vendez-nous vos données. De la biométrie et des cabinets vautour qui tournent autour. » J’y cite les échanges (non nominatifs bien sûr) avec mes deux interlocuteurs de ce cabinet (voilà pour la violation du secret des correspondances). Echanges qui, je le rappelle, ont démarré avec la proposition suivante :

« Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. En contrepartie, nous proposons de reverser un don de 15 € par participant ayant validé le test. Par exemple, pour 50 participants, votre association recevra un don de 750 €. Nous espérons que cette collaboration pourrait constituer une ressource financière supplémentaire pour soutenir vos activités et projets. »

 

J’agis et réagis avec ma casquette de responsable de l’association et surtout, surtout, avec ma casquette d’universitaire dont l’un des axes et terrains de recherche est précisément la question de notre vie privée numérique et les questions liées à l’exploitation de nos données personnelles.

Le ton est vif et j’assimile à plusieurs reprises les pratiques de ce cabinet à des pratiques de crapules et de vautours (voilà pour la diffamation et l’injure publique).

Et cette semaine, une dizaine de jours après la parution de mon article, je reçois le courrier suivant avec mise en demeure de retirer totalement l’article incriminé dans un délai de 5 jours (avant le 22 Avril).

 

Je joins ici le fichier pdf pour une lecture plus facile : 2025 04 15_ mise-en-demeure.pdf

L’intimidation et la tentative de procédure bâillon se caractérisent aussi par le fait de mettre en copie de ce courrier la présidente de Nantes Université au motif que, je cite « l’ensemble de ces propos a été tenu en votre qualité de Maitre de conférences de l’Université de Nantes« . Ce qui est faux (je me suis toujours exprimé au titre exclusif de co-responsable de l’association qui organise ces distributions alimentaires), et ce qui est aussi une vision assez trouble de ce que l’on nomme la liberté académique.

Si j’avais agi uniquement en mon nom propre ou au titre de Maître de conférences de l’université de Nantes, j’aurais, sans aucun souci ni autre questionnement, laissé l’article incriminé en ligne et attendu sereinement la suite en proposant simplement un droit de réponse au cabinet concerné. Je n’ai me concernant, absolument aucune crainte. Je n’ai pas cédé aux avocats du fonds Anne Frank dans une affaire où les enjeux se chiffraient en millions d’euros (le journal d’Anne Frank est l’un des livres les plus vendus de tous les temps et continue de l’être) et concernaient, en termes de droit d’auteur et de domaine public, l’ensemble des lois et règlementations internationales. Donc cette forme de menace et de procédure bâillon ne m’impressionne pas (même s’il n’est jamais agréable de recevoir un tel courrier).

Mon absence de crainte est d’autant plus forte qu’une nouvelle fois, sur le fond, je suis absolument certain de mon bon droit et du fait que ce « cabinet d’expertise technologique, normative et réglementaire » fait absolument n’importe quoi et que ce n’importe quoi cible et met en danger des populations précaires dans une forme d’intime matérialisée par la transaction commerciale proposée autour de données biométriques sans que jamais et à aucun moment ne soient indiqués les cadres d’usages, d’exploitation, de durée, etc. Pour rappel le seul cadre indiqué dans la sollicitation de ce cabinet était « Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. » 

Alors pourquoi obéir à l’injonction et à cette forme de procédure bâillon ? Parce que dans cette affaire, si elle se porte jusqu’à un tribunal, je ne veux qu’en aucune manière l’association dont je m’occupe puisse être impactée financièrement, moralement, ou même symboliquement en voyant son nom associé à une procédure en justice. Et si cela devait tout de même se produire, la responsabilité en incomberait donc uniquement à ce cabinet puisqu’en effet et selon les termes de leurs avocats, ce retrait n’engage pas nécessairement la fin de la procédure de leur côté. Je les en laisse désormais juges et continue d’espérer désormais au moins trois choses.

Premièrement que des journalistes et des associations de défense des libertés numériques se saisiront de ces éléments et iront enquêter sur ces pratiques, celles de ce cabinet en particulier mais aussi celles d’autres probablement semblables.

Deuxièmement que si d’autres associations ont reçu de telles sollicitations, elle n’hésitent pas à me contacter ou à rendre publics ces éléments.

J’espère, troisièmement, que les autorités indépendantes que sont la CNIL et l’ANSSI, jusqu’ici silencieuses, se saisiront des éléments de ce dossier pour faire toute la lumière sur les pratiques de ces cabinets dans le domaine de la sollicitation de vente de données biométriques auprès de populations précaires, d’autant que lesdits cabinets se prévalent d’autorisations de leur part.

J’espère enfin, que cette « petite histoire », aura pour intérêt de rappeler dans le débat public que ce genre de dérives déjà largement présentes ailleurs dans le monde, sont et seront, en France, de plus en plus essentielles à documenter et à combattre. Je vous en parlais déjà via la chasse aux corps des plus pauvres à des fins d’exploitation biométrique, au moment où déjà près de cinq millions de personnes (dont un million d’argentins) ont malheureusement accepté pour atténuer un peu leur misère. Et cette semaine encore, les alertes de cette dépêche AFP ou cette chronique d’un monde connecté sur France Culture, devraient nous mobiliser toutes et tous car le futur qu’elles dessinent est au-delà de l’alarmant sur le plan sociétal comme sur le plan politique (je rappelle par exemple que ce cabinet qui me menace d’un procès indique sur son site intervenir notamment dans des « Systèmes de gestion de contrôle aux frontières (Gates, entry-exit). »

Pour le dire d’une phrase : ce dont nous devons absolument parler et ce que nous devons absolument combattre c’est un capitalisme de malfrats avec la marchandisation des données biométriques des plus précaires comme poste avancé.

Parce que tous ces êtres humains, toutes ces populations, le plus souvent précaires, que l’on dévisage en leur jetant l’aumône, ne nous laissent collectivement envisager aucun futur désirable.

 

  • ✇affordance.info
  • L’indigne et les indignés. Chronique d’une a-réalité.
    En une seule journée (c’était en début de semaine), nous avons donc eu la Une du JDNews (émanation putride de l’empire Bolloré) avec la phrase de Wauquiez sur l’enfermement et la déportation des OQTF à Saint-Pierre et Miquelon, mais aussi la sortie médiatique d’Elisabeth Borne expliquant qu’il fallait réfléchir très tôt à son orientation, et même « dès la maternelle » (le verbatim complet est le suivant « Il faut se préparer très jeunes, presque depuis la maternelle, à réfléchir à la façon dont
     

L’indigne et les indignés. Chronique d’une a-réalité.

11 avril 2025 à 12:43

En une seule journée (c’était en début de semaine), nous avons donc eu la Une du JDNews (émanation putride de l’empire Bolloré) avec la phrase de Wauquiez sur l’enfermement et la déportation des OQTF à Saint-Pierre et Miquelon, mais aussi la sortie médiatique d’Elisabeth Borne expliquant qu’il fallait réfléchir très tôt à son orientation, et même « dès la maternelle » (le verbatim complet est le suivant « Il faut se préparer très jeunes, presque depuis la maternelle, à réfléchir à la façon dont on se projette dans une formation et un métier« ).

« Et reprenons un peu de saucisson. »

Notez que la langue française est formidable car depuis la publication de cette Une, il est déjà passé dans le langage courant que l’on ne dit plus « con comme ses pieds » mais désormais « con comme Wauquiez« .

« Passé les bornes y’a plus de limites. » (Emile. 7 ans. CE1)

Cessons de louvoyer et d’y aller par demi-mesures, je propose de mon côté de réfléchir à un monde dans lequel les enfants qui n’auraient pas de projet professionnel clair à l’issue du CP seraient placés sous OQTF et déportés une bonne fois pour toutes dans des orphelinats militaires à Saint-Pierre et Miquelon.

« Quelle indignité. »

Sur les médias sociaux d’abord, sur les plateaux télé ensuite, dans les radios enfin, et parfois simultanément dans l’ensemble de ces biotopes médiatiques, ces propos ont été moqués, ridiculisés, dénoncés, combattus, ils ont aussi parfois été soutenus et défendus, et ils ont donc atteint leur objectif premier qui est de … circuler massivement (mais concernant Wauquiez, même sur CNews ils étaient à un doigt de trouver ça raciste et complètement con et puis finalement ils ont pris un whisky d’abord).

Oui bien sûr il y a de la fenêtre et surtout du rétroviseur d’Overton là-dedans, oui bien sûr derrière la Une travaillée et délibérément choquante du JDNnews comme derrière la sortie de route de Borne qui doit être lue comme un authentique lapsus tout à fait révélateur de son projet politique, oui bien sûr il y a l’idée d’élargir encore la fenêtre et le rétroviseur d’Overton et de nous préparer.

Mais il y a aussi cette forme fondamentale et chimiquement pure d’une rhétorique de l’indignation. Depuis que les réseaux et médias sociaux existent, nombre d’études scientifiques ont montré que le ressort principal et constant de la circulation virale des contenus était celui de l’indignation, indignation directement liée au sentiment de colère face à une injustice. L’indignation suite à la colère liée à une injustice en paroles ou en actes, est l’émotion qui sollicite le plus directement notre nécessité de réaction. On ne peut pas ne pas réagir lorsque des propos nous indignent et nous placent sous le coup de la colère.

L’indignation, en tout cas dans son expression virale, nous plonge également dans une posture cognitive « a-rationnelle ». On ne répond pas rationnellement à des propos qui nous indignent. L’indignation porte en elle l’effet miroir de sa réponse qui ne peut être qu’elle-même indignée. L’indignation contraint à d’autres réponses indignées qui elles-mêmes … ad libitum.

En France, en démocratie, les sorties de route ou déclarations suscitant de l’indignation se multiplient comme jamais auparavant et si ce sont les deux pôles radicaux de l’échiquier politique qui la monopolisent le plus, c’est bien l’ensemble du spectre qui s’y fourvoie avec une pathétique délectation. Parce qu’en termes d’agenda, il importe à toutes les formations politiques de dicter autant qu’elles le peuvent celui de nos indignations collectives (et donc sélectives).

On se souvient bien sûr de la phrase de Hannah Arendt : « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »

Remplaçons maintenant le mensonge par l’indignation. Ce qui donne « Quand tout le monde tient des propos suscitant l’indignation en permanence, le résultat n’est pas que vous vous indignez vous-même, mais que plus personne ne peut être autrement qu’indigné. Un peuple qui ne peut plus être autrement qu’indigné en permanence ne peut se faire une opinion. » La suite de la phrase d’Arendt reste inchangée. « Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »

Ces indignations, celles que véhiculent des écosystèmes idéologiques comme ceux de Stérin et de Bolloré, ces indignations programmatiques prennent le relai du mensonge et achèvent de déréaliser l’ensemble de nos repères informationnels et de nos représentations sociales collectives.

D’abord on vous ment. Puis sans vous laisser le temps de disserter sur le mensonge on vous indigne. Et vous vous indignez. Souvent ces mensonges suscitent de l’indignation. Souvent ces indignations mobilisent des mensonges pour les apaiser ou au contraire les alimenter et les accompagner. Et alors tout devient possible. Les faits alternatifs – qui mobilisent des systèmes de coordonnées auto-référentiels et qui n’ont plus besoin d’aucune autre validation que celle de la pure croyance – se généralisent et se systématisent. On peut tout à fait tenir un rassemblement sur une place à demi-vide, on peut montrer les images de cette place à demi-vide et affirmer sans sourciller que cette place était pleine. Trump l’avait fait pour son premier discours d’investiture lors de sa première élection, le rassemblement national l’a encore fait le week-end dernier. L’indignation porte en elle un phénomène dissociation : ce n’est plus le réel qui importe mais le discours sur le réel qui seul est débattu, y compris s’il se détache complètement du réel.

Ce que nous sommes en train de perdre c’est tout un système de coordonnés. Des coordonnées spatiales, géographiques (le changement de nom du Golfe du Mexique n’est pas seulement une lubie ou un coup de comm de la part de Trump), des coordonnées temporelles, informationnelles, culturelles.

Récemment un article paraissait qui expliquait la manière dont (une partie de) l’algorithme de TikTok fonctionnait :

« (…) comment une vidéo arrive-t-elle jusqu’à vous ? Tout commence par un immense réservoir, le « pool de contenu », où atterrissent toutes les nouvelles vidéos postées. Mais attention, elles ne passent pas toutes le filtre. Une première évaluation élimine celles qui ne respectent pas les règles. Ensuite, c’est l’étape du « rappel », où l’algorithme trie rapidement pour trouver ce qui pourrait vous plaire. Là, entre en scène le « Dual Tower Recall », un modèle qui transforme vous et les vidéos en points dans un espace numérique. On peut imaginer un grand tableau avec des coordonnées. Vous êtes un point, et chaque vidéo aussi. Si vos points sont proches, la magie s’opère, la vidéo vous est proposée. Ce système repose sur des calculs mathématiques complexes, mais l’idée est simple : plus vos goûts « matchent » avec une vidéo, plus elle a de chances d’apparaître sur votre écran.« 

 

Un système de coordonnées dans un espace numérique où nous sommes un point parmi tant d’autres, tout comme la théorie des graphes (notamment des graphes invariants d’échelle) permet de modéliser les infrastructures relationnelles des réseaux sociaux massifs.

La métaphore du « grand tableau » avec des coordonnées dans laquelle nous sommes autant de « points » et où les contenus en sont d’autres qu’il s’agit d’apparier, est relativement exacte et fonctionnelle (voilà plus de 20 ans que nous disposons en effet d’études scientifiques dans le champ des systèmes et algorithmes de prescription et de recommandation et de la théorie des graphes qui permettent de modéliser tout cela).

Là où en effet les systèmes d’appariement et de recommandation algorithmiques nous offrent et disposent de coordonnées extrêmement précises leur permettant de satisfaire la part la plus déterministe de nos attentes et de nos comportements à commencer par les plus singuliers et les plus grégaires, l’ensemble des autres systèmes référentiels collectifs de coordonnées culturelles, historiques, politiques et informationnelles se sont disloqués ou sont en train de s’effondrer sous les coups de boutoir redoublés des mensonges instrumentaux et des indignations brandies comme autant de stratégies comportementales de renforcement. En tout cas ils agissent beaucoup moins de manière « cadrante » et l’ensemble des phénomènes documentaires allant des pures Fake News aux faits alternatifs en passant par les artefacts génératifs, les mensonges instrumentaux et les indignations programmatiques finissent par produire des formes de décrochage du réel qui sont le point d’adhérence d’un grand nombre de dérives tant idéologiques que politiques, sociales et économiques.

Et l’ère des capitalistes bouffons armés de tronçonneuses ne fait qu’accélérer encore ces dérives désormais quotidiennes.

S’il fallait résumer tout cela par un dessin ce pourrait être celui-ci.

 

Les coordonnées de notre monde social se déplacent bien sûr aussi. Elles bougent. Le plus souvent dans la sens du progressisme, mais parfois également dans de mortifères conservatismes ou d’alarmantes régressions. Les coordonnées de notre monde ‘ »algorithmique », c’est à dire l’ensemble des référentiels produits par les technologies et dans lesquels nous sommes en permanence passés au crible, ces coordonnées là se déplacent non seulement beaucoup plus vite mais de manière aussi beaucoup plus incohérente car n’ayant pas nécessité d’attache dans le réel. De ce décalage naissent des formes de décrochage, de dissociation, de scission entre des systèmes de coordonnées qui si elles ne se tiennent plus ensemble, laissent place à toutes les dérives et à toutes les incompréhensions possibles.

Dans la situation 1, les coordonnées de notre monde social et de notre monde algorithmique se recouvrent presqu’entièrement et de manière cohérente. Seuls de petits espaces subsistent dans lesquels le monde algorithmique se singularise et dans lesquels le monde social peut exister indépendamment du monde algorithmique.

Dans la situation 2 en revanche, il est tout un pan (hachuré) de notre monde social qui n’a presque plus de liens, de coordonnées communes avec notre monde algorithmique. Et réciproquement.

Stéphane Hessel, en 2010, nous invitait à nous indigner. Indignez-vous. Dans le sillage de l’appel des Résistants aux jeunes générations du 8 mars 2004 (lors de la commémoration du 60ème anniversaire du programme du CNR), cet appel à l’indignation était avant tout un appel à l’engagement. Un appel à l’engagement comme un retour au réel. Et dont l’indignation n’était que le moteur et jamais, jamais la finalité. Son ouvrage se terminait par ces mots et cette citation de l’appel des résistantes et résistants :

« Aussi, appelons-nous toujours à « une véritable insurrection pacifique contre les moyens de communication de masse qui ne proposent comme horizon pour notre jeunesse que la consommation de masse, le mépris des plus faibles et de la culture, l’amnésie généralisée et la compétition à outrance de tous contre tous. »

 

Etudiants en situation de précarité ? Vendez-nous vos données. De la biométrie et des cabinets vautours qui tournent autour.

6 avril 2025 à 13:10

[Mise à jour du 21 Avril]

J’ai reçu une mise en demeure d’avocats représentant les intérêts du cabinet dont je dénonçais les agissements dans cet article en date du 6 Avril. Cette mise en demeure me laissait jusqu’au 21 Avril minuit (ce soir donc) pour supprimer l’intégralité de l’article, sous peine de poursuites judiciaires pour « diffamation, injure publique et violation du secret des correspondances ». Nous sommes le 21 Avril 19h et je prends la décision de me plier à la mise en demeure. Et vous en explique les raisons dans cet autre article

[Mise à jour du 9 Mai]

Plusieurs articles de presse sont venus traiter de cette affaire et l’article initial qui m’a valu cette mise en demeure a été archivé sur la Wayback Machine de l’Internet Archive.

[Mise à jour du 11 Mai]

Je dresse le bilan de cette affaire et de la couverture médiatique à laquelle elle a donné lieu dans cet article : « Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre la cabinet Louis Reynaud et moi. »

 

  • ✇affordance.info
  • Poisson (mort) d’avril. Le réel selon la Tech.
    Il y a les images d’un monde version studio Ghibli. Et il y a Elon Musk avec un chapeau fromage. Le monde version studio Ghibli c’est une trace documentaire qui fait l’inverse de ce que documenter veut dire. Elle déréalise, elle euphémise, elle fictionnise. Elle enlève du relief aux êtres et aux choses. Elle les installe dans un univers d’à côté. Dans une tangence. Le monde version Elon Musk c’est à lui seul une exponentielle du grand n’importe quoi et l’asymptote d’un réel entièrement fiction
     

Poisson (mort) d’avril. Le réel selon la Tech.

1 avril 2025 à 12:06

Il y a les images d’un monde version studio Ghibli. Et il y a Elon Musk avec un chapeau fromage.

Le monde version studio Ghibli c’est une trace documentaire qui fait l’inverse de ce que documenter veut dire. Elle déréalise, elle euphémise, elle fictionnise. Elle enlève du relief aux êtres et aux choses. Elle les installe dans un univers d’à côté. Dans une tangence.

Le monde version Elon Musk c’est à lui seul une exponentielle du grand n’importe quoi et l’asymptote d’un réel entièrement fictionné pour servir ses seuls intérêts pour autant qu’il soit lui-même en capacité de les identifier comme tels. Salut Nazi hier, chapeau fromage aujourd’hui, et demain quoi d’autre ?

On a beaucoup parlé de l’ère des Fake News et de celle des faits alternatifs. En 2018 dans l’article « Fifty Shades of Fake » publié un 1er Avril, je vous parlais de la manière dont les architectures techniques toxiques des grandes plateformes numériques se mettaient au service presque « mécanique » de cette amplification du faux et de son écho dans nos sociétés. Je martelais que « la propagation de Fake News est davantage affaire de topologie que de sociologie » ; en d’autres termes que la capacité de circulation des contenus relevant des Fake News ou des faits alternatifs, leur capacité également de percoler dans tous les espaces sociaux conversationnels, massifs ou intersticiels, médiatiques ou dialogiques, cette capacité s’explique d’abord et avant tout par la topologie et l’organisation (le « dispositif ») des espaces numériques. Et que ce n’est qu’à la marge ou en tout cas dans un second temps que l’on peut caractériser de manière causale ces circulations en les rattachant à des catégories sociologiques liées à l’âge, au niveau d’éducation ou à tout autre variable.

Sept ans plus tard, ce 1er Avril 2025, ce qui se joue est de l’ordre de la tension désormais explosive entre un écosystème numérique bâti sur la question documentaire de la trace (traces de nos données, de nos comportements, de nos navigations, de nos opinions, etc.), et un saisissement technologique et politique qui ajoute un déterminisme de l’emballement à un extractivisme souche. Et ce que l’on nomme IA  – et qui est plus précisément un ensemble d’artefacts génératifs nourris d’une incommensurable quantité de données sans considération aucune pour leur origine, leur appartenance ou leur(s) propriété(s) – ce que l’on nomme IA n’est que le dernier (et peut-être ultime) avatar à la fois de cet extractivisme et de cet emballement. Avec un point nouveau qui est celui de l’alignement total de ces technologies avec les agendas politiques de régimes tous au mieux illibéraux.

« It is a tale
Told by an idiot, full of sound and fury,
Signifying nothing. »
(Macbeth. Shakespeare.)

Poisson (mort) d’Avril. Il y a de cela quelques années, la plupart des grands groupes technologiques de la trace (de Google à Facebook) se livraient à quelques « poissons » en ce jour particulier du 1er Avril. Aujourd’hui cette pratique s’est pour l’essentiel perdue et lorsqu’elle subsiste, elle ne suscite que peu ou pas d’écho médiatique tant le rapport que nous entretenons au quotidien avec la tromperie, la duperie, le décalage, de faux et l’irréel s’est totalement transformé. Ce qui était hier une stratégie éditoriale d’exception (dire le faux) est devenu aujourd’hui un régime éditorial courant, une routine.

Le monde façon studio Ghibli. Que chacun se soit emparé de la possibilité de faire « mème » dès lors que quelques-uns se sont saisis de la nouvelle opportunité offerte de créer des images, de soi ou du monde, à la manière du studio Ghibli dans ChatGPT, n’a rien d’inédit ou d’étonnant. Chaque époque numérique a pu documenter la manière dont ces productions documentaires particulièrement fécondes étaient massivement reprises lorsqu’elles présentaient la double capacité de se mettre en scène soi-même et/ou de s’attacher à des représentations culturelles déjà prégnantes. Ainsi certains et certaines se souviendront avec moi de ces générateurs permettant de « vieillir » une photo de nous, ou de chez nous, comme à l’argentique des premiers temps photographiques ; se souviendront aussi de la reprise du portrait « Hope » d’Obama par l’artiste Shepard Fairey et de la manière dont on vit presque partout se multiplier les copies de ce portrait avec nous à la place d’Obama. Et de tant d’autres choses encore.

Aujourd’hui des biotopes numériques tout entiers sont exclusivement bâtis sur leur capacité à faire « mème », à conditionner la production de contenus à leur alignement avec des ritournelles préenregistrées, des « trends ». « Trends » ou « tendances » : des formes de facilitations virales qui devraient nous interroger non pas par leur capacité à être suivies en tant que telles dès lors qu’elles ont été « amorcées », mais par l’assignation à l’identique qu’elles produisent et qui est une forme de prophylaxie paradoxalement mortifère de diversités, d’altérités et de dissemblances. En un mot : TikTok.

Que dire d’un monde dans lequel l’esthétisation de soi (et du monde) fait aussi fonction de bascule dans d’autres régimes de vérité ? Comment « être au monde » quand la plupart des « corporations du filtre » (pour reprendre une expression d’Umberto Eco désignant les journalistes, éditeurs, bibliothécaires, etc.) qui jusqu’ici faisaient fonction d’assignation, de rappel et de construction du réel sont en train de s’effondrer pendant qu’à l’autre bout de la chaîne documentaire de l’énonciation prospère une vision du réel qui n’est plus qu’essentiellement filtrée, et ce, des filtres de déguisement que chaque application ou biotope numérique propose ou superpose à chaque dialogue ou interaction jusqu’aux filtres de travestissement qui s’accolent aux paroles politiques publiques quand elles sont portées « sous couvert » de décalage, d’humour, de cynisme ou plus simplement de … programme.

Je fais ici une différence entre la question du filtre comme « déguisement » et dans lequel l’enjeu est précisément que le destinataire puisse repérer et identifier l’effet de décalage soit par l’exagération soit par le grotesque soit par l’irréalisme produit (par exemple les filtres « oreilles de chien » dans Snapchat), et la question des filtres comme « travestissements » dans lesquels l’enjeu est cette fois de produire un effet de réel authentifiable sinon authentique, travestissements qui « agissent » de manière performative autant chez l’émetteur (avec des troubles pouvant aller jusqu’à la dysmorphophobie) que chez le récepteur devenu incapable de discernement ou propulsé dans une vallée de l’étrange dont il ne sait à quelle part de son réel rattacher l’expérience ressentie.

Se confronter à l’information sur et dans les médias sociaux numériques (mais pas uniquement) c’est donc pour beaucoup se confronter à des surimpressions permanentes et rémanentes qui oscillent entre l’esthétique Ghibli, les chapeaux fromage d’Elon Musk, ou les pulsions d’un président élu pour envahir le Groenland. Non seulement plus grand-chose ne prête à sourire mais la tentation de faire des blagues se trouve totalement distancée par le réel lui-même. Par-delà la réalité sourde de l’état réel de notre monde, de ces effondrements climatiques et de ses guerres en cours en Ukraine, à Gaza, au Yémen et ailleurs, l’actualité géopolitique internationale est une oscillation permanente entre une version documentaire d’Idiocracy et des faits totalement en phase avec la ligne éditoriale du Gorafi.

Tout cela est irréel par intention ; tout cela contribue à déréaliser pour partie notre rapport au monde et aux autres ; tout cela nous installe dans une sorte d’a-réalité, une privation de réel, une douce torpeur ; tout cela produit des formes instrumentales et instrumentalisées de tech-réalité, c’est à dire d’une réalité qui ne serait sensible qu’au travers des politiques éditoriales ou des interfaces des grandes sociétés technologiques et de leurs filtres.

Le rêve avorté du Métavers imaginé par Zuckerberg n’est pas l’essentiel. L’essentiel est de rester en capacité de discernement sur des formes avérées d’univers sociaux et informationnels qui déjà peuplent, filtrent, habitent nos univers quotidiens et qui s’y superposent en évidence.

Le monde version studio Ghibli. Et le chapeau fromage d’Elon Musk. Irréel. Déréaliser. A-réalité. Tech-réel. Et la suite. Déjà là. Tescreal.

[Mise à jour du 6 Avril] I’ve got my Ghibli. And the World is filtered-reality.

  • ✇affordance.info
  • Dans le rétroviseur d’Overton : casser vite et bouger des trucs.
    C’est quelque chose qui m’a frappé lors de la dernière polémique concernant l’affiche de La France Insoumise reprenant les codes de l’imagerie antisémite, élaborée à l’aide de Grok, l’IA développée par les équipes d’Elon Musk et précisément connue pour n’avoir pas les filtres et pudeurs des autres IA (Grok qui s’affirme et se confirme comme la 1ère IA de l’Alt Right). Comme Daniel Scnheidermann l’écrit « Soit LFI était conscient du caractère antisémite de l’affiche, et l’a tout de même validée
     

Dans le rétroviseur d’Overton : casser vite et bouger des trucs.

24 mars 2025 à 13:55

C’est quelque chose qui m’a frappé lors de la dernière polémique concernant l’affiche de La France Insoumise reprenant les codes de l’imagerie antisémite, élaborée à l’aide de Grok, l’IA développée par les équipes d’Elon Musk et précisément connue pour n’avoir pas les filtres et pudeurs des autres IA (Grok qui s’affirme et se confirme comme la 1ère IA de l’Alt Right).

Comme Daniel Scnheidermann l’écrit « Soit LFI était conscient du caractère antisémite de l’affiche, et l’a tout de même validée par provocation, et c’est dramatique. Soit personne dans la chaîne de décision n’en était conscient, et alors c’est affolant d’inculture visuelle et historique. »

Et comme le rappelle André Gunthert : « Dénoncer l’extrême-droite en lui empruntant ses méthodes n’est pas une façon de souligner ses tares, mais au contraire un hommage involontaire du plus malheureux effet. »

A l’échelle des IA et des artefacts génératifs, ce n’est pas la première fois, qu’indépendamment de Grok, on observe la reprise et la mobilisation d’éléments textuels ou iconiques venant d’un passé plus ou moins proche. Pour la simple et bonne raison que les artefacts génératifs, tout comme nous, ne sont capables d’imaginer un futur qu’à l’aune d’un passé mobilisé et projeté. Mais en effet dans la libre génération d’images comme de textes, et sans supervision fine et humaine de chaque production circulant ensuite dans l’espace social et médiatique, sans mobilisation de cadres et référents culturels du passé qui soient contextuels aux générations du présent, alors les sorties de route sont tantôt douloureuses, tantôt pathétiques, tantôt curieuses, mais toujours inévitables (j’ai écrit un super livre notamment là-dessus hein, je dis ça je dis rien).

A l’échelle des technologies et des environnements numériques que j’observe et documente en tant que terrain scientifique depuis plus de 20 ans, ce dernier épisode d’un dérapage antisémite, contrôlé ou non (jusqu’ici nul n’a indiqué si le « prompt » – les instructions – données à Grok étaient de forcer certains traits de caricature des personnalités représentées), m’a conduit à projeter d’autres « révolutions contemporaines » que celles des IA et artefacts génératifs sur une ligne de temps long. Pour parvenir aux constats suivants.

Premier constat, le numérique et les plateformes (voir ce qu’en dit Casilli à l’aune des travaux de Gillespie) ont exacerbé et « automatisé » des formes de néo-management essentiellement toxiques. Formes dont on peut faire remonter la théorisation à certains cadres de la future Allemagne nazie comme l’explique parfaitement l’historien Johann Chapoutot dans son ouvrage « Libres d’obéir : le management, du nazisme à la RFA. » Entendons-nous bien, il ne s’agit pas ici de distribuer des points Godwin comme des fréquences d’exposition à chaque éructation de Cyril Hanouna mais de rappeler des formes de continuités historiques troublantes parce que systémiques.

Second constat, toujours du côté de l’ensemble des phénomènes et organisations métonymiquement rassemblés sous le terme « d’Uberisation » et de « Gig economy » (économie à la tâche), dans l’envers de l’ensemble des plateformes et de leurs infrastructures délirantes, de Shein à Amazon, on trouve deux points aussi saillants que communs. Le premier est celui d’un néo-fordisme, d’une mise à la tâche et à la chaîne dans laquelle se sont les notifications algorithmiques qui servent de contremaître. Le second est celui de néo-colonialités qui font toujours peser la charge de l’exploitation au travail sur les mêmes populations (travailleurs pauvres, populations immigrées, jeunes précaires, femmes isolées, etc.) et les mêmes pays pauvres du Sud. J’emprunte à Antonio Casilli le terme de « colonialité » (lui-même l’empruntant au philosophe Nelson Maldonado-Torres), préférable à celui de « colonialisme » puisque si les réalités des logiques d’exploitation présentent des similarités, le cadre sociétal qui leur permet de se déployer à considérablement évolué.

Troisième constat, du côté des « données », c’est à dire de l’ensemble de nos traces permettant de documenter nos opinions et nos comportements dans l’ensemble des écosystèmes numériques, depuis le web (en tant qu’espace public) jusqu’aux plateformes de médias sociaux (espaces semi-publics, semi-privés), nous sommes dans une forme semi-permanente de « dataxploitation ». Chacune de ces données collectées est prioritairement utilisée ou réemployée dans des logiques d’usage presqu’exclusivement centrées sur des politiques de contrôle, de surveillance, de soumission ou d’assignation et d‘automatisation des inégalités.

Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples.

Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression. Comme l’écrivait Zeinep Tufekci pour les réseaux et médias sociaux, « Internet a facilité l’organisation des révolutions sociales mais en a compromis la victoire. »

Pour comprendre et résoudre un peu cette apparente contradiction il faut accepter de dissocier, d’une part, les technologies des écosystèmes préexistants dans lesquels elles se déploient et, d’autre part, des biotopes (informationnels notamment) qu’elles préfigurent et inaugurent pour finir par y tourner à plein régime.

On pourrait résumer cela en trois phases et périodes distinctes, d’abord dans l’appropriation, puis dans la circulation et dans la massification, enfin dans la révélation et la dénonciation de ces techno-pouvoirs qui deviennent aujourd’hui presqu’exclusivement d’inquiétants techno-souverainismes.

Phase 1 : 2004 – 2017.

2004 c’est la création de Facebook et 2016 la création de TikTok. L’alpha et l’oméga des réseaux sociaux devenus médias sociaux. En 2017, Zeinep Tufekci le documentait et le démontrait : « Nous avons bâti une dystopie juste pour obliger des gens à cliquer sur des publicités. » Or ces dystopies s’alignent désormais systématiquement avec des régimes déjà autoritaires (c’est le cas de TikTok et de la Chine) ou en passe de le devenir (c’est le cas de Facebook, Instagram, Amazon, Apple, Microsoft, Google, etc. avec les USA).

Phase 2 : 2017-2025.

2017 c’est la première élection de Trump. Et 2025 c’est la seconde. Entre ces deux périodes l’ensemble du monde de la tech (américaine notamment) s’est « aligné » avec les intérêts géo-stratégiques (principalement) américains et/ou s’affronte à l’ensemble des intérêts géo-stratégiques d’autres puissances (Russie et Chine). Dans le sillon du constat de Zeinep Tufekci, huit ans après sa déclaration, nous avons non seulement tellement visionné de publicités mais nous faisons également face à un telle ombre géopolitique dans chacun de nos espaces et usages numériques y compris les plus triviaux, que nous commençons à peine à percevoir à quel point nous vivions effectivement depuis tout ce temps dans une dystopie ; et nous mesurons aussi qu’une forme mortifère d’irrémédiable s’est aujourd’hui malheureusement installée.

Ce n’est pas un hasard si les initiatives de « départ », d’exode et de migration numérique se multiplient, et ce bien au-delà de la très médiatisée initiative « Hello Quit X« . Nos vies numériques se partagent aujourd’hui entre :

  • des biotopes de sur-stimlulation identifiés et recherchés comme tels (TikTok en fer de lance, Youtube et Instagram dans sa roue),
  • d’autres biotopes totalement emmerdifiés (enshittification de Cory Doctorow) dont Facebook est le parangon,
  • et de manière très très marginale, des espaces encore un peu si (relativement) faiblement peuplés qu’il demeure possible d’y retrouver quelques interactions non nécessairement toxiques ou inutiles, ou dans lesquels en tout cas la quasi-absence d’interaction autre que celle d’une lecture n’est pas nécessairement vécue comme un traumatisme (Substack, Patreon, … les blogs). On n’en est pas encore à un grand retour de Hype des listes de diffusion et des Homepages mais ça ne saurait tarder.

Phase 3 : 2026 … ?.

Aujourd’hui donc cette dystopie se déploie. A plein régime. A la faveur d’élections. Y compris démocratiques. Le monde est plein de déflagrations, de mots et d’idéologies que nous pensions n’appartenir qu’au passé et que jamais nous n’imaginions voir revenir aussi vite et aussi semblablement. D’autant qu’aux fantômes du passé et aux monstres du présent s’ajoutent ceux d’un futur totalement dépendant des prochains et certains effondrements climatiques. Et au milieu de ce gué que nous franchissons chaque jour un peu plus, les artefacts génératifs qui brouillent et troublent l’ensemble des nos esthétiques de réception et donc d’analyse.

Bouger vite et casser des trucs. Casser vite, et bouger des trucs.

Image Mike Deerkoski (CC BY)

« Move Fast and Break Things ! » Vous vous rappelez ? Ce fut longtemps le mantra de la firme Facebook et de Zuckerberg. Un mantra qui s’étendit à l’ensemble de la Silicon Valley et de ses colonialités numériques. En effet tout cela est allé très vite. En effet nombre de repères, de valeurs, d’identités, de communautés, de minorités, de normes et de lois ont été brisées. Nombre d’autres fracas nous attendent sans qu’il soit aujourd’hui clairement possible de savoir si nos garanties constitutionnelles, en France, aux USA et partout ailleurs dans le monde, seront suffisantes pour nous en prémunir ou en éviter les conséquences les plus directement mortifères. Mais la performativité des effondrements qui se tiennent au bout d’un stylo (celui de Trump signant ses décrets) ou de claviers (le blanc-seing laissé aux ingénieurs de Musk et du Chaos), cette accélération de la performativité doit nous interroger.

Parce qu’ils n’ont pas juste « bougé vite » et « cassé des trucs« , mais ils ont surtout « cassé rapidement » et « déplacé des choses » : « Break Fast and Move Things ». L’objet de la casse étant (pour l’essentiel) le rapport au travail, aux autres et à soi ; et la cible du déplacement étant celle de nos valeurs éthiques, morales, politiques. Pendant tout ce temps nous étions concentrés, nous essayions en tout cas, sur l’élargissement de cette fameuse fenêtre d’Overton.

Mais nous devons aujourd’hui oublier la fenêtre d’Overton lue comme le travail sur les mots d’un présent pour installer ceux d’un futur, et plutôt considérer … le rétroviseur d’Overton.

Overton : la fenêtre était en fait un rétroviseur.

De la fenêtre au rétroviseur donc. Je m’explique. Raphael Llorca (commiuniquant, essayiste, collaborateur de la Fondation Jean-Jaurès) revenait récemment lors d’une émission sur France Inter sur le concept de la fenêtre d’Overton en indiquant, je cite, que « l’une des thématiques d’Overton, c’est l’histoire. » Et de poursuivre : « Parce qu’on ne peut pas faire bouger des choses dans le présent si on ne s’attaque pas aux blocages psychiques et politiques dans le passé. » Et de citer les exemples de Zemmour prétendant que Pétain aurait sauvé des juifs français, thèse apparaissant comme accréditée à peine 15 jours plus tard dans une partie de l’opinion. Même chose il y a longtemps pour Le Pen (Jean-Marie) et l’histoire des chambres à gaz qu’il avait désigné comme « un point de détail de l’histoire de la 2nde guerre mondiale » et qui avait ouvert portes et fenêtres, d’Overton et de tous les autres, à un renouvellement complet des pires thèses antisémites et révisionnistes.

Dans le rétroviseur d’Overton, l’essentiel de celles et ceux que l’on présente comme des « innovateurs » dans le domaine des technologies, ne s’efforcent pas tant d’imaginer des futurs que de remobiliser des temps historiquement passés sur lesquels ils opèrent des transformations essentiellement cosmétiques mais qui finissent par leur (et nous) exploser à la gueule dans leur forme originellement située.

[Parenthèse] Et je veux ici distinguer entre « technique » et « technologie ». Il est plein d’innovations « techniques » dans le domaine de l’informatique, du numérique, de l’IA. Les « transformeurs » par exemple en furent une remarquable dans le domaine de l’apprentissage automatique. Les « technologies » quant à elles embarquent ces innovations techniques pour les mobiliser dans le cadre de projets, de services, d’usages qui sont toujours indissociables de leur inscription sociale ou sociétale. Les générateurs de texte (ChatGPT et tous les autres) sont ainsi des technologies construites sur plein de d’outils (et de révolutions) techniques. Ne pas faire cette distinction entre « technique » et « technologie » c’est ouvrir la porte aux discours réactionnaires et anti-progressistes. Dès lors que cette distinction est faite, on peut parfaitement soutenir le besoin d’innovation technique et s’émerveiller des dernières d’entre elles, tout en condamnant et en s’alarmant en même temps de certaines évolutions technologiques, par exemple des plateformes qui mobilisent ces techniques. [/Parenthèse]

A l’exception de Wikipedia, de l’Internet Archive, des blogs, et du moteur de recherche Google s’il avait eu le courage de se conformer au renoncement à sa régie publicitaire, le constat est aujourd’hui celui de l’inquiétante et constante dérive instrumentale, politique ou morale de l’ensemble des biotopes numériques existant au centre ou à la périphérie de cet espace public qu’est (encore) le web.

L’effet diligence, le carrosse et la citrouille.

L’effet diligence c’est cette notion théorisée par Jacques Perriault en sciences de l’information et qu’il définit comme suit :

« Une invention technique met un certain temps à s’acclimater pour devenir une innovation, au sens de Bertrand Gille, c’est-à-dire à être socialement acceptée. Pendant cette période d’acclimatation, des protocoles anciens sont appliqués aux techniques nouvelles. Les premiers wagons avaient la forme des diligences. »

 

Le carrosse qui redevient citrouille passé minuit, ça c’est le conte de Cendrillon.

« Va dans le jardin, lui dit-elle, et apporte moi une citrouille. La marraine creusa la citrouille et l’ayant frappée de sa baguette, elle se trouva transformée en un magnifique carrosse tout doré. Ensuite elle fut regarder dans la souricière, où elle trouva six petites souris en vie ; elle frappa de sa baguette, et les six souris furent changées en six beaux chevaux gris pommelé. (…) mais sa marraine lui recommanda, sur toutes choses, de ne pas passer minuit, l’avertissant que, si elle demeurait au bal un moment davantage, son carrosse redeviendrait citrouille, ses chevaux des souris, ses laquais des lézards, et que ses beaux habits reprendraient leur première forme. »

 

Nous payons aujourd’hui les conséquences d’une série « d’effets diligence » où, pour le dire vite, la plupart des plateformes de « socialisation » ont été conçues et pensées comme des plateformes de surveillance. Des réseaux sociaux (les wagons dans l’exemple de Perriault) conçus sur le modèle du panoptique de Bentham (les diligences). Celles et ceux qui depuis 20 ans font mine de ne pas comprendre comment et pourquoi cela pourrait mal finir sont soit de grands naïfs, soit de grands actionnaires de ces plateformes.

Et en jetant un oeil dans le rétroviseur d’Overton (et les travaux des historiens comme Chapoutot et tant d’autres), nous comprenons mieux pourquoi à la faveur d’une élection, Zuckerberg passe de la contrition juvénile du gars pris les doigts dans le pot de Nutella au masculinisme toxique le plus claqué au sol, en moins de temps qu’il n’en faut à la marraine de Cendrillon pour changer ses haillons en robe de bal. Nous comprenons aussi pourquoi c’est presque l’ensemble de nos carrosses cognitifs, attentionnels et informationnels qui, soit se transforment en citrouilles (qu’il nous est toujours plus ou moins possible de quitter), soit nous extraient de nos positions de laquais pour nous réassigner à notre statut de lézard à la merci du prochain coup de sang ou de la prochaine virevolte de managers toxiques devenus démocratiquement omnipotents ; lesquels sont entièrement occupés à élargir des fenêtres dans lesquelles la question n’est plus tant de savoir « qui » seront les prochain défenestrés mais « quand » le serons nous.

  • ✇affordance.info
  • World Wide Wikipedia. Pourquoi il faut à tout prix défendre Wikipedia.
    C’était il y a 24 ans. Le 15 Janvier 2001 naissait Wikipédia. dans un monde numérique où Google était lui-même né en 1998 et le web encore quelques années avant (disons vers 1991 pour faire simple même si sa date de naissance officielle est plutôt en Mars 1989). Elle a dû faire toutes les guerres, pour être si forte aujourd’hui. A l’image d’une chanson de Cabrel, elle a en effet dû faire toutes les guerres pour être si forte aujourd’hui. Et aujourd’hui encore elle est la cible d’une offensive co
     

World Wide Wikipedia. Pourquoi il faut à tout prix défendre Wikipedia.

23 février 2025 à 07:35

C’était il y a 24 ans. Le 15 Janvier 2001 naissait Wikipédia. dans un monde numérique où Google était lui-même né en 1998 et le web encore quelques années avant (disons vers 1991 pour faire simple même si sa date de naissance officielle est plutôt en Mars 1989).

Elle a dû faire toutes les guerres, pour être si forte aujourd’hui.

A l’image d’une chanson de Cabrel, elle a en effet dû faire toutes les guerres pour être si forte aujourd’hui. Et aujourd’hui encore elle est la cible d’une offensive coordonnée qui va des USA jusqu’à la France. Une offensive d’une violence et d’une portée rarement atteinte. Avec en tête un Musk qui rêve de sonner l’Hallali de l’encyclopédie.

L’histoire de Wikipedia est indissociable de celle du web et du numérique plus largement ; elle en a toujours constitué un point nodal. Elle est une Babel moderne, elle a changé le périmètre de ce que l’on nommait encyclopédisme (pour un « encyclopédisme d’usage » comme je le qualifiais en 2008), elle en a aussi changé certains codes et certaines valeurs. A l’échelle du monde numérique et un peu au-delà, elle est le dernier espace commun non-marchand, entièrement dédié à la connaissance. Un espace dont le fonctionnement reste ouvert et transparent, tant dans sa gestion administrative (c’est une fondation, Wikimedia, qui préside aux destinées de l’encyclopédie) que dans sa matérialité documentaire (chaque page de l’encyclopédie propose d’accéder à son historique de modifications et aux débats qui en sont à l’origine).

Contrairement à ce que l’on lit souvent dans les arguties de ses détracteurs, non, il n’y a aucun anonymat sur Wikipedia mais un toujours possible pseudonymat. C’est à dire que concrètement il est toujours possible via différents moyens techniques de rattacher un pseudonyme à une identité civile. Et c’est aussi la raison pour laquelle les « proxys ouverts » (qui eux, permettraient en effet un anonymat réel) sont interdits sur Wikipedia. J’en profite d’ailleurs pour rappeler que globalement, cette règle du pseudonymat prévaut dans la quasi-totalité des médias sociaux grands publics, c’est à dire que oui, bien sûr, Facebook, X et d’autres ont toujours la possibilité de retrouver les auteurs de propos condamnables par la loi ou à l’origine de phénomènes de harcèlement. Le fait qu’ils ne le fassent pas systématiquement, le fait qu’ils n’appliquent même pas leurs propres règles, dit tout de leur cynisme fondé sur l’optimisation de la circulation des discours de haine. Je ne vous réexplique pas tout ça en détail, j’ai déjà écrit des centaines d’articles sur ce sujet (et quelques livres aussi). Flemme de tout réexpliquer, l’archive du blog est aussi là pour cela. Je vous en mets quand même un parmi tant d’autres, qui synthétise l’essentiel.

Au commencement il y a la haine de Musk.

Musk qui n’est pas à un revirement près, et qui après avoir par le passé à de nombreuses reprises « loué » Wikipedia pour les services qu’elle rendait, prend aujourd’hui la tête d’une croisade réactionnaire internationale.

Musk, c’était mieux avant.

Très tôt dans la dynamique de l’installation de Trump à la Maison Blanche, Elon Musk appelait au boycott de Wikipedia. Au motif qu’elle serait – selon lui – une entreprise partisane entièrement vouée au Wokisme et à l’extrême gauche. Pour rappel, absolument aucune étude scientifique sérieuse depuis que Wikipedia existe n’a permis de prouver une telle assertion. A la différence de toutes les études scientifiques démontrant en revanche que globalement l’écosystème des plateformes penchait plutôt à droite et que dans le cas particulier de Twitter puis de X les discours conservateurs et d’extrême-droite étaient, pour le coup, délibérément mis en avant. Et que oui globalement « internet » et « les algorithmes » sont très clairement de droite, et que cela s’explique tout à fait rationnellement.

Ces derniers jours encore, une étude de Global Witness notamment reprise sur Techcrunch et sur Nieman Lab, démontrait que concernant X et TikTok et à l’occasion des élections de ce week-end en Allemagne, tout était fait pour favoriser la place du parti d’extrême-droite AfD, parti qui ne fait aucun mystère ni tabou de son affiliation néo-nazie.

« 78 % du contenu politique recommandé algorithmiquement par TikTok aux comptes testés, et provenant de comptes que les utilisateurs testés ne suivaient pas, soutenait le parti AfD. (…) Sur X, Global Witness a constaté que 64 % des contenus politiques recommandés soutenaient l’AfD. En testant le biais politique général de gauche ou de droite dans les recommandations algorithmiques des plateformes, ses conclusions suggèrent que les utilisateurs de médias sociaux non partisans en Allemagne sont exposés à des contenus de droite plus de deux fois plus que des contenus de gauche à l’approche des élections fédérales dans le pays. » (Traduit par moi avec l’aide de DeepL)

 

D’autres études, chroniquées récemment sur Arte (« Comment Elon Musk manipule les élections allemandes« ), abondent dans ce sens et en décrivent quelques-uns des principaux mécanismes.

On pourrait donc presque sourire que l’homme qui adresse des saluts nazis à la foule (il a été particulièrement vexé que ce salut soit enregistré comme tel dans Wikipédia), qui rétablit les pires comptes complotistes et antisémites sur sa plateforme, qui oriente délibérément à l’extrême-droite l’ensemble de ce qu’il lui est possible d’orienter à l’extrême-droite, que cet homme là vienne dénoncer le fait que Wikipedia penche un peu à gauche (ce qui je le rappelle, est factuellement faux), le tout dans un paysage numérique qui non seulement penche très clairement du côté conservateur, et dans lequel depuis le scandale « fondateur » de Cambridge Analytica, on peut désormais documenter à presque chaque élection dans presque chaque pays du monde le fait que des partis ou des candidats d’extrême-droite sont non seulement soutenus mais parfois directement conduits au pouvoir par le jeu des plateformes numériques (dernier épisode en date, l’élection en Roumanie). Mais naturellement rien de tout cela ne prête à sourire.

Musk lance donc la meute à l’assaut de Wikipedia. Et comme attendu, la meute le suit. La meute des conservateurs américains, la meute des trumpistes convaincus, la meute des influenceurs MAGA, la meute de Fox News, et la meute de l’ensemble de l’écosystème médiatique qui leur sert de relai. Cet appel au boycott fonctionne sur deux points.

Premier point, une ânerie totale : Wikipedia ne pencherait politiquement que dans un seul sens, Musk la baptise d’ailleurs régulièrement « Wokepédia » en référence à sa névrose obsessionnelle commune avec Frédérique Vidal et Jean-Michel Blanquer. Faites ici un petit détour chez Authueil pour lire sa courte mais éclairante synthèse : « Wikipédia est-il de gauche ? » (spoiler alert : bah non)

Second point : un axe économique. Musk recommande s’assécher la fondation Wikimedia qui gère entre autres l’encyclopédie Wikipedia en cessant de la financer par des dons. « Coupez les financements à Wikipédia tant que l’équilibre n’est pas restauré ! » écrivait-il le 21 Janvier sur son compte X. Il faut ici savoir qu’au-delà des dons de particuliers, on trouve aussi nombre des « Big Tech » qui financent Wikipedia (Apple, Google, Microsoft, Cisco, etc) Et que par-delà l’impact qu’il espère avoir sur les donateurs particuliers, c’est surtout sur cet écosystème de la Tech qu’Elon Musk entend peser de tout son mortifère poids. Et malheureusement au regard des derniers ralliements et reniements de la plupart des géants de la tech américaine, il est a minima raisonnable d’être très inquiets.

Comme rappelé également par Damien Leloup dans Le Monde :

« à la fin du mois de décembre 2024, sur X, il appelait déjà ses abonnés à ne pas donner d’argent à l’encyclopédie, alors en pleine campagne de financement de fin d’année, pour protester contre une supposée dérive à gauche du site, qualifié de « Wokepedia ». A l’origine de cette saillie : un message d’un compte de la droite dure américaine affirmant, à la suite d’une mauvaise lecture des bilans financiers de la Fondation Wikimédia, qu’elle consacre 50 millions de dollars (48 millions d’euros) par an à des projets de « diversité et inclusion », honnis d’Elon Musk et des républicains américains. En réalité, cette somme finance principalement le développement de l’encyclopédie, les salaires d’avocats et des mesures de cybersécurité. »

 

Lors de l’un de ses derniers meeting électoraux, Donald Trump qualifiait Elon Musk de « plus grand capitaliste de l’histoire de l’Amérique« . Pour donner un point de comparaison sur la menace financière que Musk est en situation d’exercer sur Wikipedia si le modèle économique de cette dernière venait à vaciller ou à n’être plus garanti, un article de Lila Shroff dans The Atlantic rappelle que « la fondation Wikimedia a un budget annuel de 189 millions de dollars. A côté de cela, Musk a dépensé près de 288 millions de dollars rien que pour supporter Trump et d’autres candidats républicains dans cette élection présidentielle. »

Comme le précise le titre de l’article de Lila Shroff, « Elon Musk veut ce qu’il ne peut pas avoir : Wikipedia. »  On peut en effet considérer qu’il est dans la nature de ces personnalités toxiques de désirer en premier ce qui leur résiste le plus ou leur semble le plus inaccessible. Mais l’histoire a également montré que ce qui nous semblait hier tout à fait improbable devenait aujourd’hui tout à fait possible. L’exercice de pensée auquel nous devons nous astreindre est donc de nous figurer un monde dans lequel Elon Musk pourrait un jour racheter Wikipedia. Ou la détruire. Ce qui revient de toute façon au même. Exactement comme il l’a fait pour Twitter. Pour l’instant le fonctionnement de la fondation Wikimedia n’offre à Elon Musk aucune prise directe pour une quelconque forme d’OPA hostile. Mais s’interdire d’imaginer que cela puisse un jour advenir revient à baisser notre garde et à créer les conditions pour rendre cela possible.

La meute Française contre Wikipedia prendra ses quartiers résidentiels dans le journal Le Point, qui en l’espace de quelques semaines réussit un double tour de force. Primo en menaçant de livrer à la vindicte populaire les noms et coordonnées d’un contributeur régulier de Wikipedia dont le principal tort avait été de participer à la mise à jour de la page Wikipédia dudit journal en y rappelant de manière factuelle un certain nombre d’éléments. Et deuxio de publier une « tribune » signée par la fine fleur du printemps républicain et de la réacosphère (plus quelques malheureuses et malheureux égarés et le lot habituel de signataires de métier, qui ont vu de la lumière et se sont offert à moindre frais ce qu’ils croient toujours être un petit moment de gloire, plus celles et ceux qui regrettent déjà), tribune intitulée : « Halte aux campagnes de désinformation et de dénigrement menées sur Wikipedia. » Je ne vous mets même pas le lien tellement la litanie d’approximations, de contre-vérités et de mauvaise foi qu’elle contient** est pénible à lire.  Le principal problème de la majorité des signataires de cette tribune, en tout cas de celles et ceux qui en sont à l’initiative, est qu’ils et elles ne sont pas contents de certains points mentionnés dans leur propre page Wikipédia et n’ont pas la possibilité de les enlever ou de les modifier (et je vous garantis que certain.e.s ont pourtant vraiment tout essayé ;-). Leur autre point commun, et il est bien plus inquiétant et signifiant, c’est de partager avec Elon Musk un agenda illibéral et, à la manière d’une Blanche-Neige sous extas, de voir des Wokes partout et de se sentir investis de la mission de les éradiquer. Et sans offense pour les femmes qui en sont signataires, cette tribune est avant tout une belle collection de tristes burnes.

** Mais si vous aimez vous faire du mal vous pouvez toujours retaper son titre dans Google, ou mieux, aller lire le debunking point par point de Tsaag Valren (doctorante en sciences de l’information et Wikipédienne), enchaîner avec l’article de Jean-Noël Lafargue « Le Point contre Wikipedia », et terminer avec le billet de Daniel Schneidermann, « Wikipedia : leur mauvaise conscience. »

Alors attention et entendons-nous bien.

Oui il y a eu et il y aura probablement encore des opérations de désinformation et de dénigrement dans Wikipédia. Oui il y a eu et il y aura toujours ce que l’on appelle des « guerres d’édition » dans Wikipédia, et il en fut d’anthologie comme celle de 2007 opposant les partisans de Ségolène Royal à ceux de Nicolas Sarkozy lors du débat d’entre deux tours et sur le sujet des EPR, Celle également des équipes de Trump pour tenter de déstabiliser la campagne d’Hillary Clinton juste avant sa première accession à la Maison Blanche, Celle aussi de la cellule lancée par Eric Zemmour lors de sa campagne présidentielle, cellule baptisée WikiZedia (sic) et qui avait pour objet de modifier un nombre substantiel d’articles de l’encyclopédie pour y mettre en avant ou en tout cas les rendre favorables à certaines thèses défendues par le candidat néo-fasciste.

Donc oui, il y a en effet de la désinformation et du dénigrement dans Wikipedia. Oui mais primo il y en a bien moins que dans les écosystèmes et plateformes socio-médiatiques traditionnelles. Oui mais deuxio ces opérations de désinformation et de dénigrement sont bien mieux repérées, identifiées, combattues et rapidement signalées ou corrigées que dans tous les autres écosystèmes sus-mentionnés. Et oui tertio l’essentiel de ces campagnes de désinformation et de dénigrement ne viennent pas du camp de l’amicale LGBTQIASGW (Lesbiano-Gay-Bi-Trans-Queer-Intersexuée-Anarcho-Syndicalo-Gauchisto-Wokiste) mais viennent du camp de la droite conservatrice et de l’extrême-droite (et là aussi cela s’explique rationnellement pour les mêmes raisons que l’internet et les algorithmes penchent globalement à droite, relire notamment ce qu’écrit Jen Schradie à ce sujet).

Et oui bien sûr Wikipedia n’est pas exempte de biais. Mais là encore comme l’indiquent les chercheurs et chercheuses interviewées par Damien Leloup dans Le Monde :

 « il y a surtout un biais de diplôme » parmi les contributeurs de l’encyclopédie en ligne, explique Nicolas Jullien, professeur à l’IMT Atlantique, directeur de recherche au sein du groupement d’intérêt scientifique Marsouin et coauteur de plusieurs études à grande échelle sur les utilisateurs de Wikipédia. « Si vous êtes titulaire d’une licence, vous avez statistiquement beaucoup plus de chances d’avoir essayé de contribuer à Wikipédia ; pour contribuer, il faut notamment se sentir légitime à le faire.« 

« Il y a des biais sur l’encyclopédie, et ils sont bien connus : un biais de genre, notamment, avec une très grande majorité d’hommes parmi les contributeurs, et une surreprésentation assez spectaculaire des populations très fortement diplômées, enseignants, journalistes, informaticiens » abonde Jeanne Vermeirsche.

 

Des biais que non seulement la fondation Wikimedia reconnaît (depuis 2011), qui sont documentés et explicités dans l’encyclopédie elle-même, et sur lesquels travaillent nombre d’associations et de militantes et militants pour tenter de les réduire et de les atténuer.

Et puis il y a les histoires singulières et les débats d’admissibilité, souvent un peu kafkaïens au premier abord, mais toujours heuristiquement passionnants dès lors que l’on s’y plonge en détail. Et à la fin ce qu’il peut advenir de pages de gens qui ne sont ni ne prétendent à la célébrité. Ainsi il y a peu de temps le collègue et camarade Francis Mizio relatait comment et pourquoi il avait fait « vider » sa page Wikipédia. Et souvenez-vous, il y a de cela presqu’exactement 10 ans, je vous racontais l’histoire du débat d’amissibilité de ma propre page Wikipedia (qui d’ailleurs mériterait une sérieuse mise à jour, jdcjdr 😉

Et oui bien sûr le modèle encyclopédique de Wikipédia est particulier puisqu’il repose sur la « vérifiabilité » plutôt que sur la « vérité », mais là encore il faut se souvenir de Foucault et de ce qu’il écrivait à propos des régimes de vérité :

« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. »

 

Ce qui déplaît à Elon Musk comme aux signataires de la tribune des tristes burnes, ce qui les hérisse et leur semble inacceptable, c’est qu’ils ne soient pas et ne soient plus les seuls en charge de dire ce qui est vrai et ce qui ne l’est pas, ce qui est dicible et ce qui doit être dissimulé. Ce qu’ils omettent enfin de signaler, c’est que pour une bonne moitié des signataires de la tribune du Point, ils et elles ont été non pas les victimes mais les initiateurs et initiatrices de campagnes de désinformation et de dénigrement. Campagnes de désinformation et de dénigrement dont cette tribune est la forme aussi pathétique qu’évidente d’une prétérition en miroir.

L’autre grand déplaisir de Musk et de ses affidés, l’autre grande raison de sa croisade contre Wikipedia, c’est précisément qu‘elle est l’un des derniers espaces numériques dans lequel il est possible, quelque soit le sujet, d’avoir un débat politique (relativement) apaisé en ce sens qu’il s’inscrit toujours dans le contexte de règles éditoriales communes et transparentes, règles dont l’applicabilité peut cependant être contestée, critiquée et débattue par chacun, et le tout dans un espace toujours par essence rendu public (et « la démocratie« , comme le disait et l’écrivait Bernard Stiegler « c’est d’abord un exercice de rendu public« ).

Là encore ce point est rappelé dans le papier de Damien Leloup dans Le Monde :

Or Wikipédia reste l’une des rares grandes plateformes où des débats politiques peuvent avoir lieu de façon à la fois intense et apaisée, y compris sur les sujets les plus polémiques, note Jeanne Vermeirsche. « Un exemple parmi d’autres : sur la page Wikipédia de [l’influenceuse antiféministe] Thaïs d’Escufon, il y a des débats quotidiens lancés par des contributeurs qui souhaitent enlever le qualificatif “d’extrême droite” de sa présentation. (…) Les discussions restent très cordiales par rapport à ce qu’on peut voir sur d’autres plateformes, avec des références constantes aux règles et aux sources, ce qui cadre le débat. A mon sens, les critiques qu’adresse Elon Musk à Wikipédia montrent surtout une méconnaissance de son fonctionnement. »

 

Or Musk veut tout sauf des débats politiques apaisés, sereins et équilibrés dans l’obligation faite à chacun de respecter les mêmes règles et de s’offrir aux mêmes arbitrages. C’est l’exacte antithèse de ce pourquoi il a (entre autres) racheté Twitter et de ce qu’il y a déployé depuis. C’est aussi ce qui explique qu’après avoir supprimé la modération au profit des « Community Notes », il veut maintenant entièrement revoir ou supprimer les Community Notes qu’il juge « instrumentalisées par des activistes et des gouvernements. » En réalité il s’est lui-même fait régulièrement « corriger » par ces Community Notes et ne le supporte pas. Musk ne méconnaît pas le fonctionnement de Wikipedia : il s’en contrefout. Et il s’en contrefout précisément parce que ce fonctionnement l’exaspère et l’entrave dans l’ambition politique qu’il s’est désormais assignée.

« Projet 2025. » Viens-voir le Doxxer non n’aie pas peur.

Le « Projet 2025 » est porté par « l’Heritage Foundation« , un lobby (notamment) climato-dénialiste qui milite (notamment) pour l’effondrement des politiques publiques. Et le cadre de ce « Projet 2025 » c’est une doctrine qui s’étale sur 900 pages et qui a pour objet (en gros) de conférer à Trump les pleins pouvoirs et à faire en sorte qu’en effet, au bout de son second mandat, il ne soit plus utile ou nécessaire de voter (comme il l’a lui-même annoncé). Dans ce cadre déjà plus que délétère et creepy (sur ce sujet, allez lire l’article d’Olivier Petitjean sur l’Observatoire des Multinationales), il est donc prévu, au titre du « Projet 2025 », de s’attaquer en mode « doxxing » (c’est à dire en faisant de la dénonciation et de la divulgation publique de données personnelles), d’identifier et de cibler les principaux contributeurs et contributrices de Wikipedia sur des pages diffusant des idées et des faits contraires à l’idéologie illibérale, conservatrice et climato-dénialiste de l’Heritage Foundation. Rien que ça. Oui oui, un peu comme la récente tentative d’intimidation d’un contributeur francophone par un journaliste du Point. Mais là où Le Point y va en mode « on défend la boutique par tous les moyens, y compris ceux d’authentiques salopards qui ont fumé toute leur déontologie journalistique« , les moyens colossaux mobilisés par l’Heritage Foundation sont d’une toute autre nature et d’une toute autre ambition.

L’angle affiché par l’Heritage Foundation est officiellement de lutter contre l’anti-sémitisme et donc de cibler en priorité les principaux contributeurs et contributrices des pages qui traitent du conflit Israëlo-Palestinien. En réalité il s’agit de s’assurer par ce biais de garantir les intérêts Israëliens dans l’expression de sa doctrine, et d’écraser toute parole issue de la défense de la cause Palestinienne. Et derrière ce combat d’apparence contre l’anti-sémitisme, il s’agit de cibler par tous les moyens (y compris ceux plus ou moins légaux) les principaux contributeurs de pages en lien avec les libertés civiles et religieuses, le droit à l’avortement, le réchauffement et le dérèglement climatique, etc.

Là aussi il faut savoir que Wikipedia a déjà pris un grand nombre de mesures sur des sujets politiques sensibles, au premier rang desquels, justement, le conflit Israëlo-Palestinien (décisions qui concernant aussi les pages ou sujets pour lesquels peuvent être mobilisés des intérêts pro-russes, pro-chinois, etc.) Je cite ici la fin de l’article de Stephen Harrison sur Slate à ce sujet :

« Depuis des mois, les juges bénévoles du comité d’arbitrage de Wikipédia [« Wikipedia’s Arbitration Committee » ou ArbCom] (une sorte de « cour suprême » de Wikipedia) examinent les actions des rédacteurs très impliqués dans les articles sur Israël et les Palestiniens. Le 23 janvier, l’ArbCom a rendu son verdict dans l’affaire PIA5, un procès virtuel dans lequel il a examiné la conduite de 14 éditeurs très prolifiques dans ce domaine. Après avoir entendu les déclarations préliminaires des parties et constaté les faits (notamment le fait que certains rédacteurs utilisaient des comptes fictifs trompeurs), l’ArbCom a finalement banni plusieurs rédacteurs pro-palestiniens et pro-israéliens pour « édition non neutre ».

En plus de ces interdictions, la commission a introduit une nouvelle mesure punitive, la « restriction d’édition équilibrée », qui stipule que les utilisateurs sanctionnés ne peuvent consacrer qu’un tiers de leurs éditions à ce sujet controversé. En substance, ces wikipédiens sont contraints d’élargir leur champ d’action. (Le verdict a déjà suscité la controverse au sein de la communauté Wikipédia, certains se demandant si ces rédacteurs trouveront des moyens créatifs de contourner la règle). »

 

Et Stephen Harrison de conclure (et moi de souligner) :

Quelle que soit son efficacité, la dernière décision de Wikipédia est conforme à ses principes quasi-démocratiques. Elle reflète un engagement en faveur du débat en ligne plutôt que les tactiques autoritaires proposées par Heritage Foundation. Mais si le groupe de réflexion réussit à identifier et à cibler les éditeurs, les conséquences pourraient être profondes. Face au risque de harcèlement ou de représailles dans le monde réel, de nombreux rédacteurs bénévoles – en particulier ceux qui couvrent des sujets politiquement sensibles – pourraient tout simplement cesser de contribuer. Ceux qui resteront seront probablement les voix les plus idéologiquement orientées, ce qui érodera encore plus l’objectif déclaré de neutralité de Wikipédia. (Traduit avec Deepl et moi-même)

 

Se souvenir de ce que Dorothy Allison écrivait dans « Peau. A propos de sexe, de classe et de littérature ».

« J’ai appris à travers de grands chagrins que tous les systèmes d’oppression se nourrissent du silence public et de la terrorrisation privée.« 

 

World Wide Wikipedia (against Fascism).

Wikipedia est aujourd’hui l’exemple de tout ce que Musk abhorre. Elle est surtout devenue l’exemple de tout ce que l’extrême-droite et les mouvements conservateurs détestent : une agora réelle, transparente, publique, indépendante financièrement sans avoir à passer par la publicité, et peut-être surtout, surtout, l’un des derniers espaces collectifs international dans lequel la liberté d’expression est correctement encadrée et définie et où elle n’est pas directement corrélée à une liberté d’exposition et de circulation elle-même fabriquée et orientée de manière exogène (c’est à dire où le Free Reach ne décide pas entièrement du Free Speech). C’est aussi, comme l’écrivait Alexis Madrigal, « le dernier bastion d’une réalité partagée ».

A l’heure où les saluts Nazis se multiplient et où des fous furieux pourtant démocratiquement élus s’offrent des tronçonneuses plaquées or, il n’est pas vain de réaffirmer que Wikipedia dans son histoire et dans évolution est une rempart de résistance à l’essentiel des 14 signes qu’Umberto Eco pointait comme ceux permettant de reconnaître le fascisme. Et que c’est aussi et peut-être d’abord pour cela que les apprentis fascistes et les extrêmes-droites réunies l’ont toujours combattue et la combattront toujours. Et que toujours nous devrons la défendre et en prendre soin. Parmi ces 14 signes, voici les 9 qui semblent particulièrement d’actualité dans ce que représente aujourd’hui Wikipedia pour lutter contre la dérive fasciste et révélateurs des motivations de l’offensive qu’elle subit.

  • 1 – « La première caractéristique du fascisme éternel est le culte de la tradition. Il ne peut y avoir de progrès dans la connaissance. La vérité a été posée une fois pour toutes, et on se limite à interpréter toujours plus son message obscur. »  Wikipedia se définit par l’idée même que les progrès dans la connaissance sont constants et doivent être constamment documentés. 

  • 2 – « Le conservatisme implique le rejet du modernisme. (…) » Wikipedia est évidemment moderne.  

  • 3 – « Le fascisme éternel entretient le culte de l’action pour l’action. Réfléchir est une forme d’émasculation. En conséquence, la culture est suspecte en cela qu’elle est synonyme d’esprit critique. (…) » Est-il vraiment besoin que je développe en quoi Wikipedia est à l’opposé de tout cela ?

  • 4 – « Le fascisme éternel ne peut supporter une critique analytique. L’esprit critique opère des distinctions, et c’est un signe de modernité. Dans la culture moderne, c’est sur le désaccord que la communauté scientifique fonde les progrès de la connaissance. Pour le fascisme éternel, le désaccord est trahison. » Là encore, à l’évidence, Wikipedia en constitue l’antithèse.

  • 5 – « En outre, le désaccord est synonyme de diversité. Le fascisme éternel se déploie et recherche le consensus en exploitant la peur innée de la différence et en l’exacerbant. Le fascisme éternel est raciste par définition. » Trump et Musk et toutes les grandes entreprises de la Tech ont mis fin aux politiques de diversité et d’inclusion (DEI). Wikipedia (sans être un absolu de perfection) contribue à continuer de les faire vivre et exister, et ne nie pas les évidences concernant ses propres marges de progression ou d’empêchement sur ces sujets. Elle demeure aussi un lieu où en termes de contenus encyclopédiques, l’ensemble des minorités peuvent exister et être documentées dans l’ensemble de leurs revendications.

  • 6 – « Le fascisme éternel puise dans la frustration individuelle ou sociale. C’est pourquoi l’un des critères les plus typiques du fascisme historique a été la mobilisation d’une classe moyenne frustrée, une classe souffrant de la crise économique ou d’un sentiment d’humiliation politique, et effrayée par la pression qu’exerceraient des groupes sociaux inférieurs. » Là aussi toute la critique adressé par Musk et l’extrême-droite à Wikipédia repose précisément sur l’effroi de la pression qu’exerceraient des groupes sociaux inférieurs », c’est à dire sur ce qu’Eco aurait pu appeler, si le terme avait été disponible à l’époque de la parution de son texte, le Wokisme.

  • 7 – « Aux personnes privées d’une identité sociale claire, le fascisme éternel répond qu’elles ont pour seul privilège, plutôt commun, d’être nées dans un même pays. C’est l’origine du nationalisme. En outre, ceux qui vont absolument donner corps à l’identité de la nation sont ses ennemis. Ainsi y a-t-il à l’origine de la psychologie du fascisme éternel une obsession du complot, potentiellement international. Et ses auteurs doivent être poursuivis. La meilleure façon de contrer le complot est d’en appeler à la xénophobie. Mais le complot doit pouvoir aussi venir de l’intérieur. » Ici encore l’essentiel des critiques adressées à Wikipedia par le camp réactionnaire et néo ou proto-fasciste s’inscrivent dans le registre étendu du complotisme.

  • (…)
  • 13 – « Le fascisme éternel se fonde sur un populisme sélectif, ou populisme qualitatif pourrait-on dire. Le Peuple est perçu comme une qualité, une entité monolithique exprimant la Volonté Commune. Étant donné que des êtres humains en grand nombre ne peuvent porter une Volonté Commune, c’est le Chef qui peut alors se prétendre leur interprète. Ayant perdu leurs pouvoirs délégataires, les citoyens n’agissent pas; ils sont appelés à jouer le rôle du Peuple. » Dans l’ensemble des dispositifs discursifs sur lesquels Musk à la main, ou ceux sur lesquels il donne son avis, cette « expression populaire » ne lui sied que tant qu’elle sert ses intérêts propres ou cible ses adversaires et ennemis personnels. Toute autre expression populaire l’insupporte (expliquant ses revirements sur les questions de modération, de notes de communauté, de « transparence » des choix algorithmiques, et bien sûr son combat contre Wikipedia).

  • 14 – « Le fascisme éternel parle la Novlangue. La Novlangue, inventée par Orwell dans 1984, est la langue officielle de l’Angsoc, ou socialisme anglais. Elle se caractérise par un vocabulaire pauvre et une syntaxe rudimentaire de façon à limiter les instruments d’une raison critique et d’une pensée complexe. » Wikipedia est complexe. La langue de Trump (et celle de Musk) sont une novlangue et un néoparler, vocabulaire extrêmement limité, syntaxe et phrases très courtes compréhensibles par un enfant de 9 ans

Umberto Eco, Reconnaître le fascisme, Grasset, 2017 (publication originale italienne en 1997). Extrait disponible.

 

Le web s’est aujourd’hui réduit comme peau de chagrin. Les conversations qui l’éclairaient et les controverses qui l’animaient ont toutes progressivement et aujourd’hui presqu’entièrement migré sur des plateformes désormais totalement emmerdifiées. Alors oui, et aux côtés d’un autre immense géant et bien commun qui se nomme l’Internet Archive (si utile dans le grand effacement mis en place par l’administration Trumpiste), oui aujourd’hui la part non-marchande du World Wide Web est presqu’entièrement soluble dans un World Wide Wikipedia.

Il nous faut défendre, toujours, ce bien commun qu’est Wikipedia. Et par-delà ce combat, il nous faut aussi partir à la reconquête de tous ces espaces discursifs abandonnés aux plateformes ; il nous faut retrouver des espaces d’expression singuliers et liés par autre chose que la mathématique d’un calcul algorithmique entièrement inféodé à des intérêts politiques et économiques partisans ; que chacun et chacune puisse disposer de sa page et de son adresse ; il y a longtemps aux débuts du web on appelait cela des « Homepages » ; il y a un peu moins longtemps on appelait cela des Blogs. Peu importe comment on appellera ces espaces demain. Mais il faut qu’ils existent. Et il est impératif qu’ils résistent.

 

One Three More Thing(s).

D’abord la parole à Tim Berners Lee, le boss, l’inventeur du World Wide Web, qui le rappelait sur son compte Twitter à l’occasion du 20ème anniversaire de Wikipedia, elle est le web que nous voulons : « un espace ouvert et collaboratif permettant un libre accès au savoir pour toute la planète. » Rien de plus, mais rien de moins. « Toute la planète » n’a pas encore accès a ce savoir, c’était (et cela reste) le combat qu’il fallait mener. Aujourd’hui s’ajoute un autre combat, qui est que la partie de la planète qui y a accès, puisse continuer de pouvoir en jouir dans toute la plénitude de cet accès.

Ensuite mon histoire préférée et qui résume et représente le mieux ce qu’est Wikipédia dans sa dimension collective, c’est celle du griot.

« J’ai rencontré un jour un griot, un homme âgé, circulant de village en village, racontant depuis toujours des histoires interminables, notamment sur les épopées des familles nobles de son pays, des histoires fourmillant de détails. Et je lui demandai comment il faisait pour se souvenir de cet ensemble de détails, pour n’en oublier aucun. Il me dit alors qu’il y avait toujours dans l’assistance, quelqu’un qui lui-même avait été bercé avec ces mêmes histoires, les avait entendues depuis son enfance, et le corrigeait dès qu’il faisait une erreur ou oubliait quelque chose.« 

 

Enfin, je me suis promis de ne jamais terminer un article sur Wikipédia sans remettre cette citation d’une magnifique interview de Michel Serres en 2007. Alors je vous la remets. Cadeau.

« C’est une entreprise qui m’enchante parce que, pour une fois, c’est une entreprise qui n’est pas gouvernée par des experts. J’ai une grande grande confiance dans les experts, bien entendu. A qui voulez-vous que je fasse confiance sinon à des experts ? Mais cette confiance envers les experts est limitée puisque les experts, qu’ils soient mathématiciens, astronomes ou médecins ne sont que des hommes. Par conséquent, ils peuvent se tromper et il y a là dans cette entreprise de liberté, de communauté, de vérification mutuelle, quelque chose qui, dans la gratuité, la liberté, m’enchante complètement et me donne une sorte de confiance dans ce que peut être un groupement humain.« 

 

 

One (last) More Thing (promis).

Si vous êtes parvenu au bout de la lecture de cet article, et si vous en partagez l’essentiel, alors il reste encore une chose à faire. Oui bien sûr vous pouvez chacune et chacun contribuer à Wikipedia. Mais il y a une autre chose. Également importante. Également essentielle. Également déterminante. Pour l’avenir de Wikipedia et donc pour une part de notre avenir commun de connaissances. Cette chose, je vous la laisse découvrir et vous la glisse sous ce lien. Elle est à la portée de chacune et chacun d’entre nous. C’est aussi le plus beau bras d’honneur que vous pouvez adresser à Elon Musk, à Donald Trump et à l’ensemble de l’internationale du salut Nazi et des tronçonneuses en argent. Cliquez ici.

  • ✇affordance.info
  • Bétharram et le chaudron magique de ChatGPT.
    Le 10 février 2025, France Info posait la question : « les IA conversationnelles comme ChatGPT sont-elles fiables ? » Le 16 février, dans une séquence dont le replay semble avoir été supprimé, France Info répondait à la question via une consultante en communication (ancienne candidate LR), qui lors d’un plateau au sujet de l’affaire Bétharram déclarait : « Même si vous demandez aujourd’hui à l’intelligence artificielle son avis sur le sujet, (…) même l’intelligence artificielle exprime qu’il y a
     

Bétharram et le chaudron magique de ChatGPT.

19 février 2025 à 11:56

Le 10 février 2025, France Info posait la question : « les IA conversationnelles comme ChatGPT sont-elles fiables ? »

Le 16 février, dans une séquence dont le replay semble avoir été supprimé, France Info répondait à la question via une consultante en communication (ancienne candidate LR), qui lors d’un plateau au sujet de l’affaire Bétharram déclarait : « Même si vous demandez aujourd’hui à l’intelligence artificielle son avis sur le sujet, (…) même l’intelligence artificielle exprime qu’il y a une récupération et une instrumentalisation politique de l’affaire Bétharram. »

Ite, missa est. L’IA est donc fiable.

La séquence a été repérée et isolée par le journaliste politique Nils Wilcke depuis ses comptes X et Mastodon. Elle est depuis devenue relativement virale sur différents médias sociaux.

 

Le nom de la communicante importe peu, elle a depuis fermé son compte X, probablement (et malheureusement) victime de quelques trolls. Ce qui m’intéresse dans cette affaire, c’est le dispositif, le « cadre » informationnel, et ce « momentum » dans la courte histoire des artefacts génératifs grand public.

Le dispositif, le voici. Une chaîne d’information, un fait divers qui devient un fait politique, un.e consultant.e, un plateau de débat, en présence de journalistes. Et le recours à ChatGPT (qui n’est pas directement nommé dans la séquence mais qui est immédiatement convoqué dans l’esprit de toute personne la visionnant).

C’est à ma connaissance la première fois que sur une chaîne d’information, en présence de journalistes, à l’occasion d’un fait divers devenu fait politique, on explique et explicite que l’on peut donc, primo, « demander son avis (sic) » à ChatGPT, et deuxio, considérer que cet avis dispose d’une quelconque valeur de preuve.

Il semble ici important de rappeler deux points fondamentaux.

Primo, ChatGPT (ou n’importe quel autre artefact génératif) n’a pas d’avis. Il n’en a jamais eu et il n’en aura jamais. Ou alors, et plus exactement, s’il doit avoir un avis, c’est soit l’avis de celles et ceux qui le programment et lui dictent quoi dire (un désormais classique « perroquet stochastique« ), soit, et c’est mon deuxio, l’avis tendanciellement dominant dans les bases de données (y compris d’actualité) sur lesquelles il s’appuie pour produire des textes qui sont des agencements statistiques probables et intrinsèquement cohérents mais n’ont pas davantage de valeur de preuve ou de vérité que l’agencement de phrases statistiquement probables et intrinsèquement cohérentes d’une conversation de bistrot entre potes.

« L’avis » de ChatGPT c’est tout à la fois « l’avis » de l’air du temps et de celles et ceux dont les avis ont été les plus repris et en résonance dans les médias dont se nourrit (et que pille) ChatGPT.

Une expérience (scientifique cette fois) a récemment eu lieu dans laquelle on essayait non pas de connaître « l’avis » des générateurs de texte mais d’analyser de quel programme et de quel candidat politique ils étaient le plus proches et reflétaient le mieux les opinions, et donc de quelles « perspectives politiques » ils se faisaient les pourvoyeurs.  Un article récent de Wired rend compte de ces travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :

Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]

 

D’où l’on retiendra donc que primo il est assez facile de « modifier » la perspective politique et donc ‘l’avis » de ces artefacts génératifs, et que deuxio les mêmes artefacts ont la tendance de n’exprimer que l’avis majoritaire sur lequel ils ont été entraînés et calibrés.

Donc je le répète une nouvelle fois, se servir de ChatGPT pour « avoir son avis » c’est comme se servir du premier résultat de Google sur la requête « migraine » ou « douleur abdominale » pour « énoncer un diagnostic médical« . Dans les deux cas, c’est l’équivalent de partir en plongée sous-marine avec un équipement de ski en pensant que tout va bien se passer au motif que sous l’eau comme en altitude, l’air se fait plus rare.

Je rappelle et souligne ce que j’écrivais encore récemment :

« Tant que ces modèles seront, de par leur conception même, en capacité même temporaire d’affirmer que les vaches et les moutons pondent des oeufs, et tant qu’ils ne seront capables que d’agir sur instruction et dans des contextes où ces instructions sont soit insondables soit intraçables, jamais je dis bien jamais nous ne devons les envisager comme des oeuvres de langage ou de conversation, mais comme des routines propagandistes par défaut, et délirantes par fonction.« 

 

[By the way si cela vous intéresse, je vous rappelle que j’ai écrit en Juin dernier un livre entier sur le sujet. Les IA à l’assaut dy cyberespace que ça s’appelle.]

Cette séquence de France Info ou une consultante raconte avoir sollicité l’avis de ChatGPT et en fait part comme « simple » élément de preuve au beau milieu d’un parterre de journalistes qui semblent trouver cela « amusant » est un nouveau Bad Buzz pour France Info, après l’épisode déjà totalement lunaire et ahurissant de ce plateau où un expert du camping (ou de l’immobilier je ne sais plus) était invité pour « discuter » de la possibilité de faire en effet de Gaza une nouvelle Riviera. France Info qui par ailleurs dispose de journalistes, de rédactions et de formats tout à fait capables d’éclairer le débat public (mais qui vient d’écarter son directeur).

Mais cette dernière séquence fera date. Elle fera date car elle est le résultat de l’arsenal marketing déployé depuis déjà plus d’un an autour de ces assistants faussement conversationnels. Elle fera date car elle est l’aboutissement de leur publicitarisation constante et permanente. Elle fera date car elle installe un nouveau trope, une nouvelle figure de discours, qui considère comme normal, comme admis, comme naturel et nécessaire de convoquer ces artefacts génératifs au titre de témoins ou de preuve, leur agentivité se trouvant désormais consacrée sur l’autel de ce rituel païen que l’on nomme une émission et une chaîne d’information.

Avant que d’être tristement célèbre pour les viols et violences subies par des enfants dans un établissement religieux privé, la commune de Bétharram l’était pour ses grottes. A l’image du récit platonicien de la caverne, il serait grand temps d’enfin nous retourner pour poser dans le débat public tout autre chose que les ombres projetées de l’avis de ChatGPT.

  • ✇affordance.info
  • Google, Wikipédia et ChatGPT. Les trois cavaliers de l’apocalypse (qui ne vient pas).
    [Republication, pour archivage, d’un article initialement paru le 13 Novembre 2024 dans AOC.Media. La publication originale de cet article a donné lieu à rémunération de son auteur – moi]   L’arrivée de ChatGPT et des autres artefacts génératifs en 2022, est une révolution semblable à celle que fut l’arrivée de Google en 1998 et de Wikipedia en 2001. Pour ChatGPT comme pour Wikipédia et comme pour Google, on a d’abord annoncé la mort programmée des bibliothèques et de toutes celles et ceux qui
     

Google, Wikipédia et ChatGPT. Les trois cavaliers de l’apocalypse (qui ne vient pas).

13 février 2025 à 06:38

[Republication, pour archivage, d’un article initialement paru le 13 Novembre 2024 dans AOC.Media. La publication originale de cet article a donné lieu à rémunération de son auteur – moi]

 

L’arrivée de ChatGPT et des autres artefacts génératifs en 2022, est une révolution semblable à celle que fut l’arrivée de Google en 1998 et de Wikipedia en 2001. Pour ChatGPT comme pour Wikipédia et comme pour Google, on a d’abord annoncé la mort programmée des bibliothèques et de toutes celles et ceux qui faisaient profession de médiation documentaire ou de transmission de connaissances, des bibliothécaires aux enseignants. Bien sûr il n’en fut rien même si la manière dont Google et Wiklipédia impactèrent nos vies intimes et nos rapports à l’information et à la connaissance eut bien sûr un effet sur nos métiers. Mais pour le reste, Google a trouvé sa place en bibliothèque et les bibliothèques ont – plus difficilement c’est vrai – trouvé leur place dans Google ; même chose pour Wikipédia sachant que nombre de Wikipédiens et Wikipédiennes sont également enseignants ou bibliothécaires.

Les questions posées furent les mêmes qui se posent aujourd’hui à l’arrivée de ChatGPT et autres artefacts génératifs, et tournèrent principalement autour :

  • de la fiabilité : est-ce que ça ne raconte pas trop d’âneries ?
  • des usages et de la volumétrie de ces usages : qui va vraiment s’en servir et est-ce que ce n’est pas un problème que tout le monde puisse s’en servir ?
  • et de la perception que nous avons des contours de certains métiers : est-ce que cela va nous prendre (tout ou partie de) nos emplois ?

Il est plus que probable que la réponse à ces trois questions, à l’échelle de ChatGPT, soit semblable à celle apportée pour Google et Wikipédia. « Oui » c’est (globalement) fiable, cela le devient en tout cas au fil du temps (même si cela repose sur des conceptions différentes de la fiabilité). « Oui » tout le monde va s’en servir et ce n’est pas un problème (même s’il demeure plein de problèmes à l’échelle de certains usages particuliers et circonscrits). Et « non » cela ne va pas nous piquer notre emploi mais il est certains aspects de nos emplois que nous devrons envisager différemment.

Pourtant Google (un acteur économique en situation de prédation attentionnelle) n’est pas Wikipédia (une fondation à but non lucratif rassemblant des millions de contributeurs et contributrices), et Google et Wikipédia ne sont pas ChatGPT.

Alors quel est le problème spécifique que pose chacune des révolutions annoncées et avant cela existe-t-il un plus petit dénominateur commun à ces révolutions ? Ce plus petit dénominateur c’est celui du discours, Toutes ces révolutions, absolument toutes, Facebook, Twitter, Snapchat, TikTok et les médias sociaux en général sont des révolutions du discours.

Pour trouver la première grande révolution discursive, il faut remonter au 19ème siècle avec l’invention du télégraphe qui vînt abolir la distance entre deux locuteurs, mais qui surtout, par-delà le fait de permettre aux informations de circuler « plus vite », leur permet définitivement de n’être plus jamais limitées par la capacité de déplacement de l’être humain. Et alors en effet tout changea, de l’intime de nos conversations, à la géopolitique de certaines de nos décisions. Et nous entrâmes dans une ère de « l’instant » qui préfigurait celle du tout instantané.

Puis vînt la deuxième grande révolution discursive, celle où « les » médias sociaux ont inventé des formes de discours où pour la toute première fois à l’échelle de l’histoire de l’humanité, nous nous mîmes à parler, fort, haut et souvent, à des gens dont nous étions totalement incapables de déterminer s’ils étaient présents ou absents au moment de l’échange.

Et puis voici la troisième grande révolution discursive, celle de ChatGPT, celle d’un artefact génératif avec lequel nous « conversons », et ce faisant conversons tout à la fois avec les milliers de travailleurs pauvres qui « modèrent » les productions discursives de la bête, mais aussi avec l’ensemble des textes qui ont été produits aussi bien par des individus lambda dans des forums de discussion Reddit ou sur Wikipédia que par des poètes ou des grands auteurs des siècles passés, et enfin avec tout un tas d’autres nous-mêmes et l’archive de leurs conversations qui sont aussi le corpus de ce tonneau des Danaïdes de nos discursivités. Quand nous parlons à ChatGPT nous parlons à l’humanité toute entière, mais il n’est ni certain que nous ayons quelque chose d’intéressant à lui dire, ni même probable qu’elle nous écoute encore.

Revenons maintenant un peu au triptyque que forment les paradigmes de Google, puis de Wikipédia et enfin de ChatGPT et aux problèmes qu’ils soulèvent.

Le problème posé par Google est celui certification de l’attention à l’aune de métriques (algorithmes) de popularité que lui seul maîtrise et détermine, et la main-mise dont il dispose sur une bourse des mots (et donc des idées) sur laquelle là encore il est le seul à être en capacité d’organiser la spéculation (cf le « capitalisme linguistique » définit par Frédéric Kaplan).

Le problème posé par Wikipédia est celui des routines de certification de la production de connaissances avec comme première clé celle de leur vérifiabilité affirmée comme un critère de vérité (plus cela est vérifiable au travers de différentes sources et plus cela est donc « vrai » et tient une place légitime dans l’encyclopédie collaborative).

Quel est le principal problème posé par ChatGPT ? Ils sont en vérité multiples. Le premier d’entre eux est celui de la certification de la confiance conversationnelle. Qui peut (et comment) garantir que les échanges avec ChatGPT sont soit vrais soit à tout le moins vérifiables ?

Le problème de ChatGPT est aussi qu’il se présente et est utilisé comme une encyclopédie alors qu’il n’en partage aucune des conditions définitoires, et qu’il se prétend et est utilisé comme un moteur de recherche alors que là encore c’est tout sauf son coeur de métier.

Le problème de chatGPT c’est également qu’il « interprète » (des connaissances et des informations) avant de nous avoir restitué clairement les sources lui permettant de le faire ; à la différence d’un moteur de recherche qui restitue (des résultats) après avoir interprété (notre requête).

Le problème de ChatGPT, enfin, c’est qu’il assigne pêle-mêle des faits, des opinions, des informations et des connaissances à des stratégies conversationnelles se présentant comme encyclopédiques alors même que le projet encyclopédique, de Diderot et d’Alembert jusqu’à Wikipédia, est précisément d’isoler, de hiérarchiser et d’exclure ce qui relève de l’opinion pour ne garder que ce qui relève d’un consensus définitoire de connaissances vérifiables.

L’autre point qu’il faut prendre en compte pour comprendre l’originalité des révolutions qu’ont amené ces trois biotopes techniques dans notre rapport à l’information et aux connaissances, ce sont les relations qu’ils entretiennent entre eux. Je m’explique. Lorsque Wikipedia arrive trois ans après Google, les deux vont entrer dans une relation trouble qui fait émerger un nouveau couple de puissance. Sur la base initiale de l’application stricte de son algorithme de popularité, Google va rapidement tout faire pour phagocyter les contenus de Wikipédia en choisissant de les afficher quasi-systématiquement en premier résultat de l’essentiel des questions que l’on lui pose, avant de s’apercevoir que faisant cela il perdait en capacité de fixer l’attention de ses utilisateurs (renvoyés à Wikipédia) et de changer de stratégie en affichant non plus simplement le lien vers l’encyclopédie mais une partie significative de son contenu afin de garder ses utilisateurs dans l’écosystème du moteur : il s’agissait de renforcer son propre système attentionnel tout en épuisant le modèle attentionnel concurrent, mais sans y aller en force brute car Google avait parfaitement conscience dès le départ de l’atout que représentait pour lui une telle encyclopédie qu’il pouvait « piller » comme bon lui semblait mais dont il devenait aussi le premier garant de survie et de développement (y compris d’ailleurs en finançant la fondation Wikimedia) et sans laquelle il perdait aussi en confiance attentionnelle. Financeur donc, mais aussi client, prédateur mais aussi garant, longue est l’histoire de l’encyclopédie et du moteur, entre résilience et résistance (titre d’un article déjà vieux de 10 ans).

Il y eut donc la révolution Google, puis la révolution Wikipédia, puis la révolution du « Power Couple » Google et Wikipédia. Et avec désormais l’arrivée de ChatGPT, le Power Couple initial vire au triolisme. Car naturellement ChatGPT inaugure une relation trouble avec la fonction sociale d’un moteur de recherche (qui est de permettre de répondre à tout type de questions), autant qu’avec la nature profonde d’une encyclopédie (qui est de permettre de comprendre le monde).

Si Google apparaît comme une technologie qui est au sens littéral une technologie de concentration (par le monopole institué autant que par l’objectif attentionnel visé), il repose pour autant sur la capacité de la forme antagoniste à celle du bloc monopolistique qu’il incarne et instancie, c’est à dire le rhizome et la puissance de l’itinérance des liens qu’il parcourt pour les ramener au figé de sa page de résultat (Landing Page).

Wikipédia se plie à la même contradiction d’apparence : elle n’est riche que de la diversité des contributeurs et contributrices qui l’alimentent et discutent et modifient en permanence chaque contenu sur le fond comme sur la forme, mais elle n’est puissante que de la capacité qu’elle a d’exister comme entité détachable de tout lien marchand et de tout espace publicitarisable, et à figer des dynamiques de construction de connaissances comme autant de révélations au sens photographique du terme.

Pour le résumer d’une formule, Google affiche des liens qui font connaissance, Wikipédia affiche des connaissances qui font lien. ChatGPT fait conversation autant que conservation de connaissances sans liens et de liens sans connaissances. ChatGPT est une éditorialisation ivre, en permanence déplacée, déséditorialisée et rééditorialisée comme Guattari et Deleuze parlaient de déterritorialisation et de reterritorialisation.

A ce titre, ChatGPT est un agent (conversationnel) de contamination ; il est bâti comme le sont Google et Wikipédia, autour de la figure du palimpseste, c’est à dire de la réécriture permanente. Mais là où le palimpseste de Google se donne à lire dans les liens affichés sur sa page, là où le palimpseste de Wikipédia se donne à lire derrière l’historique de chaque page, celui de ChatGPT est essentiellement inauditable, intraçable, inaccessible, invérifiable, impossible ; il est l’aporie du palimspeste : pleinement évident et parfaitement intraçable. Telle est la force (et le problème majeur) de ChatGPT et des technologies associées : cette contamination inédite de l’ensemble des espaces d’un marché conversationnel, d’une agora politique, et d’une université de tous les savoirs.

A ce jour, ChatGPT demeure la 1ère interface conversationnelle capable de mobiliser à la fois la puissance encyclopédique de Wikipédia et la puissance attentionnelle de Google. Il le fait au prix (d’ailleurs littéralement de plus en plus élevé) de différents vertiges et autres hallucinations. Si, comme Balzac l’écrivait, « L’homme est un bouffon qui danse sur des précipices« , alors ChatGPT est aujourd’hui sa slackline, et si chacun peut temporairement s’émerveiller d’un moment suspendu ou d’une perspective nouvelle, nous ne sommes pas toutes et tous, loin s’en faut, préparés à l’exercice de ce funambulisme d’un nouveau genre, ni aux chutes qu’il augure.

  • ✇affordance.info
  • Le boeuf de Durham, le canard de Vaucanson, et Macron qui fait le con (et le sommet sur l’IA).
    Jusqu’à la nausée nos espaces médiatiques vont être saturés d’échos de ces deux jours où la France accueille le sommet mondial de l’IA. Avec quelques signaux faibles intéressants : le contre-sommet de l’IA lancé simultanément par le philosophe Eric Sadin, et des initiatives fédérées comme celle de « Hiatus » qui réunit des acteurs du libre et des militants des libertés numériques. Et puis Mardi soir la diffusion du documentaire « Les sacrifiés de l’IA » de Henri Poulain sur France 2 (avec Antoni
     

Le boeuf de Durham, le canard de Vaucanson, et Macron qui fait le con (et le sommet sur l’IA).

11 février 2025 à 05:41

Jusqu’à la nausée nos espaces médiatiques vont être saturés d’échos de ces deux jours où la France accueille le sommet mondial de l’IA. Avec quelques signaux faibles intéressants : le contre-sommet de l’IA lancé simultanément par le philosophe Eric Sadin, et des initiatives fédérées comme celle de « Hiatus » qui réunit des acteurs du libre et des militants des libertés numériques. Et puis Mardi soir la diffusion du documentaire « Les sacrifiés de l’IA » de Henri Poulain sur France 2 (avec Antonio Casilli à la manoeuvre en conseiller scientifique).

Et Macron qui fait le con.

Alors voilà, un sommet de l’IA poussé par le président de la Start-Up nation qui s’est vautrée et qui tente d’être le président de l’IA nation qui va se lever. Et qui se fend d’un post totalement lunaire sur son compte X, dans lequel il met en scène des Deep Fakes de sa propre image et de sa propre voix pour dire d’abord « Bien joué » (sic) et expliquer que ça l’a même fait rire, puis pour rappeler « l’importance de ce sommet de l’IA » (dans lequel on ne va donc pas faire que golri), avant de rediffuser un Deep Fake de lui en MacGyver et de conclure « Ok, là c’est bien moi« .

« Bien joué »

Et là bon bah comment te dire Manu. Mettre en scène ses propres Deep Fake dans un message qui semble valider l’importance d’être en alerte sur ces technologies de propagande mais en les présentant comme essentiellement comiques (« ça m’a fait rire« ) et en se présentant comme battu (« bien joué« ), puis conclure en validant la performativité d’un mensonge (« Ok là c’est bien moi« ), le tout depuis son compte officiel à 10 millions d’abonnés, non seulement ça invalide totalement le très court passage du milieu (20 secondes sur les 55 secondes du post) sur « venez au sommet de l’IA c’est important et ça va changer la santé, l’énergie, la vie (…) », et accessoirement ça éparpille façon puzzle le travail patient de l’ensemble du monde académique, scolaire et universitaire, et d’une partie du monde médiatique, qui s’échine à démontrer l’urgence de réfléchir à de nouvelles heuristiques de preuve.

La dernière fois qu’il était apparu sur un média social c’était sur TikTok et pour rétablir le glaive de la justice sur un sujet Ô combien régalien (non) en réaction à un influenceur qui se plaignait d’avoir reçu une amende pour avoir réglé au péage avec son téléphone. Et là pour annoncer son sommet de l’IA et alors que l’ensemble de la chaîne de valeur informationnelle (et donc culturelle) est en train d’être éparpillée façon puzzle par ces artefacts génératifs et les puissances qui les possèdent et les manipulent, le type se fend d’un post en mode « c’est quand même bien rigolo tout ça ». On a juste envie de lui dire « Chaton, sois gentil, ouvre un Whatsapp avec ta famille, et fais-toi plaisir pour y partager tes délires kikoulol mais bordel de merde lâche la rampe des espaces publics dans lesquels tu touches 10 millions de personnes en tant que président de la république. »

Dans un siècle ou deux les historiens qui se pencheront sur notre époque auront toujours du mal à comprendre comment le président d’un BDE d’école de commerce a pu par deux fois être élu à la présidence de la république rien qu’en filmant ses oraux aux épreuves du cours de Marketing de 1ère année de l’ESSEC.

Revenons à ce sommet de l’IA.

Un sommet dans lequel les acteurs du domaine vont faire des annonces (Truc.AI va sortit un tout nouveau modèle encore plus powerful et green, Machin.AI va lancer un giga centre de données à Trifouillis les Oies, Bidule.AI va révolutionner le secteur des services de telle ou telle niche de consommation). Un sommet dans lequel les politiques vont faire des annonces (Machin va annoncer un « grand plan de l’IA », Truc va décrire comment dans toutes les administrations on va faire de l’IA et même que ça va tout disrupter, Bidule va rappeler que quand même ici c’est la France et pas le Far-West et que la French Rectal Touch va conserver ses valeurs sauf si vraiment on la regarde avec des doigts emplis de vaseline). Le tout va se terminer par quelques plus ou moins gros contrats, une pluie d’argent magique, une foule de communiqués de presse oscillant entre le laxatif et le laudatif, l’annonce d’un grand plan de formation (préempté par des acteurs essentiellement privés des « EdTech ») et bien sûr une charte (qui ne sera pas respectée), un calendrier (qui ne sera pas tenu), et une feuille de route pensée comme un argument auto-suffisant pour éviter les sorties de route. On va bien sûr parler de l’impact écologique de ces technologies en expliquant qu’on fait confiance aux acteurs de ces technologies pour réduire leur impact écologique (donc en vrai on ne va pas parler d’écologie). Et pour le reste et les questions (notamment) liées aux problématiques de surveillance, la dernière enquête de Disclose atteste de l’Open Bar validé par Matignon en lien avec l’Elysée dans le cadre de l’IA Act. Voilà. Ce passage a été écrit samedi 9 février (la preuve) et vous voyez déjà ce mardi 11 Février qu’à peu près l’ensemble de ce qui y est décrit est advenu. Magie 🙂

Le canard de Vaucanson.

Dans l’histoire des techniques de l’automatisation il est au moins deux grands exemples qui ont toujours valeur d’analogie. Le premier de ces exemples est relativement connu et je vous en ai déjà souvent parlé ici, il s’agit du Turc mécanique (1770), cet automate supposé jouer aux échecs alors qu’en fait bah non il y avait quelqu’un de caché à l’intérieur. Amazon reprit d’ailleurs avec son habituel cynisme cette histoire pour en faire « Amazon mechanical Turk« , l’une des premières plateformes numérique d’exploitation des travailleurs pauvres de la galaxie connue (mais eux ils parlent de « crowdsourcing »). Le symptôme ou syndrome du Turc mécanique est devenu une sorte de constante des grands messes technologiques (dernier épisode en date, les robots humanoïdes autonomes de Musk, mais on pourrait aussi mentionner la vidéo bidonnée du lancement de l’IA Gemini chez Google et plein d’autres) tout autant qu’un puissant facteur d’explication et d’explicitation des mécanismes de dissimulation et d’exploitation qui traversent la sociologie du numérique (et dont l’un des points culminants est l’ouvrage « En attendant les robots » d’Antonio Casilli).

Et l’autre grand exemple, un peu moins connu du grand public me semble-t-il, c’est le canard de Vaucanson, également connu sous le nom de canard défécateur.

(Source BNF)

Précédant de quelques dizaines d’années le Turc mécanique, ce canard automate est présenté au public aux alentours de 1739 et il sera décrit ainsi dans l’encyclopédie de Diderot et d’Alembert :

 » Il boit, barbote dans l’eau, croasse (sic) comme le canard naturel […], il allonge son cou pour aller prendre du grain dans la main, il l’avale, le digère, et le rend par les voies ordinaires tout digéré ; tous les gestes d’un canard qui avale avec précipitation, et qui redouble de vitesse dans le mouvement de son gosier, pour faire passer son manger jusque dans l’estomac, y sont copiés d’après nature : l’aliment y est digéré comme dans les vrais animaux, par dissolution, et non par trituration ; la matière digérée dans l’estomac est conduite par des tuyaux, comme dans l’animal par ses boyaux, jusqu’à l’anus, où il y a un sphincter qui en permet la sortie. »

 

Un canard automate qui fait caca. L’allitération est belle, la métaphore l’est également. Et un canard automate qui digère « par dissolution et non par trituration. » C’est à dire qui reproduit non pas mécaniquement mais chimiquement le processus de digestion, afin d’être au plus près (en tout cas pour l’époque) des connaissances biologiques sur ce sujet.

Prenez maintenant les deux, le canard défécateur et le Turc mécanique, et vous avez un spectre presque complet des questions soulevées par cet ensemble de technologies : automatisation, imitation, dissimulation, reproduction. Un ensemble de technologies (« l’intelligence artificielle ») qui singent aujourd’hui la réflexion à peu près dans les mêmes proportions et avec la même vraisemblance que le canard de Vaucanson singeait la digestion, et qui surtout, dans la version grand public qui constitue aujourd’hui l’essentiel de leur dynamique, nous noient littéralement sous des flots de merde (voir à ce sujet les travaux de Cory Doctorrow sur l’emmerdification – enshittification – ou plus immodestement les miens sur l’avènement d’un web synthétique).

Et écrire cela n’est pas nier l’immensité des progrès et des promesses de ces technologies dans des secteurs comme celui de la santé (médecine, biologie, etc.) mais simplement rappeler qu’elles sont aujourd’hui essentiellement opérantes comme autant de technologies de gestion (management) au service d’intérêts économiques capitalistiques et principalement spéculatifs visant à optimiser des rentes existantes ou à en créer de nouvelles. Je vous invite d’ailleurs à lire le remarquable ouvrage de Pablo Jensen, « Deep Earnings », pour comprendre le lien épistémologique très fort entre l’invention du néolibéralisme et celle des réseaux de neurones. Si le sommet de l’IA se résumait à la lecture publique de cet ouvrage, alors au moins aurait-il servi à autre chose qu’à un immense satisfecit.

[Incise] Il faut toujours penser « l’iA » avec un pas de côté. Par exemple à la très présente et très pénible bullshit question du « grand remplacement par l’IA » qui peuple n’importe quel sujet journalistique grand public (« Mais quels métiers l’IA va-t-elle remplacer ? » et de lister tout à trac les radiologues, les secrétaires, les avocats, les institutrices, puéricultrices, administratrices, dessinatrices, les boulangers, les camionneurs, les policiers, les agriculteurs, les ménagères, les infirmières, les conseillères d’orientation, etc.), posons-nous plutôt la question, simple, de savoir qui veut, ou qui a intérêt à remplacer les radiologues, les secrétaires, les avocats, les institutrices, puéricultrices, administratrices, dessinatrices, les boulangers, les camionneurs, les policiers, les agriculteurs, les ménagères, les infirmières, les conseillères d’orientation, etc. Et vous verrez que bizarrement les enjeux nous apparaîtront beaucoup plus clairement. [/incise]

On a surtout besoin d’un sommet épistémologique.

Pour comprendre, toujours de manière fine, ce qui est à l’oeuvre derrière ces sommets et annonces autour de l’intelligence artificielle (en France mais partout dans le monde), je vous invite très vivement à lire cet article là encore remarquable (et remarquablement synthétique) de Jacques Haiech, disponible en accès ouvert : « Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir et la comprendre. » Je vous en livre quelques extraits.

[les conférences Macy] ont permis d’acter une fracture entre deux communautés : celle qui veut simuler les processus cognitifs, en utilisant des machines digitales, et celle qui veut comprendre ces processus, en prenant en compte les caractéristiques émotionnelles et sociales. Jean-Pierre Dupuy (ingénieur et philosophe français) a analysé le rôle de ces conférences dans la naissance des sciences cognitives. (…)

Le terme « Intelligence artificielle » a été choisi en juillet 1956 par John McCarthy, pour ne pas faire allégeance à la « cybernétique » et à son chef de file, Norbert Wiener. Ce dernier va se rapprocher du « ratio club », un club anglais fondé par John Bates, qui réunira ses membres de 1949 à 1958, et où l’on trouve Ross Ashby (psychiatre-ingénieur anglais venu très tôt à la cybernétique) et, après la première réunion, Alan Turing. Un nouveau domaine de recherche ayant pour objet la simulation et la compréhension des processus cognitifs est, à cette époque, en train de naître. On assiste alors à une bataille sémantique, porté par les ego de chacun, et la création de deux communautés distinctes (l’intelligence artificielle qui a ses racines plutôt américaines et la cybernétique/systémique qui a plutôt ses racines en Europe). Ces deux communautés sont cependant en interaction permanente, mais avec des niveaux de financements qui varient dans le temps. Pour l’intelligence artificielle, on parlera d’une succession de périodes hivernales (hivers de l’IA), dans les moments où elle ne sera pas ou peu financée par les institutions aux États-Unis et en Europe.

La cybernétique, quant à elle, est un domaine qui est lié au concept d’homéostasie, cher à Claude Bernard (qu’il propose en 1865 dans son Introduction à l’étude de la médecine expérimentale) et que l’on va retrouver dans la théorie générale des systèmes de Ludwig von Bertanlanffy (en 1968). (…)

Dans les années 1960, on assiste à la convergence de quatre sous-domaines :

1. la cybernétique, avec son aspect robotique et automate (Norbert Wiener et John von Newman), qui est focalisée sur le rétrocontrôle (feedback) des structures vivantes (de la cellule jusqu’aux sociétés). Le vivant apparaît comme stable face aux agressions non programmables de l’environnement. On retrouvera ces paradigmes dans les travaux de Francisco Varella et de son mentor Umberto Maturana et, en France, ceux d’Henri Atlan (qui fut influencé par les travaux d’Heinz von Foerster, le rédacteur en chef des conférences de Macy) ;

2. la théorie générale des systèmes de Ludwig von Bertalanffy (influencé par les travaux de Ross Ashby, cité plus avant), qui sera à l’origine de la biologie des systèmes. Tout système vivant est constitué d’éléments qui interagissent entre eux et ce sont les différents modes d’interaction qui font émerger des comportements et des structures complexes. On y associe l’aphorisme selon lequel le Tout est supérieur fonctionnellement à la somme de ses éléments. On y perçoit aussi l’importance des flux d’information au-delà des flux de matière et d’énergie, et l’importance de l’émergence de la complexité par itération de lois simples : la fractalisation du vivant. Edgar Morin, lorsqu’il organise avec Jacques Monod et Massimo Piatelli-Palmarini le colloque de Royaumont en septembre 1972 sur l’unité de l’homme, va déboucher sur le concept de pensée complexe qu’il a emprunté à Ross Ashby ;

3. l’intelligence artificielle dans sa phase d’ingénierie qui, partant de l’analogie entre cerveau et ordinateur digital, va permettre de construire les machines, les langages et les modes de représentation de données, pour fabriquer des dispositifs capables de jouer mieux ou aussi bien qu’un être humain (théorie des jeux, recherche opérationnelle) ou de démontrer des théorèmes mieux ou aussi bien qu’un mathématicien (raisonnement symbolique) ;

4. les méthodes de classification, capables d’annoter des groupes d’objets à partir d’un langage de description prédéfini, ou capables de définir le meilleur langage de description, pour obtenir la meilleure annotation souhaitée. Dans le premier cas, on a affaire à une classification non supervisée et dans l’autre cas, à une classification supervisée. Les méthodes utilisées s’appuient sur les statistiques descriptives (avec les travaux de Jean-Pierre Benzecri, un mathématicien et statisticien français spécialiste de l’analyse de données), jusqu’aux réseaux neuronaux monocouches et multicouches, en pointe aujourd’hui avec les travaux de Yan LeCun sur le deep learning, en passant par les outils de statistiques peu enseignés, comme les inférences bayésiennes.

Ces différents sous-domaines ont induit la création de communautés avec leurs lots de jargons, de conférences et de journaux, et leurs leaders majeurs d’opinion. Peu ou pas de fertilisation croisée, et peu ou pas d’enseignements permettant d’avoir une vision globale et comparative de ces différentes positions et méthodes.

 

Et voilà. « L’intelligence artificielle » est riche de l’ensemble de cet héritage et de ces affrontements égotiques autant qu’épistémologiques et techniques. Et l’on ne comprend et ne comprendra rien aux enjeux de l’intelligence artificielle dans nos sociétés si l’on n’est pas capable de retrouver, de questionner et de mobiliser ces héritages et ces affiliations.

Et maintenant, les vaches rectangle 🙂

Le boeuf (ou taureau) de Durham (et les vaches rectangle).

J’avoue être tombé là-dessus totalement par hasard et c’est une histoire dont je n’avais encore jamais entendu parler. Le boeuf (ou taureau) de Durham c’est donc ceci :

(Durham Ox. Wikipedia)

Et son histoire vous est (entre autres) racontée dans cet article et dans celui-ci, d’où je puise les illustrations suivantes, car oui le boeuf de Durham avait aussi plein de copains et de copines : les vaches rectangle et les moutons chelous. L’histoire donc d’un boeuf tellement gros et gras qu’il gagne un concours agricole, devient une légende, et finit par influencer tout une série de peintures et de représentations.

 

Et là je vous entends me dire : « Heu … mais c’est quoi le rapport avec l’IA ? ». Vous ne voyez pas ? Vraiment ? Dès que j’ai vu ces peintures à la fois voulues comme hyper-réalistes et naturalistes mais tout aussi délibérément irréalistes je me suis immédiatement souvenu de mes exercices de génération d’image via Midjourney ou d’autres artefacts génératifs (que je vous raconte dans ce remarquable livre ;-).

L’histoire de ce boeuf de Durham et des représentations animalières associées (ci-dessus mais il en existe plein d’autres), l’histoire de ces peintures du XIXème siècle, c’est celle de représentations étonnamment géométriques et exagérées que de riches propriétaires terriens commandaient pour se prévaloir de vendre et de posséder, à l’image du boeuf de Durham donc, des animaux « plus gros et plus gras que jamais » et s’afficher fièrement auprès d’eux. Qué lo apélorio : la peinture d’élevage.

 

« Le début du XIXe siècle a été l’apogée de la peinture d’animaux d’élevage. Les sujets étaient souvent des chevaux de course, peints en lignes fines dénotant leur vitesse et leur grâce. Mais pour les animaux de ferme, la corpulence était essentielle. Dans les peintures, la vache, le mouton et les cochons sont massifs, mais curieusement soutenus par seulement quatre pattes grêles. Parfois, leur propriétaire est également représenté, regardant fièrement leur création. D’autres fois, l’animal se tient seul, apparemment prêt à dévorer un village voisin. Ce style simple est souvent qualifié d’art rustique ou « naïf », même si les sujets étaient des animaux appartenant à une élite riche. Les images qui en résultaient étaient à la fois publicitaires et spectaculaires. » Anne Ewbank.

Et plus loin :

« L’historienne B. Litvo note également que les fermiers de la noblesse utilisaient le patriotisme pour justifier les compétitions et l’autopromotion. Si les élites pouvaient élever et nourrir des vaches plus grosses et plus grasses, les fermiers les plus pauvres pourraient éventuellement en être propriétaires. Avec plus de viande à vendre, les communautés rurales seraient plus stables financièrement. La sécurité nationale du pays en bénéficierait, selon l’argument avancé. La population britannique augmentait rapidement et, en raison de la perspective de guerres fréquentes, il était impératif de disposer d’un approvisionnement alimentaire sûr en animaux gras . L’« amélioration » progressa rapidement. Le poids moyen des vaches britanniques augmenta d’un tiers entre 1710 et 1795. (…)

« Les peintures et les gravures commerciales commandées étaient souvent accompagnées d’informations telles que les mensurations de l’animal et les efforts d’élevage du propriétaire. Selon le professeur d’études animales Ron Broglio, les portraits étaient souvent exagérés pour mettre en valeur la forme idéalisée de l’animal, qui consistait généralement à « [fournir] un peu plus de graisse dans les zones cruciales ». Pour les cochons, l’idéal était une forme de ballon de football américain. Les vaches étaient rectangulaires et les moutons avaient tendance à être oblongs. (…)

En plus de rendre célèbres les riches fermiers, les peintures et gravures animalières avaient une utilité pratique. Les éleveurs de tout le pays pouvaient utiliser l’image d’un animal spécifique comme modèle pour leur propre troupeau, car le bétail qui correspondait aux idéaux de beauté valait beaucoup plus cher. » Anne Ewbank.

 

Ce qui m’a frappé à la découverte de l’histoire du boeuf de Durham (et de ses copines les vaches rectangles et les moutons oblongs), c’est l’effet d’amorçage stéréotypique qui me semble par bien des points semblable à celui que nous observons aujourd’hui avec les artefacts génératifs dopés à l’IA. Ce qui nous est présenté par ces modèles, par ces « larges modèles de langage », ce sont aussi des vaches rectangle modernes. Des représentations de l’humanité qui insistent sur le « gras » d’une irréalité trouble jusqu’à distendre totalement notre perception de la réalité. Cette sorte d’inflation (je parlais dans un ancien article de capitalisme sémiotique) dans laquelle il s’agit avant tout, pour ces modèles et les sociétés qui les pilotent et les administrent de fabriquer des boeufs de Durham à la chaîne. De s’assurer de la dimension toujours consubstantiellement « publicitaire et spectaculaire » de la capacité même de génération et de ce qu’elle produit comme représentations.

Lorsque nous regardons aujourd’hui le boeuf de Durham et ses copines les vaches rectangle, nous comprenons ce pour quoi est faite cette représentation, les intérêts qu’elle sert et les ressorts bourgeois, capitalistes et ostentatoires qui la précèdent. Nous avons aujourd’hui une lecture politique de ces peintures, de ces représentations. C’est cette lecture politique qui nous a tant fait défaut lorsque, comme probablement quelques primo-spectateurs de ces peintures au XIXème siècle, nous fûmes et sommes encore confrontés aux mécaniques des artefacts génératifs de texte, d’image, de vidéo ou de toute autre chose. Nous peinons à en imposer une lecture politique alors que ces représentations ne servent que des intérêts économiques parfaitement délimités. Ce que parmi d’autres (mais bien mieux que d’autres) Kate Crawford soulignait dans son « Atlas de l’Intelligence Artificielle » :

L’IA n’est ni intelligente ni artificielle. Elle n’est qu’une industrie du calcul intensive et extractive qui sert les intérêts dominants. Une technologie de pouvoir qui à la fois reflète et produit les relations sociales et la compréhension du monde. (…) Les modèles permettant de comprendre et de tenir les systèmes responsables ont longtemps reposé sur des idéaux de transparence… (…) Dans le cas de l’IA, il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.

 

(presque) Toute l’histoire contemporaine des artefacts génératifs et de l’intelligence artificielle est là dedans, mais également des questions de santé publique tournant autour de l’essor de formes neuves de dysmorphophobie à force d’usage de plateformes fabriquant ou jouant à dessein sur notre volonté de devenir des boeufs de Durham ou des vaches rectangle modernes (j’englobe ici la question de la sur-représentation de certains corps et de l’invisibilisation d’autres, mais aussi l’usage des différents filtres de TikTok à Snapchat en passant par Instagram, et bien entendu l’ensemble des relais médiatiques de ces perceptions « publicitaires et spectaculaires« . Il n’y pas grande différence entre les vaches rectangle, les moutons oblongs du XIXème siècle et les « hallucinations » visuelles encadrées de nos modèles contemporains d’IA au XXIème siècle.

« Les vaches grasses, les porcs massifs et les moutons obèses étaient prisés comme preuve de la réussite de leurs propriétaires dans la sélection des races en fonction de leur taille et de leur poids. Les fermiers nobles utilisaient la sélection sélective pour créer du bétail lourd et à croissance rapide. Parallèlement à la sélection, de nouvelles pratiques agricoles et alimentaires ont également produit des animaux plus gros. Les fermiers riches participaient à des concours agricoles et lisaient de nouvelles recherches. On les appelait « améliorateurs », car ils essayaient d’améliorer les races animales existantes. Des méthodes telles que nourrir les vaches avec des tourteaux et des navets pour un engraissement final avant l’abattage se sont généralisées. Même le prince Albert, époux de la reine Victoria, est devenu un améliorateur, en exhibant ses porcs et ses bovins primés. » Anne Ewbank.

 

Du canard défécateur de Vaucanson au boeuf de Durham et aux vaches rectangle, on croise énormément « d’améliorateurs » dans la grande galaxie néolibérale de l’IA (dont une bonne partie est représentée au sommet de l’IA). Toute métaphore a bien sûr ses limites interprétatives et il ne s’agit pas, heureusement, de littéralement nous mettre en situation d’être gavés par quelques riches fermiers investisseurs qui auraient pour seul horizon de produire des représentations suffisamment altérées de la réalité pour qu’elles satisfassent à leurs intérêts propres de publicitarisation et de spectacularisation. A moins que … attendez … Bon sang mais c’est bien sûr 😉

 

One More Thing.

Lorsque ces perceptions distendues de la réalité finissent par s’imposer comme d’authentiques formes de réalisable, alors nous entrons dans ce que Grégory Chatonsky nomme un espace latent et dans les logiques de « chiralité ».

« L’émergence des technologies d’intelligence artificielle a donné naissance à un concept fondamental qui transforme notre compréhension de la vérité : l’espace latent. Ce concept, qui mérite d’être défini avec précision, désigne un système mathématique complexe où les informations ne sont plus stockées sous forme de données discrètes (comme des fichiers constitués de 0 et de 1), mais comme des distributions statistiques continues. Plus concrètement, l’espace latent est une représentation multidimensionnelle où chaque dimension correspond à une caractéristique abstraite que l’intelligence artificielle a apprise à partir des données d’entraînement. (…) Or cet espace latent, fruit de la théorie des jeux et des espaces bayésiens où chacun parie sur le pari de l’autre transforme radicalement la relation entre discours, vérité et réalité. En effet, alors que la révolution industrielle avec introduit une reproductibilité technique des indices ou des traces de la réalité, telle que l’empreinte d’une lumière sur une surface photosensible, les espaces latents sont des expressions des indices passés. Ainsi, un espace latent peut non seulement reconnaître un oiseau qu’il n’a jamais vu, qui ne fait pas partie de sa base d’entraînement, s’il ressemble bien à un oiseau, mais il peut aussi générer un oiseau inexistant et crédible ouvrant le précipice du simulacre dans la réalité. (…) Un espace latent, pour produire un résultat crédible, doit être maintenu dans un savant et juste équilibre entre l’apprentissage et le bruit. D’un côté, il ne sait que reproduire le déjà appris, de l’autre il ne génère que de l’informe. Mais en ayant les deux, on peut créer du reconnaissable inexistant, bref automatiser et industrialiser la représentation mimétique. Nous dépassons non seulement l’empreinte du photoréalisme, mais encore la modélisation hypothético-déductive de la simulation informatique à laquelle nous ont habitués les effets spéciaux, la réalité virtuelle et les jeux vidéo. Cette conception de l’espace latent a des implications profondes sur notre compréhension de la réalité et de la vérité. »

 

Le concept d’espace latent est éclairant à plus d’un titre. Et la « chiralité » (en gros on objet ou un système qui n’est pas superposable à son image dans un miroir) l’est tout autant pour penser les logiques et les dynamiques de l’IA et de l’ensemble des évolutions numériques actuelles. Je vous en reparlerai probablement dans un autre article, mais d’ici là précipitez-vous pour lire celui de Grégory Chatonsky sur AOC.

  • ✇affordance.info
  • Peut-on « désurveiller » ?
    J’ai participé ce Jeudi au colloque de l’Observatoire de la surveillance en démocratie. Le thème de mon intervention a tourné autour de l’idée suivante : « Peut-on dé-surveiller ? » (le colloque qui se poursuit ce matin peut être suivi en visio). Un très grand merci à Nicolas P. Rougier pour son invitation, ainsi bien sûr qu’à toute l’équipe de l’Observatoire de la surveillance en démocratie. Le texte ci-dessous liste une série de points d’analyse que j’ai mobilisés dans le cadre de mon interven
     

Peut-on « désurveiller » ?

7 février 2025 à 02:27

J’ai participé ce Jeudi au colloque de l’Observatoire de la surveillance en démocratie. Le thème de mon intervention a tourné autour de l’idée suivante : « Peut-on dé-surveiller ? » (le colloque qui se poursuit ce matin peut être suivi en visio). Un très grand merci à Nicolas P. Rougier pour son invitation, ainsi bien sûr qu’à toute l’équipe de l’Observatoire de la surveillance en démocratie.

Le texte ci-dessous liste une série de points d’analyse que j’ai mobilisés dans le cadre de mon intervention lors d’une table-ronde. A la suite de ce texte je vous joins également le support de présentation que j’ai utilisé.

 

Je ne sais pas si vous l’avez remarqué mais les mots « surveillance » et « surveiller » n’ont pas d’antonymes directs. Ou alors des antonymes relativement faibles sur un plan sémantique, par exemple « délaisser ». Mais « ne pas surveiller » n’est pas pour autant « délaisser ».

Je précise en introduction que s’il est compliqué de « désurveiller » (c’est l’objet de cette communication), on peut heureusement combattre la surveillance et ses dispositifs à l’échelle individuelle et militante. Geoffrey Dorne l’a remarquablement documenté dans son ouvrage « Hacker Protester : guide pratique des outils de lutte citoyenne« . La furtivité (telle que réfléchie par Damasio dans son roman éponyme, « Les Furtifs »), le secret, l’évitement, l’obfuscation, le sabotage, la cryptographie, le chiffrement, la rétro-ingénierie et le retournement du stigmate pour surveiller les surveillants, sont autant de possibilités qui restent mobilisables pour déjouer la surveillance.

Ce qui m’intéresse aujourd’hui c’est de réfléchir aux difficultés d’imaginer collectivement et de réaliser concrètement des sociétés « désurveillées ». A minima du point de vue de mon domaine de recherche, c’est à dire le web et les grandes plateformes de médias et de réseaux sociaux.

« On ne peut pas ne pas communiquer« . Mais peut-on ne pas surveiller ? Chez Paul Watzlawick le refus de communiquer est un acte de communication. On ne peut pas dire que le refus de surveiller soit un acte de surveillance. Il faut donc se poser la question différemment : a-t-il déjà existé des sociétés sans surveillance ? Sans que les adultes veillent ou surveillent les plus jeunes ? Sans que les gens surveillent leurs proches pour y être attentifs ? Sans que les riches surveillent les pauvres ? Sans que les hommes surveillent les femmes ? Nos sociétés, à toutes les époques ont toujours tissé des formes complexes et plus ou moins relâchées de « surveillance », des formes liées à des paramètres culturels eux-mêmes souvent dépendant du milieu et de l’environnement dans lequel ces sociétés évoluent ainsi que de leur stade d’évolution technique et politique. On peut donc considérer qu’il est ou qu’il fut en tout cas possible de ne pas surveiller tout en restant attentif, simplement en « veillant ».
En restant à l’époque contemporaine dans ce qu’elle comprend d’environnement numérique et politique, et en liant la question de la surveillance à celle du contrôle, on peut en revanche considérer que tout comportement prend pour tout témoin valeur de message. Y compris l’absence de comportement, ou la dissimulation d’un comportement. A ce titre la question n’est pas tant de savoir si l’on peut ne pas surveiller que de savoir s’il est possible de ne pas être surveillé. Et aujourd’hui il n’existe pas en ligne de comportement, d’interaction ou d’expression qui soit « sans témoin ». Chacun de nos clics, de nos messages, de nos mails, chacune de nos navigations est tracée et sinon observée, du moins observable.

Et l’un des nouveaux problèmes de cette surveillance, est sa fréquence. De la même manière que l’on parle de « High Frequency Trading » sur les places de marché boursières, il existe une « High Frequency Surveillance » sur les marchés comportementaux et discursifs (cf capitalisme linguistique). On n’y observe plus des valeurs boursières mais des individus, des comportements, des opinions.

D’autant qu’à chaque phase ou évolution significative du champ social, politique et surtout technologique, se manifeste un effet cliquet qui empêche tout retour en arrière. On le voit par exemple avec la vidéo-surveillance dans l’espace public, on le voit aussi avec l’arrivée de l’IA et de la vidéo-surveillance dite « intelligente ». A quoi tient fondamentalement cette impossibilité de revenir en arrière ? Est-elle, et dans quelle proportion, liée aux politiques publiques ? Aux infrastructures ? Aux enjeux de citoyenneté ? A des effets de conformité sociale ?

Cette surveillance est-elle inscrite dans le code informatique (« Code Is Law ») ? Tient-elle principalement aux infrastructures (« infrastructures are politics ») ? J’ai moi-même (avec d’autres) théorisé ce que j’appelle des architectures techniques toxiques pour décrire et documenter les modalités d’organisation des grandes plateformes, réseaux et médias sociaux.

Et quelle est la « nécessité » de cette surveillance et de l’ensemble des formes qu’elle revêt aujourd’hui ?

Longtemps en démocratie les modalités de surveillance étaient totalement différentes, elles étaient « différées » et principalement rétroactives (on faisait des contrôles administratifs principalement rétroactifs et des contrôles de police là aussi le plus souvent rétroactifs si l’on omet les flagrants délits). Dans une perspective que l’on pourrait qualifier de cybernétique, ce processus de Feedback permettait un ajustement des politiques publiques de police et de maintien de l’ordre. Aujourd’hui le feedback est essentiellement un prétexte au déploiement d’architectures et d’infrastructures de surveillance de plus en plus massives, intrusives et la justification commode d’un abandon des politiques publiques qui pourraient limiter l’impact de la surveillance dans l’espace public.

Tous ces points interrogent les conditions de production d’une (supposée) nécessité de surveillance. Et les intérêts qu’elle sert. Les politiques de surveillance contemporaines (en démocraties comme dans les régimes autoritaires) ont presque toujours été des politiques de la catastrophe. « Quand on invente l’avion on invente le crash » comme l’écrivait Paul Virilio. « Le progrès et la catastrophe sont l’avers et le revers d’une même médaille (…) Inventer le train, c’est inventer le déraillement, inventer l’avion c’est inventer le crash (…) il n’y a aucun pessimisme là-dedans, aucune désespérance, c’est un phénomène rationnel (…), masqué par la propagande du progrès. »

Historiquement c’est dans les années 1980 que le Royaume-Uni est le premier à généraliser la vidéosurveillance suite aux attentants de l’IRA. « En 2006 le Royaume-Uni abritait 4,2 millions de caméras de vidéosurveillance (dans la rue, sur les autoroutes, dans les trains, les bus, les couloirs du métro, les centres commerciaux, les stades). Et un Londonien pouvait être déjà filmé jusqu’à trois cents fois par jour. » (Source Wikipedia. Videosurveillance). L’attentat contre les tour jumelles aux USA fut également l’occasion de graver dans le marbre du Patriot Act des mesures toujours en vigueur et très éloignées de la lutte contre le terrorisme (« 11 129 demandes de perquisition dans le cadre du Patriot Act en 2013, seuls 51 avaient trait au terrorisme ; les demandes concernaient pour l’essentiel le trafic de drogue (9 401) » Le Monde).

Au final, et comme l’écrivait Armand Mattelard dans son ouvrage « La globalisation de la surveillance : aux origines de l’ordre sécuritaire », ce que nous observons c’est l’avènement de « (…) l’âge technoglobal, avec l’essor d’un système mondial d’identification et la métamorphose du citoyen en suspect de l’ordre sociopolitique. »

Autre effet cliquet d’importance, c’est l’ancrage de cet âge technoglobal avec le capitalisme de surveillance, ou plus précisément l’effet d’amorçage et d’accélération que le capitalisme de surveillance offre à cet âge technoglobal.

Le capitalisme de surveillance, voici comment Soshana Zuboff le définit dans cet article notamment :

« Cette architecture produit une nouvelle expression distribuée et largement incontestée du pouvoir que je baptise : « Big Other ». Elle est constituée de mécanismes inattendus et souvent illisibles d’extraction, de marchandisation et de contrôle qui exilent effectivement les personnes de leur propre comportement tout en produisant de nouveaux marchés de prédiction et de modification du comportement. Le capitalisme de surveillance remet en question les normes démocratiques et s’écarte de manière essentielle de l’évolution séculaire du capitalisme de marché. (…) Le rôle de la surveillance n’est pas de limiter le droit à la vie privée mais plutôt de le redistribuer. »

Pour le dire sans ambages et plus brutalement : la fin de la surveillance ne peut pas être posée sans poser celle de la fin ou en tout cas de la sortie du capitalisme. Car il est établi (voir notamment Christophe Masutti, « Affaires privées : aux sources du capitalisme de surveillance« ) que les projets de contrôle à grande échelle des populations aux moyens de traitement massifs et automatisés de l’information, sont à l’origine davantage conçus pour créer les conditions de schémas organisationnels « profitables » que pour devenir des instruments de pouvoir. La surveillance est en quelque sorte une rétro-ingénierie d’un capitalisme essentiellement spéculatif. C’est parce que l’on met en place les conditions infrastructurelles d’une maximisation des profits à court terme que l’on se trouve en situation de collecter des données liées à une activité qui peut se définir comme de la surveillance. Ce n’est que plus rarement que l’on met en place des infrastructures de surveillance pour se trouver en situation de contrôle ou de rente capitalistique.

L’évolution de nos sociétés dans leur capacité à traiter, technologiquement et moralement, chaque individu comme un « corps documentaire » décomposé en faisceaux de prédictibilités, couplée à la multiplication exponentielle des balises de surveillance et de contrôle dans l’espace public, privé et intime, revient à spéculer sur des comportements pour lesquels les profits maximaux possibles seront toujours liés à l’amplification de certaines dérives, et à l’exacerbation de certains affects. A une exacerbation de nos vulnérabilités.

Si l’on veut dé-surveiller, cela implique de penser des discontinuités là où toute l’histoire des régimes de surveillance contemporains s’est efforcée de bâtir et d’installer des régimes de continuités. Continuité entre nos espaces d’expression publics, privés et intimes (initialement en ligne et désormais autant en ligne que hors-ligne), et continuité dans les dispositifs de captation et de mesure de nos comportements et de nos mots. Ainsi les micros et les caméras de surveillance sont autant dans nos rues que dans nos maisons (domotique et autres enceintes ou dispositifs connectés) et dans nos poches (smartphones évidemment). C’est ce que j’appelle « l’anecdotisation des régimes de surveillance », c’est à dire le postulat que leur dissémination conjuguée à leur dissimulation permettra de consacrer leur acceptation et empêchera de les identifier comme des objets de lutte, des objets que l’on peut combattre et refuser.

Je date le début de cette anecdotisation des régimes de surveillance à deux événements essentiels. Le premier c’est en 2007 avec l’invention de l’iPhone. Et le second c’est en Janvier 2014 lorsque Google annonce le rachat de l’entreprise qui fabrique des thermostats connectés « Nest ». Par-delà les enjeux relavant de la domotique, ce rachat est l’avènement de ce que je qualifie de « domicile terminal » parce qu’avec lui c’est le dernier espace non-numérique relevant de l’habitation, de l’intime, qui est investi. J’écrivais alors : « plus qu’une simple intrusion sur le secteur de la domotique, Google ambitionne de faire de chacun de nos domiciles, un data-center comme les autres. » (et cela après avoir fait de chaque être humain un document comme les autres). Tout va ensuite aller très vite : sonnettes connectées « Ring » par Amazon (et collaboration avec la police, notamment avec la police de l’immigration), enceintes connectées qui vous écoutent et vous enregistrent même éteintes, aspirateur cartographe Roomba (amazon encore), etc.

A l’échelle du design de ces dispositifs de surveillance et pour favoriser cette anecdotisation, le paradigme de la surveillance technologique se compose de plusieurs axiomes fondamentaux :

  • il doit s’activer au plus près de l’initialisation, de la mise en marche du dispositif (et si possible rester actif y compris lorsque ledit dispositif est désactivé)
  • il doit sans cesse s’efforcer de descendre vers les couches basses de l’interface, de l’architecture logicielle (software) ou de l’architecture machine (Hardware)
  • il doit être « maximisé par défaut » (règle de l’opt-out, c’est à dire que c’est à vous de trouver comment désactiver telle ou telle option de traçage activée « par défaut »)
  • il doit être réinitialisé le plus souvent possible (et donc à chaque fois venir écraser les réglages de l’utilisateur pour, de nouveau, être maximisé par défaut)

Surveillance et vérité. Le résultat de tout cela c’est qu’il existe des régimes de surveillance sur le même mode que celui décrit par Foucault pour l’existence des régimes de vérité.

« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.« 

On peut ainsi littéralement paraphraser Foucault :

« Chaque société a son régime de surveillance, sa politique générale de la surveillance : c’est-à-dire les types de surveillance qu’elle accueille et fait fonctionner comme nécessaires ; les mécanismes et les instances qui permettent de distinguer les surveillances subies ou choisies, la manière dont on sanctionne les unes et les autres ; les techniques et les procédures qui sont valorisées pour la propagation de la surveillance ; le statut de ceux qui ont la charge de dire ce qui doit être surveillé.« 

 

La surveillance en question et en équation. La surveillance est aussi une question arithmétique qui se joue dans le rapport entre le nombre d’individus que l’on souhaite mettre sous surveillance et le nombre d’individus assignables à cette tâche. Nombre de surveillants divisés par le nombre de surveillés. L’arrivée du numérique et des formes de surveillance échappant (pour l’essentiel) à l’appareil d’état au sein des plateformes de médias sociaux, vient bien sûr casser toute forme de proportionnalité dans ce rapport. Une seule personne est en capacité d’en surveiller plusieurs centaines de milliers ou centaines de millions, à condition de déléguer cette fonction de surveillance à un tiers, en l’occurence un algorithme (avec l’ensemble des problèmes posés, y compris celui des faux-positifs et ou des ingénieries qui maximisent par défaut la collecte de données). « Dé-surveiller » implique donc de nécessairement désalgorithmiser le monde et de s’en remettre à la force du Droit plutôt qu’à celle du calcul, à celle du juridique plutôt qu’à celle du numérique. »

Surveiller … mais après ? Un des grands enjeux de la surveillance est de savoir ce qu’elle produit sur le plan interrelationnel et social. Produit-elle de la confiance ou de la défiance ? Et envers qui ? Les institutions ? L’appareil d’état ? La police ? Certains groupes ou minorités ? Il faut également s’interroger sur ce que la surveillance produit sur le plan documentaire. D’un point de vue systémique pour plateformes de surveillance, si chaque individu est en effet « un document comme les autres », la surveillance produit autant de néo-traces documentaires qu’elle en collecte et en agrège. Et ces traces restent à catégoriser et oscillent souvent entre différents indicateurs et métriques, mais n’en constituent pas pour autant des preuves.

Les voies de la surveillance sont très pénétrables. Du point de vue de l’axe scientifique qui est le mien, c’est à dire les sciences de l’information et de la communication, la question de la surveillance est donc une question « documentaire » qui a fait de chacun de nous des « documents comme les autres » (monétisables, indexables, surveillables, etc) et qui interroge sur la nature des traces documentaires qui nous produisons, tout autant que sur la manière et les finalités pour lesquelles elles sont captées, et qui pose la question de l’inflation exponentielle de ces traces et néo-traces. Inflation palpable autour de la question absolument fondamentale de la copie. Je fais une incise sur ce dernier point, la stratégie de Google fut établie dès 2006 et alors qu’ils réfléchissaient au lancement de Google Drive qui aura lieu en 2012 et où ils affirmaient que « En nous rapprochant de la réalité d’un « stockage à 100% », la copie en ligne de vos données deviendra votre copie dorée et les copies sur vos machines locales feront davantage fonction de cache. L’une des implications importantes de ce changement est que nous devons rendre votre copie en ligne encore plus sûre que si elle était sur votre propre machine. » L’idée de cette « copie dorée » (Golden Copy) de nos documents initialement, mais de l’ensemble de nos vies, de nos opinions, de nos interactions et de nos comportements, est absolument déterminante si l’on veut comprendre l’enjeu et l’histoire des logiques actuelles de surveillance. Car cette « copie dorée » est également la voie dorée de l’ensemble des protocoles et routines de surveillance. Pour le dire plus simplement peut-être, « oui nous sommes surveillés », mais où est la copie « dorée » des traces documentaires de cette surveillance et qui y a accès, et dans quel cadre ? Etc.

En nous dépossédant de la possibilité de copier (j’appelle cela « l’acopie ») et en déplaçant la copie « maître » au sein même d’infrastructures de stockage distantes de la matérialité de nos possessions, nous avons laissé se fabriquer avec notre consentement les conditions de production d’une société de surveillance totale. Pour « désurveiller» il nous faut déplacer cette copie dorée de nos vies et la remettre à portée de (nos) mains.

Nos Futurs. Au vu des points présentés il semble difficile aujourd’hui de « dé-surveiller » ou même d’imaginer une désescalade des processus de surveillance et de contrôle. D’autant que l’actualité géopolitique est a minima inquiétante et pas uniquement aux USA (TMZ, Trump, Musk, Zuckerberg), qu’avec l’adoption de l’IA Act par la commission européenne, « la fuite en avant techno-solutionniste peut se poursuivre » comme l’écrit la Quadrature du Net et avec l’appui et le soutien déterminant de la France comme le révèle la dernière enquête de Disclose.

Il est probable qu’il ne soit donc pas possible de « dé-surveiller », de sortir de la surveillance sans sortir du capitalisme. Et comme cette sortie semble hélas encore relativement lointaine, il nous faut a minima agir sur le levier de notre auto-aliénation (en nous orientant vers des structures et des architectures qui nous y aident, donc essentiellement décentralisées et vectrices de frictions), et il nous faut également inverser les logiques du design, pour lui permettre d’à nouveau être conforme à son étymologie  :

« Le mot provient de l’anglais « design », qu’on emploie depuis la période classique. La langue anglaise l’emprunte au terme français dessein. L’ancien français « desseingner », lui-même dérivé du latin designare, « marquer d’un signe, dessiner, indiquer », formé à partir de la préposition de et du nom signum, « marque, signe, empreinte » et qu’il « désigne »

 

Être conforme à son idéologie, c’est à dire qu’il mette en évidence l’ensemble des dispositifs de surveillance disséminés tout autour de nous et dans nos interfaces numériques. Au mouvement dit de la « privacy by design » il faut ajouter une désignation claire des dispositifs de surveillance. Il ne suffit plus de réfléchir à des objets / interfaces qui, par défaut, protègent notre vie privée, mais il faut aussi inventer des objets / interfaces qui désignent tout ce qui en permanence nous observe pour les sortir de cette anecdotisation qui vaut acceptation. Il est au moins aussi important de désigner clairement la surveillance que de « designer » [diza:né] des interfaces respectueuses de notre vie privée.

Il y a longtemps, Antonio Casilli écrivait « la vie privée est une affaire de négociation collective » (in « Contre l’hypothèse de la fin de la vie privée« ). La surveillance l’est également.

En conclusion autant qu’en résumé on pourrait donc considérer que pour « désurveiller » il nous faudra tout à la fois nous efforcer de sortir du capitalisme (bataille économique), de désalgorithmiser le monde (bataille technique), de réinstaller des discontinuités (bataille sociale et politique), de se réapproprier nos traces (copies) dans la matérialité de leur possession (bataille documentaire), et de sortir de l’anecdotisation par la désignation de ces dispositifs pour ce qu’ils sont (bataille sémiologique et linguistique).

 

Diaporama avec quelques (petits) trucs nouveaux par rapport au texte ci-dessus
(et réciproquement)

Bonus Tracks.

Eléments de réflexion en vrac qui n’ont pas trouvé de place structurante dans la réflexion précédente mais que je consigne ici … en bonus 🙂

Open surveillance.

Dans le mouvement dit de l’Open Access (et qui désigne le fait de mettre en accès libre les résultats de la recherche scientifique) on distingue différentes voies et modalités qui, si on les décline à l’échelle des questions de surveillance, permettent de produire une typologie intéressante pour mieux caractériser les possibilités de sortir de ces régimes de surveillance.
La voie verte de l’Open Access c’est celle de l’auto-archivage. La voie verte et de la surveillance c’est celle de l’auto-surveillance, c’est à dire de l’acceptation. Nous acceptons de donner nous-même, l’ensemble des éléments permettant à d’autres (plateformes, algorithmes, « amis ») de nous surveiller. C’est essentiellement cette voie là qui a permis l’amorçage de tout un pan de ce capitalisme de surveillance duquel il est aujourd’hui si difficile de sortir (effet cliquet).

La voie dorée de l’Open Access c’est celle où ce sont les revues éditrices qui rendent leurs articles directement et immédiatement accessibles mais avec des frais qui peuvent être pris en charge par les chercheurs via leurs laboratoires ou leurs institutions. La voie dorée de la surveillance c’est celle où ce sont les plateformes qui vont, à leur propre bénéfice, forcer toutes les logiques de surveillance sans nous laisser d’autres choix que de les accepter (ou en tout cas le fait de les refuser implique un coût technique ou cognitif très élevé). C’est lorsqu’elles « obligent » à donner certaines informations de manière déclarative, c’est lorsqu’elles utilisent toutes les ressources de la captologie et des « Dark Patterns » pour collecter des strates informationnelles et comportementales toujours plus fines, etc.

Il existe d’autres voies dans le mouvement de l’Open Access (voie diamant notamment) mais je m’arrête là pour la comparaison. La réponse à la question de savoir si l’on peut « dé-surveiller » est donc différente selon que l’on envisage la voie verte ou la voie dorée de la surveillance.

Pour la voie verte, nous sommes encore souvent en capacité et en maîtrise de refuser d’alimenter et de nourrir certaines logiques et fonctions de surveillance. Sachant que ce qui rend ce refus compliqué c’est la nature toujours ambivalente socialement de la fonction de surveillance qui est aussi perçue et présentée comme une fonction de réassurance : c’est précisément parce que l’on vous surveille et que vous acceptez que l’on vous surveille, que l’on peut aussi (parfois) vous rassurer (on le voit par exemple en cas de catastrophe naturelle ou d’attentat quand il s’agit de savoir si ses amis ou ses proches sont en sécurité, cf les épisodes du « Safety Check » de Facebook par exemple). La question qui se pose alors est la suivante : est-ce aux plateformes de médias sociaux d’endosser cette fonction politique de réassurance ?

Pour la voie dorée qui est, vous l’aurez deviné, la plus présente dans les plateformes centralisées, l’idée même de « dé-surveiller » est une aporie. Il n’est simplement pas possible de se soustraire aux logiques de surveillance de Facebook, de X, d’Amazon, etc. dès lors que nous en sommes utilisateurs et utilisatrices. Ce n’est pas possible parce que cela tient simultanément à leur infrastructure (architecture technique toxique), à leur modèle économique (« si c’est gratuit vous êtes le produit), au gigantisme choisi de ces plateformes et aux impossibilités de modération rationnelle que cela implique, et à la manière dont l’ensemble des cheminements algorithmiques sont imaginés et pensés pour servir l’ensemble.

❌
❌