Vue lecture
WhatsApp ouvre la porte à la publicité
Le marketing d’influence gagne du terrain à l’heure où les budgets publicitaires se resserrent
Écrans à l’école : quand la science publique s’aligne sur les intérêts du privé
Instagram fête ses 15 ans et veut redevenir le tremplin de la créativité
Algorithmes et société. Pint Of Science 2025.
J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».
Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.
Voici donc ce que j’ai raconté de mon côté.
Je vais vous faire écouter un algorithme.
Je vais vous faire écouter un algorithme.
Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).
Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).
Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :
- D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
Les algorithmes sont cela.
- Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.
Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.
- Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.
Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.
Je vais maintenant vous parler du rythme des algorithmes.
Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.
Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.
Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.
Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.
L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.
L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.
L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.
Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.
« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.«
Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.
On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.
Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.
Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)
Meta AI : l’IA sans frais… pour combien de temps ?
Les effets de Tiktok sur les mineurs. Retour sur mon audition à l’assemblée nationale.
Le 29 Avril 2025 j’ai été (avec d’autres) auditionné à l’assemblée nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». L’ensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de l’assemblée.
Initialement invité en compagnie d’Aurélie Jean et de David Chavalarias qui ont finalement dû décliner (j’espère qu’ils pourront tout de même être entendus), le périmètre de cette audition a finalement réuni :
- Mme Sihem Amer-Yahia, directrice de recherche au CNRS, directrice adjointe du Laboratoire d’informatique de Grenoble
- Mme Lucile Coquelin, maître de conférences en sciences de l’information et de la communication, Laboratoire DyLIS, Inspé Normandie Rouen Le Havre, Sciences Po Paris
- M. Marc Faddoul, directeur et cofondateur d’AI Forensics.
- et moi
Pour préparer cette audition, on nous avait envoyé une liste de 18 questions. Je vous livre ci-dessous les réponses que j’y ai apportées et que j’ai également transmises à ladite commission. Comme j’aime bien partager ma vie avec mes étudiant.e.s du meilleur BUT Infocom de la galaxie connue, je leur avais raconté et annoncé cette audition et leur avais aussi demandé de répondre à quelques-unes des questions qui m’avaient été adressées, en le faisant depuis leur point de vue d’utilisateur et d’utilisatrice de la plateforme. J’en ai extrait (avec leur accord et en les anonymisant) quelques verbatims que vous trouverez en toute fin d’article.
A titre personnel cette expérience fut à la fois intéressante mais essentiellement frustrante. Il s’agit d’un dispositif « court » : nous étions ici 4 universitaires à être auditionnés sur un temps d’un peu plus d’une heure. Ajoutez-y les questions et les propos « liminaires » et cela reste court. Mais chaque commission auditionne énormément de personnes et il est donc normal et nécessaire de limiter la temporalité de ces temps d’échange. Il y a aussi une forme de solennité biaisée : nous sommes conviés en tant que praticiens et praticiennes spécialistes d’un sujet auquel nous avons consacré plusieurs dizaines d’années de recherche, de travaux, d’ouvrages et d’articles, mais nous nous adressons à la puissance publique dans un cadre dont il est difficile de déterminer quelle est la part attendue de l’analyse réflexive, et celle de l’opérationnalité immédiate exigée ; car à la fin, tout cela devra se traduire par des mesures concrètes susceptibles de produire ou d’orienter des cadres législatifs à l’origine de décisions politiques. Le dernier point de difficulté est que nous débarquons dans cette commission sans savoir quel est le niveau réel d’acculturation des députés aux éléments que nous allons présenter. J’avais de mon côté écouté l’ensemble des auditions précédentes pour tenter d’éviter les redites et produire un minimum de continuité dans les travaux de la commission, mais même en ayant pris le temps de le faire, l’exercice reste délicat.
Tout ça pour dire que je suis bien content de pouvoir, au calme, transmettre par écrit mes réflexions à cette commission, car si elle devait se fonder uniquement sur ce que je lui ai déclaré à l’oral (ainsi que mes camarades d’audition), je ne pense pas qu’elle serait très avancée ou informée J’espère donc surtout qu’elle pourra prendre le temps de lire tout cela (ainsi que la synthèse que j’en dresse à la fin en mode TLDR).
Cela a commencé ainsi.
[On nous demande d’abord de nous présenter brièvement et on nous laisse un « propos liminaire » de 5 minutes] Je suis enseignant chercheur en sciences de l’information. Si les universitaires qui étudient la sociologie se définissent comme sociologues, je peux me définir comme « médiologue ». J’étudie les médias numériques (moteurs de recherche, réseaux sociaux, plateformes) et ce qu’ils modifient dans notre rapport à l’information, à la connaissance, aux autres et à nous-mêmes. Depuis 25 ans je documente l’évolution de ces outils avec – essentiellement – des méthodes d’observation participante. Et si je devais résumer 25 ans de recherche en une seule phrase je dirai que tout est de la faute du modèle économique de ces plateformes. Ou pour reprendre le titre d’une conférence d’une collègue, Zeinep Tufekci : « nous avons construit une dystopie, juste pour obliger les gens à cliquer sur des publicités« .
[Propos liminaire 1] En guise de propos liminaires je veux rappeler et insister sur le fait que ces « réseaux sociaux » qui sont en fait des « médias sociaux » doivent être pensés et analysés comme des biotopes particuliers dans un écosystème général qui est celui de l’économie des médias (radio, télé, presse, etc.). Et que ces médias sociaux procèdent (en partie) comme des parasites qui vont littéralement venir phagogyter les autres écosystèmes médiatiques. Les exemples sont nombreux. Il y avait eu à l’époque (circa 2010) le fait que plein de sites de presse ou de médias avaient accepté d’installer sur leur site le bouton « Like » de Facebook qui avait fait d’eux de simples vassaux numériques et médiatiques de cette plateforme devenue hôte. J’écrivais alors et alertais : « Le Like tuera le lien« .
Aujourd’hui il y a toujours des liens d’écho, de résonance très forts entre différents écosystèmes médiatiques mais dans certains cas d’usages, auprès de certaines populations, pour certains segments d’âge ou d’éducation, les médias sociaux sont le premier biotope informationnel. C’est cette question qu’il faut adresser (pour TikTok comme pour les autres) et pour laquelle la part « éditoriale » de ce que l’on appelle « les algorithmes » doit être clarifiée, débattue, encadrée. Encadrée de manière contraignante.
[Propos liminaire 2] Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :
- D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
- Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
- Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
[Propos liminaire 3] La question nous est posée de savoir si l’on peut « exiger des réseaux sociaux d’être entièrement transparents sur leur algorithme« . Oui. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un bouton like vaut 1 point et qu’un bouton colère vaut 5 points, nos comportements sont susceptibles de changer).
Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, dans des mondes « réels » ou dans d’autres « virtuels », etc.
Nous parlons d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.
Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.
Et a fortiori encore dans un monde où ces applications et plateformes sont devenues totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
[Propos liminaire 4] Je veux citer ce que j’écrivais dans l’article « Ouvrir le code des algorithmes ne suffit plus »
Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.
Les questions de la commission (et mes réponses).
Ces questions étaient organisées en cinq grandes parties :
- Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux.
- Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
- Sur la transparence des réseaux sociaux
- Sur l’éducation aux réseaux sociaux
- Questions générales
Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux
1. Quels sont les multiples facteurs pris en compte par les algorithmes utilisés par les réseaux sociaux, notamment pour déterminer les contenus présentés aux utilisateurs ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
De manière générale les algorithmes de recommandation fonctionnent sur 4 critères.
- Le premier est celui de la personnalisation déclarative (on dit ce que l’on aime ou ce que l’on n’aime pas).
- Le second est celui de l’historique de navigation réel : indépendamment de ce que l’on dit aimer, les plateformes « voient » ce que l’on consomme réellement et ce sur quoi on est appétent.
- Le troisième critère est celui de la moyenne statistique (comparativement à d’autres ayant déclaré les mêmes centres d’intérêt, et/ou dans le même groupe d’âge, de genre, etc.)
- le quatrième critère est celui de la stochastique, de l’aléatoire. Depuis le début des systèmes de recommandation, les ingénieurs qui fabriquent ces algorithmes savent que si on ne sort pas de temps en temps de nos centres d’intérêt déclaratifs on va avoir des phénomènes de désintérêt ou de lassitude. Ils injectent donc un peu (ou beaucoup) d’aléatoire pour « affiner » et « ajuster » mais aussi pour (souvent) nous « ramener » des des contenus plus directement monétisables. La question c’est de savoir jusqu’où peut aller cet aléatoire (plus ou moins loin de nos habitudes de. navigation et de consultation) et de quelle manière et en quelles proportions il peut-être corrélé à d’autres moyennes statistiques.
Reste la particularité de l’algorithme de Tiktok qui est la question du rythme. Alors que la durée moyenne d’une vidéo TikTok est de 15 ou 16 secondes, toutes les 3, 4, 5 ou 6 secondes, donc sur des temps et des rythmes extrêmement courts, il y a une interaction, donc une documentation de notre pratique, donc une information pour l’algorithme. La vitesse de consommation est en elle-même une information. Elle fonctionne comme un arc réflexe. Chaque vidéo, chaque contenu affiché est l’équivalent du petit coup de marteau sur votre genou pour déclencher l’arc réflexe. Sauf que cette fois l’arc réflexe recherché est un arc réflexe cognitif. Cette rythmique a été copiée par les autres plateformes : Reels sur Insta, Spotlights sur Snapchat, Shorts sur Youtube.
A cette rythmique s’ajoute aussi la multiplication des points d’entrée dans les logiques de recommandation : « Pour toi » mais aussi « abonnements » (« suivis »), « amis », « lives », « explorer ».
Et une stratégie du fou, de l’irrationalité : certains contenus mis en avant disposent de chiffres de visibilité et d’engagement hallucinants (plusieurs centaines de millions de vues) alors que d’autres beaucoup plus travaillés et pertinents ne décolleront jamais. La question des métriques est par ailleurs là aussi une spécificité de TikTok qui fonctionne comme un vertige, une ivresse de notoriété : la moindre vidéo peut atteindre des nombres de vues immensément plus important que sur d’autres plateformes. Comme sur les autres plateformes, absolument rien ne permet en revanche d’authentifier la sincérité de ces métriques.
2. Les algorithmes des réseaux sociaux peuvent-ils favoriser certains types de contenus ? Le font-ils effectivement ? Si oui, selon quels facteurs et quelles modalités ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
Dans l’absolu la réponse est oui car la nature même d’un algorithme est de trier et d’organiser l’information et les contenus. Donc de hiérarchiser. Donc d’éditorialiser (cf « Un algorithme est un éditorialiste comme les autres« ). Ce qui est plus complexe c’est de documenter finement la manière dont ils procèdent. Mais on a eu un exemple indépassable avec le rachat de Twitter par Elon Musk et la manière dont du jour au lendemain la ligne éditoriale a totalement changé (cf mon article « ouvrir le code des algorithmes ne suffit plus« ).
[Nota-Bene] J’entends le terme « d’éditorialisation » comme le définit Marcello Vitali-Rosati : « L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »
L’autre enjeu c’est de comprendre à quels intérêts ces changements correspondent ; un algorithme étant nécessairement la décision de quelqu’un d’autre, qu’est-ce qui motive ces décisions ?
- L’idéologie ? Exemples récents et récurrents de rétablissement de comptes masculinistes ou pro-avortement, prime donnée à ces contenus, etc.
- La géopolitique ? Exemples récents de contenus plutôt pro-israëliens sur Facebook après le 7 Octobre (en tout cas invisibilisation de contenus pro-palestiniens) à l’inverse de contenus plutôt pro-palestiniens sur TikTok.
- L’argent (recettes et monétisation publicitaire) ?
Un concept clé pour comprendre la favorisation de certains contenus c’est celui de la publicitarisation. La « publicitarisation » c’est une notion définie ainsi par Valérie Patrin-Leclère, enseignante au CELSA :
« une adaptation de la forme, des contenus, ainsi que d’un ensemble de pratiques professionnelles médiatiques à la nécessité d’accueillir la publicité. Cette adaptation consiste en un aménagement destiné à réduire la rupture sémiotique entre contenu éditorial et contenu publicitaire – elle se traduit, par exemple, par l’augmentation des contenus éditoriaux relevant des catégories « société » et « consommation » ou par le déploiement de formats facilitant l’intégration publicitaire, comme la « téléréalité » – mais aussi en un ménagement éditorial des acteurs économiques susceptibles d’apporter des revenus publicitaires au média (…) »
Cette publicitarisation est là encore très ancienne. Un des responsables partenariats de Google (David Eun) déclarait il y a plus de 20 ans : « Ads Are Content ». Traduction : « les publicités sont du contenu« , et par extension, « les publicités c’est le contenu« . Le résultat aujourd’hui c’est ce verbatim d’utilisateurs et d’utilisatrices pour qui « le fait que le contenu est sponsorisé n’est pas toujours explicite et même parfois volontairement dissimulé. Les publicitaires reprennent également les codes des influenceurs et les trends, ce qui floute la frontière entre une recommandation personnelle et un contenu sponsorisé. »
Concernant la dimension géopolitique ou idéologique, là où TikTok est un objet encore plus complexe c’est parce que lui-même est en quelque sorte le premier réseau social directement, presqu’ontologiquement géopolitique. Créé par la Chine, comme un facteur, vecteur, agent d’influence. Mais avec des déclinaisons différentes dans chaque pays ou zone : le TikTok Chinois n’est pas le TikTok américain qui lui-même n’est pas exactement le TikTok européen, etc.
Une autre particularité forte de l’algorithmie de TikTok (en plus de son rythme propre) c’est ce qu’on appelle le « beauty / pretty privilege » et qui fait que des phénomènes comme le SkinnyTok ont un impact majeur presqu’indépendamment du nombre d’utilisateurs actifs de la plateforme (saisine par Clara Chappaz de l’ARCOM et de la commission européenne à ce sujet). Et qui fait que certains corps (noirs, gros, trans, etc.) sont invisibilisés ou dénigrés.
Les réseaux et médias sociaux, via leurs décisions et tamis algorithmiques, sont essentiellement deux choses :
- des machines à cash
- des machines à fabriquer de la norme
Et plus il y aura de normes édictées par les médias sociaux, plus elles seront facilement suivies (public captif), plus elles seront publicitarisables, plus il y aura de cash, plus il y aura de nouveaux espaces de publicitarisation. Ad Libitum.
Et pour être ces machines à cash et à fabriquer de la norme, les algorithmes de ces plateformes ont un rapport particulier à la mémoire : ils sont structurellement dans une forme d’hypermnésie permanente (du fait de la conservation de nos historiques) mais sont conjoncturellement tout à fait capables d’amnésie lorsque cela les arrange ou le nécessite (par exemple pour nous re-proposer des contenus dont nous avons dit qu’ils ne nous intéressaient pas mais qui sont rentables pour la plateforme).
3. Quels sont les conséquences du modèle économique des réseaux sociaux et particulièrement de TikTok quant à la construction et la mise en œuvre des algorithmes utilisés ?
Ils cadrent tout. Au sens où le sociologue Erving Goffman parle des « cadres de l’expérience ».
Toute expérience humaine renvoie, selon Goffman, à un cadre donné, généralement partagé par toutes les personnes en présence ; ce cadre oriente leurs perceptions de la situation ainsi que les comportements qu’elles adoptent par rapport à elle. Ceci étant posé, l’auteur s’attache, selon son habitude, à classer les différents types de cadres, en distinguant d’abord les cadres primaires des cadres transformés. (Source)
Ces cadres vont ensuite être « modalisés », c’est à dire subir différentes transformations. Et donc la conséquence du modèle économique des réseaux sociaux c’est que la publicité, ou plus exactement la publicitarisation est la première modalisation de ce cadre d’expérience commun qu’est la navigation dans les contenus de chaque plateforme.
La publicitarisation fabrique littéralement de la consommation (au sens économique mais aussi informationnel et navigationnel), consommation qui elle-même fabrique des formes de compulsion (FOMO, etc.) qui elles-mêmes viennent nourrir et optimiser la rentabilité du cadre de la publicitarisation.
Sur ce sujet, je cite souvent l’exemple de la position des deux fondateurs du moteur de recherche Google, Serguei Brin et Larry Page; En 1998, ils publient un article scientifique pour expliquer le fonctionnement de l’algorithme Pagerank qui va révolutionner le monde de la recherche en ligne. Et dans une annexe de leur article scientifique ils écrivent :
« nous déclarons que les moteurs de recherche reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs. S’il est vrai qu’il est particulièrement difficile, même pour les experts du domaine, d’évaluer les moteurs de recherche, les biais qu’ils comportent sont particulièrement insidieux. Une nouvelle fois, le Google de ces dernières années en est un bon exemple puisque nous avons vendu à des entreprises le droit d’être listé en lien sponsorisé tout en haut de la page de résultats pour certaines requêtes. Ce type de biais est encore plus insidieux que la « simple » publicité parce qu’il masque l’intention à l’origine de l’affichage du résultat. Si nous persistons dans ce modèle économique, Google cessera d’être un moteur de recherche viable. »
Et ils concluent par :
« Mais nous croyons que le modèle publicitaire cause un nombre tellement important d’incitations biaisées qu’il est crucial de disposer d’un moteur de recherche compétitif qui soit transparent et transcrive la réalité du monde. »
On a donc des plateformes qui « ontologiquement » ont pleine conscience et connaissance de la dénaturation opérée par leur modèle de régie publicitaire mais qui passent outre à la seule fin d’une rentabilité maximale. Cela pourrait être simplement considéré comme du cynisme. Mais à l’échelle des dégâts produits à la fois dans le débat public mais aussi dans la psyché de certains des plus jeunes ou des plus fragiles, c’est de l’irresponsabilité. Et c’est pénalement condamnable. Cela devrait l’être en tout cas.
4. Quelles sont les conséquences des opinions des concepteurs des algorithmes utilisés par les réseaux sociaux, et notamment de leurs éventuels biais, dans la construction et la mise en œuvre de ces algorithmes ?
J’ai déjà répondu plus haut avec l’exemple du rachat de Twitter par Musk et dans mon article « Ouvrir le code des algorithmes ne suffit plus« . Mais on peut aussi compléter par le récent changement de Zuckerberg qui impacte directement les contenus diffusés sur Facebook. Encore une fois : il n’y a pas d’algorithmes, juste la décision de quelqu’un d’autre. Très longtemps on a refusé de le voir. Aujourd’hui, plus le monde se clive, plus les conflits sont mondialisés dans leur médiatisation, plus les plateformes sont par nature ou par intérêt des outils de Soft Power, et plus l’opinion ou l’agenda de leurs concepteurs est déterminant et cadrant.
Ce qui est très frappant aujourd’hui c’est ce qu’écrivait Kate Crawford dans son Atlas de l’IA (2021) et qui s’applique tout particulièrement aux algorithmes en tant que systèmes de pouvoir et que facteurs de puissance.
(…) il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.
Pour les algorithmes, c’est exactement la même chose : il faut nous intéresser simultanément à leurs architectures matérielles, à leurs environnements contextuels et aux politiques qui les façonnent, et retracer la manière dont ils sont reliés. Un algorithme, aujourd’hui, n’est plus uniquement une suite d’instructions logico-mathématiques, c’est une suite de systèmes de pouvoirs entrelacés.
5. Faut-il considérer les algorithmes comme des objets statiques ? Comment un algorithme évolue-t-il ? Peut-il évoluer sans intervention humaine, en apprenant de son propre fonctionnement ? À votre connaissance, comment cela s’applique-t-il aux réseaux sociaux, et particulièrement à TikTok ?
Je reprends ici ce que j’indiquais dans mes propos liminaires. Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :
- D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
- Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
- Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
L’algorithme de TikTok n’est pas plus intelligent, plus efficace ou plus machiavélique que d’autres ; simplement, nous passons beaucoup plus de temps à nous en occuper, et nous le faisons, du fait de sa rythmique propre, avec une fréquence beaucoup plus élevée et avec un soin sans commune mesure avec les autres. Notre rapport à l’algorithme de Tiktok relève littéralement d’une forme de clinique au sens étymologique du terme, c’est à dire emprunté au grec klinikos, « propre au médecin qui exerce son art près du lit de ses malades » (lui-même de klinê, « le lit »). Selon que nous adoptons le point de vue de la plateforme ou le notre, nous sommes le médecin ou le malade.
6. Comment les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok, s’adaptent-ils à des comportements humains parfois changeants d’un jour à l’autre ?
Par effet d’entrainement. Nous éduquons et entraînons les algorithmes au moins autant qu’ils ne nous formatent en retour. Et tout parciculièrement celui de TikTok comme je l’expliquais juste ci-dessus.
Et puis par leur rythme (cf supra). L’algorithme se moque de savoir si vous êtes de gauche aujourd’hui alors que vous étiez de droite hier, végétarien aujourd’hui alors que vous étiez végan hier. Ce qui intéresse les concepteurs de l’algorithme c’est la captation en temps réel de l’ensemble de ce qui définit votre surface informationnelle numérique. L’algorithme a pour objet de scanner en permanence et si possible en temps réel des éléments qui constituent à la fois votre surface informationnelle (ce qui vous intéresse), votre surface sociale (avec qui partagez-vous ces intérêts) et votre surface comportementale (« sur quoi » ou « avec qui » passez-vous plus ou moins de temps).
Le grand problème est d’ailleurs aussi celui de la personnalisation : c’est à dire que, sur certains types de requêtes en tout cas, plus personne ne voit la même chose en réponse à la même question (ceci vaut pour les plateformes dans lesquels on démarre la navigation par une recherche). Et pour les plateformes, comme TikTok, dans lesquelles il n’est besoin d’aucun amorçage mais uniquement de scroller, tout le monde à l’impression de voir des choses différentes (personnalisées) alors qu’en fait tout le monde voit pour l’essentiel la même chose ; mais cette « même chose » se réduit exclusivement à ce qui est bon économiquement pour la plateforme, c’est à dire soit ce qui fait le buzz et va vous obliger à réagir (polarisation émotionnelle), soit ce qui vous maintient attentionnellement captif et peut donc possiblement renforcer des troubles conatifs (« Symptômes liés à une réduction des capacités d’effort, d’initiative, et à une dégradation de la volonté et des tendances à l’action. Les formes majeures peuvent aboutir à une inactivité avec repli, parfois incurie et résistance aux sollicitations de l’entourage, voire indifférence affective.« )
Je ne sais pas si l’image vous parlera mais plutôt que l’idée des « bulles de filtres » d’Eli pariser (idée que les algorithmes enferment chacun d’entre nous dans une bulle informationnelle plus ou moins étanche) je parlais de mon côté d’un comportement d’autarcithécaires ; cette idée que, du point de vue des plateformes et de leurs algorithmes, il s’agit de nous faire croire que nous sommes en situation d’autarcie informationnelle, c’est à dire de nous donner l’impression que ce qu’elles nous donnent à voir est à la fois suffisant, complet et représentatif, précisément pour que nous perdions progressivement le besoin d’aller regarder ailleurs ou même simplement de considérer qu’il existe un ailleurs informationnel. Ou pour le dire d’une autre manière, comment nous faire passer de la peur de rater quelques chose (FOMO) à la certitude d’une non-nécessité d’aller voir ailleurs.
7. Peut-on envisager des algorithmes « éthiques », notamment eu égard aux enjeux de santé mentale ? Pouvez-vous expliquer le concept d’« informatique sociale » ?
Pour moi l’éthique algorithmique passe par le rendu public de l’ensemble des critères et métriques relevant de formes d’éditorialisation. Et pour répondre par une comparaison, bien sûr que oui, on peut tout à fait imaginer des algorithmes éthiques comme on peut imaginer des vêtements fabriquées de manière éthique, des aliments fabriqués de manière éthique et qui ne soient pas immensément transformés. La seule question est : pourquoi ne le faisons-nous pas ? Pourquoi lorsqu’il en existe parfois personne ne s’y intéresse ?
La réponse à ces questions est évidemment la même que pour l’agro-alimentaire ou les vêtements : c’est une question de coût (ce qui n’est pas éthique est moins cher) et de cadres sociétaux de consommation (où l’on minore et où l’on invisibilise les problèmes posés par cette absence d’éthique).
A chaque fois il faut des drames pour que la société parvienne à se réveiller temporairement. Comme lors de l’effondrement du Rana Plaza au Bangladesh en 2013 qui fait exploser le scandale de la fast fashion. Mais malheureusement à chaque fois au lendemain de ces réveils sociétaux il se produit deux choses : le pouvoir politique ne saisit pas l’opportunité impérieuse de légiférer, et lorsqu’il le fait, la puissance du lobbying et du pantouflage vient tout édulcorer ou tout remettre à plus tard.
En complément, il y a un point particulier d’une éthique algorithmique qui consiste à se mettre en situation (pour les plateformes), où à donner l’injonction (pour la puissance publique) de casser les chaînes de contamination virales. De ralentir. D’ajouter de la friction dans les possibilités de partage, etc. On a vu et on a documenté que cela marchait, et que les plateformes le savaient. Je cite ici, avec les exemples en lien, ce que j’écrivais en Mars 2022 dans mon article « Par-delà le Like et la colère » :
« Ensuite il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu’elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que l’on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu’elles permettaient d’aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s’ils avaient bien lu l’article qu’ils s’apprêtaient à partager avant que de le faire sous le coup de l’émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c’était Youtube qui annonçait supprimer l’affichage public du compteur des « dislikes » pour « protéger » les créateurs notamment de formes de harcèlement, un effet qu’il connaît et documente pourtant depuis déjà de longues années. »
Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
8. Pouvez-vous expliquer le concept d’« identité numérique » ? Quelles données personnelles partageons-nous lorsque nous utilisons les réseaux ? Comment ces données sont-elles utilisées par les algorithmes des réseaux sociaux et particulièrement de TikTok ?
Pour reprendre, en l’actualisant, la définition que j’en donnais dans mon ouvrage éponyme paru en 2013, je dirai que :
L’identité numérique peut être définie comme la collection des traces (écrits, contenus audios ou vidéos, messages sur des forums, identifiants de connexion, navigations, éléments d’interactions, etc.) que nous laissons derrière nous, consciemment ou inconsciemment, au fil de nos activités connectées, et le reflet de cet ensemble de traces tel qu’il apparaît « remixé » par les moteurs de recherche ainsi que par les médias et les plateformes sociales, et qui sont autant d’éléments en capacité de nourrir des choix algorithmiques visant à mieux cibler les contenus qui nous seront proposés dans le cadre du modèle économique de la plateforme concernée.
(version actualisée de Ertzscheid, Olivier. Qu’est-ce que l’identité numérique ?. OpenEdition Press, 2013, https://doi.org/10.4000/books.oep.332.)
9. Est-il possible de limiter ce partage de données personnelles ? Est-il possible et souhaitable d’en limiter la collecte, par exemple par le paramétrage des réseaux sociaux ?
Concernant la première partie de la question (est-il possible d’en limiter le partage), et pour autant qu’elle s’adresse aux utilisateurs et utilisatrices de ces plateformes, je réponds oui pour les données personnelles « déclaratives » (nous pouvons disposer d’un tamis plus ou moins large). Mais je réponds « non » pour les données personnelles qui relèvent de la sphère comportementale (ce que l’on voit, ce avec quoi l’on interagit, etc.).
Si la question s’adresse aux plateformes, alors là c’est un oui pour les données personnelles déclaratives comme pour les données comportementales. Elles sont tout à fait en capacité d’en limiter la collecte (mais cela vient heurter leur modèle publicitaire) et sont tout autant en capacité d’en limiter les usages dans le temps.
Le problème principal tient au statut discursif ou énonciatif de l’ensemble de ce qui circule, se dit et se voit dans ces plateformes ou applications : nous ne savons jamais réellement si nous sommes dans un espace discursif ou médiatique intime (où il serait OK et parfois nécessaire de partager ces données personnelles), privé, ou public. Dès 2007, trois ans après le lancement de Facebook, danah boyd indiquait que le problème des réseaux sociaux est qu’ils étaient des espaces semi-publics et semi-privés (« la privauté de ces espaces publics ou semi-publics pose problème« ). Ce problème n’a jamais été résolu.
L’autre problème (et la grande responsabilité des plateformes) c’est qu’elles changent en permanence et sous plein de prétextes différents, le réglage de nos paramètres de confidentialité ou de navigation. Et qu’elles complexifient, par défaut, la possibilité de limiter ce partage de données personnelles (dark patterns, etc.)
Sur la deuxième partie de la question (est-ce possible et souhaitable de limiter cette collecte), je réponds que c’est possible, que c’est souhaitable, et que c’est, surtout, absolument nécessaire.
Il y a un grand récit marketing et technologique qui nous fait croire que plus on collecte de données personnelles, et plus on peut nous proposer de l’information et des contenus personnalisés, et plus ce serait donc intéressant pour nous. C’est une vaste et totale fumisterie. Le seul récit qui vaille est le suivant : plus on collecte de données personnelles, plus on propose des contenus personnalisés, plus on ne fait que « publicitariser » les expériences navigationnelles et informationnelles, et plus on efface la notion de référent commun sur tout un ensemble de sujets, plus on saborde à l’échelle d’une société la question des « régimes de vérité » (cf Foucault ci-dessous), et plus on crée donc à la fois de l’isolement, du conflit, et de la défiance.
« Chaque société a son régime de vérité, sa politique générale de la vérité : c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. » Michel Foucault
Longtemps la « personnalisation » n’a été que thématique et déclarative. Du genre : je préfère l’actualité sportive à l’actualité politique, et dans l’actualité sportive, je préfère le rugby au foot. Dès que la personnalisation a gommé cette dimension déclarative explicite, dès qu’elle a surtout été indexée sur nos propres croyances, comportements et opinions plutôt que sur des médias aux formes et aux pratiques d’éditorialisation transparentes, elle est devenue un instrument purement marketing avec un impact politique massivement délétère.
Sur la transparence des réseaux sociaux
10. Pensez-vous qu’il soit possible d’exiger des réseaux sociaux d’être entièrement transparents sur leur fonctionnement et les algorithmes qu’ils utilisent ?
Je reprends ici une partie de mes propos liminaires. Oui il est possible de l’exiger. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un like vaut 1 point et qu’une colère vaut 5 points, nos comportements sont susceptibles de changer mais pour autant il est impératif que chacun sache combien « vaut » chaque type d’interaction mobilisée).
Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, etc.
Et d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.
Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.
Et a fortiori encore dans un monde où elles sont devenus totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
11. Est-on en mesure de contrôler cette transparence ? Comment, tant au niveau européen qu’au niveau français ?
Nous n’avons aujourd’hui plus besoin de produire des textes, lois et règlements. Nous avons besoin de faire appliquer ceux qui existent déjà (DSA, DMA, RGPD). Et d’organiser un cadre politique dans lequel la main de l’exécutif ne tremblera pas. Par exemple au titre de l’application du DSA, Twitter devenu X aurait pu et probablement dû être au moins temporairement fermé et interdit à l’échelle européenne (il l’a été au Brésil pendant plusieurs mois).
Nous sommes aujourd’hui pour la régulation de ces mass média en plein paradoxe de la tolérance tel qu’exprimé par Popper. A force d’être tolérants y compris avec les intolérants, nous courrons droit dans le mur. [« Popper affirme que si une société est tolérante sans limite, sa capacité à être tolérante est finalement détruite par l’intolérant. Il la décrit comme l’idée apparemment paradoxale que « pour maintenir une société tolérante, la société doit être intolérante à l’intolérance. » Wikipedia]
Il faut à ce titre aussi exiger des plateformes qu’elles appliquent leurs propres règles, et par exemple ne traitent pas différemment leurs « power users » car à ce jour ces plateformes, toutes ces plateformes, ont d’abord un immense problème de démocratie interne.
12. Les apports du DSA sont-ils suffisants ?
Oui pour autant qu’il y ait la volonté politique de l’appliquer en chacun de ses termes.
13. Est-ce techniquement possible, a minima, d’exiger des réseaux sociaux des garanties que leurs algorithmes ne comprennent pas de biais susceptibles d’avoir des conséquences néfastes (sur-représentation de contenus dangereux pour la santé mentale, propagation de fake news, discriminations, etc) ?
Je crois qu’on se trompe en plaçant cette question sous l’angle « technique ». Ce n’est pas à la « technique » d’arbitrer des questions qui relèvent de la santé publique ou de l’éthique. Je me permets une comparaison. Se poserait-on la question de savoir s’il est possible « techniquement » d’exiger d’une bibliothèque que son plan de classement de comprenne pas de biais ? Non. Parce que le problème ce n’est pas le plan de classement, ce sont les unités documentaires que l’on choisit de classer, donc de donner à voir, ou de ne pas classer. Les plateformes et leurs algorithmes sont « techniquement » en pleine capacité de faire respecter des règles a minima de représentativité sur un ensemble de sujets, y compris politiques, religieux ou sociétaux. Jamais en réalité nous n’avons disposé d’outils aussi puissants et aussi précis pour y parvenir. Si les plateformes (et leurs algorithmes) ne le font pas ce n’est en rien un problème technique. En rien. C’est un problème de choix économiques (business first). Et d’idéologies et d’interêts partisans (ou cyniquement opportunistes) de leurs propriétaires et de leurs actionnariats.
14. Quelle méthodologie utilisez-vous pour étudier les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok ? Quelles difficultés rencontrez-vous ? Que signifierait, pour le monde de la recherche, la publicité des algorithmes utilisés par les réseaux sociaux ?
A titre personnel, dans mon domaine de recherche, soit on procède par enquête sociologique, soit par observation participante. Comme les sociologues allaient à l’usine pour documenter au plus près le travail concret des ouvriers, on va « aux algorithmes » pour documenter au plus près leurs effets.
Un des grands sujets de notre temps, c’est que nous avons perdu la maîtrise des corpus. Quand je dis « nous » je parle du monde universitaire et donc ensuite du monde de la décision politique. Tous les programmes partenariaux publics permettant à des universitaires d’avoir accès à l’immensité des corpus détenus par les plateformes, tous ces programmes partenariaux ont été fermés. La plupart des API supprimées. L’opacité, hier sur les algorithmes, aujourd’hui sur les données, est absolument totale. Et nous en sommes réduits à faire confiance aux chercheurs employés par ces plateformes (mauvaise idée), ou à attendre la prochaine fuite d’un repenti ou d’une lanceuse d’alerte (encore plus mauvaise idée). La puissance publique, les chercheurs et universitaires de la puissance publique, n’ont plus aucune entrée ou maîtrise des corpus (linguistiques, sociologiques, etc) qui circulent dans ces plateformes et qui les constituent. Et c’est non seulement très inquiétant, mais c’est surtout très inacceptable.
Sur l’éducation aux réseaux sociaux
15. Le grand public est-il familiarisé avec le fonctionnement des algorithmes, et particulièrement de ceux utilisés par les réseaux sociaux ? Adapte-t-il son comportement en conséquence ?
Les travaux existants montrent qu’en effet, lorsqu’un fonctionnement algorithmique est suffisamment connu on a tendance à l’intégrer à notre pratique. Et en général les plateformes mettent donc en place des dispositifs pour contrer ces usages « non naturels » (exemple du Google Bombing). Aujourd’hui, même en connaissant certains « tips » agorithmiques, on ne s’en affranchit pas automatiquement. Et il est beaucoup plus difficile de connaître ou de tricher avec la « totalité » d’un algorithme aujourd’hui que cela ne l’était hier.
Par ailleurs, y compris les ingénieurs qui développent ces algorithmes sont de moins en moins nombreux à en connaître la totalité des fonctionnements. Et la capacité de tourner à plein sans supervision humaine des ces algorithmes n’a jamais cessé d’augmenter. Et cela ne vas pas s’arranger. Récemment le CEO de Google, Sundar Pinchai, confiait qu’environ 30% de l’ensemble du « code » informatique utilisé par l’ensemble des produits de la société Alphabet (maison mère de Google, Youtube, etc) était directement produite par des IA.
Quand à notre comportement adaptatif, il demeure très relatif. Nous ne l’adaptons que dans la mesure où nous avons l’impression que cette adaptation va servir directement (et rapidement) nos intérêts immédiats. Sur le reste, nous sommes plutôt d’une passivité totale, nous nous laissons algorithmiser parce que tout est fait pour fausser notre perception de la balance bénéfices / risques.
16. Pensez-vous que les enfants et adolescents soient suffisamment outillés, notamment par leurs établissements scolaires, pour se protéger des risques que ces algorithmes présentent ? Pensez-vous que les parents soient suffisamment outillés pour en protéger leurs enfants ?
La question de l’accompagnement aux écrans est une question … complexe. Ce que les jeunes et adolescents cherchent dans ces espaces (cf notamment les travaux de danah boyd aux USA ou d’Anne Cordier en France) ce sont des espaces qui soient transgressifs, la première transgression étant cette d’être à l’abri du regard des parents et des adultes. Les espaces numériques sont aussi ces alcôves algorithmiques qui permettent à la fois de se mettre à l’abri (du regard de l’adulte), d’être ensemble (y compris parfois « seuls ensemble » comme l’explique Shirley Turckle), et d’être dans la transgression autant que dans la construction d’un intime. Et cela est tout à fait normal et ne doit sous aucun prétexte être condamné ou, pire, criminalisé. Le problème, le seul et le grand problème, c’est que la construction de cet intime est toujours scruté par des autorités qui ne sont plus « parentales » mais industrielles.
Bonne nouvelle : on observe déjà et très largement des pratiques de « sevrage » temporaire mises en place par les adolescents et jeunes adultes. Cela peut-être à l’approche d’un examen à la fac, du bac français, etc. Pratiques où ils et elles désinstallent temporairement l’application de leur smartphone. Cela veut dire (pour ces publics) qu’une bonne partie du travail de pédagogie est déjà fait. Il faut ensuite trouver un effet cliquet, qui permette d’éviter de délétères retours en arrière. Et c’est bien là le rôle de la puissance publique.
Rappeler aussi que l’enjeu n’est et ne doit pas être d’interdire les écrans, mais de disposer, dans le cadre de l’organisation de notre vie sociale, éducative, publique et citoyenne, d’espaces qui demeurent des espaces non nécessairement déconnectés ou sans écrans, mais à tout le moins sans écrans et connexions qui ne soient autres que collectives ou a minima duales.
A ce titre oui, je suis convaincu par exemple qu’à l’école et au collège, les smartphones devraient être totalement interdits, dans les cours (de récréation) comme en cours. Et vous savez quoi ? Accrochez-vous bien. BINGO. C’est déjà le cas
Et qu’au lycée et même à l’université, ils devraient continuer de l’être pendant les cours. Mais qu’il n’est pour cela ni utile ni nécessaire de passer par la loi. C’est à chaque enseignante ou enseignant et éventuellement à chaque université ou composante de le décider et surtout, surtout, surtout, de l’expliquer. Parce qu’il ne s’agit pas de faire oeuvre de censure ou de police. Mais parce que si l’on considère que la transmission de savoirs tout comme l’acquisition des sociabilités primaires et fondamentales, passe par un pacte attentionnel minimal aux autres et à celui ou celle en charge de vous les transmettre et de vous les faire acquérir, alors il faut aussi accepter que celui ou celle qui est en charge de cela, quelque soit son talent et sa détermination, ne sera jamais, absolument jamais, en situation de rivaliser attentionnellement avec un objet technologique qui contient à lui seul tous les savoirs et toutes les sociabilités du monde.
Rappeler aussi que la question de la santé mentale, notamment chez les jeunes, est toujours, toujours multi-factorielle : elle tient à la fois à des paramètres éducatifs, culturels, familiaux, économiques. Donc il peut y avoir aussi bien des corrélations que, dans certains contextes, des causalités entre l’usage de TikTok et les questions de santé mentale. Mais si l’on veut s’attaquer (et il le faut) aux questions de santé mentale qui affectent désormais de manière alarmante des générations entières, alors il faut aussi et surtout traiter la question des politiques de santé publiques.
Rappeler enfin qu’il existe des métiers (professeurs documentalistes) et des organismes (CLEMI) qui font ce travail formidable au long cours. Il faut en créer davantage et leur donner des moyens sans aucune commune mesure avec ceux actuels.
Questions générales
17. De quels mécanismes de contrôle étrangers la France ou l’Europe devraient-elles, d’après-vous, s’inspirer ?
Je crois avoir déjà répondu plus haut que nous disposions de suffisamment de textes et règlements à l’échelle Européenne. Et qu’il reste à les appliquer entièrement.
18. Avez-vous des recommandations à transmettre à la commission d’enquête ?
Ma première recommandation est un avertissement que je reprends de mes propos liminaires et d’un article que j’avais publié.
« Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes.
Nous avons aimé croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nécessiterait pas de mineurs de fond, que l’informatique en nuage (Cloud Computing) ne dissimulait pas la réalité d’une industrie lourde. Nous ne pouvons plus aujourd’hui nous réfugier dans ces mensonges. Sur les industries extractivistes de l’information, nous avons l’avantage d’en connaître déjà les mécanismes et les routines ; la chance d’en observer les infrastructures de marché (du Cloud Computing au High Frequency Trading en passant par la précarisation des différentes formes de Digital Labor) ; la chance d’être capables de documenter la toxicité de ces prismes dans le cadre de certains sujets de société ; la chance d’avoir pu documenter et prouver à de trop nombreuses reprises l’insincérité fondamentale et aujourd’hui fondatrice de toutes ces plateformes et de leurs créateurs et administrateurs. Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. »
Pour le dire en d’autres termes, connaître la recette exacte du Coca-Cola ne change rien au phénomène de l’obésité : la seule chose qui compte c’est de se doter de politiques de santé publique qui éduquent, régulent, contraignent et qui dépublicitarisent, qui démonétisent symboliquement ce qu’est et ce que représente le Coca-Cola.
De la même manière, connaître l’impact du pétrole sur le réchauffement climatique et la part qu’y jouent nos modes de transport et les industriels extractivistes ne changera rien à l’avenir de la planète si l’on n’a pas de politique publiques sur l’écologie capable de proposer des alternatives aux premiers mais aussi de contraindre les seconds, et là encore de dépublicitariser, de démonétiser tout cela.
Pour les algorithmes, y compris et a fortiori pour celui de TikTok, c’est exactement la même chose : connaître son mode exact de fonctionnement ne changera rien aux errances et aux effondrements affectifs, psychologiques, conatifs, informationnels qu’il alimente. Il nous faut des politiques publiques du numérique. Dont des politiques de santé publique numérique.
Et il faut davantage de postes de professeurs documentalistes dans les lycées et collèges, avec davantage d’heures de cours dédiées à la culture numérique. Et aussi il faut financer et multiplier les structures et opérateurs comme le CLEMI. Oui je l’ai déjà dit. Mais oui je le redis. Et le redirai sans cesse.
[Verbatim étudiantes et étudiants]
L’échantillon est d’une petite soixantaine d’étudiantes et d’étudiants, en 1ère année de BUT Information et Communication (donc en gros âgés de 18 ou 19 ans) et avec qui j’ai déjà effectué quelques heures de cours autour des questions de culture numérique, de l’histoire d’internet et du web, et aussi un peu des enjeux sociétaux des algorithmes. La seule consigne donnée était de partir de leur expérience personnelle de la plateforme pour répondre aux questions de la commmission.
De manière générale ils et elles soulignent l’importance (et le manque) de politiques de santé publique et de communication, dans l’espace public, sur ce sujet.
- « On voir rarement de campagne de prévention dans l’espace public sur le lien entre utilisation RS et questions de santé mentale, alors même que jamais les jeunes n’ont autant parlé de l’importance et de la fragilité de la santé mentale«
- « il faut renforcer la communication publique, notamment dans le cadre scolaire«
Ils et elles soulignent également l’importance de faire à ces sujets davantage de place au collège et au lycée et surtout, d’en parler autrement que sous le seul angle de la culpabilisation ou des dérives comme le cyberharcèlement.
- « tout le monde accuse tiktok d’être dangereux mais personne ne parle réellement des risques qui y sont associés et comment on s’en protège«
- « intégrer ces questions dans les machins genre Pix«
- « la plupart du temps, au lycée ou au collègue, ces plateformes ne sont abordées que sous l’angle du cyberharcèlement, mais jamais sous l’angle des algorithmes, de leur côté addictif, chronophage, démotivant« .
Ils et elles ont aussi une grande maturité sur la nécessité d’un contrôle d’accès réel avec une vérification de l’âge qui soit autre chose qu’un bouton « oui promis j’ai 18 ans » :
- « faire un vrai contrôle d’accès selon l’âge, comme sur blablacar avec présentation d’un document d’identité«
Ils et elles ont des idées très concrètes de ce qu’il faudrait obliger Tiktok (et d’autres plateformes) à mettre en place :
- « obliger TikTok à implémenter des fonctionnalités permettant de mieux gérer le temps d’écran et à sensibiliser ses utilisateurs aux risques d’une utilisation excessive«
- « être plus à l’écoute des signalements. Et plus vigilants sur les contenus de type suicide : personne n’aime regarder des vidéos de suicide (ou de comment se suicider) et personne ne devrait se voir recommander des vidéos comme ça«
J’ai enfin été particulièrement frappé, dans leurs verbatims, d’une large majorité qui indique explicitement que les impacts et effets négatifs sur leur humeur sont plus importants que les aspects positifs. Et de la manière dont ils documentent et analysent cela. Le verbatim ci-dessous résume très bien ce que j’ai lu dans beaucoup de leurs réponses individuelles :
- « À titre personnel, tik tok a plus d’impact négatif que positif. En effet, une fois que je suis sur l’application, il m’est presque impossible de réguler mon temps passé sur cette
dernière. Une heure est ressentie comme 15 minutes et arrêter de scroller est très compliqué. De plus, lorsque mon application est active, l’heure ne s’affiche plus sur mon écran, ce qui biaise encore plus mon rapport au temps. Ce temps passé sur tik tok est perdu pour faire d’autre activité, et souvent, je repousse les tâches que j’ai à faire. Après avoir passé plusieurs heures sur tik tok je culpabilise énormément et me sens mal. J’ai remarqué que mon moral était affecté par mon utilisation de tik tok, plus je passe de temps à scroller moins je suis de bonne humeur.«
[Et puis soudain Gabriel Attal]
Voilà je m’apprêtais à demander à ChatGPT une version synthétique de ce long texte en extrayant les éléments mobilisables immédiatement dans le cadre d’une proposition de loi et puis soudain, je tombe sur plusieurs éléments complémentaires.
Premier élément : Gabriel Attal. Qui s’allie au pédopsychiatre Marcel Ruffo pour proposer des mesures qui sont, pour l’essentiel, des caricatures au carré. Caricature d’une pensée magique où tout est, sans indistinction, la faute aux écrans et où leur suppression guérirait donc tous les maux, et où toute cette faute mériterait donc des régimes disciplinaires qui sont autant imbéciles qu’inapplicables et dangereux en démocratie. Voici donc ce qu’ils proposent :
- une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde.
- interdire l’accès des moins de 15 ans aux réseaux sociaux (et imposer une vérification d’âge sur ces plateformes).
- imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h.
- faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation.
- création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes.
- créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale.
J’ai donc immédiatement réfléchi à une critériologie assez fine permettant de caractériser chaque mesure proposée. Critériologie que voici :
- « C’est complètement con » : 3C
- « Inapplicable et Imbécile » : 2I.
- « Pourquoi pas mais surtout … pourquoi ? » : 3P.
Revoici maintenant ces mesures à l’aune de mon analyse subtile.
- une évaluation de l’addiction aux écrans de chaque jeune à l’entrée en sixième et en seconde : 3P
- interdire l’accès des moins de 15 ans aux réseaux sociaux : 3C2I
- imposer un couvre-feu pour les 15-18 ans qui bloque l’accès aux réseaux sociaux entre 22h et 8h : 3C2I
- faire passer l’écran en noir et blanc, pendant au moins une heure, après 30 minutes d’utilisation. 3C3P
- création d’un “addict-score” (sur le modèle du nutri-score) pour mesurer le potentiel addictif des plateformes. 3P
Je ne retiens donc que deux mesures :
- « imposer une vérification d’âge sur ces plateformes. » Mais certainement pas pour « interdire » l’accès mais pour responsabiliser les plateformes qui organisent cet accès et font absolument n’importe quoi quelque soit l’âge réel de leurs utilisateurs et utilisatrices, âge réel que de leur côté elles sont la plupart du temps en pleine capacité de connaître (et donc d’en déduire la part d’utilisateurs et d’utilisatrices qui n’ont absolument rien à faire là puisqu’elles sont normalement interdites aux moins de 13 ans).
- « créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale. » Là je dis oui, mais je dis surtout « seulement 2% ?! »
Pour le reste, je vous invite à lire la chronique et l’analyse impeccable de François Saltiel dont je partage chaque ligne et chaque mot.
Et je vous invite aussi, à chaque fois que vous entendrez diverses gesticulations politico-médiatiques sur une interdiction totale ou partielle des écrans chez les enfants et adolescents, à relire (notamment) cet article grand public et surtout de grande utilité publique d’Anne Cordier, publié en Mai 2024, et dans lequel elle rappelle la réalité de deux points fondamentaux, celui de la panique morale sur ce sujet, et celui de la réalité des études scientifiques sur ce même sujet :
Ce phénomène des paniques morales exprime une crainte quant à la déstabilisation des valeurs sociétales, et se cristallise autour des usages juvéniles desdits écrans et des conséquences de ces usages sur la santé mentale et sociale des enfants et adolescents, ainsi que sur leur développement cognitif et leur culture générale.
Pourtant une importante et robuste étude américaine, menée sur le long terme auprès de 12000 enfants entre 9 et 12 ans, conclut sans hésitation à l’absence de lien entre temps passé « devant les écrans » et incidence sur les fonctions cérébrales et le bien-être des enfants. Pourtant encore, en France, une enquête longitudinale d’envergure, déployée cette fois auprès de 18000 enfants depuis leur naissance, montre que ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant.
Malgré ces faits scientifiques, le débat autour de la place desdits écrans dans notre société se polarise, et se caractérise récemment par une ultraradicalisation des postures, ce qui a pour premier effet de porter préjudice à la compréhension de tout un chacun.
Je répète : « ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant. » La place et l’usage des écrans n’est que l’un de ces facteurs sociaux parmi d’autres bien plus essentiels.
[Et puis soudain le Pew Internet Research Center]
Le 22 Avril 2025 est sortie une étude du Pew Internet Research Center, pile poil sur le sujet qui nous occupe : « Teens, Social Media and Mental Health. » Elle est, comme souvent, fondamentale pour bien cerner les enjeux de ce sujet. Et j’en retire les éléments suivants.
D’abord si environ 40% émettent un avis plutôt « neutre » sur l’influence des médias sociaux sur leur santé mentale, les 60% d’adolescents restants (entre 13 et 17 ans) indiquent clairement que les effets négatifs sur leur santé mentale l’emportent sur les effets positifs.
Ensuite là où les parents considèrent que les médias sociaux sont la première cause des problèmes de santé mentale, du côté des adolescents, c’est tout autre chose : 22% des adolescents désignent les médias sociaux, 17% d’entre elles et eux les phénomènes de harcèlement (j’ai bien dit de harcèlement et pas seulement de cyber-harcèlement), et 16% les « pressures and expectations« , c’est à dire les attentes sociales et parentales vécues comme autant de pressions. Là est l’un des noeuds centraux du problème de la santé mentale des adolescentes et adolescents.
Autre point essentiel qui rend encore plus débile toute tentative d’interdiction, plus d’un tiers (34%) des adolescentes et adolescents interrogés indiquent s’informer sur les réseaux sociaux sur les questions de santé mentale. Et parmi ceux-là, plus de la moitié indiquent que c’est une source d’information importante.
Enfin, et c’est là aussi absolument déterminant pour comprendre ce qui se joue et comment le réguler, les adolescentes et adolescents identifient clairement l’impact délétère et toxiques des médias sociaux sur leur travail et leurs études, sur leur santé mentale, sur leur productivité et sur leur sommeil mais dans le même temps ils indiquent tout aussi clairement l’impact très positif sur leurs amitiés et leurs socialisations. Constat qui rejoint en effet tous les travaux universitaires sur ce point : ces espaces numériques de socialisation sont nécessaires et précieux dans la construction des identités (et des intimités) adolescentes à l’abri du regard des adultes. En revanche rien n’oblige à ce qu’ils soient traversés de contenus ne répondant qu’à des logiques commerciales et qui n’ont de considération que pour des dynamiques de viralité garantissant à tout prix des effets de rente attentionnelle. La responsabilité d’y faire le tri et le ménage et d’y injecter la dose minimale de responsabilité déontologique au regard des publics ciblés et des enjeux sociétaux concernés incombe donc entièrement aux plateformes elles-mêmes, et c’est à la puissance publique de le leur rappeler et de les y contraindre. Quoi qu’il en coûte.
One More Thing.
J’ai ensuite demandé à ChatGPT, sur la base de ce (long) texte (celui de mes réponses à la commission), de faire une liste de 10 propositions (ou plus) concrètes dont le législateur pourrait se saisir et de reformuler ces propositions dans un format destiné à une note parlementaire ou à une présentation en commission. Je vous en livre ici le résultat.
Liste de 10 propositions pour une prochaine loi ou cadrage législatif.
[c’est ChatGPT qui parle, enfin qui écrit]
Voici une liste de dix propositions et recommandations concrètes issues du document de contribution à la commission parlementaire, que le législateur pourrait saisir pour élaborer une nouvelle loi sur le numérique et l’accès aux réseaux sociaux :
Transparence et régulation algorithmique
-
Exiger la transparence des algorithmes sur leur dimension éditoriale : rendre publics les critères et pondérations qui déterminent l’affichage des contenus, notamment en lien avec les réactions émotionnelles (likes, colère, etc.).
-
Obliger les plateformes à ralentir les chaînes virales : limiter les fonctionnalités favorisant la viralité (nombre de partages simultanés, forwarding de messages, etc.) pour réduire les effets de masse sur la désinformation et le harcèlement.
-
Supprimer l’affichage public de certaines métriques (likes, vues, dislikes) pour atténuer les effets de conformité sociale et limiter les impacts délétères sur la santé mentale.
Santé publique et usage responsable
-
Instaurer des mécanismes de contrôle d’accès efficaces pour les mineurs (vérification d’identité, seuils d’âge vérifiés comme sur Blablacar), en évitant les simples déclarations « j’ai plus de 13/18 ans ».
-
Imposer des limites d’usage paramétrables par défaut (temps d’écran, alertes de dépassement, pause obligatoire après un temps de scroll continu) intégrées directement dans les applications.
-
Créer une politique de santé publique numérique : reconnaître les effets psychiques négatifs des réseaux sur les plus jeunes et y répondre par des campagnes nationales et des dispositifs de prévention dans les écoles et les médias.
Éducation et formation
-
Renforcer l’éducation au numérique dès le collège : intégrer des modules spécifiques sur les algorithmes, la captation attentionnelle, les risques informationnels et les logiques économiques des plateformes.
-
Doter chaque collège et lycée d’un(e) professeur(e) documentaliste formé(e) aux enjeux numériques et augmenter leurs heures dédiées à l’éducation aux médias.
Pouvoirs publics et contrôle
-
Faire appliquer strictement les lois existantes (RGPD, DSA, DMA) : prévoir des sanctions réellement dissuasives en cas de non-conformité et ne pas hésiter à suspendre ou interdire temporairement des services comme cela a été fait ailleurs.
-
Créer un droit d’accès des chercheurs publics aux corpus algorithmiques : obliger les plateformes à ouvrir des API sécurisées permettant à la recherche indépendante d’analyser les effets sociaux, psychologiques et politiques de leurs systèmes.
La note parlementaire (faite par ChatGPT).
[c’est toujours ChatGPT qui parle, enfin qui écrit]
Voici une note parlementaire structurée présentant les propositions issues du document d’Olivier Ertzscheid, à destination d’un(e) député(e) souhaitant nourrir une réflexion législative sur le numérique et les réseaux sociaux.
Objet : Propositions pour une loi sur les usages numériques et l’accès aux réseaux sociaux
Auteur : Synthèse des travaux d’Olivier Ertzscheid, Maître de conférences en Sciences de l’information
Date : [à compléter]
Contexte général
Dans un environnement où les réseaux sociaux sont devenus des médias d’“hyper-masse”, leur impact sur les comportements, la santé mentale, la circulation de l’information et la démocratie est désormais massif, continu et documenté. L’urgence n’est plus de comprendre ces effets, mais de réguler concrètement les modèles qui les produisent. Cette note propose dix axes d’action législatifs concrets.
1. Transparence algorithmique et lutte contre la manipulation attentionnelle
1.1. Transparence des logiques éditoriales des algorithmes
Obligation pour les plateformes de rendre publics les critères et pondérations influençant la hiérarchisation des contenus (types de réactions, temps de visionnage, etc.), en particulier ceux relevant de la manipulation émotionnelle.
1.2. Ralentissement des chaînes virales
Limitation par la loi des mécanismes de partage automatisés ou massifs (groupes WhatsApp, forwardings, etc.) afin de freiner les phénomènes de désinformation, de harcèlement et de polarisation.
1.3. Encadrement des métriques visibles
Obligation pour les plateformes de masquer certains compteurs (likes, vues, partages) aux utilisateurs non-créateurs pour atténuer les effets de conformité sociale et d’addiction à la reconnaissance.
2. Santé publique et encadrement de l’usage
2.1. Vérification d’âge robuste à l’inscription
Mise en œuvre d’un dispositif réel de contrôle d’âge (type pièce d’identité) pour limiter l’accès des mineurs aux plateformes sans médiation.
2.2. Limites d’usage intégrées par défaut
Imposition à toutes les applications sociales d’une fonction de régulation du temps passé : alertes, pauses obligatoires, et tableaux de bord accessibles.
2.3. Lancement d’un plan national de santé publique numérique
Campagnes publiques et programmes éducatifs pour sensibiliser aux impacts psychologiques des réseaux sociaux, en particulier chez les jeunes.
3. Éducation aux médias et renforcement scolaire
3.1. Intégration obligatoire de modules sur les logiques des plateformes
Enseignement dès le collège sur le fonctionnement des algorithmes, la captation attentionnelle et les logiques économiques des contenus.
3.2. Déploiement renforcé de professeurs documentalistes et du CLEMI
Augmentation du nombre de professeurs documentalistes et du budget alloué au CLEMI, pour assurer un accompagnement continu et de qualité dans les établissements.
4. Régulation effective et contrôle public
4.1. Application sans compromis des règlements européens (RGPD, DSA, DMA)
Sanctions systématiques et dissuasives en cas de non-respect des règles ; possibilité d’interdiction temporaire d’un service comme dans d’autres pays (ex. X/Twitter au Brésil).
4.2. Accès aux corpus pour la recherche publique
Obligation légale pour les plateformes d’ouvrir aux chercheurs indépendants l’accès à des jeux de données anonymisés, via API, afin de permettre une évaluation scientifique indépendante des effets des algorithmes.
Conclusion
Ces propositions, réalistes, urgentes et largement documentées, peuvent constituer la base d’un cadre législatif de souveraineté numérique, de protection des jeunes publics et de régulation démocratique des puissances algorithmiques.
Argumentaire synthétique pour une intervention en commission.
Tant que j’y suis je vous livre aussi l’introduction et la conclusion du même ChatGPT lorsque je lui demande un argumentaire synthétique de sa note parlementaire pour une intervention en commission.
Introduction.
Mesdames et Messieurs les membres de la commission,
Nous sommes aujourd’hui face à des outils devenus centraux dans la vie sociale, affective, cognitive de millions de citoyens, notamment les plus jeunes. Ces outils sont à la fois des médias d’hyper-masse, des machines à fabriquer la norme et des systèmes de captation attentionnelle, dont les effets sur la santé mentale, la désinformation et les inégalités sont désormais documentés.
Il ne s’agit plus de produire des rapports ou des constats, mais d’agir, de légiférer, de protéger.
Conclusion : l’exigence du courage politique.
Ce que nous proposons n’est ni technophobe, ni moraliste. C’est une politique de santé publique, d’éducation, et de souveraineté.
Il faut démonétiser l’attention, dépublicitariser l’espace social, et remettre du sens dans nos usages.L’histoire nous jugera comme elle a jugé ceux qui n’ont rien fait face au tabac ou au réchauffement climatique. Il est encore temps d’agir.
Voilà. Le boulot est fait de mon côté. J’ai transmis à la commission mon texte avec l’intégralité de mes réponses aux questions, et leur ai également adressé les 10 propositions pour une évolution du cadrage législatif (en précisant bien sûr qu’elles étaient formulées par ChatGPT sur la base de l’analyse de mon texte). Le reste appartient maintenant à ce truc formidable qu’on appelle la démocratie.
L’indigne et les indignés. Chronique d’une a-réalité.
En une seule journée (c’était en début de semaine), nous avons donc eu la Une du JDNews (émanation putride de l’empire Bolloré) avec la phrase de Wauquiez sur l’enfermement et la déportation des OQTF à Saint-Pierre et Miquelon, mais aussi la sortie médiatique d’Elisabeth Borne expliquant qu’il fallait réfléchir très tôt à son orientation, et même « dès la maternelle » (le verbatim complet est le suivant « Il faut se préparer très jeunes, presque depuis la maternelle, à réfléchir à la façon dont on se projette dans une formation et un métier« ).
« Et reprenons un peu de saucisson. »
Notez que la langue française est formidable car depuis la publication de cette Une, il est déjà passé dans le langage courant que l’on ne dit plus « con comme ses pieds » mais désormais « con comme Wauquiez« .
« Passé les bornes y’a plus de limites. » (Emile. 7 ans. CE1)
Cessons de louvoyer et d’y aller par demi-mesures, je propose de mon côté de réfléchir à un monde dans lequel les enfants qui n’auraient pas de projet professionnel clair à l’issue du CP seraient placés sous OQTF et déportés une bonne fois pour toutes dans des orphelinats militaires à Saint-Pierre et Miquelon.
« Quelle indignité. »
Sur les médias sociaux d’abord, sur les plateaux télé ensuite, dans les radios enfin, et parfois simultanément dans l’ensemble de ces biotopes médiatiques, ces propos ont été moqués, ridiculisés, dénoncés, combattus, ils ont aussi parfois été soutenus et défendus, et ils ont donc atteint leur objectif premier qui est de … circuler massivement (mais concernant Wauquiez, même sur CNews ils étaient à un doigt de trouver ça raciste et complètement con et puis finalement ils ont pris un whisky d’abord).
Oui bien sûr il y a de la fenêtre et surtout du rétroviseur d’Overton là-dedans, oui bien sûr derrière la Une travaillée et délibérément choquante du JDNnews comme derrière la sortie de route de Borne qui doit être lue comme un authentique lapsus tout à fait révélateur de son projet politique, oui bien sûr il y a l’idée d’élargir encore la fenêtre et le rétroviseur d’Overton et de nous préparer.
Mais il y a aussi cette forme fondamentale et chimiquement pure d’une rhétorique de l’indignation. Depuis que les réseaux et médias sociaux existent, nombre d’études scientifiques ont montré que le ressort principal et constant de la circulation virale des contenus était celui de l’indignation, indignation directement liée au sentiment de colère face à une injustice. L’indignation suite à la colère liée à une injustice en paroles ou en actes, est l’émotion qui sollicite le plus directement notre nécessité de réaction. On ne peut pas ne pas réagir lorsque des propos nous indignent et nous placent sous le coup de la colère.
L’indignation, en tout cas dans son expression virale, nous plonge également dans une posture cognitive « a-rationnelle ». On ne répond pas rationnellement à des propos qui nous indignent. L’indignation porte en elle l’effet miroir de sa réponse qui ne peut être qu’elle-même indignée. L’indignation contraint à d’autres réponses indignées qui elles-mêmes … ad libitum.
En France, en démocratie, les sorties de route ou déclarations suscitant de l’indignation se multiplient comme jamais auparavant et si ce sont les deux pôles radicaux de l’échiquier politique qui la monopolisent le plus, c’est bien l’ensemble du spectre qui s’y fourvoie avec une pathétique délectation. Parce qu’en termes d’agenda, il importe à toutes les formations politiques de dicter autant qu’elles le peuvent celui de nos indignations collectives (et donc sélectives).
On se souvient bien sûr de la phrase de Hannah Arendt : « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »
Remplaçons maintenant le mensonge par l’indignation. Ce qui donne « Quand tout le monde tient des propos suscitant l’indignation en permanence, le résultat n’est pas que vous vous indignez vous-même, mais que plus personne ne peut être autrement qu’indigné. Un peuple qui ne peut plus être autrement qu’indigné en permanence ne peut se faire une opinion. » La suite de la phrase d’Arendt reste inchangée. « Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »
Ces indignations, celles que véhiculent des écosystèmes idéologiques comme ceux de Stérin et de Bolloré, ces indignations programmatiques prennent le relai du mensonge et achèvent de déréaliser l’ensemble de nos repères informationnels et de nos représentations sociales collectives.
D’abord on vous ment. Puis sans vous laisser le temps de disserter sur le mensonge on vous indigne. Et vous vous indignez. Souvent ces mensonges suscitent de l’indignation. Souvent ces indignations mobilisent des mensonges pour les apaiser ou au contraire les alimenter et les accompagner. Et alors tout devient possible. Les faits alternatifs – qui mobilisent des systèmes de coordonnées auto-référentiels et qui n’ont plus besoin d’aucune autre validation que celle de la pure croyance – se généralisent et se systématisent. On peut tout à fait tenir un rassemblement sur une place à demi-vide, on peut montrer les images de cette place à demi-vide et affirmer sans sourciller que cette place était pleine. Trump l’avait fait pour son premier discours d’investiture lors de sa première élection, le rassemblement national l’a encore fait le week-end dernier. L’indignation porte en elle un phénomène dissociation : ce n’est plus le réel qui importe mais le discours sur le réel qui seul est débattu, y compris s’il se détache complètement du réel.
Ce que nous sommes en train de perdre c’est tout un système de coordonnés. Des coordonnées spatiales, géographiques (le changement de nom du Golfe du Mexique n’est pas seulement une lubie ou un coup de comm de la part de Trump), des coordonnées temporelles, informationnelles, culturelles.
Récemment un article paraissait qui expliquait la manière dont (une partie de) l’algorithme de TikTok fonctionnait :
« (…) comment une vidéo arrive-t-elle jusqu’à vous ? Tout commence par un immense réservoir, le « pool de contenu », où atterrissent toutes les nouvelles vidéos postées. Mais attention, elles ne passent pas toutes le filtre. Une première évaluation élimine celles qui ne respectent pas les règles. Ensuite, c’est l’étape du « rappel », où l’algorithme trie rapidement pour trouver ce qui pourrait vous plaire. Là, entre en scène le « Dual Tower Recall », un modèle qui transforme vous et les vidéos en points dans un espace numérique. On peut imaginer un grand tableau avec des coordonnées. Vous êtes un point, et chaque vidéo aussi. Si vos points sont proches, la magie s’opère, la vidéo vous est proposée. Ce système repose sur des calculs mathématiques complexes, mais l’idée est simple : plus vos goûts « matchent » avec une vidéo, plus elle a de chances d’apparaître sur votre écran.«
Un système de coordonnées dans un espace numérique où nous sommes un point parmi tant d’autres, tout comme la théorie des graphes (notamment des graphes invariants d’échelle) permet de modéliser les infrastructures relationnelles des réseaux sociaux massifs.
La métaphore du « grand tableau » avec des coordonnées dans laquelle nous sommes autant de « points » et où les contenus en sont d’autres qu’il s’agit d’apparier, est relativement exacte et fonctionnelle (voilà plus de 20 ans que nous disposons en effet d’études scientifiques dans le champ des systèmes et algorithmes de prescription et de recommandation et de la théorie des graphes qui permettent de modéliser tout cela).
Là où en effet les systèmes d’appariement et de recommandation algorithmiques nous offrent et disposent de coordonnées extrêmement précises leur permettant de satisfaire la part la plus déterministe de nos attentes et de nos comportements à commencer par les plus singuliers et les plus grégaires, l’ensemble des autres systèmes référentiels collectifs de coordonnées culturelles, historiques, politiques et informationnelles se sont disloqués ou sont en train de s’effondrer sous les coups de boutoir redoublés des mensonges instrumentaux et des indignations brandies comme autant de stratégies comportementales de renforcement. En tout cas ils agissent beaucoup moins de manière « cadrante » et l’ensemble des phénomènes documentaires allant des pures Fake News aux faits alternatifs en passant par les artefacts génératifs, les mensonges instrumentaux et les indignations programmatiques finissent par produire des formes de décrochage du réel qui sont le point d’adhérence d’un grand nombre de dérives tant idéologiques que politiques, sociales et économiques.
Et l’ère des capitalistes bouffons armés de tronçonneuses ne fait qu’accélérer encore ces dérives désormais quotidiennes.
S’il fallait résumer tout cela par un dessin ce pourrait être celui-ci.
Les coordonnées de notre monde social se déplacent bien sûr aussi. Elles bougent. Le plus souvent dans la sens du progressisme, mais parfois également dans de mortifères conservatismes ou d’alarmantes régressions. Les coordonnées de notre monde ‘ »algorithmique », c’est à dire l’ensemble des référentiels produits par les technologies et dans lesquels nous sommes en permanence passés au crible, ces coordonnées là se déplacent non seulement beaucoup plus vite mais de manière aussi beaucoup plus incohérente car n’ayant pas nécessité d’attache dans le réel. De ce décalage naissent des formes de décrochage, de dissociation, de scission entre des systèmes de coordonnées qui si elles ne se tiennent plus ensemble, laissent place à toutes les dérives et à toutes les incompréhensions possibles.
Dans la situation 1, les coordonnées de notre monde social et de notre monde algorithmique se recouvrent presqu’entièrement et de manière cohérente. Seuls de petits espaces subsistent dans lesquels le monde algorithmique se singularise et dans lesquels le monde social peut exister indépendamment du monde algorithmique.
Dans la situation 2 en revanche, il est tout un pan (hachuré) de notre monde social qui n’a presque plus de liens, de coordonnées communes avec notre monde algorithmique. Et réciproquement.
Stéphane Hessel, en 2010, nous invitait à nous indigner. Indignez-vous. Dans le sillage de l’appel des Résistants aux jeunes générations du 8 mars 2004 (lors de la commémoration du 60ème anniversaire du programme du CNR), cet appel à l’indignation était avant tout un appel à l’engagement. Un appel à l’engagement comme un retour au réel. Et dont l’indignation n’était que le moteur et jamais, jamais la finalité. Son ouvrage se terminait par ces mots et cette citation de l’appel des résistantes et résistants :
« Aussi, appelons-nous toujours à « une véritable insurrection pacifique contre les moyens de communication de masse qui ne proposent comme horizon pour notre jeunesse que la consommation de masse, le mépris des plus faibles et de la culture, l’amnésie généralisée et la compétition à outrance de tous contre tous. »
Dans le rétroviseur d’Overton : casser vite et bouger des trucs.
C’est quelque chose qui m’a frappé lors de la dernière polémique concernant l’affiche de La France Insoumise reprenant les codes de l’imagerie antisémite, élaborée à l’aide de Grok, l’IA développée par les équipes d’Elon Musk et précisément connue pour n’avoir pas les filtres et pudeurs des autres IA (Grok qui s’affirme et se confirme comme la 1ère IA de l’Alt Right).
Comme Daniel Scnheidermann l’écrit « Soit LFI était conscient du caractère antisémite de l’affiche, et l’a tout de même validée par provocation, et c’est dramatique. Soit personne dans la chaîne de décision n’en était conscient, et alors c’est affolant d’inculture visuelle et historique. »
Et comme le rappelle André Gunthert : « Dénoncer l’extrême-droite en lui empruntant ses méthodes n’est pas une façon de souligner ses tares, mais au contraire un hommage involontaire du plus malheureux effet. »
A l’échelle des IA et des artefacts génératifs, ce n’est pas la première fois, qu’indépendamment de Grok, on observe la reprise et la mobilisation d’éléments textuels ou iconiques venant d’un passé plus ou moins proche. Pour la simple et bonne raison que les artefacts génératifs, tout comme nous, ne sont capables d’imaginer un futur qu’à l’aune d’un passé mobilisé et projeté. Mais en effet dans la libre génération d’images comme de textes, et sans supervision fine et humaine de chaque production circulant ensuite dans l’espace social et médiatique, sans mobilisation de cadres et référents culturels du passé qui soient contextuels aux générations du présent, alors les sorties de route sont tantôt douloureuses, tantôt pathétiques, tantôt curieuses, mais toujours inévitables (j’ai écrit un super livre notamment là-dessus hein, je dis ça je dis rien).
A l’échelle des technologies et des environnements numériques que j’observe et documente en tant que terrain scientifique depuis plus de 20 ans, ce dernier épisode d’un dérapage antisémite, contrôlé ou non (jusqu’ici nul n’a indiqué si le « prompt » – les instructions – données à Grok étaient de forcer certains traits de caricature des personnalités représentées), m’a conduit à projeter d’autres « révolutions contemporaines » que celles des IA et artefacts génératifs sur une ligne de temps long. Pour parvenir aux constats suivants.
Premier constat, le numérique et les plateformes (voir ce qu’en dit Casilli à l’aune des travaux de Gillespie) ont exacerbé et « automatisé » des formes de néo-management essentiellement toxiques. Formes dont on peut faire remonter la théorisation à certains cadres de la future Allemagne nazie comme l’explique parfaitement l’historien Johann Chapoutot dans son ouvrage « Libres d’obéir : le management, du nazisme à la RFA. » Entendons-nous bien, il ne s’agit pas ici de distribuer des points Godwin comme des fréquences d’exposition à chaque éructation de Cyril Hanouna mais de rappeler des formes de continuités historiques troublantes parce que systémiques.
Second constat, toujours du côté de l’ensemble des phénomènes et organisations métonymiquement rassemblés sous le terme « d’Uberisation » et de « Gig economy » (économie à la tâche), dans l’envers de l’ensemble des plateformes et de leurs infrastructures délirantes, de Shein à Amazon, on trouve deux points aussi saillants que communs. Le premier est celui d’un néo-fordisme, d’une mise à la tâche et à la chaîne dans laquelle se sont les notifications algorithmiques qui servent de contremaître. Le second est celui de néo-colonialités qui font toujours peser la charge de l’exploitation au travail sur les mêmes populations (travailleurs pauvres, populations immigrées, jeunes précaires, femmes isolées, etc.) et les mêmes pays pauvres du Sud. J’emprunte à Antonio Casilli le terme de « colonialité » (lui-même l’empruntant au philosophe Nelson Maldonado-Torres), préférable à celui de « colonialisme » puisque si les réalités des logiques d’exploitation présentent des similarités, le cadre sociétal qui leur permet de se déployer à considérablement évolué.
Troisième constat, du côté des « données », c’est à dire de l’ensemble de nos traces permettant de documenter nos opinions et nos comportements dans l’ensemble des écosystèmes numériques, depuis le web (en tant qu’espace public) jusqu’aux plateformes de médias sociaux (espaces semi-publics, semi-privés), nous sommes dans une forme semi-permanente de « dataxploitation ». Chacune de ces données collectées est prioritairement utilisée ou réemployée dans des logiques d’usage presqu’exclusivement centrées sur des politiques de contrôle, de surveillance, de soumission ou d’assignation et d‘automatisation des inégalités.
Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples.
Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression. Comme l’écrivait Zeinep Tufekci pour les réseaux et médias sociaux, « Internet a facilité l’organisation des révolutions sociales mais en a compromis la victoire. »
Pour comprendre et résoudre un peu cette apparente contradiction il faut accepter de dissocier, d’une part, les technologies des écosystèmes préexistants dans lesquels elles se déploient et, d’autre part, des biotopes (informationnels notamment) qu’elles préfigurent et inaugurent pour finir par y tourner à plein régime.
On pourrait résumer cela en trois phases et périodes distinctes, d’abord dans l’appropriation, puis dans la circulation et dans la massification, enfin dans la révélation et la dénonciation de ces techno-pouvoirs qui deviennent aujourd’hui presqu’exclusivement d’inquiétants techno-souverainismes.
Phase 1 : 2004 – 2017.
2004 c’est la création de Facebook et 2016 la création de TikTok. L’alpha et l’oméga des réseaux sociaux devenus médias sociaux. En 2017, Zeinep Tufekci le documentait et le démontrait : « Nous avons bâti une dystopie juste pour obliger des gens à cliquer sur des publicités. » Or ces dystopies s’alignent désormais systématiquement avec des régimes déjà autoritaires (c’est le cas de TikTok et de la Chine) ou en passe de le devenir (c’est le cas de Facebook, Instagram, Amazon, Apple, Microsoft, Google, etc. avec les USA).
Phase 2 : 2017-2025.
2017 c’est la première élection de Trump. Et 2025 c’est la seconde. Entre ces deux périodes l’ensemble du monde de la tech (américaine notamment) s’est « aligné » avec les intérêts géo-stratégiques (principalement) américains et/ou s’affronte à l’ensemble des intérêts géo-stratégiques d’autres puissances (Russie et Chine). Dans le sillon du constat de Zeinep Tufekci, huit ans après sa déclaration, nous avons non seulement tellement visionné de publicités mais nous faisons également face à un telle ombre géopolitique dans chacun de nos espaces et usages numériques y compris les plus triviaux, que nous commençons à peine à percevoir à quel point nous vivions effectivement depuis tout ce temps dans une dystopie ; et nous mesurons aussi qu’une forme mortifère d’irrémédiable s’est aujourd’hui malheureusement installée.
Ce n’est pas un hasard si les initiatives de « départ », d’exode et de migration numérique se multiplient, et ce bien au-delà de la très médiatisée initiative « Hello Quit X« . Nos vies numériques se partagent aujourd’hui entre :
- des biotopes de sur-stimlulation identifiés et recherchés comme tels (TikTok en fer de lance, Youtube et Instagram dans sa roue),
- d’autres biotopes totalement emmerdifiés (enshittification de Cory Doctorow) dont Facebook est le parangon,
- et de manière très très marginale, des espaces encore un peu si (relativement) faiblement peuplés qu’il demeure possible d’y retrouver quelques interactions non nécessairement toxiques ou inutiles, ou dans lesquels en tout cas la quasi-absence d’interaction autre que celle d’une lecture n’est pas nécessairement vécue comme un traumatisme (Substack, Patreon, … les blogs). On n’en est pas encore à un grand retour de Hype des listes de diffusion et des Homepages mais ça ne saurait tarder.
Phase 3 : 2026 … ?.
Aujourd’hui donc cette dystopie se déploie. A plein régime. A la faveur d’élections. Y compris démocratiques. Le monde est plein de déflagrations, de mots et d’idéologies que nous pensions n’appartenir qu’au passé et que jamais nous n’imaginions voir revenir aussi vite et aussi semblablement. D’autant qu’aux fantômes du passé et aux monstres du présent s’ajoutent ceux d’un futur totalement dépendant des prochains et certains effondrements climatiques. Et au milieu de ce gué que nous franchissons chaque jour un peu plus, les artefacts génératifs qui brouillent et troublent l’ensemble des nos esthétiques de réception et donc d’analyse.
Bouger vite et casser des trucs. Casser vite, et bouger des trucs.
Image Mike Deerkoski (CC BY)
« Move Fast and Break Things ! » Vous vous rappelez ? Ce fut longtemps le mantra de la firme Facebook et de Zuckerberg. Un mantra qui s’étendit à l’ensemble de la Silicon Valley et de ses colonialités numériques. En effet tout cela est allé très vite. En effet nombre de repères, de valeurs, d’identités, de communautés, de minorités, de normes et de lois ont été brisées. Nombre d’autres fracas nous attendent sans qu’il soit aujourd’hui clairement possible de savoir si nos garanties constitutionnelles, en France, aux USA et partout ailleurs dans le monde, seront suffisantes pour nous en prémunir ou en éviter les conséquences les plus directement mortifères. Mais la performativité des effondrements qui se tiennent au bout d’un stylo (celui de Trump signant ses décrets) ou de claviers (le blanc-seing laissé aux ingénieurs de Musk et du Chaos), cette accélération de la performativité doit nous interroger.
Parce qu’ils n’ont pas juste « bougé vite » et « cassé des trucs« , mais ils ont surtout « cassé rapidement » et « déplacé des choses » : « Break Fast and Move Things ». L’objet de la casse étant (pour l’essentiel) le rapport au travail, aux autres et à soi ; et la cible du déplacement étant celle de nos valeurs éthiques, morales, politiques. Pendant tout ce temps nous étions concentrés, nous essayions en tout cas, sur l’élargissement de cette fameuse fenêtre d’Overton.
Mais nous devons aujourd’hui oublier la fenêtre d’Overton lue comme le travail sur les mots d’un présent pour installer ceux d’un futur, et plutôt considérer … le rétroviseur d’Overton.
Overton : la fenêtre était en fait un rétroviseur.
De la fenêtre au rétroviseur donc. Je m’explique. Raphael Llorca (commiuniquant, essayiste, collaborateur de la Fondation Jean-Jaurès) revenait récemment lors d’une émission sur France Inter sur le concept de la fenêtre d’Overton en indiquant, je cite, que « l’une des thématiques d’Overton, c’est l’histoire. » Et de poursuivre : « Parce qu’on ne peut pas faire bouger des choses dans le présent si on ne s’attaque pas aux blocages psychiques et politiques dans le passé. » Et de citer les exemples de Zemmour prétendant que Pétain aurait sauvé des juifs français, thèse apparaissant comme accréditée à peine 15 jours plus tard dans une partie de l’opinion. Même chose il y a longtemps pour Le Pen (Jean-Marie) et l’histoire des chambres à gaz qu’il avait désigné comme « un point de détail de l’histoire de la 2nde guerre mondiale » et qui avait ouvert portes et fenêtres, d’Overton et de tous les autres, à un renouvellement complet des pires thèses antisémites et révisionnistes.
Dans le rétroviseur d’Overton, l’essentiel de celles et ceux que l’on présente comme des « innovateurs » dans le domaine des technologies, ne s’efforcent pas tant d’imaginer des futurs que de remobiliser des temps historiquement passés sur lesquels ils opèrent des transformations essentiellement cosmétiques mais qui finissent par leur (et nous) exploser à la gueule dans leur forme originellement située.
[Parenthèse] Et je veux ici distinguer entre « technique » et « technologie ». Il est plein d’innovations « techniques » dans le domaine de l’informatique, du numérique, de l’IA. Les « transformeurs » par exemple en furent une remarquable dans le domaine de l’apprentissage automatique. Les « technologies » quant à elles embarquent ces innovations techniques pour les mobiliser dans le cadre de projets, de services, d’usages qui sont toujours indissociables de leur inscription sociale ou sociétale. Les générateurs de texte (ChatGPT et tous les autres) sont ainsi des technologies construites sur plein de d’outils (et de révolutions) techniques. Ne pas faire cette distinction entre « technique » et « technologie » c’est ouvrir la porte aux discours réactionnaires et anti-progressistes. Dès lors que cette distinction est faite, on peut parfaitement soutenir le besoin d’innovation technique et s’émerveiller des dernières d’entre elles, tout en condamnant et en s’alarmant en même temps de certaines évolutions technologiques, par exemple des plateformes qui mobilisent ces techniques. [/Parenthèse]
A l’exception de Wikipedia, de l’Internet Archive, des blogs, et du moteur de recherche Google s’il avait eu le courage de se conformer au renoncement à sa régie publicitaire, le constat est aujourd’hui celui de l’inquiétante et constante dérive instrumentale, politique ou morale de l’ensemble des biotopes numériques existant au centre ou à la périphérie de cet espace public qu’est (encore) le web.
L’effet diligence, le carrosse et la citrouille.
L’effet diligence c’est cette notion théorisée par Jacques Perriault en sciences de l’information et qu’il définit comme suit :
« Une invention technique met un certain temps à s’acclimater pour devenir une innovation, au sens de Bertrand Gille, c’est-à-dire à être socialement acceptée. Pendant cette période d’acclimatation, des protocoles anciens sont appliqués aux techniques nouvelles. Les premiers wagons avaient la forme des diligences. »
Le carrosse qui redevient citrouille passé minuit, ça c’est le conte de Cendrillon.
« Va dans le jardin, lui dit-elle, et apporte moi une citrouille. La marraine creusa la citrouille et l’ayant frappée de sa baguette, elle se trouva transformée en un magnifique carrosse tout doré. Ensuite elle fut regarder dans la souricière, où elle trouva six petites souris en vie ; elle frappa de sa baguette, et les six souris furent changées en six beaux chevaux gris pommelé. (…) mais sa marraine lui recommanda, sur toutes choses, de ne pas passer minuit, l’avertissant que, si elle demeurait au bal un moment davantage, son carrosse redeviendrait citrouille, ses chevaux des souris, ses laquais des lézards, et que ses beaux habits reprendraient leur première forme. »
Nous payons aujourd’hui les conséquences d’une série « d’effets diligence » où, pour le dire vite, la plupart des plateformes de « socialisation » ont été conçues et pensées comme des plateformes de surveillance. Des réseaux sociaux (les wagons dans l’exemple de Perriault) conçus sur le modèle du panoptique de Bentham (les diligences). Celles et ceux qui depuis 20 ans font mine de ne pas comprendre comment et pourquoi cela pourrait mal finir sont soit de grands naïfs, soit de grands actionnaires de ces plateformes.
Et en jetant un oeil dans le rétroviseur d’Overton (et les travaux des historiens comme Chapoutot et tant d’autres), nous comprenons mieux pourquoi à la faveur d’une élection, Zuckerberg passe de la contrition juvénile du gars pris les doigts dans le pot de Nutella au masculinisme toxique le plus claqué au sol, en moins de temps qu’il n’en faut à la marraine de Cendrillon pour changer ses haillons en robe de bal. Nous comprenons aussi pourquoi c’est presque l’ensemble de nos carrosses cognitifs, attentionnels et informationnels qui, soit se transforment en citrouilles (qu’il nous est toujours plus ou moins possible de quitter), soit nous extraient de nos positions de laquais pour nous réassigner à notre statut de lézard à la merci du prochain coup de sang ou de la prochaine virevolte de managers toxiques devenus démocratiquement omnipotents ; lesquels sont entièrement occupés à élargir des fenêtres dans lesquelles la question n’est plus tant de savoir « qui » seront les prochain défenestrés mais « quand » le serons nous.