China’s Security State Sells an A.I. Dream

© Chang W. Lee/The New York Times


© Chang W. Lee/The New York Times


Most people probably have no idea that when you book a flight through major travel websites, a data broker owned by U.S. airlines then sells details about your flight, including your name, credit card used, and where you’re flying to the government. The data broker has compiled billions of ticketing records the government can search without a warrant or court order. The data broker is called the Airlines Reporting Corporation (ARC), and, as 404 Media has shown, it sells flight data to multiple parts of the Department of Homeland Security (DHS) and a host of other government agencies, while contractually demanding those agencies not reveal where the data came from.
It turns out, it is possible to opt-out of this data selling, including to government agencies. At least, that’s what I found when I ran through the steps to tell ARC to stop selling my personal data. Here’s how I did that:
Honestly, I was quite surprised at how smooth and clear this process was. ARC only registered as a data broker with the state of California—a legal requirement—in June, despite selling data for years.
What I did was not a formal request under a specific piece of privacy legislation, such as the European Union’s General Data Privacy Regulation (GDPR) or the California Consumer Privacy Act (CCPA). Maybe a request to delete information under the CCPA would have more success; that law says California residents have the legal right to ask to have their personal data deleted “subject to certain exceptions (such as if the business is legally required to keep the information),” according to the California Department of Justice’s website.
ARC is owned and operated by at least eight major U.S. airlines, according to publicly released documents. Its board includes representatives from Delta, United, American Airlines, JetBlue, Alaska Airlines, Canada’s Air Canada, and European airlines Air France and Lufthansa.
Public procurement records show agencies such as ICE, CBP, ATF, TSA, the SEC, the Secret Service, the State Department, the U.S. Marshals, and the IRS have purchased ARC data. Agencies have given no indication they use a search warrant or other legal mechanism to search the data. In response to inquiries from 404 Media, ATF said it follows “DOJ policy and appropriate legal processes” and the Secret Service declined to answer.
An ARC spokesperson previously told 404 Media in an email that TIP “was established by ARC after the September 11, 2001, terrorist attacks and has since been used by the U.S. intelligence and law enforcement community to support national security and prevent criminal activity with bipartisan support. Over the years, TIP has likely contributed to the prevention and apprehension of criminals involved in human trafficking, drug trafficking, money laundering, sex trafficking, national security threats, terrorism and other imminent threats of harm to the United States.” At the time, the spokesperson added “Pursuant to ARC’s privacy policy, consumers may ask ARC to refrain from selling their personal data.”

Nos espaces discursifs en ligne, nos médias sociaux, sont déjà largement contaminés de contenus entièrement générés par IA. Les proportions peuvent varier d’un média à l’autre mais il s’agit de bien plus qu’une simple tendance, il s’agit de l’aboutissement d’un changement complet de paradigme. Après avoir été acteurs et actrices de la production de contenus, après avoir été essentiellement spectateurs et spectatrices de contenus publiés par d’autres que nous appartenant à différents sphères « d’influence » ou de médias, nous sommes aujourd’hui entrés dans une ère où des contenus produits par des IA phagocytent et recouvrent la quasi-totalité des contenus qui nous sont proposés. Il ne s’agit pas ici de rejoindre la théorie conspirationniste du « Dead Internet » selon laquelle les bots seraient en charge et à l’origine de la totalité du trafic en ligne ainsi que des contenus produits afin de mettre l’humanité sous coupe réglée, mais de constater que les bots et les contenus générés par IA … sont désormais à l’origine d’une majeure partie du trafic en ligne des des contenus produits. Pas de complot donc mais une question : que peut-il se produire dès lors que la réalité de nos espaces informationnels et discursifs en ligne est effectivement majoritairement produite par des bots et des IA. Bref, le pitch d’un excellent bouquin : « Les IA à l’assaut du cyberespace : vers un web synthétique. » Et sans divulgâcher la suite de cet article, il est évident qu’il ne peut pas en sortir grand chose de bon.
D’autant que ces contenus générés par IA et autres artefacts génératifs, sont devenus un nouvel horizon du capitalisme sémiotique et que la totalité de nos ectoplasmiques plateformes sociales annoncent vouloir s’y engouffrer, et s’y engouffrer massivement. Le groupe de Mark le Mascu annonce ainsi le lancement de Vibes, qui va se présenter comme un fil (feed) présentant uniquement des vidéos créées par IA (et par d’autres que nous parce qu’une fois qu’on aura fait joujou 5 minutes avec on se contentera de faire défiler). Le phénomène de « Slop AI » devient non plus un « encombrement » ou une « bouillie » numérique mais une ligne éditoriale revendiquée. De son côté, Singularity Sam (Altman) annonce le lancement de devinez quoi ? Bah oui, un réseau social sur le modèle de TikTok et entièrement dédié aux contenus vidéos générés par IA (des contenus directement issus de Sora, la plateforme de génération de vidéos par IA d’Open AI, ou comme on dit dans le milieu des égoutiers et autres fabriquants de pompes à merde, « Garbage In, Garbage Out« ). Toutes proportions gardées, c’est un peu comme si au début des années 2000 avec l’explosion du Spam (contenus, souvent publicitaires, non sollicités et invasifs) on avait dit « Oh vazy c’est cool, on va mettre en avant le Spam, on va faire des médias avec juste du Spam dedans« . La seule différence c’est qu’aujourd’hui le Spam du Slop (vous suivez ?) est essentiellement constitué d’animaux mignons et autres contenus suffisamment débiles pour être consommés rapidement et à coût cognitif nul, et suffisamment « engageants » pour nous faire croire qu’on ne perd pas totalement nos vies à regarder des trucs débiles. Et ce n’est pas près de s’arrêter, car pour l’instant en tout cas, la production de ces contenus « Slop » est une manne financière conséquente, car ces VAAC (Vidéos Artificielles A la Con, bah quoi moi aussi j’acronymise si je veux), car ces VAAC ** disais-je sont certes tout aussi répétitives et ennuyeuses que d’autres avant elles, mais elles agrègent un grand nombre de vues, et donc de monétisation, et beaucoup de Youtubeurs et Youtubeuses s’en frottent déjà les mains.
** Sur Mastodon, le camarade Tristan Nitot propose le concept de VACCUM : « Vidéos Artificielles à la Con Universellement et Uniformément Merdiques. »
Pour l’instant uniquement disponibles aux US, ces applications ont pu être testées, notamment par Michaël Szadkowski de l’équipe Pixels du Monde :
Le 7 octobre, entouré de collègues curieux, nous découvrons, entre amusement et effarement, la réalité concrète de ces deux applications. Un chat faisant du skateboard. Un lion jouant du djembé. Jésus câlinant un enfant. Une grand-mère en roue arrière sur une Harley.
Défile sous nos yeux une forme de reconnaissance du « brainrot » (abrutissement numérique) et autre « slop » (contenus IA de faible qualité et produits à la chaîne) qui prospéraient jusqu’ici à la marge des réseaux. Ici, ces formats sont pleinement assumés, une nouvelle forme de divertissement, d’expérience collective – et de source de revenus, de l’aveu même de Sam Altman, le PDG d’OpenAI.
Par-delà la facilité de générer ces vidéos sur la base d’un simple prompt, par-delà les fonctionnalités de mise en scène de soi dans lesdites vidéos au moyen d’une fonction « caméo » vous permettant de vous ajouter (votre avatar en tout cas) au coeur de n’importe quelle scène, et par-delà l’immensité subséquente des problèmes que cela peut poser selon les usages – et les âges – de celles et ceux qui utiliseront ces fonctions, c’est le sentiment qu’après plus d’un quart de siècle d’internet « grand public » nous n’avons rien compris, ou qu’en tout cas les propriétaires de ces plateformes n’ont rien appris, car comme le relate encore Michaël Szadkowski :
Rapidement, sans même parler de la culpabilité liée au bilan carbone de nos expériences, les problèmes s’accumulent. Générer une version obèse, plus maigre ou plus musclée de mon caméo a été un jeu d’enfant. De même que de me faire tenir des propos ou des gestes condamnés par la loi, de faire de la pub de services douteux ou de danser avec une célébrité sulfureuse. On devine aussi les immenses problèmes à venir en termes de détournements. Surtout que la plupart des vidéos générées dans les brouillons d’un utilisateur peuvent être téléchargées, sauf quand elles contiennent un caméo de quelqu’un d’autre.
Si besoin, croisez aussi cela avec les récentes annonces d’Open AI de permettre à ChatGPT d’avoir des conversations « érotiques », et avec les révélations sur le fait que le groupe Méta entraîne ses modèles d’IA à des conversations érotiques avec des mineurs** et vous aurez une idée à peu près exacte de l’irresponsabilité autant que du cynisme le plus crasse des dirigeants de ces plateformes.
** à ce propos je vous invite à lire l’enquête de Reuters qui a rendu publics des documents internes dans lesquels les limites de « l’acceptable » sont définies face à des prompts dans lesquels une petite fille de 8 ans se dénude (enlève son t-shirt) devant l’écran et demande à l’assistant IA son ‘avis’, ou cet autre exemple dans lequel le prompt consiste à demander d’argumenter sur le fait que les noirs seraient plus cons que les blancs (sic). Dans tous les cas, les réponses jugées et définies comme « acceptables » par le groupe Méta permettent de mesurer toute l’étendue de l’absolue bêtise et de la dangerosité critique de celles et ceux définissant lesdits cadres d’acceptabilité, et qui ne sont rien moins que « les équipes juridiques, de politique publique et d’ingénierie de Meta, y compris son responsable de l’éthique. » Puissent l’ensemble de ces connards décérébrés être rapidement mis à grande distance de toute forme de responsabilité juridique ou éthique dans quelque secteur que ce soit.

D’autant que ce même groupe Méta annonce sans broncher et un mois à peine après les révélations de Reuters, qu’il va « lancer des comptes spéciaux pour les ados sur Facebook et Messenger« , des outils « pensés pour protéger les jeunes en ligne. » Autant confier la justice des mineurs à Jean-Marc Morandini.
Vous aurez donc compris qu’il va être très compliqué d’analyser tout ça autrement que sous l’angle d’un gigantesque tsunami de merde. Mais pour m’efforcer d’être moins grossier et plus constructif, j’ai en tête le modèle mathématique de la communication proposé par Claude Shannon (en 1949), un modèle dans lequel il s’agissait (en gros) de comprendre comment optimiser la transmission d’un message en limitant le « bruit », c’est à dire tout signal parasite entre l’encodage et le décodage de l’information transmise. Avec ce célèbre schéma que tous et toutes les étudiant.e.s passées par le champ de l’information et de la communication ont eu sous les yeux :

Et ce souvenir en tête, la situation dans laquelle nous placent aujourd’hui l’ensemble des médias sociaux nous inondant de contenus générés par IA bien plus que par nous-mêmes, notamment par l’usage de « prompts » qui sont moins des « commandes » faites à des systèmes que des assignations et des injonctions faites à nous-même de s’inscrire dans ces dynamiques de générations, cette situation c’est que dans ce schéma global de la communication, j’ai le sentiment que nous ne sommes plus que le bruit. Nous sommes cet élément que Shannon et son camarade Weaver essayaient de réduire et de limiter. Nous sommes le bruit de ces plateformes qui n’aspirent finalement qu’à communiquer sans nous autrement que comme spectateurs assignés à justifier leur existence (celle des plateformes hein, pas celle des spectateurs, suivez un peu quoi). Chacun de nos prompts ajoute au bruit de cette grande lessiveuse qui choisira de ne visibiliser que la part qu’elle estimera immédiatement rentable de nos im-prompt-us murmures, de nos souffles, de nos cris, de nos ahurissements et de nos consentements à l’étrangeté de ces mondes générés pour rien. J’écrivais récemment dans une analyse parue sur AOC à propos de ce que j’appelais une « technorhée » que « les effets de réel produits par les artefacts génératifs sont des imaginaires en moins » : s’il s’agit d’imaginaires en moins c’est aussi parce ce que l’ensemble de ces générations artificielles sont du réel en trop, du réel pour rien. Et le reste, tout le reste, retournera au silence des plateformes.
Nous ne sommes plus que le bruit. Mais si nous sommes le bruit, alors qui sera la fureur ?
Il y a une dizaine de jours (21 Octobre 2025) OpenAI a annoncé la sortie de son nouveau « super-assistant » baptisé « Atlas », qui est un navigateur intégrant toutes les fonctionnalités de ChatGPT présentées à la manière d’un moteur de recherche.
« ChatGPT Atlas est un navigateur conçu avec ChatGPT qui vous rapproche d’un véritable super assistant, capable de comprendre votre univers et de vous aider à atteindre vos objectifs »
Alors évidemment il s’agit d’une nouvelle offre de service « logique » dans la guerre de position qui doit permettre à OpenAI de venir butiner sur les terres de ses concurrents directs, Google en tête. Et à ce titre et à l’échelle du web, « sortir » ChatGPT de sa « page » et propulser un navigateur dans lequel il fera office de moteur est tout à fait cohérent. Ce n’est pas pour autant que la bascule des usages se fera car à l’échelle des navigateurs justement, les habitudes ont la vie dure. Du côté des moteurs de recherche aussi d’ailleurs : Google peine à imposer les usages de Gemini (son IA maison) dans le cadre d’usage du moteur de recherche, pas sûr que OpenAI arrive à imposer l’usage d’un assistant IA comme un nouveau moteur de recherche. Nous y reviendrons. Mais bon il eût été dans tous les cas incompréhensible qu’OpenAI ne tente pas le coup. De fait l’expérience (j’ai testé) d’Atlas est rapidement assez déceptive en ce sens qu’elle oblige à passer par l’installation d’un navigateur et qu’en termes de fonctionnalités on n’a pas grand chose de plus que ce qui était déjà proposé sur la page dédiée à ChatGPT sur le site d’OpenAI (mais cela permet au passage à OpenAI de s’installer sur votre machine et de vous demander de récupérer l’ensemble de vos contacts, signets, mots de passe, réglages divers, etc.)
La seule valeur ajoutée réelle est celle de la fonction « agent » décrite comme suit par Alexandre Piquard sur Le Monde :
Le navigateur intègre aussi la fonction « agent » de ChatGPT, par laquelle l’utilisateur peut demander à l’assistant d’accomplir pour lui des actions, notamment en surfant le Web : réserver des billets de théâtre, un restaurant ou un livre, faire des courses de supermarché en ligne, remplir un formulaire, trouver un e-mail de contact puis envoyer un message… L’IA est en principe capable de consulter des pages par lui-même et même, avec autorisation de l’utilisateur, de se connecter à des services protégés par mot de passe, par exemple pour faire des achats en ligne. La fonctionnalité « agent » est toutefois réservée aux abonnés payants de ChatGPT.
Ce qui m’intéresse donc dans l’annonce du lancement d’Atlas (Titan mythologique assez fort pour supporter le poids de la voûte céleste et assez débile pour céder à la ruse de CE1 d’Héraclès à qui il avait réussi à la refiler), c’est précisément le narratif qui l’accompagne en tant que « super assistant ». En résumé ce narratif me semble être le nouveau signe d’une bascule anthropo-technique proche de son aboutissement. Car face à des nouveaux « assistants » ou « super assistants » nous sommes essentiellement désignés comme les assistés, les super assistés. Et face aux nouveaux « agents » conversationnels qui prennent en charge (notamment) nos recherches et qui, comme je l’expliquerai plus bas, « font à notre place », nous sommes désignés comme de nouveaux « mandants », presque de nouveaux « mand-IA-nts » (mais qui n’ont hélas rien de clochards célestes). Comment en sommes-nous arrivés là ?
Il fut un temps où la désignation des circulations possibles à l’échelle de l’internet et du web étaient de claires métaphores. Nous avions des « navigateurs« , lesquels utilisaient des « moteurs » ; et parfois sans moteur mais toujours en navigateur on se contentait de « surfer« . Pour se repérer on connaissait des adresses (URL) qui étaient autant de phares, de rives déjà apprivoisées ou de rivages à découvrir.
Et puis. Puis les moteurs de « recherche » sont devenus des moteurs de « réponses ». Puis les adresses (URL) se sont effacées, rétrogradées au second plan, amputées au-delà de leur racine, considérant que plus personne n’avait à se soucier de les retenir et nous privant du même coup d’une autre possibilité de s’orienter en dehors des déterminismes techniques servant de béquilles à nos mémoires. Et donc aujourd’hui, plus de moteurs ou de navigateurs, ou plus exactement qu’importent les moteurs et les navigateurs, nous serons « super assistés » par de « super assistants », et deviendrons donc « mandants » de ces nouveaux « agents ».
Depuis les NTIC (nouvelles technologies de l’information et de la communication) et les métaphoriquement célèbres « autoroutes de l’information », depuis aussi cette idée idiote que « l’internet » serait un « Far-West » (Sarkozy, 2007) et autres récurrences tout aussi crétines de l’idée qu’il faudrait « reciviliser internet » (Mounir Mahjoubi en 2018) en passant par l’inénarrable Frédéric Lefebvre en 2009 et sa diatribe Kamoulox entre Hadopi, jeunes filles violées et identité nationale (sic) et jusqu’à tout récemment Clara Chappaz (2025) qui ressort le coup du Far-West à l’occasion de la mort de Raphaël Graven, chacun voit bien que la question de ces technologies est avant tout de nature politique. Et que ce qu’elles viennent bousculer dans nos schémas de communication et d’information est tout ce qui tient à notre capacité de faire société c’est à dire à nourrir des formes de sociabilités informationnelles, affectives et cognitives qui dessinent une réalité partagée.
La question des infrastructures technologiques n’est évidemment pas neutre dans l’équation, elle est même déterminante (à ce sujet lisez ou relisez Cyberstructure de Stéphane Bortzmeyer). Mais nous héritons d’un monde où la question politique de ces technologies et de leurs infrastructures n’a été posée en termes à peu près correct qu’à partir du moment où précisément elles avaient déjà commencé à ronger les structures même du débat public et politique tout autant que ses conditions pratiques d’exercice. L’histoire est malheureusement connue, à force de se concentrer sur la ruée vers l’or personne n’a noté que les seuls à faire réellement fortune étaient les fabricants de pelles. Et bien voici venu le temps des coups de pelle dans la tronche.
Pour sortir de cette qualification dépolitisante de « NTIC » beaucoup ont proposé d’autres dénominations. Pour ma part j’ai suggéré de questionner les NTAD, nouvelles technologies de l’attention et de la distraction. J’ai aussi et surtout interrogé la question de la déprise, c’est à dire la capacité de ces technologies à nous placer en situation de dépendance choisie, de nous installer dans des routines à coût cognitif nul, et finalement de presque tout faire à notre place, et inexorablement, de ne plus répondre à nos commandes que dans un « à peu près » qui nous satisfasse au regard de l’habitude prise à ne plus nous soucier de la précision du monde et de ce qui le constitue. Je vous invite à relire mon article de 2018 dans lequel j’explique tout cela avec de nombreux exemples et où je proposais l’insatisfaisant concept de « technologies de l’à peu près et de l’à ta place » que je requalifie donc aujourd’hui comme des technologies de la déprise (voilà pour le côté « à peu près ») et de l’emprise (voilà pour le côté « à ta place »). A partir de deux exemples « d’innovation » j’y montrais notamment ceci :
« Ce qui m’intéresse dans cette affaire c’est la chose suivante : nous avons donc un algorithme qui s’occupe de recadrer automatiquement les photos que nous prenons, au risque de nous faire prendre des photos que nous ne voulions pas prendre, ou en tout cas de donner à voir une « composition photographique » qui n’est pas celle que nous voulions montrer. Et ce « choix algorithmique » de recadrage, dont on nous dit qu’il est là pour permettre d’optimiser – paradoxalement – la visibilité, se trouve lui-même soumis au choix algorithmique conditionnant la visibilité du Tweet lui-même, indépendamment des photos recadrées qu’il contient. Soit un empilement de strates et de régimes algorithmiques d’obfuscation et de dévoilement, sur lesquels nous n’avons quasiment plus aucune prise (de vue).
Là encore, comme pour Clips de Google mais à un niveau légèrement différent, l’usage de la technologie nous installe dans une position que l’on pourrait qualifier « d’assistance contrainte » : nous n’avons pas demandé à ce que nos photos soient recadrées, mais nous n’avons pas d’autre choix en les soumettant que de les voir recadrées. La technologie et l’algorithme de machine-learning le font à notre place. TIYS (Technology In Your Stead) & AIYS (Algorithms In Your Stead). La négociation dans l’usage se jouant autour de la promesse de gain de visibilité pour l’utilisateur (et donc d’interaction ou d’engagement pour la plateforme).
Aujourd’hui l’ensemble des contenus produits par IA sont l’incarnation finale de ces technologies qui font à la fois « à peu près » et « à notre place ». Donnez-leur un prompt et vous aurez une projection qui sera « à peu près » ce que vous imaginiez, et qui surtout sera produite « à votre place » au double sens du terme, c’est à dire depuis votre place qui est une place à distance de l’acte de création, mais également qui vous départit de l’essentiel même de ce qu’imaginer ou créer veut dire.
J’ai le sentiment qu’il est beaucoup trop tard et que la seule manière de remettre un peu d’eau claire dans ce flot de merde, c’est de revenir sur une constante qui fut pourtant fondamentale et constitutive de l’histoire du web et des plateformes. Il faut que les plateformes soient immédiatement considérées comme totalement et pleinement éditrices des contenus qu’elles font circuler. De tous les contenus ? Oui. Voici pourquoi et voici aussi comment cela pourrait permettre de résoudre le problème qu’Emmanuel Macron résume parfaitement (bah oui faut le dire parfois il résume bien les trucs) mais en omettant de parler de l’autre éléphant dans la pièce, c’est à dire les « autres » médias classiques, traditionnels et pas spécialement sociaux mais qui sont au moins autant coupables de l’effondrement démocratique qui se dessine.
Parce que t’as raison Manu, on tape Islam sur TikTok et on tombe en trois clics sur des contenus salafistes. Mais je te rappelle qu’on dit « Bonjour » sur CNews et on tombe encore plus rapidement sur des contenus racistes éditorialisés par des gens condamnés pour corruption de mineurs et harcèlement sexuel, donc bon voilà quoi.

Oh oui reprends-moi le contrôle et enfourchons le tigre.
[Si vous êtes familiers de la distinction entre éditeur et hébergeur et de tout ce qui tient à la « section 230 », vous pouvez directement sauter ce passage et on se retrouve après les crochets, sinon je vous invite à lire l’article d’Anne Deysine dans l’excellentissime Revue Européenne des médias et du numérique, et vous en partage l’extrait qui suit :
« La section 230 a été ajoutée à la loi Communications Decency Act (CDA) de 1996 (qui visait à réguler la pornographie) grâce au lobbying de ceux que les chercheuses Mary Ann Franks et Danielle Keats Citron appellent les « fondamentalistes de l’internet » : ceux qui défendent une vision du web comme espace paradisiaque de liberté totale. La section 230 (surnommée « les 26 mots qui ont créé l’internet ») fut, à l’origine, conçue pour encourager les compagnies de la Tech à nettoyer les contenus offensifs en ligne. Il s’agissait de contrer une décision rendue en 1995 dans l’État de New York, ayant conclu à la responsabilité de Prodigy qui avait modéré des contenus postés sur son site. La section 230 (c) (1) stipule qu’« aucun fournisseur d’accès ne sera traité comme un éditeur ». Un deuxième paragraphe, 230 (c) (2), précise qu’« aucun fournisseur ou utilisateur d’un service informatique interactif ne sera tenu responsable, s’il a de bonne foi restreint l’accès ou la disponibilité de matériaux qu’il considère être obscènes, excessivement violents, de nature harcelante ou autrement problématiques (otherwise objectionable), que cette information soit constitutionnellement protégée ou non.
C’est ce qu’on appelle la disposition du « bon Samaritain », conçue comme plus limitée que le paragraphe (c) (1), car nécessitant de prouver la bonne foi.
Mais les juridictions étatiques et fédérales ont étendu la protection juridique bien au-delà de ce que prévoit le texte de la loi, avec pour résultat que les plateformes ne soient guère incitées à combattre les abus en ligne. La section 230 a, de fait, libéré les sites internet, les sites de streaming et les réseaux sociaux (pas encore nés en 1996), qui peuvent héberger du contenu extérieur sans être confrontés à la tâche (impossible ?) de vérifier et de contrôler tout ce qui est posté par les utilisateurs. Telle qu’interprétée par les juridictions fédérales, la section 230 confère aux plateformes et réseaux sociaux une immunité totale, quels que soient le contexte et le cas de figure (modération ou non). Avec pour conséquences, entre autres, la multiplication des mensonges et la prolifération de la désinformation et des discours de haine. Ils ont donc le pouvoir sans la responsabilité, selon les mots de Rebecca Tushnet. » in Deysine, Anne. « La section 230 : quelle immunité pour les réseaux sociaux ? » La revue européenne des médias et du numérique, 13 février 2024.
Pour rappel également, Trump s’est tour à tour « amusé », dans ce mandat comme dans son précédent, à brandir la menace de la suppression de la section 230 (quand ça l’arrangeait pour mettre la pression aux grands patrons de la tech qui tardaient à lui donner des gages de servilité) puis à en rappeler l’importance (dès lors que les gages de servilité avaient été obtenus et qu’il s’agissait alors pour lui de rétablir les plateformes dans une immunité totale au service de ses intérêts politiques.]
Reprenons.
Dans le contexte de l’explosion totalement dérégulée des contenus générés par IA, continuer aujourd’hui à prétendre encore distinguer entre un statut d’éditeur et un autre d’hébergeur en privilégiant ce dernier, c’est prétendre vouloir nettoyer les écuries d’Augias avec un coton-tige et un mi-temps thérapeutique. Il ne s’agit plus de dire que c’est trop tard (c’est en effet trop tard) ; il s’agit de dire que ce n’est simplement plus le sujet.
On ne peut plus considérer aujourd’hui que les très grandes plateformes actuelles de médias sociaux sont légitimes à continuer de s’abriter derrière un statut d’hébergeur. Elles ne le sont plus. Du tout. Leurs algorithmes tordent la réalité sous l’impulsion et les intentions claires et transparentes de l’idéologie de leurs propriétaires. Et elles ont toutes jusqu’ici absolument tout mis en place pour, à chaque fois que possible, se soustraire à leurs obligations légales ou à leurs engagements moraux.
Nous sommes au coeur d’un nouvel épisode du paradoxe de la tolérance de Popper : nous avons été beaucoup trop tolérants avec des grandes plateformes qui trop longtemps furent et continuent d’être la caution de toutes les intolérances. Tout a été dit et documenté sur le fait que toutes les plateformes ont non seulement parfaitement conscience des dérives et des dangers qu’elles représentent (notamment mais pas uniquement pour les publics les plus jeunes), sur les moyens dont elles disposent toutes pour immédiatement atténuer ces dangers et ces dérives, et sur les coupables atermoiements, reniements, dissimulations et mensonges qui les conduisent à ne rien mettre en place de significatif à l’échelle de l’immensité et de l’urgence des problèmes qu’elles posent. Je l’ai (et tant d’autres avec moi) tant de fois dit, écrit, montré et démontré et le redis encore une fois :
Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux (…) les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.
Autre fait incontestable de ce premier quart du 21ème siècle, aujourd’hui et lorsqu’ils ne disposent pas déjà d’un internet totalement fermé ou sous contrôle (comme en Chine ou en Russie par exemple), l’essentiel des pouvoirs politiques de la planète n’ont plus pour projet, ambition ou vocation de contrôler et de limiter le pouvoir de nuisance de ces plateformes mais tout au contraire de le maximiser et de le mettre à leur propre service ou, le cas échéant, à celui d’un agenda du chaos sur lequel ils espèrent pouvoir encore prospérer. Comme le rappelle très bien Fred Turner dans « Politique des machines » :
« L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre. »
Il revient donc aux quelques états encore pleinement démocratiques (ou pas encore totalement illibéraux), en Europe notamment, de mettre immédiatement fin à la tolérance qui est faite à ces très grandes plateformes, de rompre avec leur statut d’hébergeur et de les rendre éditrices en droit. À celles et ceux qui m’objecteront que c’est impossible, je répondrai qu’il s’agit de l’une de nos dernières chances pour préserver l’espoir de vivre encore dans une forme de réalité partagée et consensuelle, et qui ne soit pas en permanence minée et traversée d’opérations massives de déstabilisation ou d’influence de plus en plus simples à initier et de plus en plus complexes à contrer (si vous êtes curieux de cela, regardez par exemple ce qui se passe actuellement autour de l’IA, des LLM et de la stratégie des « data voids » – données manquantes – et autres LLM Grooming). Et que si ce mur là continue de se fissurer et tombe, alors …
À celles et ceux qui disent que c’est impossible je répondrai aussi que refuser de le faire c’est continuer de nier la place et le rôle politique de ces plateformes et privilégier un argument de neutralité de la technique dont nous avons chaque jour démonstration de l’ineptie totale qu’il recouvre. C’est bien parce que ces plateformes sont avant tout politiques, c’est bien parce que ces plateformes sont dirigées par des hommes (et quelques rares femmes) aux agendas idéologiques clairs (et le plus souvent dangereux), c’est bien parce qu’ouvrir le code des algorithmes ne suffit plus, c’est bien parce qu’il s’agit de protéger des populations entières d’usages incitatifs qui tendent majoritairement à corrompre, à pourrir, à remettre en doute toute forme de réalité objectivable et partagée, c’est bien pour l’ensemble de ces raisons qu’il est aujourd’hui impérieux de sortir d’une logique où le statut d’hébergeur est systématiquement brandi comme la carte joker de l’effacement de toute responsabilité ou de toute contrainte.
Le maintient d’un statut d’hébergeur primant sur celui d’éditeur n’avait de sens que dès lors qu’il n’y avait pas plus qu’un doute raisonnable sur l’indépendance politique et idéologique des plateformes et de ceux qui les dirigent. Ce doute étant aujourd’hui totalement levé et démonstration étant faite quasi-quotidiennement de l’ingérence de ces plateformes dans chacune des strates et orientation du débat public comme des décisions politiques, il faut imposer un statut d’éditeur à toutes ces grandes plateformes et que ce statut prime sur des fonctions d’hébergeur qui peuvent, marginalement ou périphériquement leur être conservées. Bref il faut de toute urgence inverser la logique. Il faut que ces plateformes répondent en droit de leur responsabilité d’abord éditoriale ou il faut qu’elles s’effondrent. Tout autre scénario revient aujourd’hui à accepter l’effondrement à moyen terme de nos démocraties. Il nous faut un effet cliquet ; il nous faut « cranter » une décision suffisamment forte pour qu’elle change totalement les dynamiques en cours.
Depuis l’émergence des grands réseaux puis médias sociaux « grand public », disons depuis 15 ou 20 ans, nous avons, et le législateur, raisonné en alignement avec l’argumentaire des plateformes consistant à expliquer que « plus elles étaient grosses » (en nombre d’utilisateurs), « plus les contenus y étaient abondants« , et « plus il était impossible d’y appliquer une modération ou une transparence éditoriale. » Or nous avons commis une triple erreur.
D’abord sur le statut d’hébergeur versus celui d’éditeur : cet argumentaire était directement repris de celui des fournisseurs d’accès, qui eux, étaient à l’époque comme maintenant, parfaitement légitimes à être protégés par le statut d’hébergeur en tant qu’intermédiaires techniques. Mais aucune des grandes plateformes dont nous parlons aujourd’hui n’a bâti son succès et son audience en tant qu’intermédiaire technique. Voilà notre première erreur.
La seconde erreur est de considérer que plus les gens sont nombreux à interagir, plus il y a de contenus en circulation, et moins il devrait y avoir de règles (ou seulement des règles « automatisées ») car toutes ces interactions seraient impossibles à contrôler. Je vous demande maintenant de relire la phrase précédente et d’imaginer que nous ne parlons plus de grandes plateformes numériques mais de pays et de populations civiles. Imagine-t-on réellement pouvoir tenir un argumentaire qui expliquerait que plus la population d’un pays est nombreuse, plus elle interagit et produit des discours et des richesses, et moins il doit y avoir de règles et de lois car tout cela serait trop complexes à gérer ? Voilà notre deuxième erreur. Et même si par nature, les espaces de ces très grandes plateformes ne sont ni entièrement des espaces publics, ni jamais pleinement des espaces privés, ils demeurent des espaces politiques traversés en chacun de leurs points et de leurs vecteurs par la question du « rendu public » et des règles afférentes qui le permettent et l’autorisent.
La troisième erreur est d’avoir laissé ces grandes plateformes agglomérer, agglutiner, une série de services et de « métiers » qui n’ont rien à voir entre eux et obéissent à des logiques de régulation différentes pouvant aller jusqu’à l’antagonisme. Ainsi, un service de « réseau social » qui s’appuie uniquement sur de la mise en relation, un service de messagerie électronique, un service de production de contenus vidéos, un service de moteur de recherche, et quelques autres encore, ne peuvent évidemment pas être soumis aux mêmes règles ou statuts d’hébergeur ou d’éditeur. Il n’est ainsi pas question pour un service de courrier électronique de faire peser la même responsabilité éditoriale que, par exemple, pour un service de production de vidéos. Lorsque Mark Zuckerberg déclarait ainsi en 2020, « Treat us like something between a telco and a newspaper » (« traitez-nous comme quelque chose entre un opérateur télécom et un journal »), c’est une manière d’échapper à sa responsabilité de « journal » (en s’abritant derrière les régulations des opérateurs télécoms qui ne couvrent pas l’aspect éditorial) et d’échapper aussi à sa responsabilité d’opérateur télécom (en s’abritant derrière les régulations propres aux médias). Voilà notre troisième erreur : avoir accepté de traiter l’ensemble de ces grandes plateformes comme si elles n’étaient qu’un tout et n’avaient qu’un seul « métier », alors pourtant que depuis des années, la nécessité de leur démantèlement (ou de leur nationalisation partielle) était la seule hypothèse rationnelle.
En parallèle voilà plus de deux décennies que nous demandions et tentons d’installer dans le débat public la nécessité d’ouvrir le code ces algorithmes. Moi y compris et – pardon pour l’immodestie – moi parmi les tous premiers avec mon camarde Gabriel Gallezot dès 2003, Aujourd’hui non seulement ouvrir le code des algorithmes ne suffit plus puisqu’irrévocablement, irrémédiablement, « il n’y a pas d’algorithme, juste la décision de quelqu’un d’autre » (Antonio Casilli, 2017), et de quelqu’un d’autre qui, soit se cogne de toute considération politique, soit au contraire ne raisonne qu’en termes politiques et idéologiques.
Cela ne veut pas dire pour autant que toute plateforme hébergeant des contenus en ligne doit se voir assignée uniquement et exclusivement un rôle et statut d’éditeur. Cela veut par contre dire que toutes les très grandes plateformes sociales actuelles, disons pour reprendre la catégorisation du DSA (Digital Service Act) toutes celles ayant plus de 45 millions d’utilisateurs actifs (soit 10% de la population européenne), toutes ces très grandes plateformes doivent d’abord être considérées comme éditrices. Dans la jurisprudence, l’un des critères les plus déterminants qui permet de distinguer entre hébergeur et éditeur et celui dit du « rôle actif », défini comme « la connaissance et le contrôle sur les données qui vont être stockées. » Or qui peut aujourd’hui sérieusement prétendre que Facebook, Instagram, X, TikTok et les autres n’ont pas un rôle actif dans la circulation des contenus hébergés, et que ces plateformes n’auraient ni connaissance ni contrôle sur les données et contenus stockés ? Le gigantisme fut longtemps l’argument mis en avant par les plateformes pour, précisément échapper à leur responsabilité éditoriale. Cet argument n’a aujourd’hui (presque) plus rien de valide techniquement ou de valable en droit.
Entendez-vous le son qui monte ? « Cela reviendrait à condamner le modèle même de ces plateformes, à les empêcher d’exister« . Oui. Oui encore et encore oui. Puisqu’elles n’entendent rien et se soustraient à toutes leurs obligations légales ou morales, oui il faut les renvoyer à leur responsabilité première, qui est une responsabilité éditoriale. Et le risque qu’elles ferment ? Oui il faut prendre ce risque. Qu’elles revoient entièrement leur mode de fonctionnement ? Oui il faut prendre ce risque. Que les interactions y baissent drastiquement ? Oui il faut prendre ce risque. Qu’elles soient contraintes de massivement recruter des modérateurs et des modératrices bien au-delà de ce qu’exige l’actuel DSA (dont elles n’ont à peu près rien à secouer) ? Oui il faut prendre ce risque. Qu’elles soient contraintes d’appliquer toutes les décisions de justice qui restent jusqu’ici lettre morte ? Oui il faut prendre ce risque. Que leur modèle économique soit totalement remis en cause ? Oui il faut prendre ce risque. Qu’une mathématique algorithmique explicite s’applique de plein droit sans être en permanence triturée pour faire remonter le pire, le plus clivant, le plus choquant, le plus porteur émotionnellement et le plus au service des idéaux du patron ? Oui il faut prendre ce risque. Que nous soyons contraint.e.s de les quitter ? Oui il faut prendre ce risque.
Et par-delà ces « risques » il s’agit surtout d’opportunités. Je rappelle en effet que d’autres formes de collectif, d’agrégation, d’intelligences collectives ont toujours été possibles, le sont et le seront encore à l’échelle d’internet, à l’échelle du web, à l’échelle des plateformes. Car si l’on parvient, pour les plus grosses d’entre elles, à mettre fin à ce statut d’hébergeur aujourd’hui presque totalement dérogatoire au droit, alors il reviendra à chacun.e d’entre nous, aux pouvoirs politiques et aux collectifs citoyens, aux chercheurs, aux chercheuses, aux journalistes et à l’ensemble des corps intermédiaires aujourd’hui tous menacés ou contraints par ces plateformes, de retrouver ce qui fut un temps le rêve achevé du web : des gens s’exprimant en leur nom (ou pseudonyme qu’importe), depuis principalement leur adresse, créant entre elles et eux des liens plutôt que des like. Un Homme, une page, une adresse.
Ce que nous ferons de l’actuelle l’irresponsabilité éditoriale des très grandes plateformes n’est ni temporairement un choix technique, ni réellement un choix juridique, ni même pleinement un choix politique ; c’est une somme de tout cela mais c’est bien plus encore que cela. C’est un choix ontologique, qui seul peut nous permettre de définir et d’assigner ces écosystèmes informationnels à ce qu’ils sont vraiment et non à ce qu’ils prétendent être. Fred Turner encore, dans une interview sur NeXt à l’occasion de la sortie de « Politique des machines » (chez le meilleur éditeur de la galaxie connue) nous le rappelle (je souligne) :
« Nous vivons dans une ère saturée de médias et d’histoires. Rien ne donne plus de pouvoir que la capacité à contrôler le récit. En la matière, Donald Trump, c’est un drame dans lequel chaque Américain a une chance de jouer un rôle. C’est ce drame qui structure la réalité.
Si la France est là où les États-Unis étaient en 2022, disons, alors elle a une opportunité que nous n’avons pas su saisir. Vous pouvez construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques. Vous pouvez commencer à parler du monde que vous voulez construire. De cette manière, si l’autoritarisme arrive à votre porte, vous aurez déjà une autre histoire à proposer. »
Il (me) semble que cette histoire ne pourra jamais être contée si nous ne contribuons pas, en parallèle et peux-être en préalable, à démolir et à éparpiller façon puzzle l’actuel paysage éditorial dominant.
Marcello Vitali Rosati donnait la définition suivante de l’éditorialisation, une définition que je vous ai souvent donnée ici, que j’ai souvent reprise à mon compte :
« L’éditorialisation n’est pas seulement un ensemble de techniques, même si l’aspect technique est le plus visible et le plus facilement définissable. On pourrait donner la définition suivante. L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »
« Avoir une autre histoire à proposer« , « produire des visions du monde« , produire du réel. Que font et que sont ces méga-plateformes aujourd’hui sinon un acte premier et fondateur de production du réel. Mais souvenez-vous en et retenez-le bien, c’est un réel « à peu près » ; c’est un acte de production « à notre place« . Il est temps que tout cela cesse. Alors cessons d’être le bruit, et surtout, empêchons-les de plonger notre monde dans la fureur.


© Pool photo by Samir Hussein


“You don’t got no ID?” a Border Patrol agent in a baseball cap, sunglasses, and neck gaiter asks a kid on a bike. The officer and three others had just stopped the two young men on their bikes during the day in what a video documenting the incident says is Chicago. One of the boys is filming the encounter on his phone. He says in the video he was born here, meaning he would be an American citizen.
When the boy says he doesn’t have ID on him, the Border Patrol officer has an alternative. He calls over to one of the other officers, “can you do facial?” The second officer then approaches the boy, gets him to turn around to face the sun, and points his own phone camera directly at him, hovering it over the boy’s face for a couple seconds. The officer then looks at his phone’s screen and asks for the boy to verify his name. The video stops.


The sound of power tools screech in what looks like a workshop with aluminum bubble wrap insulation plastered on the walls and ceiling. A shirtless man picks up a can of compressed air from the workbench and sprays it. He’s tinkering with a pair of Meta Ray-Ban smart glasses. At one point he squints at a piece of paper, as if he is reading a set of instructions.
Meta’s Ray-Ban glasses are the tech giant’s main attempt at bringing augmented reality to the masses. The glasses can take photos, record videos, and may soon use facial recognition to identify people. Meta’s glasses come with a bright LED light that illuminates whenever someone hits record. The idea is to discourage stalkers, weirdos, or just anyone from filming people without their consent. Or at least warn people nearby that they are. Meta has designed the glasses to not work if someone covers up the LED with tape.
That protection is what the man in the workshop is circumventing. This is Bong Kim, a hobbyist who modifies Meta Ray-Ban glasses for a small price. Eventually, after more screeching, he is successful: he has entirely disabled the white LED that usually shines on the side of Meta’s specs. The glasses’ functions remain entirely intact; the glasses look as-new. People just won’t know the wearer is recording.
Another interesting observation following my return to Facebook: when somebody responds to one of my posts there, it definitely feels like the audience for this response is primarily the people I am connected to. What I mean by that is that I expect that my contacts have a chance of seeing that response, because responses are closely tied to the original content (“comments and post“ format).
On Bluesky or Mastodon (or Twitter for that matter, and it could partly explain why I drifted away at some point and started spending more time on Facebook), when somebody responds to one of my updates, I do not expect the people connected to me to see it. And indeed, if they are not following the person who responded, if they do not specifically open up my update to see if there are responses or if it is part of the thread, they will not see it. On those platforms, responses are much more “their own thing” than on Facebook or on a blog.
On Facebook, there is an immediate and visible feeling of micro-community around a publication, when people start commenting. It feels like we’ve just stepped into a break-out room. Participants get notifications, and come back to see responses. If the conversation becomes lively, it is made visible to more people. People will end up connecting to each other after having “met” repeatedly in a common friend’s facebook comments.
Bluesky, Mastodon and Twitter (yeah, and Threads) feel more fragmented. It’s more difficult to follow for lots of people. They are faced with bits and pieces of conversations flying about, and access to the context of those is not frictionless. Part of this, I think, has to do with how publication audience is managed (I’ll definitely have to do a “part 4” about this in my Rebooting the Blogosphere series). And another, of course, is the primacy of non-reciprocal connections on those platforms.
What Facebook also does that blogs do not at this stage, is that Facebook makes my comments on other people’s publications candidates for appearing in the news feeds of people who are connected to me. Every now and again, something of the form “Friend has commented on Stranger’s post” will show up. The equivalent in the blogging world would be having a “reading tool” (now RSS readers, but we need to go beyond that, that’s the Rebooting the Blogosphere part 3 post that I’m actively not writing these days) which will not only show me the blog posts that the people I’m following have written, but also that they have commented here or there, on another blog. This tightens the connection between people and contributes to discovery – ie, finding new people or publications to follow.
In summary: there is something fundamentally different in how Facebook, the other socials, and blogs make visible to a person’s network the comments/responses they have made elsewhere. And the “feeling of conversation/community” of multi-person exchanges also varies from one platform to another.

Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.
J’avais alors formulé plusieurs souhaits :
Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière
Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.
Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein 
Cela commence avec une brève (mais saignante) dans Stratégies du 23 Avril : « Du don de data organique contre la précarité. »

Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.

Cela continue avec un autre article, cette fois dans l’Humanité en date du 25 Avril : « Aide alimentaire contre données biométriques ? L’étrange deal proposé par le cabinet Louis Reynaud, spécialisé dans la cybersécurité, à une épicerie solidaire. »

Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf
Et Ouest-France à son tour sort un papier le 2 Mai : « Comment on a offert à des étudiants bénéficiaires d’une épicerie solidaire de ficher leur visage. »

Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).

Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).
L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »
Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant
Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).
Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).
L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.

Je rappelle par ailleurs à toutes fins utiles, que ce blog ést doté depuis Juin 2012, par la Bibliothèque Nationale de France, d’un numéro ISSN, et qu’il est donc régulièrement archivé et conservé à titre patrimonial dans le cadre du dépôt légal numérique (parmi 4 millions d’autres sites).
Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.
J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.
Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)
J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.
Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.
Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.
Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là 

Le 29 Avril 2025 j’ai été (avec d’autres) auditionné à l’assemblée nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». L’ensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de l’assemblée.
Initialement invité en compagnie d’Aurélie Jean et de David Chavalarias qui ont finalement dû décliner (j’espère qu’ils pourront tout de même être entendus), le périmètre de cette audition a finalement réuni :


Pour préparer cette audition, on nous avait envoyé une liste de 18 questions. Je vous livre ci-dessous les réponses que j’y ai apportées et que j’ai également transmises à ladite commission. Comme j’aime bien partager ma vie avec mes étudiant.e.s du meilleur BUT Infocom de la galaxie connue, je leur avais raconté et annoncé cette audition et leur avais aussi demandé de répondre à quelques-unes des questions qui m’avaient été adressées, en le faisant depuis leur point de vue d’utilisateur et d’utilisatrice de la plateforme. J’en ai extrait (avec leur accord et en les anonymisant) quelques verbatims que vous trouverez en toute fin d’article.
A titre personnel cette expérience fut à la fois intéressante mais essentiellement frustrante. Il s’agit d’un dispositif « court » : nous étions ici 4 universitaires à être auditionnés sur un temps d’un peu plus d’une heure. Ajoutez-y les questions et les propos « liminaires » et cela reste court. Mais chaque commission auditionne énormément de personnes et il est donc normal et nécessaire de limiter la temporalité de ces temps d’échange. Il y a aussi une forme de solennité biaisée : nous sommes conviés en tant que praticiens et praticiennes spécialistes d’un sujet auquel nous avons consacré plusieurs dizaines d’années de recherche, de travaux, d’ouvrages et d’articles, mais nous nous adressons à la puissance publique dans un cadre dont il est difficile de déterminer quelle est la part attendue de l’analyse réflexive, et celle de l’opérationnalité immédiate exigée ; car à la fin, tout cela devra se traduire par des mesures concrètes susceptibles de produire ou d’orienter des cadres législatifs à l’origine de décisions politiques. Le dernier point de difficulté est que nous débarquons dans cette commission sans savoir quel est le niveau réel d’acculturation des députés aux éléments que nous allons présenter. J’avais de mon côté écouté l’ensemble des auditions précédentes pour tenter d’éviter les redites et produire un minimum de continuité dans les travaux de la commission, mais même en ayant pris le temps de le faire, l’exercice reste délicat.
Tout ça pour dire que je suis bien content de pouvoir, au calme, transmettre par écrit mes réflexions à cette commission, car si elle devait se fonder uniquement sur ce que je lui ai déclaré à l’oral (ainsi que mes camarades d’audition), je ne pense pas qu’elle serait très avancée ou informée
J’espère donc surtout qu’elle pourra prendre le temps de lire tout cela (ainsi que la synthèse que j’en dresse à la fin en mode TLDR).
[On nous demande d’abord de nous présenter brièvement et on nous laisse un « propos liminaire » de 5 minutes] Je suis enseignant chercheur en sciences de l’information. Si les universitaires qui étudient la sociologie se définissent comme sociologues, je peux me définir comme « médiologue ». J’étudie les médias numériques (moteurs de recherche, réseaux sociaux, plateformes) et ce qu’ils modifient dans notre rapport à l’information, à la connaissance, aux autres et à nous-mêmes. Depuis 25 ans je documente l’évolution de ces outils avec – essentiellement – des méthodes d’observation participante. Et si je devais résumer 25 ans de recherche en une seule phrase je dirai que tout est de la faute du modèle économique de ces plateformes. Ou pour reprendre le titre d’une conférence d’une collègue, Zeinep Tufekci : « nous avons construit une dystopie, juste pour obliger les gens à cliquer sur des publicités« .
[Propos liminaire 1] En guise de propos liminaires je veux rappeler et insister sur le fait que ces « réseaux sociaux » qui sont en fait des « médias sociaux » doivent être pensés et analysés comme des biotopes particuliers dans un écosystème général qui est celui de l’économie des médias (radio, télé, presse, etc.). Et que ces médias sociaux procèdent (en partie) comme des parasites qui vont littéralement venir phagogyter les autres écosystèmes médiatiques. Les exemples sont nombreux. Il y avait eu à l’époque (circa 2010) le fait que plein de sites de presse ou de médias avaient accepté d’installer sur leur site le bouton « Like » de Facebook qui avait fait d’eux de simples vassaux numériques et médiatiques de cette plateforme devenue hôte. J’écrivais alors et alertais : « Le Like tuera le lien« .
Aujourd’hui il y a toujours des liens d’écho, de résonance très forts entre différents écosystèmes médiatiques mais dans certains cas d’usages, auprès de certaines populations, pour certains segments d’âge ou d’éducation, les médias sociaux sont le premier biotope informationnel. C’est cette question qu’il faut adresser (pour TikTok comme pour les autres) et pour laquelle la part « éditoriale » de ce que l’on appelle « les algorithmes » doit être clarifiée, débattue, encadrée. Encadrée de manière contraignante.
[Propos liminaire 2] Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :
[Propos liminaire 3] La question nous est posée de savoir si l’on peut « exiger des réseaux sociaux d’être entièrement transparents sur leur algorithme« . Oui. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un bouton like vaut 1 point et qu’un bouton colère vaut 5 points, nos comportements sont susceptibles de changer).
Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, dans des mondes « réels » ou dans d’autres « virtuels », etc.
Nous parlons d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.
Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.
Et a fortiori encore dans un monde où ces applications et plateformes sont devenues totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
[Propos liminaire 4] Je veux citer ce que j’écrivais dans l’article « Ouvrir le code des algorithmes ne suffit plus »
Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.
Ces questions étaient organisées en cinq grandes parties :
1. Quels sont les multiples facteurs pris en compte par les algorithmes utilisés par les réseaux sociaux, notamment pour déterminer les contenus présentés aux utilisateurs ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
De manière générale les algorithmes de recommandation fonctionnent sur 4 critères.
Reste la particularité de l’algorithme de Tiktok qui est la question du rythme. Alors que la durée moyenne d’une vidéo TikTok est de 15 ou 16 secondes, toutes les 3, 4, 5 ou 6 secondes, donc sur des temps et des rythmes extrêmement courts, il y a une interaction, donc une documentation de notre pratique, donc une information pour l’algorithme. La vitesse de consommation est en elle-même une information. Elle fonctionne comme un arc réflexe. Chaque vidéo, chaque contenu affiché est l’équivalent du petit coup de marteau sur votre genou pour déclencher l’arc réflexe. Sauf que cette fois l’arc réflexe recherché est un arc réflexe cognitif. Cette rythmique a été copiée par les autres plateformes : Reels sur Insta, Spotlights sur Snapchat, Shorts sur Youtube.
A cette rythmique s’ajoute aussi la multiplication des points d’entrée dans les logiques de recommandation : « Pour toi » mais aussi « abonnements » (« suivis »), « amis », « lives », « explorer ».
Et une stratégie du fou, de l’irrationalité : certains contenus mis en avant disposent de chiffres de visibilité et d’engagement hallucinants (plusieurs centaines de millions de vues) alors que d’autres beaucoup plus travaillés et pertinents ne décolleront jamais. La question des métriques est par ailleurs là aussi une spécificité de TikTok qui fonctionne comme un vertige, une ivresse de notoriété : la moindre vidéo peut atteindre des nombres de vues immensément plus important que sur d’autres plateformes. Comme sur les autres plateformes, absolument rien ne permet en revanche d’authentifier la sincérité de ces métriques.
2. Les algorithmes des réseaux sociaux peuvent-ils favoriser certains types de contenus ? Le font-ils effectivement ? Si oui, selon quels facteurs et quelles modalités ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
Dans l’absolu la réponse est oui car la nature même d’un algorithme est de trier et d’organiser l’information et les contenus. Donc de hiérarchiser. Donc d’éditorialiser (cf « Un algorithme est un éditorialiste comme les autres« ). Ce qui est plus complexe c’est de documenter finement la manière dont ils procèdent. Mais on a eu un exemple indépassable avec le rachat de Twitter par Elon Musk et la manière dont du jour au lendemain la ligne éditoriale a totalement changé (cf mon article « ouvrir le code des algorithmes ne suffit plus« ).
[Nota-Bene] J’entends le terme « d’éditorialisation » comme le définit Marcello Vitali-Rosati : « L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »
L’autre enjeu c’est de comprendre à quels intérêts ces changements correspondent ; un algorithme étant nécessairement la décision de quelqu’un d’autre, qu’est-ce qui motive ces décisions ?
Un concept clé pour comprendre la favorisation de certains contenus c’est celui de la publicitarisation. La « publicitarisation » c’est une notion définie ainsi par Valérie Patrin-Leclère, enseignante au CELSA :
« une adaptation de la forme, des contenus, ainsi que d’un ensemble de pratiques professionnelles médiatiques à la nécessité d’accueillir la publicité. Cette adaptation consiste en un aménagement destiné à réduire la rupture sémiotique entre contenu éditorial et contenu publicitaire – elle se traduit, par exemple, par l’augmentation des contenus éditoriaux relevant des catégories « société » et « consommation » ou par le déploiement de formats facilitant l’intégration publicitaire, comme la « téléréalité » – mais aussi en un ménagement éditorial des acteurs économiques susceptibles d’apporter des revenus publicitaires au média (…) »
Cette publicitarisation est là encore très ancienne. Un des responsables partenariats de Google (David Eun) déclarait il y a plus de 20 ans : « Ads Are Content ». Traduction : « les publicités sont du contenu« , et par extension, « les publicités c’est le contenu« . Le résultat aujourd’hui c’est ce verbatim d’utilisateurs et d’utilisatrices pour qui « le fait que le contenu est sponsorisé n’est pas toujours explicite et même parfois volontairement dissimulé. Les publicitaires reprennent également les codes des influenceurs et les trends, ce qui floute la frontière entre une recommandation personnelle et un contenu sponsorisé. »
Concernant la dimension géopolitique ou idéologique, là où TikTok est un objet encore plus complexe c’est parce que lui-même est en quelque sorte le premier réseau social directement, presqu’ontologiquement géopolitique. Créé par la Chine, comme un facteur, vecteur, agent d’influence. Mais avec des déclinaisons différentes dans chaque pays ou zone : le TikTok Chinois n’est pas le TikTok américain qui lui-même n’est pas exactement le TikTok européen, etc.
Une autre particularité forte de l’algorithmie de TikTok (en plus de son rythme propre) c’est ce qu’on appelle le « beauty / pretty privilege » et qui fait que des phénomènes comme le SkinnyTok ont un impact majeur presqu’indépendamment du nombre d’utilisateurs actifs de la plateforme (saisine par Clara Chappaz de l’ARCOM et de la commission européenne à ce sujet). Et qui fait que certains corps (noirs, gros, trans, etc.) sont invisibilisés ou dénigrés.
Les réseaux et médias sociaux, via leurs décisions et tamis algorithmiques, sont essentiellement deux choses :
Et plus il y aura de normes édictées par les médias sociaux, plus elles seront facilement suivies (public captif), plus elles seront publicitarisables, plus il y aura de cash, plus il y aura de nouveaux espaces de publicitarisation. Ad Libitum.
Et pour être ces machines à cash et à fabriquer de la norme, les algorithmes de ces plateformes ont un rapport particulier à la mémoire : ils sont structurellement dans une forme d’hypermnésie permanente (du fait de la conservation de nos historiques) mais sont conjoncturellement tout à fait capables d’amnésie lorsque cela les arrange ou le nécessite (par exemple pour nous re-proposer des contenus dont nous avons dit qu’ils ne nous intéressaient pas mais qui sont rentables pour la plateforme).
3. Quels sont les conséquences du modèle économique des réseaux sociaux et particulièrement de TikTok quant à la construction et la mise en œuvre des algorithmes utilisés ?
Ils cadrent tout. Au sens où le sociologue Erving Goffman parle des « cadres de l’expérience ».
Toute expérience humaine renvoie, selon Goffman, à un cadre donné, généralement partagé par toutes les personnes en présence ; ce cadre oriente leurs perceptions de la situation ainsi que les comportements qu’elles adoptent par rapport à elle. Ceci étant posé, l’auteur s’attache, selon son habitude, à classer les différents types de cadres, en distinguant d’abord les cadres primaires des cadres transformés. (Source)
Ces cadres vont ensuite être « modalisés », c’est à dire subir différentes transformations. Et donc la conséquence du modèle économique des réseaux sociaux c’est que la publicité, ou plus exactement la publicitarisation est la première modalisation de ce cadre d’expérience commun qu’est la navigation dans les contenus de chaque plateforme.
La publicitarisation fabrique littéralement de la consommation (au sens économique mais aussi informationnel et navigationnel), consommation qui elle-même fabrique des formes de compulsion (FOMO, etc.) qui elles-mêmes viennent nourrir et optimiser la rentabilité du cadre de la publicitarisation.
Sur ce sujet, je cite souvent l’exemple de la position des deux fondateurs du moteur de recherche Google, Serguei Brin et Larry Page; En 1998, ils publient un article scientifique pour expliquer le fonctionnement de l’algorithme Pagerank qui va révolutionner le monde de la recherche en ligne. Et dans une annexe de leur article scientifique ils écrivent :
« nous déclarons que les moteurs de recherche reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs. S’il est vrai qu’il est particulièrement difficile, même pour les experts du domaine, d’évaluer les moteurs de recherche, les biais qu’ils comportent sont particulièrement insidieux. Une nouvelle fois, le Google de ces dernières années en est un bon exemple puisque nous avons vendu à des entreprises le droit d’être listé en lien sponsorisé tout en haut de la page de résultats pour certaines requêtes. Ce type de biais est encore plus insidieux que la « simple » publicité parce qu’il masque l’intention à l’origine de l’affichage du résultat. Si nous persistons dans ce modèle économique, Google cessera d’être un moteur de recherche viable. »
Et ils concluent par :
« Mais nous croyons que le modèle publicitaire cause un nombre tellement important d’incitations biaisées qu’il est crucial de disposer d’un moteur de recherche compétitif qui soit transparent et transcrive la réalité du monde. »
On a donc des plateformes qui « ontologiquement » ont pleine conscience et connaissance de la dénaturation opérée par leur modèle de régie publicitaire mais qui passent outre à la seule fin d’une rentabilité maximale. Cela pourrait être simplement considéré comme du cynisme. Mais à l’échelle des dégâts produits à la fois dans le débat public mais aussi dans la psyché de certains des plus jeunes ou des plus fragiles, c’est de l’irresponsabilité. Et c’est pénalement condamnable. Cela devrait l’être en tout cas.
4. Quelles sont les conséquences des opinions des concepteurs des algorithmes utilisés par les réseaux sociaux, et notamment de leurs éventuels biais, dans la construction et la mise en œuvre de ces algorithmes ?
J’ai déjà répondu plus haut avec l’exemple du rachat de Twitter par Musk et dans mon article « Ouvrir le code des algorithmes ne suffit plus« . Mais on peut aussi compléter par le récent changement de Zuckerberg qui impacte directement les contenus diffusés sur Facebook. Encore une fois : il n’y a pas d’algorithmes, juste la décision de quelqu’un d’autre. Très longtemps on a refusé de le voir. Aujourd’hui, plus le monde se clive, plus les conflits sont mondialisés dans leur médiatisation, plus les plateformes sont par nature ou par intérêt des outils de Soft Power, et plus l’opinion ou l’agenda de leurs concepteurs est déterminant et cadrant.
Ce qui est très frappant aujourd’hui c’est ce qu’écrivait Kate Crawford dans son Atlas de l’IA (2021) et qui s’applique tout particulièrement aux algorithmes en tant que systèmes de pouvoir et que facteurs de puissance.
(…) il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.
Pour les algorithmes, c’est exactement la même chose : il faut nous intéresser simultanément à leurs architectures matérielles, à leurs environnements contextuels et aux politiques qui les façonnent, et retracer la manière dont ils sont reliés. Un algorithme, aujourd’hui, n’est plus uniquement une suite d’instructions logico-mathématiques, c’est une suite de systèmes de pouvoirs entrelacés.
5. Faut-il considérer les algorithmes comme des objets statiques ? Comment un algorithme évolue-t-il ? Peut-il évoluer sans intervention humaine, en apprenant de son propre fonctionnement ? À votre connaissance, comment cela s’applique-t-il aux réseaux sociaux, et particulièrement à TikTok ?
Je reprends ici ce que j’indiquais dans mes propos liminaires. Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses à la fois :
L’algorithme de TikTok n’est pas plus intelligent, plus efficace ou plus machiavélique que d’autres ; simplement, nous passons beaucoup plus de temps à nous en occuper, et nous le faisons, du fait de sa rythmique propre, avec une fréquence beaucoup plus élevée et avec un soin sans commune mesure avec les autres. Notre rapport à l’algorithme de Tiktok relève littéralement d’une forme de clinique au sens étymologique du terme, c’est à dire emprunté au grec klinikos, « propre au médecin qui exerce son art près du lit de ses malades » (lui-même de klinê, « le lit »). Selon que nous adoptons le point de vue de la plateforme ou le notre, nous sommes le médecin ou le malade.
6. Comment les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok, s’adaptent-ils à des comportements humains parfois changeants d’un jour à l’autre ?
Par effet d’entrainement. Nous éduquons et entraînons les algorithmes au moins autant qu’ils ne nous formatent en retour. Et tout parciculièrement celui de TikTok comme je l’expliquais juste ci-dessus.
Et puis par leur rythme (cf supra). L’algorithme se moque de savoir si vous êtes de gauche aujourd’hui alors que vous étiez de droite hier, végétarien aujourd’hui alors que vous étiez végan hier. Ce qui intéresse les concepteurs de l’algorithme c’est la captation en temps réel de l’ensemble de ce qui définit votre surface informationnelle numérique. L’algorithme a pour objet de scanner en permanence et si possible en temps réel des éléments qui constituent à la fois votre surface informationnelle (ce qui vous intéresse), votre surface sociale (avec qui partagez-vous ces intérêts) et votre surface comportementale (« sur quoi » ou « avec qui » passez-vous plus ou moins de temps).
Le grand problème est d’ailleurs aussi celui de la personnalisation : c’est à dire que, sur certains types de requêtes en tout cas, plus personne ne voit la même chose en réponse à la même question (ceci vaut pour les plateformes dans lesquels on démarre la navigation par une recherche). Et pour les plateformes, comme TikTok, dans lesquelles il n’est besoin d’aucun amorçage mais uniquement de scroller, tout le monde à l’impression de voir des choses différentes (personnalisées) alors qu’en fait tout le monde voit pour l’essentiel la même chose ; mais cette « même chose » se réduit exclusivement à ce qui est bon économiquement pour la plateforme, c’est à dire soit ce qui fait le buzz et va vous obliger à réagir (polarisation émotionnelle), soit ce qui vous maintient attentionnellement captif et peut donc possiblement renforcer des troubles conatifs (« Symptômes liés à une réduction des capacités d’effort, d’initiative, et à une dégradation de la volonté et des tendances à l’action. Les formes majeures peuvent aboutir à une inactivité avec repli, parfois incurie et résistance aux sollicitations de l’entourage, voire indifférence affective.« )
Je ne sais pas si l’image vous parlera mais plutôt que l’idée des « bulles de filtres » d’Eli pariser (idée que les algorithmes enferment chacun d’entre nous dans une bulle informationnelle plus ou moins étanche) je parlais de mon côté d’un comportement d’autarcithécaires ; cette idée que, du point de vue des plateformes et de leurs algorithmes, il s’agit de nous faire croire que nous sommes en situation d’autarcie informationnelle, c’est à dire de nous donner l’impression que ce qu’elles nous donnent à voir est à la fois suffisant, complet et représentatif, précisément pour que nous perdions progressivement le besoin d’aller regarder ailleurs ou même simplement de considérer qu’il existe un ailleurs informationnel. Ou pour le dire d’une autre manière, comment nous faire passer de la peur de rater quelques chose (FOMO) à la certitude d’une non-nécessité d’aller voir ailleurs.
7. Peut-on envisager des algorithmes « éthiques », notamment eu égard aux enjeux de santé mentale ? Pouvez-vous expliquer le concept d’« informatique sociale » ?
Pour moi l’éthique algorithmique passe par le rendu public de l’ensemble des critères et métriques relevant de formes d’éditorialisation. Et pour répondre par une comparaison, bien sûr que oui, on peut tout à fait imaginer des algorithmes éthiques comme on peut imaginer des vêtements fabriquées de manière éthique, des aliments fabriqués de manière éthique et qui ne soient pas immensément transformés. La seule question est : pourquoi ne le faisons-nous pas ? Pourquoi lorsqu’il en existe parfois personne ne s’y intéresse ?
La réponse à ces questions est évidemment la même que pour l’agro-alimentaire ou les vêtements : c’est une question de coût (ce qui n’est pas éthique est moins cher) et de cadres sociétaux de consommation (où l’on minore et où l’on invisibilise les problèmes posés par cette absence d’éthique).
A chaque fois il faut des drames pour que la société parvienne à se réveiller temporairement. Comme lors de l’effondrement du Rana Plaza au Bangladesh en 2013 qui fait exploser le scandale de la fast fashion. Mais malheureusement à chaque fois au lendemain de ces réveils sociétaux il se produit deux choses : le pouvoir politique ne saisit pas l’opportunité impérieuse de légiférer, et lorsqu’il le fait, la puissance du lobbying et du pantouflage vient tout édulcorer ou tout remettre à plus tard.
En complément, il y a un point particulier d’une éthique algorithmique qui consiste à se mettre en situation (pour les plateformes), où à donner l’injonction (pour la puissance publique) de casser les chaînes de contamination virales. De ralentir. D’ajouter de la friction dans les possibilités de partage, etc. On a vu et on a documenté que cela marchait, et que les plateformes le savaient. Je cite ici, avec les exemples en lien, ce que j’écrivais en Mars 2022 dans mon article « Par-delà le Like et la colère » :
« Ensuite il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu’elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que l’on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu’elles permettaient d’aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s’ils avaient bien lu l’article qu’ils s’apprêtaient à partager avant que de le faire sous le coup de l’émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c’était Youtube qui annonçait supprimer l’affichage public du compteur des « dislikes » pour « protéger » les créateurs notamment de formes de harcèlement, un effet qu’il connaît et documente pourtant depuis déjà de longues années. »
8. Pouvez-vous expliquer le concept d’« identité numérique » ? Quelles données personnelles partageons-nous lorsque nous utilisons les réseaux ? Comment ces données sont-elles utilisées par les algorithmes des réseaux sociaux et particulièrement de TikTok ?
Pour reprendre, en l’actualisant, la définition que j’en donnais dans mon ouvrage éponyme paru en 2013, je dirai que :
L’identité numérique peut être définie comme la collection des traces (écrits, contenus audios ou vidéos, messages sur des forums, identifiants de connexion, navigations, éléments d’interactions, etc.) que nous laissons derrière nous, consciemment ou inconsciemment, au fil de nos activités connectées, et le reflet de cet ensemble de traces tel qu’il apparaît « remixé » par les moteurs de recherche ainsi que par les médias et les plateformes sociales, et qui sont autant d’éléments en capacité de nourrir des choix algorithmiques visant à mieux cibler les contenus qui nous seront proposés dans le cadre du modèle économique de la plateforme concernée.
(version actualisée de Ertzscheid, Olivier. Qu’est-ce que l’identité numérique ?. OpenEdition Press, 2013, https://doi.org/10.4000/books.oep.332.)
9. Est-il possible de limiter ce partage de données personnelles ? Est-il possible et souhaitable d’en limiter la collecte, par exemple par le paramétrage des réseaux sociaux ?
Concernant la première partie de la question (est-il possible d’en limiter le partage), et pour autant qu’elle s’adresse aux utilisateurs et utilisatrices de ces plateformes, je réponds oui pour les données personnelles « déclaratives » (nous pouvons disposer d’un tamis plus ou moins large). Mais je réponds « non » pour les données personnelles qui relèvent de la sphère comportementale (ce que l’on voit, ce avec quoi l’on interagit, etc.).
Si la question s’adresse aux plateformes, alors là c’est un oui pour les données personnelles déclaratives comme pour les données comportementales. Elles sont tout à fait en capacité d’en limiter la collecte (mais cela vient heurter leur modèle publicitaire) et sont tout autant en capacité d’en limiter les usages dans le temps.
Le problème principal tient au statut discursif ou énonciatif de l’ensemble de ce qui circule, se dit et se voit dans ces plateformes ou applications : nous ne savons jamais réellement si nous sommes dans un espace discursif ou médiatique intime (où il serait OK et parfois nécessaire de partager ces données personnelles), privé, ou public. Dès 2007, trois ans après le lancement de Facebook, danah boyd indiquait que le problème des réseaux sociaux est qu’ils étaient des espaces semi-publics et semi-privés (« la privauté de ces espaces publics ou semi-publics pose problème« ). Ce problème n’a jamais été résolu.
L’autre problème (et la grande responsabilité des plateformes) c’est qu’elles changent en permanence et sous plein de prétextes différents, le réglage de nos paramètres de confidentialité ou de navigation. Et qu’elles complexifient, par défaut, la possibilité de limiter ce partage de données personnelles (dark patterns, etc.)
Sur la deuxième partie de la question (est-ce possible et souhaitable de limiter cette collecte), je réponds que c’est possible, que c’est souhaitable, et que c’est, surtout, absolument nécessaire.
Il y a un grand récit marketing et technologique qui nous fait croire que plus on collecte de données personnelles, et plus on peut nous proposer de l’information et des contenus personnalisés, et plus ce serait donc intéressant pour nous. C’est une vaste et totale fumisterie. Le seul récit qui vaille est le suivant : plus on collecte de données personnelles, plus on propose des contenus personnalisés, plus on ne fait que « publicitariser » les expériences navigationnelles et informationnelles, et plus on efface la notion de référent commun sur tout un ensemble de sujets, plus on saborde à l’échelle d’une société la question des « régimes de vérité » (cf Foucault ci-dessous), et plus on crée donc à la fois de l’isolement, du conflit, et de la défiance.
« Chaque société a son régime de vérité, sa politique générale de la vérité : c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. » Michel Foucault
Longtemps la « personnalisation » n’a été que thématique et déclarative. Du genre : je préfère l’actualité sportive à l’actualité politique, et dans l’actualité sportive, je préfère le rugby au foot. Dès que la personnalisation a gommé cette dimension déclarative explicite, dès qu’elle a surtout été indexée sur nos propres croyances, comportements et opinions plutôt que sur des médias aux formes et aux pratiques d’éditorialisation transparentes, elle est devenue un instrument purement marketing avec un impact politique massivement délétère.
10. Pensez-vous qu’il soit possible d’exiger des réseaux sociaux d’être entièrement transparents sur leur fonctionnement et les algorithmes qu’ils utilisent ?
Je reprends ici une partie de mes propos liminaires. Oui il est possible de l’exiger. En tout cas sur la partie éditoriale, cela me semble nécessaire de l’exiger. En définissant le périmètre de cette éditorialisation pour éviter qu’elle ne puisse être totalement instrumentalisée (par exemple si tout le monde sait qu’un like vaut 1 point et qu’une colère vaut 5 points, nos comportements sont susceptibles de changer mais pour autant il est impératif que chacun sache combien « vaut » chaque type d’interaction mobilisée).
Mais plus fondamentalement nous parlons d’outils qui ont totalement explosé le cadre anthropologique de la communications entre les êtres humains. On peut se parler à distance, en absence, à la fois à plusieurs et en dialogue, en multimodalité, via des avatars, etc.
Et d’outils qui touchent chaque jour et de manière récurrente davantage de monde que jamais aucun média n’a jamais été en capacité d’en toucher et ce dans toute l’histoire de l’humanité. Ce ne sont pas seulement des médias de masse mais des médias d’hyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la séquentialité hypercourte : notre cerveau n’est pas fait, n’est pas calibré pour s’informer par tranches de 6 à 15 secondes en passant d’un sujet à un autre.
Cette triple révolution anthropologique de la communication ne peut s’accommoder de demi-mesures ou de clairs-obscurs législatifs et réglementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a été démontrée et documentée à de très nombreuses reprises, grâce notamment aux lanceurs et lanceuses d’alertes.
Et a fortiori encore dans un monde où elles sont devenus totalement indissociables de pouvoirs politiques qu’elles servent toujours par intérêt (soit pour échapper à des régulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
11. Est-on en mesure de contrôler cette transparence ? Comment, tant au niveau européen qu’au niveau français ?
Nous n’avons aujourd’hui plus besoin de produire des textes, lois et règlements. Nous avons besoin de faire appliquer ceux qui existent déjà (DSA, DMA, RGPD). Et d’organiser un cadre politique dans lequel la main de l’exécutif ne tremblera pas. Par exemple au titre de l’application du DSA, Twitter devenu X aurait pu et probablement dû être au moins temporairement fermé et interdit à l’échelle européenne (il l’a été au Brésil pendant plusieurs mois).
Nous sommes aujourd’hui pour la régulation de ces mass média en plein paradoxe de la tolérance tel qu’exprimé par Popper. A force d’être tolérants y compris avec les intolérants, nous courrons droit dans le mur. [« Popper affirme que si une société est tolérante sans limite, sa capacité à être tolérante est finalement détruite par l’intolérant. Il la décrit comme l’idée apparemment paradoxale que « pour maintenir une société tolérante, la société doit être intolérante à l’intolérance. » Wikipedia]
Il faut à ce titre aussi exiger des plateformes qu’elles appliquent leurs propres règles, et par exemple ne traitent pas différemment leurs « power users » car à ce jour ces plateformes, toutes ces plateformes, ont d’abord un immense problème de démocratie interne.
12. Les apports du DSA sont-ils suffisants ?
Oui pour autant qu’il y ait la volonté politique de l’appliquer en chacun de ses termes.
13. Est-ce techniquement possible, a minima, d’exiger des réseaux sociaux des garanties que leurs algorithmes ne comprennent pas de biais susceptibles d’avoir des conséquences néfastes (sur-représentation de contenus dangereux pour la santé mentale, propagation de fake news, discriminations, etc) ?
Je crois qu’on se trompe en plaçant cette question sous l’angle « technique ». Ce n’est pas à la « technique » d’arbitrer des questions qui relèvent de la santé publique ou de l’éthique. Je me permets une comparaison. Se poserait-on la question de savoir s’il est possible « techniquement » d’exiger d’une bibliothèque que son plan de classement de comprenne pas de biais ? Non. Parce que le problème ce n’est pas le plan de classement, ce sont les unités documentaires que l’on choisit de classer, donc de donner à voir, ou de ne pas classer. Les plateformes et leurs algorithmes sont « techniquement » en pleine capacité de faire respecter des règles a minima de représentativité sur un ensemble de sujets, y compris politiques, religieux ou sociétaux. Jamais en réalité nous n’avons disposé d’outils aussi puissants et aussi précis pour y parvenir. Si les plateformes (et leurs algorithmes) ne le font pas ce n’est en rien un problème technique. En rien. C’est un problème de choix économiques (business first). Et d’idéologies et d’interêts partisans (ou cyniquement opportunistes) de leurs propriétaires et de leurs actionnariats.
14. Quelle méthodologie utilisez-vous pour étudier les algorithmes utilisés par les réseaux sociaux, et particulièrement TikTok ? Quelles difficultés rencontrez-vous ? Que signifierait, pour le monde de la recherche, la publicité des algorithmes utilisés par les réseaux sociaux ?
A titre personnel, dans mon domaine de recherche, soit on procède par enquête sociologique, soit par observation participante. Comme les sociologues allaient à l’usine pour documenter au plus près le travail concret des ouvriers, on va « aux algorithmes » pour documenter au plus près leurs effets.
Un des grands sujets de notre temps, c’est que nous avons perdu la maîtrise des corpus. Quand je dis « nous » je parle du monde universitaire et donc ensuite du monde de la décision politique. Tous les programmes partenariaux publics permettant à des universitaires d’avoir accès à l’immensité des corpus détenus par les plateformes, tous ces programmes partenariaux ont été fermés. La plupart des API supprimées. L’opacité, hier sur les algorithmes, aujourd’hui sur les données, est absolument totale. Et nous en sommes réduits à faire confiance aux chercheurs employés par ces plateformes (mauvaise idée), ou à attendre la prochaine fuite d’un repenti ou d’une lanceuse d’alerte (encore plus mauvaise idée). La puissance publique, les chercheurs et universitaires de la puissance publique, n’ont plus aucune entrée ou maîtrise des corpus (linguistiques, sociologiques, etc) qui circulent dans ces plateformes et qui les constituent. Et c’est non seulement très inquiétant, mais c’est surtout très inacceptable.
15. Le grand public est-il familiarisé avec le fonctionnement des algorithmes, et particulièrement de ceux utilisés par les réseaux sociaux ? Adapte-t-il son comportement en conséquence ?
Les travaux existants montrent qu’en effet, lorsqu’un fonctionnement algorithmique est suffisamment connu on a tendance à l’intégrer à notre pratique. Et en général les plateformes mettent donc en place des dispositifs pour contrer ces usages « non naturels » (exemple du Google Bombing). Aujourd’hui, même en connaissant certains « tips » agorithmiques, on ne s’en affranchit pas automatiquement. Et il est beaucoup plus difficile de connaître ou de tricher avec la « totalité » d’un algorithme aujourd’hui que cela ne l’était hier.
Par ailleurs, y compris les ingénieurs qui développent ces algorithmes sont de moins en moins nombreux à en connaître la totalité des fonctionnements. Et la capacité de tourner à plein sans supervision humaine des ces algorithmes n’a jamais cessé d’augmenter. Et cela ne vas pas s’arranger. Récemment le CEO de Google, Sundar Pinchai, confiait qu’environ 30% de l’ensemble du « code » informatique utilisé par l’ensemble des produits de la société Alphabet (maison mère de Google, Youtube, etc) était directement produite par des IA.
Quand à notre comportement adaptatif, il demeure très relatif. Nous ne l’adaptons que dans la mesure où nous avons l’impression que cette adaptation va servir directement (et rapidement) nos intérêts immédiats. Sur le reste, nous sommes plutôt d’une passivité totale, nous nous laissons algorithmiser parce que tout est fait pour fausser notre perception de la balance bénéfices / risques.
16. Pensez-vous que les enfants et adolescents soient suffisamment outillés, notamment par leurs établissements scolaires, pour se protéger des risques que ces algorithmes présentent ? Pensez-vous que les parents soient suffisamment outillés pour en protéger leurs enfants ?
La question de l’accompagnement aux écrans est une question … complexe. Ce que les jeunes et adolescents cherchent dans ces espaces (cf notamment les travaux de danah boyd aux USA ou d’Anne Cordier en France) ce sont des espaces qui soient transgressifs, la première transgression étant cette d’être à l’abri du regard des parents et des adultes. Les espaces numériques sont aussi ces alcôves algorithmiques qui permettent à la fois de se mettre à l’abri (du regard de l’adulte), d’être ensemble (y compris parfois « seuls ensemble » comme l’explique Shirley Turckle), et d’être dans la transgression autant que dans la construction d’un intime. Et cela est tout à fait normal et ne doit sous aucun prétexte être condamné ou, pire, criminalisé. Le problème, le seul et le grand problème, c’est que la construction de cet intime est toujours scruté par des autorités qui ne sont plus « parentales » mais industrielles.
Bonne nouvelle : on observe déjà et très largement des pratiques de « sevrage » temporaire mises en place par les adolescents et jeunes adultes. Cela peut-être à l’approche d’un examen à la fac, du bac français, etc. Pratiques où ils et elles désinstallent temporairement l’application de leur smartphone. Cela veut dire (pour ces publics) qu’une bonne partie du travail de pédagogie est déjà fait. Il faut ensuite trouver un effet cliquet, qui permette d’éviter de délétères retours en arrière. Et c’est bien là le rôle de la puissance publique.
Rappeler aussi que l’enjeu n’est et ne doit pas être d’interdire les écrans, mais de disposer, dans le cadre de l’organisation de notre vie sociale, éducative, publique et citoyenne, d’espaces qui demeurent des espaces non nécessairement déconnectés ou sans écrans, mais à tout le moins sans écrans et connexions qui ne soient autres que collectives ou a minima duales.
A ce titre oui, je suis convaincu par exemple qu’à l’école et au collège, les smartphones devraient être totalement interdits, dans les cours (de récréation) comme en cours. Et vous savez quoi ? Accrochez-vous bien. BINGO. C’est déjà le cas 
Et qu’au lycée et même à l’université, ils devraient continuer de l’être pendant les cours. Mais qu’il n’est pour cela ni utile ni nécessaire de passer par la loi. C’est à chaque enseignante ou enseignant et éventuellement à chaque université ou composante de le décider et surtout, surtout, surtout, de l’expliquer. Parce qu’il ne s’agit pas de faire oeuvre de censure ou de police. Mais parce que si l’on considère que la transmission de savoirs tout comme l’acquisition des sociabilités primaires et fondamentales, passe par un pacte attentionnel minimal aux autres et à celui ou celle en charge de vous les transmettre et de vous les faire acquérir, alors il faut aussi accepter que celui ou celle qui est en charge de cela, quelque soit son talent et sa détermination, ne sera jamais, absolument jamais, en situation de rivaliser attentionnellement avec un objet technologique qui contient à lui seul tous les savoirs et toutes les sociabilités du monde.
Rappeler aussi que la question de la santé mentale, notamment chez les jeunes, est toujours, toujours multi-factorielle : elle tient à la fois à des paramètres éducatifs, culturels, familiaux, économiques. Donc il peut y avoir aussi bien des corrélations que, dans certains contextes, des causalités entre l’usage de TikTok et les questions de santé mentale. Mais si l’on veut s’attaquer (et il le faut) aux questions de santé mentale qui affectent désormais de manière alarmante des générations entières, alors il faut aussi et surtout traiter la question des politiques de santé publiques.
Rappeler enfin qu’il existe des métiers (professeurs documentalistes) et des organismes (CLEMI) qui font ce travail formidable au long cours. Il faut en créer davantage et leur donner des moyens sans aucune commune mesure avec ceux actuels.
17. De quels mécanismes de contrôle étrangers la France ou l’Europe devraient-elles, d’après-vous, s’inspirer ?
Je crois avoir déjà répondu plus haut que nous disposions de suffisamment de textes et règlements à l’échelle Européenne. Et qu’il reste à les appliquer entièrement.
18. Avez-vous des recommandations à transmettre à la commission d’enquête ?
Ma première recommandation est un avertissement que je reprends de mes propos liminaires et d’un article que j’avais publié.
« Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes.
Nous avons aimé croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nécessiterait pas de mineurs de fond, que l’informatique en nuage (Cloud Computing) ne dissimulait pas la réalité d’une industrie lourde. Nous ne pouvons plus aujourd’hui nous réfugier dans ces mensonges. Sur les industries extractivistes de l’information, nous avons l’avantage d’en connaître déjà les mécanismes et les routines ; la chance d’en observer les infrastructures de marché (du Cloud Computing au High Frequency Trading en passant par la précarisation des différentes formes de Digital Labor) ; la chance d’être capables de documenter la toxicité de ces prismes dans le cadre de certains sujets de société ; la chance d’avoir pu documenter et prouver à de trop nombreuses reprises l’insincérité fondamentale et aujourd’hui fondatrice de toutes ces plateformes et de leurs créateurs et administrateurs. Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit. »
Pour le dire en d’autres termes, connaître la recette exacte du Coca-Cola ne change rien au phénomène de l’obésité : la seule chose qui compte c’est de se doter de politiques de santé publique qui éduquent, régulent, contraignent et qui dépublicitarisent, qui démonétisent symboliquement ce qu’est et ce que représente le Coca-Cola.
De la même manière, connaître l’impact du pétrole sur le réchauffement climatique et la part qu’y jouent nos modes de transport et les industriels extractivistes ne changera rien à l’avenir de la planète si l’on n’a pas de politique publiques sur l’écologie capable de proposer des alternatives aux premiers mais aussi de contraindre les seconds, et là encore de dépublicitariser, de démonétiser tout cela.
Pour les algorithmes, y compris et a fortiori pour celui de TikTok, c’est exactement la même chose : connaître son mode exact de fonctionnement ne changera rien aux errances et aux effondrements affectifs, psychologiques, conatifs, informationnels qu’il alimente. Il nous faut des politiques publiques du numérique. Dont des politiques de santé publique numérique.
Et il faut davantage de postes de professeurs documentalistes dans les lycées et collèges, avec davantage d’heures de cours dédiées à la culture numérique. Et aussi il faut financer et multiplier les structures et opérateurs comme le CLEMI. Oui je l’ai déjà dit. Mais oui je le redis. Et le redirai sans cesse.
L’échantillon est d’une petite soixantaine d’étudiantes et d’étudiants, en 1ère année de BUT Information et Communication (donc en gros âgés de 18 ou 19 ans) et avec qui j’ai déjà effectué quelques heures de cours autour des questions de culture numérique, de l’histoire d’internet et du web, et aussi un peu des enjeux sociétaux des algorithmes. La seule consigne donnée était de partir de leur expérience personnelle de la plateforme pour répondre aux questions de la commmission.
De manière générale ils et elles soulignent l’importance (et le manque) de politiques de santé publique et de communication, dans l’espace public, sur ce sujet.
Ils et elles soulignent également l’importance de faire à ces sujets davantage de place au collège et au lycée et surtout, d’en parler autrement que sous le seul angle de la culpabilisation ou des dérives comme le cyberharcèlement.
Ils et elles ont aussi une grande maturité sur la nécessité d’un contrôle d’accès réel avec une vérification de l’âge qui soit autre chose qu’un bouton « oui promis j’ai 18 ans » :
Ils et elles ont des idées très concrètes de ce qu’il faudrait obliger Tiktok (et d’autres plateformes) à mettre en place :
J’ai enfin été particulièrement frappé, dans leurs verbatims, d’une large majorité qui indique explicitement que les impacts et effets négatifs sur leur humeur sont plus importants que les aspects positifs. Et de la manière dont ils documentent et analysent cela. Le verbatim ci-dessous résume très bien ce que j’ai lu dans beaucoup de leurs réponses individuelles :
Voilà je m’apprêtais à demander à ChatGPT une version synthétique de ce long texte en extrayant les éléments mobilisables immédiatement dans le cadre d’une proposition de loi et puis soudain, je tombe sur plusieurs éléments complémentaires.
Premier élément : Gabriel Attal. Qui s’allie au pédopsychiatre Marcel Ruffo pour proposer des mesures qui sont, pour l’essentiel, des caricatures au carré. Caricature d’une pensée magique où tout est, sans indistinction, la faute aux écrans et où leur suppression guérirait donc tous les maux, et où toute cette faute mériterait donc des régimes disciplinaires qui sont autant imbéciles qu’inapplicables et dangereux en démocratie. Voici donc ce qu’ils proposent :
J’ai donc immédiatement réfléchi à une critériologie assez fine permettant de caractériser chaque mesure proposée. Critériologie que voici :
Revoici maintenant ces mesures à l’aune de mon analyse subtile.
Je ne retiens donc que deux mesures :
Pour le reste, je vous invite à lire la chronique et l’analyse impeccable de François Saltiel dont je partage chaque ligne et chaque mot.
Et je vous invite aussi, à chaque fois que vous entendrez diverses gesticulations politico-médiatiques sur une interdiction totale ou partielle des écrans chez les enfants et adolescents, à relire (notamment) cet article grand public et surtout de grande utilité publique d’Anne Cordier, publié en Mai 2024, et dans lequel elle rappelle la réalité de deux points fondamentaux, celui de la panique morale sur ce sujet, et celui de la réalité des études scientifiques sur ce même sujet :
Ce phénomène des paniques morales exprime une crainte quant à la déstabilisation des valeurs sociétales, et se cristallise autour des usages juvéniles desdits écrans et des conséquences de ces usages sur la santé mentale et sociale des enfants et adolescents, ainsi que sur leur développement cognitif et leur culture générale.
Pourtant une importante et robuste étude américaine, menée sur le long terme auprès de 12000 enfants entre 9 et 12 ans, conclut sans hésitation à l’absence de lien entre temps passé « devant les écrans » et incidence sur les fonctions cérébrales et le bien-être des enfants. Pourtant encore, en France, une enquête longitudinale d’envergure, déployée cette fois auprès de 18000 enfants depuis leur naissance, montre que ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant.
Malgré ces faits scientifiques, le débat autour de la place desdits écrans dans notre société se polarise, et se caractérise récemment par une ultraradicalisation des postures, ce qui a pour premier effet de porter préjudice à la compréhension de tout un chacun.
Je répète : « ce sont des facteurs sociaux qui jouent un rôle prépondérant dans le développement de l’enfant. » La place et l’usage des écrans n’est que l’un de ces facteurs sociaux parmi d’autres bien plus essentiels.
Le 22 Avril 2025 est sortie une étude du Pew Internet Research Center, pile poil sur le sujet qui nous occupe : « Teens, Social Media and Mental Health. » Elle est, comme souvent, fondamentale pour bien cerner les enjeux de ce sujet. Et j’en retire les éléments suivants.
D’abord si environ 40% émettent un avis plutôt « neutre » sur l’influence des médias sociaux sur leur santé mentale, les 60% d’adolescents restants (entre 13 et 17 ans) indiquent clairement que les effets négatifs sur leur santé mentale l’emportent sur les effets positifs.
Ensuite là où les parents considèrent que les médias sociaux sont la première cause des problèmes de santé mentale, du côté des adolescents, c’est tout autre chose : 22% des adolescents désignent les médias sociaux, 17% d’entre elles et eux les phénomènes de harcèlement (j’ai bien dit de harcèlement et pas seulement de cyber-harcèlement), et 16% les « pressures and expectations« , c’est à dire les attentes sociales et parentales vécues comme autant de pressions. Là est l’un des noeuds centraux du problème de la santé mentale des adolescentes et adolescents.
Autre point essentiel qui rend encore plus débile toute tentative d’interdiction, plus d’un tiers (34%) des adolescentes et adolescents interrogés indiquent s’informer sur les réseaux sociaux sur les questions de santé mentale. Et parmi ceux-là, plus de la moitié indiquent que c’est une source d’information importante.
Enfin, et c’est là aussi absolument déterminant pour comprendre ce qui se joue et comment le réguler, les adolescentes et adolescents identifient clairement l’impact délétère et toxiques des médias sociaux sur leur travail et leurs études, sur leur santé mentale, sur leur productivité et sur leur sommeil mais dans le même temps ils indiquent tout aussi clairement l’impact très positif sur leurs amitiés et leurs socialisations. Constat qui rejoint en effet tous les travaux universitaires sur ce point : ces espaces numériques de socialisation sont nécessaires et précieux dans la construction des identités (et des intimités) adolescentes à l’abri du regard des adultes. En revanche rien n’oblige à ce qu’ils soient traversés de contenus ne répondant qu’à des logiques commerciales et qui n’ont de considération que pour des dynamiques de viralité garantissant à tout prix des effets de rente attentionnelle. La responsabilité d’y faire le tri et le ménage et d’y injecter la dose minimale de responsabilité déontologique au regard des publics ciblés et des enjeux sociétaux concernés incombe donc entièrement aux plateformes elles-mêmes, et c’est à la puissance publique de le leur rappeler et de les y contraindre. Quoi qu’il en coûte.
J’ai ensuite demandé à ChatGPT, sur la base de ce (long) texte (celui de mes réponses à la commission), de faire une liste de 10 propositions (ou plus) concrètes dont le législateur pourrait se saisir et de reformuler ces propositions dans un format destiné à une note parlementaire ou à une présentation en commission. Je vous en livre ici le résultat.
[c’est ChatGPT qui parle, enfin qui écrit]
Voici une liste de dix propositions et recommandations concrètes issues du document de contribution à la commission parlementaire, que le législateur pourrait saisir pour élaborer une nouvelle loi sur le numérique et l’accès aux réseaux sociaux :
Transparence et régulation algorithmiqueExiger la transparence des algorithmes sur leur dimension éditoriale : rendre publics les critères et pondérations qui déterminent l’affichage des contenus, notamment en lien avec les réactions émotionnelles (likes, colère, etc.).
Obliger les plateformes à ralentir les chaînes virales : limiter les fonctionnalités favorisant la viralité (nombre de partages simultanés, forwarding de messages, etc.) pour réduire les effets de masse sur la désinformation et le harcèlement.
Supprimer l’affichage public de certaines métriques (likes, vues, dislikes) pour atténuer les effets de conformité sociale et limiter les impacts délétères sur la santé mentale.
Santé publique et usage responsableInstaurer des mécanismes de contrôle d’accès efficaces pour les mineurs (vérification d’identité, seuils d’âge vérifiés comme sur Blablacar), en évitant les simples déclarations « j’ai plus de 13/18 ans ».
Imposer des limites d’usage paramétrables par défaut (temps d’écran, alertes de dépassement, pause obligatoire après un temps de scroll continu) intégrées directement dans les applications.
Créer une politique de santé publique numérique : reconnaître les effets psychiques négatifs des réseaux sur les plus jeunes et y répondre par des campagnes nationales et des dispositifs de prévention dans les écoles et les médias.
Éducation et formationRenforcer l’éducation au numérique dès le collège : intégrer des modules spécifiques sur les algorithmes, la captation attentionnelle, les risques informationnels et les logiques économiques des plateformes.
Doter chaque collège et lycée d’un(e) professeur(e) documentaliste formé(e) aux enjeux numériques et augmenter leurs heures dédiées à l’éducation aux médias.
Pouvoirs publics et contrôleFaire appliquer strictement les lois existantes (RGPD, DSA, DMA) : prévoir des sanctions réellement dissuasives en cas de non-conformité et ne pas hésiter à suspendre ou interdire temporairement des services comme cela a été fait ailleurs.
Créer un droit d’accès des chercheurs publics aux corpus algorithmiques : obliger les plateformes à ouvrir des API sécurisées permettant à la recherche indépendante d’analyser les effets sociaux, psychologiques et politiques de leurs systèmes.
[c’est toujours ChatGPT qui parle, enfin qui écrit]
Voici une note parlementaire structurée présentant les propositions issues du document d’Olivier Ertzscheid, à destination d’un(e) député(e) souhaitant nourrir une réflexion législative sur le numérique et les réseaux sociaux.
Objet : Propositions pour une loi sur les usages numériques et l’accès aux réseaux sociaux
Auteur : Synthèse des travaux d’Olivier Ertzscheid, Maître de conférences en Sciences de l’information
Date : [à compléter]
Dans un environnement où les réseaux sociaux sont devenus des médias d’“hyper-masse”, leur impact sur les comportements, la santé mentale, la circulation de l’information et la démocratie est désormais massif, continu et documenté. L’urgence n’est plus de comprendre ces effets, mais de réguler concrètement les modèles qui les produisent. Cette note propose dix axes d’action législatifs concrets.
1.1. Transparence des logiques éditoriales des algorithmes
Obligation pour les plateformes de rendre publics les critères et pondérations influençant la hiérarchisation des contenus (types de réactions, temps de visionnage, etc.), en particulier ceux relevant de la manipulation émotionnelle.
1.2. Ralentissement des chaînes virales
Limitation par la loi des mécanismes de partage automatisés ou massifs (groupes WhatsApp, forwardings, etc.) afin de freiner les phénomènes de désinformation, de harcèlement et de polarisation.
1.3. Encadrement des métriques visibles
Obligation pour les plateformes de masquer certains compteurs (likes, vues, partages) aux utilisateurs non-créateurs pour atténuer les effets de conformité sociale et d’addiction à la reconnaissance.
2.1. Vérification d’âge robuste à l’inscription
Mise en œuvre d’un dispositif réel de contrôle d’âge (type pièce d’identité) pour limiter l’accès des mineurs aux plateformes sans médiation.
2.2. Limites d’usage intégrées par défaut
Imposition à toutes les applications sociales d’une fonction de régulation du temps passé : alertes, pauses obligatoires, et tableaux de bord accessibles.
2.3. Lancement d’un plan national de santé publique numérique
Campagnes publiques et programmes éducatifs pour sensibiliser aux impacts psychologiques des réseaux sociaux, en particulier chez les jeunes.
3.1. Intégration obligatoire de modules sur les logiques des plateformes
Enseignement dès le collège sur le fonctionnement des algorithmes, la captation attentionnelle et les logiques économiques des contenus.
3.2. Déploiement renforcé de professeurs documentalistes et du CLEMI
Augmentation du nombre de professeurs documentalistes et du budget alloué au CLEMI, pour assurer un accompagnement continu et de qualité dans les établissements.
4.1. Application sans compromis des règlements européens (RGPD, DSA, DMA)
Sanctions systématiques et dissuasives en cas de non-respect des règles ; possibilité d’interdiction temporaire d’un service comme dans d’autres pays (ex. X/Twitter au Brésil).
4.2. Accès aux corpus pour la recherche publique
Obligation légale pour les plateformes d’ouvrir aux chercheurs indépendants l’accès à des jeux de données anonymisés, via API, afin de permettre une évaluation scientifique indépendante des effets des algorithmes.
Ces propositions, réalistes, urgentes et largement documentées, peuvent constituer la base d’un cadre législatif de souveraineté numérique, de protection des jeunes publics et de régulation démocratique des puissances algorithmiques.
Tant que j’y suis je vous livre aussi l’introduction et la conclusion du même ChatGPT lorsque je lui demande un argumentaire synthétique de sa note parlementaire pour une intervention en commission.
Introduction.
Mesdames et Messieurs les membres de la commission,
Nous sommes aujourd’hui face à des outils devenus centraux dans la vie sociale, affective, cognitive de millions de citoyens, notamment les plus jeunes. Ces outils sont à la fois des médias d’hyper-masse, des machines à fabriquer la norme et des systèmes de captation attentionnelle, dont les effets sur la santé mentale, la désinformation et les inégalités sont désormais documentés.
Il ne s’agit plus de produire des rapports ou des constats, mais d’agir, de légiférer, de protéger.
Conclusion : l’exigence du courage politique.
Ce que nous proposons n’est ni technophobe, ni moraliste. C’est une politique de santé publique, d’éducation, et de souveraineté.
Il faut démonétiser l’attention, dépublicitariser l’espace social, et remettre du sens dans nos usages.L’histoire nous jugera comme elle a jugé ceux qui n’ont rien fait face au tabac ou au réchauffement climatique. Il est encore temps d’agir.
Voilà. Le boulot est fait de mon côté. J’ai transmis à la commission mon texte avec l’intégralité de mes réponses aux questions, et leur ai également adressé les 10 propositions pour une évolution du cadrage législatif (en précisant bien sûr qu’elles étaient formulées par ChatGPT sur la base de l’analyse de mon texte). Le reste appartient maintenant à ce truc formidable qu’on appelle la démocratie.

Suite à une mise en demeure d’avocats représentant les intérêts du cabinet dont je dénonçais les agissements dans un article, mise en demeure m’enjoignant de supprimer la totalité de cet article avant le 22 Avril, je fais le choix de m’y plier et de le retirer de la publication. Vous trouverez donc ci-dessous des éléments d’explication détaillés sur la justification de cette décision.
——————————
Voila plus de 20 ans que je tiens ce blog en mon seul nom et sous ma seule responsabilité éditoriale. Près de 3000 articles (une moyenne de douze par mois), avec beaucoup d’articles d’analyses, pas mal d’articles d’opinions, et quelques bons coups de gueule à valeur essentiellement cathartique (pour moi en tout cas).
En 20 ans je n’ai été menacé de procédure juridique qu’à 3 reprises.
La première fois c’était en 2015, lorsque j’avais diffusé le journal d’Anne Frank, dans sa version originale, à date de son entrée dans le domaine public. Les avocats du fonds Anne Frank m’avaient alors menacé d’une action en justice et d’une astreinte journalière de plusieurs milliers d’euros tant que je ne retirerai pas le texte. J’ai maintenu le texte original en ligne. D’autres, dont la députée Isabelle Attard m’ont rejoint et ont également partagé le texte. Et je n’ai plus eu de nouvelles des avocats du fonds Anne Frank.
La deuxième fois c’était en 2017 à l’occasion d’un article sur les dynamiques de haine en ligne, lorsque je revenais vers les premières dérives des campagnes Adwords avec Arnault Dassier à leur initiative lorsqu’il était responsable de la stratégie digitale de l’UMP. C’est lui qui me menaça de poursuites, ne supportant pas de voir son nom accolé à l’expression « marketing de la haine » dans mon article et considérant cela comme diffamatoire et m’enjoignant de supprimer son nom de l’article. Résultat : je vous laisse juges de ce qu’il advînt dans la mise à jour au début de l’article.
Et la troisième fois c’est donc cette semaine d’Avril 2025. Et c’est un cabinet « d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » qui, via un cabinet d’avocats, menace de me poursuivre en justice pour diffamation, injure publique, et violation du secret des correspondances. Au regard des critères éclairés de Maître Eolas, même si je suis totalement serein sur le fond de l’affaire, la forme du courrier du cabinet d’avocat ne laisse que peu de doute sur leur détermination de réellement me poursuivre si je ne retire pas l’article en question.
Pour rappel, ce « cabinet d’expertise technologique, normative et réglementaire dans les domaines de la confiance numérique et de la cyber sécurité » a contacté l’association étudiante dont je m’occupe (la Ma’Yonnaise épicerie) et qui organise des distributions alimentaires pour les étudiant.e.s sur le campus de Nantes Université à La Roche-sur-Yon, pour nous proposer un scénario dans lequel nos bénéficiaires (donc des étudiant.e.s précaires) pourraient, contre rétribution versée à l’association, vendre leurs données biométriques à ce cabinet.
S’ensuivit un échange entre moi (depuis la boite mail de l’épicerie solidaire) et le cabinet en question. Echange auquel j’ai rapidement mis fin considérant l’activité de ce cabinet plus que suspecte sur le fond, totalement déplacée sur la forme, et considérant qu’accessoirement en droit français, la vente de données biométriques contre rémunération (a fortiori pour des populations précaires) ne peut et ne doit devenir ni un marché ni un horizon.
Je prends donc la décision de raconter toute cette affaire dans un article sur ce blog sous le titre « Etudiants en situation de précarité ? Vendez-nous vos données. De la biométrie et des cabinets vautour qui tournent autour. » J’y cite les échanges (non nominatifs bien sûr) avec mes deux interlocuteurs de ce cabinet (voilà pour la violation du secret des correspondances). Echanges qui, je le rappelle, ont démarré avec la proposition suivante :
« Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. En contrepartie, nous proposons de reverser un don de 15 € par participant ayant validé le test. Par exemple, pour 50 participants, votre association recevra un don de 750 €. Nous espérons que cette collaboration pourrait constituer une ressource financière supplémentaire pour soutenir vos activités et projets. »
J’agis et réagis avec ma casquette de responsable de l’association et surtout, surtout, avec ma casquette d’universitaire dont l’un des axes et terrains de recherche est précisément la question de notre vie privée numérique et les questions liées à l’exploitation de nos données personnelles.
Le ton est vif et j’assimile à plusieurs reprises les pratiques de ce cabinet à des pratiques de crapules et de vautours (voilà pour la diffamation et l’injure publique).
Et cette semaine, une dizaine de jours après la parution de mon article, je reçois le courrier suivant avec mise en demeure de retirer totalement l’article incriminé dans un délai de 5 jours (avant le 22 Avril).


Je joins ici le fichier pdf pour une lecture plus facile : 2025 04 15_ mise-en-demeure.pdf
L’intimidation et la tentative de procédure bâillon se caractérisent aussi par le fait de mettre en copie de ce courrier la présidente de Nantes Université au motif que, je cite « l’ensemble de ces propos a été tenu en votre qualité de Maitre de conférences de l’Université de Nantes« . Ce qui est faux (je me suis toujours exprimé au titre exclusif de co-responsable de l’association qui organise ces distributions alimentaires), et ce qui est aussi une vision assez trouble de ce que l’on nomme la liberté académique.
Si j’avais agi uniquement en mon nom propre ou au titre de Maître de conférences de l’université de Nantes, j’aurais, sans aucun souci ni autre questionnement, laissé l’article incriminé en ligne et attendu sereinement la suite en proposant simplement un droit de réponse au cabinet concerné. Je n’ai me concernant, absolument aucune crainte. Je n’ai pas cédé aux avocats du fonds Anne Frank dans une affaire où les enjeux se chiffraient en millions d’euros (le journal d’Anne Frank est l’un des livres les plus vendus de tous les temps et continue de l’être) et concernaient, en termes de droit d’auteur et de domaine public, l’ensemble des lois et règlementations internationales. Donc cette forme de menace et de procédure bâillon ne m’impressionne pas (même s’il n’est jamais agréable de recevoir un tel courrier).
Mon absence de crainte est d’autant plus forte qu’une nouvelle fois, sur le fond, je suis absolument certain de mon bon droit et du fait que ce « cabinet d’expertise technologique, normative et réglementaire » fait absolument n’importe quoi et que ce n’importe quoi cible et met en danger des populations précaires dans une forme d’intime matérialisée par la transaction commerciale proposée autour de données biométriques sans que jamais et à aucun moment ne soient indiqués les cadres d’usages, d’exploitation, de durée, etc. Pour rappel le seul cadre indiqué dans la sollicitation de ce cabinet était « Nous recherchons actuellement des volontaires pour participer à un test simple et rapide (sic). Celui-ci consiste à s’inscrire sur une plateforme, puis à enregistrer une série de courtes vidéos du visage sous différents angles. »
Alors pourquoi obéir à l’injonction et à cette forme de procédure bâillon ? Parce que dans cette affaire, si elle se porte jusqu’à un tribunal, je ne veux qu’en aucune manière l’association dont je m’occupe puisse être impactée financièrement, moralement, ou même symboliquement en voyant son nom associé à une procédure en justice. Et si cela devait tout de même se produire, la responsabilité en incomberait donc uniquement à ce cabinet puisqu’en effet et selon les termes de leurs avocats, ce retrait n’engage pas nécessairement la fin de la procédure de leur côté. Je les en laisse désormais juges et continue d’espérer désormais au moins trois choses.
Premièrement que des journalistes et des associations de défense des libertés numériques se saisiront de ces éléments et iront enquêter sur ces pratiques, celles de ce cabinet en particulier mais aussi celles d’autres probablement semblables.
Deuxièmement que si d’autres associations ont reçu de telles sollicitations, elle n’hésitent pas à me contacter ou à rendre publics ces éléments.
J’espère, troisièmement, que les autorités indépendantes que sont la CNIL et l’ANSSI, jusqu’ici silencieuses, se saisiront des éléments de ce dossier pour faire toute la lumière sur les pratiques de ces cabinets dans le domaine de la sollicitation de vente de données biométriques auprès de populations précaires, d’autant que lesdits cabinets se prévalent d’autorisations de leur part.
J’espère enfin, que cette « petite histoire », aura pour intérêt de rappeler dans le débat public que ce genre de dérives déjà largement présentes ailleurs dans le monde, sont et seront, en France, de plus en plus essentielles à documenter et à combattre. Je vous en parlais déjà via la chasse aux corps des plus pauvres à des fins d’exploitation biométrique, au moment où déjà près de cinq millions de personnes (dont un million d’argentins) ont malheureusement accepté pour atténuer un peu leur misère. Et cette semaine encore, les alertes de cette dépêche AFP ou cette chronique d’un monde connecté sur France Culture, devraient nous mobiliser toutes et tous car le futur qu’elles dessinent est au-delà de l’alarmant sur le plan sociétal comme sur le plan politique (je rappelle par exemple que ce cabinet qui me menace d’un procès indique sur son site intervenir notamment dans des « Systèmes de gestion de contrôle aux frontières (Gates, entry-exit). »
Pour le dire d’une phrase : ce dont nous devons absolument parler et ce que nous devons absolument combattre c’est un capitalisme de malfrats avec la marchandisation des données biométriques des plus précaires comme poste avancé.
Parce que tous ces êtres humains, toutes ces populations, le plus souvent précaires, que l’on dévisage en leur jetant l’aumône, ne nous laissent collectivement envisager aucun futur désirable.
[Mise à jour du 21 Avril]
J’ai reçu une mise en demeure d’avocats représentant les intérêts du cabinet dont je dénonçais les agissements dans cet article en date du 6 Avril. Cette mise en demeure me laissait jusqu’au 21 Avril minuit (ce soir donc) pour supprimer l’intégralité de l’article, sous peine de poursuites judiciaires pour « diffamation, injure publique et violation du secret des correspondances ». Nous sommes le 21 Avril 19h et je prends la décision de me plier à la mise en demeure. Et vous en explique les raisons dans cet autre article.
[Mise à jour du 9 Mai]
Plusieurs articles de presse sont venus traiter de cette affaire et l’article initial qui m’a valu cette mise en demeure a été archivé sur la Wayback Machine de l’Internet Archive.
[Mise à jour du 11 Mai]
Je dresse le bilan de cette affaire et de la couverture médiatique à laquelle elle a donné lieu dans cet article : « Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre la cabinet Louis Reynaud et moi. »

J’ai participé ce Jeudi au colloque de l’Observatoire de la surveillance en démocratie. Le thème de mon intervention a tourné autour de l’idée suivante : « Peut-on dé-surveiller ? » (le colloque qui se poursuit ce matin peut être suivi en visio). Un très grand merci à Nicolas P. Rougier pour son invitation, ainsi bien sûr qu’à toute l’équipe de l’Observatoire de la surveillance en démocratie.
Le texte ci-dessous liste une série de points d’analyse que j’ai mobilisés dans le cadre de mon intervention lors d’une table-ronde. A la suite de ce texte je vous joins également le support de présentation que j’ai utilisé.

Je ne sais pas si vous l’avez remarqué mais les mots « surveillance » et « surveiller » n’ont pas d’antonymes directs. Ou alors des antonymes relativement faibles sur un plan sémantique, par exemple « délaisser ». Mais « ne pas surveiller » n’est pas pour autant « délaisser ».
Je précise en introduction que s’il est compliqué de « désurveiller » (c’est l’objet de cette communication), on peut heureusement combattre la surveillance et ses dispositifs à l’échelle individuelle et militante. Geoffrey Dorne l’a remarquablement documenté dans son ouvrage « Hacker Protester : guide pratique des outils de lutte citoyenne« . La furtivité (telle que réfléchie par Damasio dans son roman éponyme, « Les Furtifs »), le secret, l’évitement, l’obfuscation, le sabotage, la cryptographie, le chiffrement, la rétro-ingénierie et le retournement du stigmate pour surveiller les surveillants, sont autant de possibilités qui restent mobilisables pour déjouer la surveillance.
Ce qui m’intéresse aujourd’hui c’est de réfléchir aux difficultés d’imaginer collectivement et de réaliser concrètement des sociétés « désurveillées ». A minima du point de vue de mon domaine de recherche, c’est à dire le web et les grandes plateformes de médias et de réseaux sociaux.
« On ne peut pas ne pas communiquer« . Mais peut-on ne pas surveiller ? Chez Paul Watzlawick le refus de communiquer est un acte de communication. On ne peut pas dire que le refus de surveiller soit un acte de surveillance. Il faut donc se poser la question différemment : a-t-il déjà existé des sociétés sans surveillance ? Sans que les adultes veillent ou surveillent les plus jeunes ? Sans que les gens surveillent leurs proches pour y être attentifs ? Sans que les riches surveillent les pauvres ? Sans que les hommes surveillent les femmes ? Nos sociétés, à toutes les époques ont toujours tissé des formes complexes et plus ou moins relâchées de « surveillance », des formes liées à des paramètres culturels eux-mêmes souvent dépendant du milieu et de l’environnement dans lequel ces sociétés évoluent ainsi que de leur stade d’évolution technique et politique. On peut donc considérer qu’il est ou qu’il fut en tout cas possible de ne pas surveiller tout en restant attentif, simplement en « veillant ».
En restant à l’époque contemporaine dans ce qu’elle comprend d’environnement numérique et politique, et en liant la question de la surveillance à celle du contrôle, on peut en revanche considérer que tout comportement prend pour tout témoin valeur de message. Y compris l’absence de comportement, ou la dissimulation d’un comportement. A ce titre la question n’est pas tant de savoir si l’on peut ne pas surveiller que de savoir s’il est possible de ne pas être surveillé. Et aujourd’hui il n’existe pas en ligne de comportement, d’interaction ou d’expression qui soit « sans témoin ». Chacun de nos clics, de nos messages, de nos mails, chacune de nos navigations est tracée et sinon observée, du moins observable.
Et l’un des nouveaux problèmes de cette surveillance, est sa fréquence. De la même manière que l’on parle de « High Frequency Trading » sur les places de marché boursières, il existe une « High Frequency Surveillance » sur les marchés comportementaux et discursifs (cf capitalisme linguistique). On n’y observe plus des valeurs boursières mais des individus, des comportements, des opinions.
D’autant qu’à chaque phase ou évolution significative du champ social, politique et surtout technologique, se manifeste un effet cliquet qui empêche tout retour en arrière. On le voit par exemple avec la vidéo-surveillance dans l’espace public, on le voit aussi avec l’arrivée de l’IA et de la vidéo-surveillance dite « intelligente ». A quoi tient fondamentalement cette impossibilité de revenir en arrière ? Est-elle, et dans quelle proportion, liée aux politiques publiques ? Aux infrastructures ? Aux enjeux de citoyenneté ? A des effets de conformité sociale ?
Cette surveillance est-elle inscrite dans le code informatique (« Code Is Law ») ? Tient-elle principalement aux infrastructures (« infrastructures are politics ») ? J’ai moi-même (avec d’autres) théorisé ce que j’appelle des architectures techniques toxiques pour décrire et documenter les modalités d’organisation des grandes plateformes, réseaux et médias sociaux.
Et quelle est la « nécessité » de cette surveillance et de l’ensemble des formes qu’elle revêt aujourd’hui ?
Longtemps en démocratie les modalités de surveillance étaient totalement différentes, elles étaient « différées » et principalement rétroactives (on faisait des contrôles administratifs principalement rétroactifs et des contrôles de police là aussi le plus souvent rétroactifs si l’on omet les flagrants délits). Dans une perspective que l’on pourrait qualifier de cybernétique, ce processus de Feedback permettait un ajustement des politiques publiques de police et de maintien de l’ordre. Aujourd’hui le feedback est essentiellement un prétexte au déploiement d’architectures et d’infrastructures de surveillance de plus en plus massives, intrusives et la justification commode d’un abandon des politiques publiques qui pourraient limiter l’impact de la surveillance dans l’espace public.
Tous ces points interrogent les conditions de production d’une (supposée) nécessité de surveillance. Et les intérêts qu’elle sert. Les politiques de surveillance contemporaines (en démocraties comme dans les régimes autoritaires) ont presque toujours été des politiques de la catastrophe. « Quand on invente l’avion on invente le crash » comme l’écrivait Paul Virilio. « Le progrès et la catastrophe sont l’avers et le revers d’une même médaille (…) Inventer le train, c’est inventer le déraillement, inventer l’avion c’est inventer le crash (…) il n’y a aucun pessimisme là-dedans, aucune désespérance, c’est un phénomène rationnel (…), masqué par la propagande du progrès. »
Historiquement c’est dans les années 1980 que le Royaume-Uni est le premier à généraliser la vidéosurveillance suite aux attentants de l’IRA. « En 2006 le Royaume-Uni abritait 4,2 millions de caméras de vidéosurveillance (dans la rue, sur les autoroutes, dans les trains, les bus, les couloirs du métro, les centres commerciaux, les stades). Et un Londonien pouvait être déjà filmé jusqu’à trois cents fois par jour. » (Source Wikipedia. Videosurveillance). L’attentat contre les tour jumelles aux USA fut également l’occasion de graver dans le marbre du Patriot Act des mesures toujours en vigueur et très éloignées de la lutte contre le terrorisme (« 11 129 demandes de perquisition dans le cadre du Patriot Act en 2013, seuls 51 avaient trait au terrorisme ; les demandes concernaient pour l’essentiel le trafic de drogue (9 401) » Le Monde).
Au final, et comme l’écrivait Armand Mattelard dans son ouvrage « La globalisation de la surveillance : aux origines de l’ordre sécuritaire », ce que nous observons c’est l’avènement de « (…) l’âge technoglobal, avec l’essor d’un système mondial d’identification et la métamorphose du citoyen en suspect de l’ordre sociopolitique. »
Autre effet cliquet d’importance, c’est l’ancrage de cet âge technoglobal avec le capitalisme de surveillance, ou plus précisément l’effet d’amorçage et d’accélération que le capitalisme de surveillance offre à cet âge technoglobal.
Le capitalisme de surveillance, voici comment Soshana Zuboff le définit dans cet article notamment :
« Cette architecture produit une nouvelle expression distribuée et largement incontestée du pouvoir que je baptise : « Big Other ». Elle est constituée de mécanismes inattendus et souvent illisibles d’extraction, de marchandisation et de contrôle qui exilent effectivement les personnes de leur propre comportement tout en produisant de nouveaux marchés de prédiction et de modification du comportement. Le capitalisme de surveillance remet en question les normes démocratiques et s’écarte de manière essentielle de l’évolution séculaire du capitalisme de marché. (…) Le rôle de la surveillance n’est pas de limiter le droit à la vie privée mais plutôt de le redistribuer. »
Pour le dire sans ambages et plus brutalement : la fin de la surveillance ne peut pas être posée sans poser celle de la fin ou en tout cas de la sortie du capitalisme. Car il est établi (voir notamment Christophe Masutti, « Affaires privées : aux sources du capitalisme de surveillance« ) que les projets de contrôle à grande échelle des populations aux moyens de traitement massifs et automatisés de l’information, sont à l’origine davantage conçus pour créer les conditions de schémas organisationnels « profitables » que pour devenir des instruments de pouvoir. La surveillance est en quelque sorte une rétro-ingénierie d’un capitalisme essentiellement spéculatif. C’est parce que l’on met en place les conditions infrastructurelles d’une maximisation des profits à court terme que l’on se trouve en situation de collecter des données liées à une activité qui peut se définir comme de la surveillance. Ce n’est que plus rarement que l’on met en place des infrastructures de surveillance pour se trouver en situation de contrôle ou de rente capitalistique.
L’évolution de nos sociétés dans leur capacité à traiter, technologiquement et moralement, chaque individu comme un « corps documentaire » décomposé en faisceaux de prédictibilités, couplée à la multiplication exponentielle des balises de surveillance et de contrôle dans l’espace public, privé et intime, revient à spéculer sur des comportements pour lesquels les profits maximaux possibles seront toujours liés à l’amplification de certaines dérives, et à l’exacerbation de certains affects. A une exacerbation de nos vulnérabilités.
Si l’on veut dé-surveiller, cela implique de penser des discontinuités là où toute l’histoire des régimes de surveillance contemporains s’est efforcée de bâtir et d’installer des régimes de continuités. Continuité entre nos espaces d’expression publics, privés et intimes (initialement en ligne et désormais autant en ligne que hors-ligne), et continuité dans les dispositifs de captation et de mesure de nos comportements et de nos mots. Ainsi les micros et les caméras de surveillance sont autant dans nos rues que dans nos maisons (domotique et autres enceintes ou dispositifs connectés) et dans nos poches (smartphones évidemment). C’est ce que j’appelle « l’anecdotisation des régimes de surveillance », c’est à dire le postulat que leur dissémination conjuguée à leur dissimulation permettra de consacrer leur acceptation et empêchera de les identifier comme des objets de lutte, des objets que l’on peut combattre et refuser.
Je date le début de cette anecdotisation des régimes de surveillance à deux événements essentiels. Le premier c’est en 2007 avec l’invention de l’iPhone. Et le second c’est en Janvier 2014 lorsque Google annonce le rachat de l’entreprise qui fabrique des thermostats connectés « Nest ». Par-delà les enjeux relavant de la domotique, ce rachat est l’avènement de ce que je qualifie de « domicile terminal » parce qu’avec lui c’est le dernier espace non-numérique relevant de l’habitation, de l’intime, qui est investi. J’écrivais alors : « plus qu’une simple intrusion sur le secteur de la domotique, Google ambitionne de faire de chacun de nos domiciles, un data-center comme les autres. » (et cela après avoir fait de chaque être humain un document comme les autres). Tout va ensuite aller très vite : sonnettes connectées « Ring » par Amazon (et collaboration avec la police, notamment avec la police de l’immigration), enceintes connectées qui vous écoutent et vous enregistrent même éteintes, aspirateur cartographe Roomba (amazon encore), etc.
A l’échelle du design de ces dispositifs de surveillance et pour favoriser cette anecdotisation, le paradigme de la surveillance technologique se compose de plusieurs axiomes fondamentaux :
Surveillance et vérité. Le résultat de tout cela c’est qu’il existe des régimes de surveillance sur le même mode que celui décrit par Foucault pour l’existence des régimes de vérité.
« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.«
On peut ainsi littéralement paraphraser Foucault :
« Chaque société a son régime de surveillance, sa politique générale de la surveillance : c’est-à-dire les types de surveillance qu’elle accueille et fait fonctionner comme nécessaires ; les mécanismes et les instances qui permettent de distinguer les surveillances subies ou choisies, la manière dont on sanctionne les unes et les autres ; les techniques et les procédures qui sont valorisées pour la propagation de la surveillance ; le statut de ceux qui ont la charge de dire ce qui doit être surveillé.«
La surveillance en question et en équation. La surveillance est aussi une question arithmétique qui se joue dans le rapport entre le nombre d’individus que l’on souhaite mettre sous surveillance et le nombre d’individus assignables à cette tâche. Nombre de surveillants divisés par le nombre de surveillés. L’arrivée du numérique et des formes de surveillance échappant (pour l’essentiel) à l’appareil d’état au sein des plateformes de médias sociaux, vient bien sûr casser toute forme de proportionnalité dans ce rapport. Une seule personne est en capacité d’en surveiller plusieurs centaines de milliers ou centaines de millions, à condition de déléguer cette fonction de surveillance à un tiers, en l’occurence un algorithme (avec l’ensemble des problèmes posés, y compris celui des faux-positifs et ou des ingénieries qui maximisent par défaut la collecte de données). « Dé-surveiller » implique donc de nécessairement désalgorithmiser le monde et de s’en remettre à la force du Droit plutôt qu’à celle du calcul, à celle du juridique plutôt qu’à celle du numérique. »
Surveiller … mais après ? Un des grands enjeux de la surveillance est de savoir ce qu’elle produit sur le plan interrelationnel et social. Produit-elle de la confiance ou de la défiance ? Et envers qui ? Les institutions ? L’appareil d’état ? La police ? Certains groupes ou minorités ? Il faut également s’interroger sur ce que la surveillance produit sur le plan documentaire. D’un point de vue systémique pour plateformes de surveillance, si chaque individu est en effet « un document comme les autres », la surveillance produit autant de néo-traces documentaires qu’elle en collecte et en agrège. Et ces traces restent à catégoriser et oscillent souvent entre différents indicateurs et métriques, mais n’en constituent pas pour autant des preuves.
Les voies de la surveillance sont très pénétrables. Du point de vue de l’axe scientifique qui est le mien, c’est à dire les sciences de l’information et de la communication, la question de la surveillance est donc une question « documentaire » qui a fait de chacun de nous des « documents comme les autres » (monétisables, indexables, surveillables, etc) et qui interroge sur la nature des traces documentaires qui nous produisons, tout autant que sur la manière et les finalités pour lesquelles elles sont captées, et qui pose la question de l’inflation exponentielle de ces traces et néo-traces. Inflation palpable autour de la question absolument fondamentale de la copie. Je fais une incise sur ce dernier point, la stratégie de Google fut établie dès 2006 et alors qu’ils réfléchissaient au lancement de Google Drive qui aura lieu en 2012 et où ils affirmaient que « En nous rapprochant de la réalité d’un « stockage à 100% », la copie en ligne de vos données deviendra votre copie dorée et les copies sur vos machines locales feront davantage fonction de cache. L’une des implications importantes de ce changement est que nous devons rendre votre copie en ligne encore plus sûre que si elle était sur votre propre machine. » L’idée de cette « copie dorée » (Golden Copy) de nos documents initialement, mais de l’ensemble de nos vies, de nos opinions, de nos interactions et de nos comportements, est absolument déterminante si l’on veut comprendre l’enjeu et l’histoire des logiques actuelles de surveillance. Car cette « copie dorée » est également la voie dorée de l’ensemble des protocoles et routines de surveillance. Pour le dire plus simplement peut-être, « oui nous sommes surveillés », mais où est la copie « dorée » des traces documentaires de cette surveillance et qui y a accès, et dans quel cadre ? Etc.
En nous dépossédant de la possibilité de copier (j’appelle cela « l’acopie ») et en déplaçant la copie « maître » au sein même d’infrastructures de stockage distantes de la matérialité de nos possessions, nous avons laissé se fabriquer avec notre consentement les conditions de production d’une société de surveillance totale. Pour « désurveiller» il nous faut déplacer cette copie dorée de nos vies et la remettre à portée de (nos) mains.
Nos Futurs. Au vu des points présentés il semble difficile aujourd’hui de « dé-surveiller » ou même d’imaginer une désescalade des processus de surveillance et de contrôle. D’autant que l’actualité géopolitique est a minima inquiétante et pas uniquement aux USA (TMZ, Trump, Musk, Zuckerberg), qu’avec l’adoption de l’IA Act par la commission européenne, « la fuite en avant techno-solutionniste peut se poursuivre » comme l’écrit la Quadrature du Net et avec l’appui et le soutien déterminant de la France comme le révèle la dernière enquête de Disclose.
Il est probable qu’il ne soit donc pas possible de « dé-surveiller », de sortir de la surveillance sans sortir du capitalisme. Et comme cette sortie semble hélas encore relativement lointaine, il nous faut a minima agir sur le levier de notre auto-aliénation (en nous orientant vers des structures et des architectures qui nous y aident, donc essentiellement décentralisées et vectrices de frictions), et il nous faut également inverser les logiques du design, pour lui permettre d’à nouveau être conforme à son étymologie :
« Le mot provient de l’anglais « design », qu’on emploie depuis la période classique. La langue anglaise l’emprunte au terme français dessein. L’ancien français « desseingner », lui-même dérivé du latin designare, « marquer d’un signe, dessiner, indiquer », formé à partir de la préposition de et du nom signum, « marque, signe, empreinte » et qu’il « désigne »
Être conforme à son idéologie, c’est à dire qu’il mette en évidence l’ensemble des dispositifs de surveillance disséminés tout autour de nous et dans nos interfaces numériques. Au mouvement dit de la « privacy by design » il faut ajouter une désignation claire des dispositifs de surveillance. Il ne suffit plus de réfléchir à des objets / interfaces qui, par défaut, protègent notre vie privée, mais il faut aussi inventer des objets / interfaces qui désignent tout ce qui en permanence nous observe pour les sortir de cette anecdotisation qui vaut acceptation. Il est au moins aussi important de désigner clairement la surveillance que de « designer » [diza:né] des interfaces respectueuses de notre vie privée.
Il y a longtemps, Antonio Casilli écrivait « la vie privée est une affaire de négociation collective » (in « Contre l’hypothèse de la fin de la vie privée« ). La surveillance l’est également.
En conclusion autant qu’en résumé on pourrait donc considérer que pour « désurveiller » il nous faudra tout à la fois nous efforcer de sortir du capitalisme (bataille économique), de désalgorithmiser le monde (bataille technique), de réinstaller des discontinuités (bataille sociale et politique), de se réapproprier nos traces (copies) dans la matérialité de leur possession (bataille documentaire), et de sortir de l’anecdotisation par la désignation de ces dispositifs pour ce qu’ils sont (bataille sémiologique et linguistique).
Eléments de réflexion en vrac qui n’ont pas trouvé de place structurante dans la réflexion précédente mais que je consigne ici … en bonus 
Dans le mouvement dit de l’Open Access (et qui désigne le fait de mettre en accès libre les résultats de la recherche scientifique) on distingue différentes voies et modalités qui, si on les décline à l’échelle des questions de surveillance, permettent de produire une typologie intéressante pour mieux caractériser les possibilités de sortir de ces régimes de surveillance.
La voie verte de l’Open Access c’est celle de l’auto-archivage. La voie verte et de la surveillance c’est celle de l’auto-surveillance, c’est à dire de l’acceptation. Nous acceptons de donner nous-même, l’ensemble des éléments permettant à d’autres (plateformes, algorithmes, « amis ») de nous surveiller. C’est essentiellement cette voie là qui a permis l’amorçage de tout un pan de ce capitalisme de surveillance duquel il est aujourd’hui si difficile de sortir (effet cliquet).
La voie dorée de l’Open Access c’est celle où ce sont les revues éditrices qui rendent leurs articles directement et immédiatement accessibles mais avec des frais qui peuvent être pris en charge par les chercheurs via leurs laboratoires ou leurs institutions. La voie dorée de la surveillance c’est celle où ce sont les plateformes qui vont, à leur propre bénéfice, forcer toutes les logiques de surveillance sans nous laisser d’autres choix que de les accepter (ou en tout cas le fait de les refuser implique un coût technique ou cognitif très élevé). C’est lorsqu’elles « obligent » à donner certaines informations de manière déclarative, c’est lorsqu’elles utilisent toutes les ressources de la captologie et des « Dark Patterns » pour collecter des strates informationnelles et comportementales toujours plus fines, etc.
Il existe d’autres voies dans le mouvement de l’Open Access (voie diamant notamment) mais je m’arrête là pour la comparaison. La réponse à la question de savoir si l’on peut « dé-surveiller » est donc différente selon que l’on envisage la voie verte ou la voie dorée de la surveillance.
Pour la voie verte, nous sommes encore souvent en capacité et en maîtrise de refuser d’alimenter et de nourrir certaines logiques et fonctions de surveillance. Sachant que ce qui rend ce refus compliqué c’est la nature toujours ambivalente socialement de la fonction de surveillance qui est aussi perçue et présentée comme une fonction de réassurance : c’est précisément parce que l’on vous surveille et que vous acceptez que l’on vous surveille, que l’on peut aussi (parfois) vous rassurer (on le voit par exemple en cas de catastrophe naturelle ou d’attentat quand il s’agit de savoir si ses amis ou ses proches sont en sécurité, cf les épisodes du « Safety Check » de Facebook par exemple). La question qui se pose alors est la suivante : est-ce aux plateformes de médias sociaux d’endosser cette fonction politique de réassurance ?
Pour la voie dorée qui est, vous l’aurez deviné, la plus présente dans les plateformes centralisées, l’idée même de « dé-surveiller » est une aporie. Il n’est simplement pas possible de se soustraire aux logiques de surveillance de Facebook, de X, d’Amazon, etc. dès lors que nous en sommes utilisateurs et utilisatrices. Ce n’est pas possible parce que cela tient simultanément à leur infrastructure (architecture technique toxique), à leur modèle économique (« si c’est gratuit vous êtes le produit), au gigantisme choisi de ces plateformes et aux impossibilités de modération rationnelle que cela implique, et à la manière dont l’ensemble des cheminements algorithmiques sont imaginés et pensés pour servir l’ensemble.