Vue normale

Reçu avant avant-hier
  • ✇affordance.info
  • Le web pourrissant et l’IA florissante. Si nous sommes le bruit, qui sera la fureur ? 
    Chapitre 1er. Le web pourrissant et l’IA florissante. Nos espaces discursifs en ligne, nos médias sociaux, sont déjà largement contaminés de contenus entièrement générés par IA. Les proportions peuvent varier d’un média à l’autre mais il s’agit de bien plus qu’une simple tendance, il s’agit de l’aboutissement d’un changement complet de paradigme. Après avoir été acteurs et actrices de la production de contenus, après avoir été essentiellement spectateurs et spectatrices de contenus publiés par d
     

Le web pourrissant et l’IA florissante. Si nous sommes le bruit, qui sera la fureur ? 

2 novembre 2025 à 09:41

Chapitre 1er.
Le web pourrissant et l’IA florissante.

Nos espaces discursifs en ligne, nos médias sociaux, sont déjà largement contaminés de contenus entièrement générés par IA. Les proportions peuvent varier d’un média à l’autre mais il s’agit de bien plus qu’une simple tendance, il s’agit de l’aboutissement d’un changement complet de paradigme. Après avoir été acteurs et actrices de la production de contenus, après avoir été essentiellement spectateurs et spectatrices de contenus publiés par d’autres que nous appartenant à différents sphères « d’influence » ou de médias, nous sommes aujourd’hui entrés dans une ère où des contenus produits par des IA phagocytent et recouvrent la quasi-totalité des contenus qui nous sont proposés. Il ne s’agit pas ici de rejoindre la théorie conspirationniste du « Dead Internet » selon laquelle les bots seraient en charge et à l’origine de la totalité du trafic en ligne ainsi que des contenus produits afin de mettre l’humanité sous coupe réglée, mais de constater que les bots et les contenus générés par IA … sont désormais à l’origine d’une majeure partie du trafic en ligne des des contenus produits. Pas de complot donc mais une question : que peut-il se produire dès lors que la réalité de nos espaces informationnels et discursifs en ligne est effectivement majoritairement produite par des bots et des IA. Bref, le pitch d’un excellent bouquin : « Les IA à l’assaut du cyberespace : vers un web synthétique. » Et sans divulgâcher la suite de cet article, il est évident qu’il ne peut pas en sortir grand chose de bon.

D’autant que ces contenus générés par IA et autres artefacts génératifs, sont devenus un nouvel horizon du capitalisme sémiotique et que la totalité de nos ectoplasmiques plateformes sociales annoncent vouloir s’y engouffrer, et s’y engouffrer massivement. Le groupe de Mark le Mascu annonce ainsi le lancement de Vibes, qui va se présenter comme un fil (feed) présentant uniquement des vidéos créées par IA (et par d’autres que nous parce qu’une fois qu’on aura fait joujou 5 minutes avec on se contentera de faire défiler). Le phénomène de « Slop AI » devient non plus un « encombrement » ou une « bouillie » numérique mais une ligne éditoriale revendiquée. De son côté, Singularity Sam (Altman) annonce le lancement de devinez quoi ? Bah oui, un réseau social sur le modèle de TikTok et entièrement dédié aux contenus vidéos générés par IA (des contenus directement issus de Sora, la plateforme de génération de vidéos par IA d’Open AI, ou comme on dit dans le milieu des égoutiers et autres fabriquants de pompes à merde, « Garbage In, Garbage Out« ). Toutes proportions gardées, c’est un peu comme si au début des années 2000 avec l’explosion du Spam (contenus, souvent publicitaires, non sollicités et invasifs) on avait dit « Oh vazy c’est cool, on va mettre en avant le Spam, on va faire des médias avec juste du Spam dedans« . La seule différence c’est qu’aujourd’hui le Spam du Slop (vous suivez ?) est essentiellement constitué d’animaux mignons et autres contenus suffisamment débiles pour être consommés rapidement et à coût cognitif nul, et suffisamment « engageants » pour nous faire croire qu’on ne perd pas totalement nos vies à regarder des trucs débiles. Et ce n’est pas près de s’arrêter, car pour l’instant en tout cas, la production de ces contenus « Slop » est une manne financière conséquente, car ces VAAC (Vidéos Artificielles A la Con, bah quoi moi aussi j’acronymise si je veux), car ces VAAC ** disais-je sont certes tout aussi répétitives et ennuyeuses que d’autres avant elles, mais elles agrègent un grand nombre de vues, et donc de monétisation, et beaucoup de Youtubeurs et Youtubeuses s’en frottent déjà les mains.

** Sur Mastodon, le camarade Tristan Nitot propose le concept de VACCUM : « Vidéos Artificielles à la Con Universellement et Uniformément Merdiques. »

Pour l’instant uniquement disponibles aux US, ces applications ont pu être testées, notamment par Michaël Szadkowski de l’équipe Pixels du Monde :

Le 7 octobre, entouré de collègues curieux, nous découvrons, entre amusement et effarement, la réalité concrète de ces deux applications. Un chat faisant du skateboard. Un lion jouant du djembé. Jésus câlinant un enfant. Une grand-mère en roue arrière sur une Harley.

Défile sous nos yeux une forme de reconnaissance du « brainrot » (abrutissement numérique) et autre « slop » (contenus IA de faible qualité et produits à la chaîne) qui prospéraient jusqu’ici à la marge des réseaux. Ici, ces formats sont pleinement assumés, une nouvelle forme de divertissement, d’expérience collective – et de source de revenus, de l’aveu même de Sam Altman, le PDG d’OpenAI.

 

Par-delà la facilité de générer ces vidéos sur la base d’un simple prompt, par-delà les fonctionnalités de mise en scène de soi dans lesdites vidéos au moyen d’une fonction « caméo » vous permettant de vous ajouter (votre avatar en tout cas) au coeur de n’importe quelle scène, et par-delà l’immensité subséquente des problèmes que cela peut poser selon les usages – et les âges – de celles et ceux qui utiliseront ces fonctions, c’est le sentiment qu’après plus d’un quart de siècle d’internet « grand public » nous n’avons rien compris, ou qu’en tout cas les propriétaires de ces plateformes n’ont rien appris, car comme le relate encore Michaël Szadkowski  :

Rapidement, sans même parler de la culpabilité liée au bilan carbone de nos expériences, les problèmes s’accumulent. Générer une version obèse, plus maigre ou plus musclée de mon caméo a été un jeu d’enfant. De même que de me faire tenir des propos ou des gestes condamnés par la loi, de faire de la pub de services douteux ou de danser avec une célébrité sulfureuse. On devine aussi les immenses problèmes à venir en termes de détournements. Surtout que la plupart des vidéos générées dans les brouillons d’un utilisateur peuvent être téléchargées, sauf quand elles contiennent un caméo de quelqu’un d’autre.

 

Si besoin, croisez aussi cela avec les récentes annonces d’Open AI de permettre à ChatGPT d’avoir des conversations « érotiques », et avec les révélations sur le fait que le groupe Méta entraîne ses modèles d’IA à des conversations érotiques avec des mineurs** et vous aurez une idée à peu près exacte de l’irresponsabilité autant que du cynisme le plus crasse des dirigeants de ces plateformes.

** à ce propos je vous invite à lire l’enquête de Reuters qui a rendu publics des documents internes dans lesquels les limites de « l’acceptable » sont définies face à des prompts dans lesquels une petite fille de 8 ans se dénude (enlève son t-shirt) devant l’écran et demande à l’assistant IA son ‘avis’, ou cet autre exemple dans lequel le prompt consiste à demander d’argumenter sur le fait que les noirs seraient plus cons que les blancs (sic). Dans tous les cas, les réponses jugées et définies comme « acceptables » par le groupe Méta permettent de mesurer toute l’étendue de l’absolue bêtise et de la dangerosité critique de celles et ceux définissant lesdits cadres d’acceptabilité, et qui ne sont rien moins que « les équipes juridiques, de politique publique et d’ingénierie de Meta, y compris son responsable de l’éthique. »  Puissent l’ensemble de ces connards décérébrés être rapidement mis à grande distance de toute forme de responsabilité juridique ou éthique dans quelque secteur que ce soit.

D’autant que ce même groupe Méta annonce sans broncher et un mois à peine après les révélations de Reuters, qu’il va « lancer des comptes spéciaux pour les ados sur Facebook et Messenger« , des outils « pensés pour protéger les jeunes en ligne. » Autant confier la justice des mineurs à Jean-Marc Morandini.

Vous aurez donc compris qu’il va être très compliqué d’analyser tout ça autrement que sous l’angle d’un gigantesque tsunami de merde. Mais pour m’efforcer d’être moins grossier et plus constructif, j’ai en tête le modèle mathématique de la communication proposé par Claude Shannon (en 1949), un modèle dans lequel il s’agissait (en gros) de comprendre comment optimiser la transmission d’un message en limitant le « bruit », c’est à dire tout signal parasite entre l’encodage et le décodage de l’information transmise. Avec ce célèbre schéma que tous et toutes les étudiant.e.s passées par le champ de l’information et de la communication ont eu sous les yeux :

 

 

Et ce souvenir en tête, la situation dans laquelle nous placent aujourd’hui l’ensemble des médias sociaux nous inondant de contenus générés par IA bien plus que par nous-mêmes, notamment par l’usage de « prompts » qui sont moins des « commandes » faites à des systèmes que des assignations et des injonctions faites à nous-même de s’inscrire dans ces dynamiques de générations, cette situation c’est que dans ce schéma global de la communication, j’ai le sentiment que nous ne sommes plus que le bruit. Nous sommes cet élément que Shannon et son camarade Weaver essayaient de réduire et de limiter. Nous sommes le bruit de ces plateformes qui n’aspirent finalement qu’à communiquer sans nous autrement que comme spectateurs assignés à justifier leur existence (celle des plateformes hein, pas celle des spectateurs, suivez un peu quoi). Chacun de nos prompts ajoute au bruit de cette grande lessiveuse qui choisira de ne visibiliser que la part qu’elle estimera immédiatement rentable de nos im-prompt-us murmures, de nos souffles, de nos cris, de nos ahurissements et de nos consentements à l’étrangeté de ces mondes générés pour rien. J’écrivais récemment dans une analyse parue sur AOC à propos de ce que j’appelais une « technorhée » que « les effets de réel produits par les artefacts génératifs sont des imaginaires en moins » : s’il s’agit d’imaginaires en moins c’est aussi parce ce que l’ensemble de ces générations artificielles sont du réel en trop, du réel pour rien. Et le reste, tout le reste, retournera au silence des plateformes.

Nous ne sommes plus que le bruit. Mais si nous sommes le bruit, alors qui sera la fureur ?

 

Chapitre 2nd.
Des moteurs de recherche aux super-assistants dopés à l’IA ?

Il y a une dizaine de jours (21 Octobre 2025) OpenAI a annoncé la sortie de son nouveau « super-assistant » baptisé « Atlas », qui est un navigateur intégrant toutes les fonctionnalités de ChatGPT présentées à la manière d’un moteur de recherche.

« ChatGPT Atlas est un navigateur conçu avec ChatGPT qui vous rapproche d’un véritable super assistant, capable de comprendre votre univers et de vous aider à atteindre vos objectifs » 

 

Alors évidemment il s’agit d’une nouvelle offre de service « logique » dans la guerre de position qui doit permettre à OpenAI de venir butiner sur les terres de ses concurrents directs, Google en tête. Et à ce titre et à l’échelle du web, « sortir » ChatGPT de sa « page » et propulser un navigateur dans lequel il fera office de moteur est tout à fait cohérent. Ce n’est pas pour autant que la bascule des usages se fera car à l’échelle des navigateurs justement, les habitudes ont la vie dure. Du côté des moteurs de recherche aussi d’ailleurs : Google peine à imposer les usages de Gemini (son IA maison) dans le cadre d’usage du moteur de recherche, pas sûr que OpenAI arrive à imposer l’usage d’un assistant IA comme un nouveau moteur de recherche. Nous y reviendrons. Mais bon il eût été dans tous les cas incompréhensible qu’OpenAI ne tente pas le coup. De fait l’expérience (j’ai testé) d’Atlas est rapidement assez déceptive en ce sens qu’elle oblige à passer par l’installation d’un navigateur et qu’en termes de fonctionnalités on n’a pas grand chose de plus que ce qui était déjà proposé sur la page dédiée à ChatGPT sur le site d’OpenAI (mais cela permet au passage à OpenAI de s’installer sur votre machine et de vous demander de récupérer l’ensemble de vos contacts, signets, mots de passe, réglages divers, etc.)

La seule valeur ajoutée réelle est celle de la fonction « agent » décrite comme suit par Alexandre Piquard sur Le Monde :

Le navigateur intègre aussi la fonction « agent » de ChatGPT, par laquelle l’utilisateur peut demander à l’assistant d’accomplir pour lui des actions, notamment en surfant le Web : réserver des billets de théâtre, un restaurant ou un livre, faire des courses de supermarché en ligne, remplir un formulaire, trouver un e-mail de contact puis envoyer un message… L’IA est en principe capable de consulter des pages par lui-même et même, avec autorisation de l’utilisateur, de se connecter à des services protégés par mot de passe, par exemple pour faire des achats en ligne. La fonctionnalité « agent » est toutefois réservée aux abonnés payants de ChatGPT.

 

Ce qui m’intéresse donc dans l’annonce du lancement d’Atlas (Titan mythologique assez fort pour supporter le poids de la voûte céleste et assez débile pour céder à la ruse de CE1 d’Héraclès à qui il avait réussi à la refiler), c’est précisément le narratif qui l’accompagne en tant que « super assistant ». En résumé ce narratif me semble être le nouveau signe d’une bascule anthropo-technique proche de son aboutissement. Car face à des nouveaux « assistants » ou « super assistants » nous sommes essentiellement désignés comme les assistés, les super assistés. Et face aux nouveaux « agents » conversationnels qui prennent en charge (notamment) nos recherches et qui, comme je l’expliquerai plus bas, « font à notre place », nous sommes désignés comme de nouveaux « mandants », presque de nouveaux « mand-IA-nts » (mais qui n’ont hélas rien de clochards célestes). Comment en sommes-nous arrivés là ?

Il fut un temps où la désignation des circulations possibles à l’échelle de l’internet et du web étaient de claires métaphores. Nous avions des « navigateurs« , lesquels utilisaient des « moteurs » ; et parfois sans moteur mais toujours en navigateur on se contentait de « surfer« . Pour se repérer on connaissait des adresses (URL) qui étaient autant de phares, de rives déjà apprivoisées ou de rivages à découvrir.

Et puis. Puis les moteurs de « recherche » sont devenus des moteurs de « réponses ». Puis les adresses (URL) se sont effacées, rétrogradées au second plan, amputées au-delà de leur racine, considérant que plus personne n’avait à se soucier de les retenir et nous privant du même coup d’une autre possibilité de s’orienter en dehors des déterminismes techniques servant de béquilles à nos mémoires. Et donc aujourd’hui, plus de moteurs ou de navigateurs, ou plus exactement qu’importent les moteurs et les navigateurs, nous serons « super assistés » par de « super assistants », et deviendrons donc « mandants » de ces nouveaux « agents ».

Chapitre 3ème.
Des technologies de la déprise qui ouvrent de nouveaux horizons d’emprise.

Depuis les NTIC (nouvelles technologies de l’information et de la communication) et les métaphoriquement célèbres « autoroutes de l’information », depuis aussi cette idée idiote que « l’internet » serait un « Far-West » (Sarkozy, 2007) et autres récurrences tout aussi crétines de l’idée qu’il faudrait « reciviliser internet » (Mounir Mahjoubi en 2018) en passant par l’inénarrable Frédéric Lefebvre en 2009 et sa diatribe Kamoulox entre Hadopi, jeunes filles violées et identité nationale (sic) et jusqu’à tout récemment Clara Chappaz (2025) qui ressort le coup du Far-West à l’occasion de la mort de Raphaël Graven, chacun voit bien que la question de ces technologies est avant tout de nature politique. Et que ce qu’elles viennent bousculer dans nos schémas de communication et d’information est tout ce qui tient à notre capacité de faire société c’est à dire à nourrir des formes de sociabilités informationnelles, affectives et cognitives qui dessinent une réalité partagée.

La question des infrastructures technologiques n’est évidemment pas neutre dans l’équation, elle est même déterminante (à ce sujet lisez ou relisez Cyberstructure de Stéphane Bortzmeyer). Mais nous héritons d’un monde où la question politique de ces technologies et de leurs infrastructures n’a été posée en termes à peu près correct qu’à partir du moment où précisément elles avaient déjà commencé à ronger les structures même du débat public et politique tout autant que ses conditions pratiques d’exercice. L’histoire est malheureusement connue, à force de se concentrer sur la ruée vers l’or personne n’a noté que les seuls à faire réellement fortune étaient les fabricants de pelles. Et bien voici venu le temps des coups de pelle dans la tronche.

Pour sortir de cette qualification dépolitisante de « NTIC » beaucoup ont proposé d’autres dénominations. Pour ma part j’ai suggéré de questionner les NTAD, nouvelles technologies de l’attention et de la distraction. J’ai aussi et surtout interrogé la question de la déprise, c’est à dire la capacité de ces technologies à nous placer en situation de dépendance choisie, de nous installer dans des routines à coût cognitif nul, et finalement de presque tout faire à notre place, et inexorablement, de ne plus répondre à nos commandes que dans un « à peu près » qui nous satisfasse au regard de l’habitude prise à ne plus nous soucier de la précision du monde et de ce qui le constitue. Je vous invite à relire mon article de 2018 dans lequel j’explique tout cela avec de nombreux exemples et où je proposais l’insatisfaisant concept de « technologies de l’à peu près et de l’à ta place » que je requalifie donc aujourd’hui comme des technologies de la déprise (voilà pour le côté « à peu près ») et de l’emprise (voilà pour le côté « à ta place »). A partir de deux exemples « d’innovation » j’y montrais notamment ceci :

« Ce qui m’intéresse dans cette affaire c’est la chose suivante : nous avons donc un algorithme qui s’occupe de recadrer automatiquement les photos que nous prenons, au risque de nous faire prendre des photos que nous ne voulions pas prendre, ou en tout cas de donner à voir une « composition photographique » qui n’est pas celle que nous voulions montrer. Et ce « choix algorithmique » de recadrage, dont on nous dit qu’il est là pour permettre d’optimiser – paradoxalement – la visibilité, se trouve lui-même soumis au choix algorithmique conditionnant la visibilité du Tweet lui-même, indépendamment des photos recadrées qu’il contient. Soit un empilement de strates et de régimes algorithmiques d’obfuscation et de dévoilement, sur lesquels nous n’avons quasiment plus aucune prise (de vue).

Là encore, comme pour Clips de Google mais à un niveau légèrement différent, l’usage de la technologie nous installe dans une position que l’on pourrait qualifier « d’assistance contrainte » : nous n’avons pas demandé à ce que nos photos soient recadrées, mais nous n’avons pas d’autre choix en les soumettant que de les voir recadrées. La technologie et l’algorithme de machine-learning le font à notre place. TIYS (Technology In Your Stead) & AIYS (Algorithms In Your Stead). La négociation dans l’usage se jouant autour de la promesse de gain de visibilité pour l’utilisateur (et donc d’interaction ou d’engagement pour la plateforme).

 

Aujourd’hui l’ensemble des contenus produits par IA sont l’incarnation finale de ces technologies qui font à la fois « à peu près » et « à notre place ». Donnez-leur un prompt et vous aurez une projection qui sera « à peu près » ce que vous imaginiez, et qui surtout sera produite « à votre place » au double sens du terme, c’est à dire depuis votre place qui est une place à distance de l’acte de création, mais également qui vous départit de l’essentiel même de ce qu’imaginer ou créer veut dire.

Chapitre 4ème
À moins de revoir la doctrine entre le statut d’éditeur et celui d’hébergeur

J’ai le sentiment qu’il est beaucoup trop tard et que la seule manière de remettre un peu d’eau claire dans ce flot de merde, c’est de revenir sur une constante qui fut pourtant fondamentale et constitutive de l’histoire du web et des plateformes. Il faut que les plateformes soient immédiatement considérées comme totalement et pleinement éditrices des contenus qu’elles font circuler. De tous les contenus ? Oui. Voici pourquoi et voici aussi comment cela pourrait permettre de résoudre le problème qu’Emmanuel Macron résume parfaitement (bah oui faut le dire parfois il résume bien les trucs) mais en omettant de parler de l’autre éléphant dans la pièce, c’est à dire les « autres » médias classiques, traditionnels et pas spécialement sociaux mais qui sont au moins autant coupables de l’effondrement démocratique qui se dessine.

Parce que t’as raison Manu, on tape Islam sur TikTok et on tombe en trois clics sur des contenus salafistes. Mais je te rappelle qu’on dit « Bonjour » sur CNews et on tombe encore plus rapidement sur des contenus racistes éditorialisés par des gens condamnés pour corruption de mineurs et harcèlement sexuel, donc bon voilà quoi.

 

Oh oui reprends-moi le contrôle et enfourchons le tigre.

 

[Si vous êtes familiers de la distinction entre éditeur et hébergeur et de tout ce qui tient à la « section 230 », vous pouvez directement sauter ce passage et on se retrouve après les crochets, sinon je vous invite à lire l’article d’Anne Deysine dans l’excellentissime Revue Européenne des médias et du numérique, et vous en partage l’extrait qui suit :

« La section 230 a été ajoutée à la loi Communications Decency Act (CDA) de 1996 (qui visait à réguler la pornographie) grâce au lobbying de ceux que les chercheuses Mary Ann Franks et Danielle Keats Citron appellent les « fondamentalistes de l’internet » : ceux qui défendent une vision du web comme espace paradisiaque de liberté totale. La section 230 (surnommée « les 26 mots qui ont créé l’internet ») fut, à l’origine, conçue pour encourager les compagnies de la Tech à nettoyer les contenus offensifs en ligne. Il s’agissait de contrer une décision rendue en 1995 dans l’État de New York, ayant conclu à la responsabilité de Prodigy qui avait modéré des contenus postés sur son site. La section 230 (c) (1) stipule qu’« aucun fournisseur d’accès ne sera traité comme un éditeur ». Un deuxième paragraphe, 230 (c) (2), précise qu’« aucun fournisseur ou utilisateur d’un service informatique interactif ne sera tenu responsable, s’il a de bonne foi restreint l’accès ou la disponibilité de matériaux qu’il considère être obscènes, excessivement violents, de nature harcelante ou autrement problématiques (otherwise objectionable), que cette information soit constitutionnellement protégée ou non. 

C’est ce qu’on appelle la disposition du « bon Samaritain », conçue comme plus limitée que le paragraphe (c) (1), car nécessitant de prouver la bonne foi.

Mais les juridictions étatiques et fédérales ont étendu la protection juridique bien au-delà de ce que prévoit le texte de la loi, avec pour résultat que les plateformes ne soient guère incitées à combattre les abus en ligne. La section 230 a, de fait, libéré les sites internet, les sites de streaming et les réseaux sociaux (pas encore nés en 1996), qui peuvent héberger du contenu extérieur sans être confrontés à la tâche (impossible ?) de vérifier et de contrôler tout ce qui est posté par les utilisateurs. Telle qu’interprétée par les juridictions fédérales, la section 230 confère aux plateformes et réseaux sociaux une immunité totale, quels que soient le contexte et le cas de figure (modération ou non). Avec pour conséquences, entre autres, la multiplication des mensonges et la prolifération de la désinformation et des discours de haine. Ils ont donc le pouvoir sans la responsabilité, selon les mots de Rebecca Tushnet. » in Deysine, Anne. « La section 230 : quelle immunité pour les réseaux sociaux ? » La revue européenne des médias et du numérique, 13 février 2024.

 

Pour rappel également, Trump s’est tour à tour « amusé », dans ce mandat comme dans son précédent, à brandir la menace de la suppression de la section 230 (quand ça l’arrangeait pour mettre la pression aux grands patrons de la tech qui tardaient à lui donner des gages de servilité) puis à en rappeler l’importance (dès lors que les gages de servilité avaient été obtenus et qu’il s’agissait alors pour lui de rétablir les plateformes dans une immunité totale au service de ses intérêts politiques.]

Reprenons.

Dans le contexte de l’explosion totalement dérégulée des contenus générés par IA, continuer aujourd’hui à prétendre encore distinguer entre un statut d’éditeur et un autre d’hébergeur en privilégiant ce dernier, c’est prétendre vouloir nettoyer les écuries d’Augias avec un coton-tige et un mi-temps thérapeutique. Il ne s’agit plus de dire que c’est trop tard (c’est en effet trop tard) ; il s’agit de dire que ce n’est simplement plus le sujet.

On ne peut plus considérer aujourd’hui que les très grandes plateformes actuelles de médias sociaux sont légitimes à continuer de s’abriter derrière un statut d’hébergeur. Elles ne le sont plus. Du tout. Leurs algorithmes tordent la réalité sous l’impulsion et les intentions claires et transparentes de l’idéologie de leurs propriétaires. Et elles ont toutes jusqu’ici absolument tout mis en place pour, à chaque fois que possible, se soustraire à leurs obligations légales ou à leurs engagements moraux.

Nous sommes au coeur d’un nouvel épisode du paradoxe de la tolérance de Popper : nous avons été beaucoup trop tolérants avec des grandes plateformes qui trop longtemps furent et continuent d’être la caution de toutes les intolérances. Tout a été dit et documenté sur le fait que toutes les plateformes ont non seulement parfaitement conscience des dérives et des dangers qu’elles représentent (notamment mais pas uniquement pour les publics les plus jeunes), sur les moyens dont elles disposent toutes pour immédiatement atténuer ces dangers et ces dérives, et sur les coupables atermoiements, reniements, dissimulations et mensonges qui les conduisent à ne rien mettre en place de significatif à l’échelle de l’immensité et de l’urgence des problèmes qu’elles posent. Je l’ai (et tant d’autres avec moi) tant de fois dit, écrit, montré et démontré et le redis encore une fois :

 

Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux (…) les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.

 

Autre fait incontestable de ce premier quart du 21ème siècle, aujourd’hui et lorsqu’ils ne disposent pas déjà d’un internet totalement fermé ou sous contrôle (comme en Chine ou en Russie par exemple), l’essentiel des pouvoirs politiques de la planète n’ont plus pour projet, ambition ou vocation de contrôler et de limiter le pouvoir de nuisance de ces plateformes mais tout au contraire de le maximiser et de le mettre à leur propre service ou, le cas échéant, à celui d’un agenda du chaos sur lequel ils espèrent pouvoir encore prospérer. Comme le rappelle très bien Fred Turner dans « Politique des machines » :

« L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre. »

 

Il revient donc aux quelques états encore pleinement démocratiques (ou pas encore totalement illibéraux), en Europe notamment, de mettre immédiatement fin à la tolérance qui est faite à ces très grandes plateformes, de rompre avec leur statut d’hébergeur et de les rendre éditrices en droit. À celles et ceux qui m’objecteront que c’est impossible, je répondrai qu’il s’agit de l’une de nos dernières chances pour préserver l’espoir de vivre encore dans une forme de réalité partagée et consensuelle, et qui ne soit pas en permanence minée et traversée d’opérations massives de déstabilisation ou d’influence de plus en plus simples à initier et de plus en plus complexes à contrer (si vous êtes curieux de cela, regardez par exemple ce qui se passe actuellement autour de l’IA, des LLM et de la stratégie des « data voids » – données manquantes – et autres LLM Grooming). Et que si ce mur là continue de se fissurer et tombe, alors …

À celles et ceux qui disent que c’est impossible je répondrai aussi que refuser de le faire c’est continuer de nier la place et le rôle politique de ces plateformes et privilégier un argument de neutralité de la technique dont nous avons chaque jour démonstration de l’ineptie totale qu’il recouvre. C’est bien parce que ces plateformes sont avant tout politiques, c’est bien parce que ces plateformes sont dirigées par des hommes (et quelques rares femmes) aux agendas idéologiques clairs (et le plus souvent dangereux), c’est bien parce qu’ouvrir le code des algorithmes ne suffit plus, c’est bien parce qu’il s’agit de protéger des populations entières d’usages incitatifs qui tendent majoritairement à corrompre, à pourrir, à remettre en doute toute forme de réalité objectivable et partagée, c’est bien pour l’ensemble de ces raisons qu’il est aujourd’hui impérieux de sortir d’une logique où le statut d’hébergeur est systématiquement brandi comme la carte joker de l’effacement de toute responsabilité ou de toute contrainte.

Le maintient d’un statut d’hébergeur primant sur celui d’éditeur n’avait de sens que dès lors qu’il n’y avait pas plus qu’un doute raisonnable sur l’indépendance politique et idéologique des plateformes et de ceux qui les dirigent. Ce doute étant aujourd’hui totalement levé et démonstration étant faite quasi-quotidiennement de l’ingérence de ces plateformes dans chacune des strates et orientation du débat public comme des décisions politiques, il faut imposer un statut d’éditeur à toutes ces grandes plateformes et que ce statut prime sur des fonctions d’hébergeur qui peuvent, marginalement ou périphériquement leur être conservées. Bref il faut de toute urgence inverser la logique. Il faut que ces plateformes répondent en droit de leur responsabilité d’abord éditoriale ou il faut qu’elles s’effondrent. Tout autre scénario revient aujourd’hui à accepter l’effondrement à moyen terme de nos démocraties. Il nous faut un effet cliquet ; il nous faut « cranter » une décision suffisamment forte pour qu’elle change totalement les dynamiques en cours.

Depuis l’émergence des grands réseaux puis médias sociaux « grand public », disons depuis 15 ou 20 ans, nous avons, et le législateur, raisonné en alignement avec l’argumentaire des plateformes consistant à expliquer que « plus elles étaient grosses » (en nombre d’utilisateurs), « plus les contenus y étaient abondants« , et « plus il était impossible d’y appliquer une modération ou une transparence éditoriale. » Or nous avons commis une triple erreur.

D’abord sur le statut d’hébergeur versus celui d’éditeur : cet argumentaire était directement repris de celui des fournisseurs d’accès, qui eux, étaient à l’époque comme maintenant, parfaitement légitimes à être protégés par le statut d’hébergeur en tant qu’intermédiaires techniques. Mais aucune des grandes plateformes dont nous parlons aujourd’hui n’a bâti son succès et son audience en tant qu’intermédiaire technique. Voilà notre première erreur.

La seconde erreur est de considérer que plus les gens sont nombreux à interagir, plus il y a de contenus en circulation, et moins il devrait y avoir de règles (ou seulement des règles « automatisées ») car toutes ces interactions seraient impossibles à contrôler. Je vous demande maintenant de relire la phrase précédente et d’imaginer que nous ne parlons plus de grandes plateformes numériques mais de pays et de populations civiles. Imagine-t-on réellement pouvoir tenir un argumentaire qui expliquerait que plus la population d’un pays est nombreuse, plus elle interagit et produit des discours et des richesses, et moins il doit y avoir de règles et de lois car tout cela serait trop complexes à gérer ? Voilà notre deuxième erreur. Et même si par nature, les espaces de ces très grandes plateformes ne sont ni entièrement des espaces publics, ni jamais pleinement des espaces privés, ils demeurent des espaces politiques traversés en chacun de leurs points et de leurs vecteurs par la question du « rendu public » et des règles afférentes qui le permettent et l’autorisent.

La troisième erreur est d’avoir laissé ces grandes plateformes agglomérer, agglutiner, une série de services et de « métiers » qui n’ont rien à voir entre eux et obéissent à des logiques de régulation différentes pouvant aller jusqu’à l’antagonisme. Ainsi, un service de « réseau social » qui s’appuie uniquement sur de la mise en relation, un service de messagerie électronique, un service de production de contenus vidéos, un service de moteur de recherche, et quelques autres encore, ne peuvent évidemment pas être soumis aux mêmes règles ou statuts d’hébergeur ou d’éditeur. Il n’est ainsi pas question pour un service de courrier électronique de faire peser la même responsabilité éditoriale que, par exemple, pour un service de production de vidéos. Lorsque Mark Zuckerberg déclarait ainsi en 2020, « Treat us like something between a telco and a newspaper » (« traitez-nous comme quelque chose entre un opérateur télécom et un journal »), c’est une manière d’échapper à sa responsabilité de « journal » (en s’abritant derrière les régulations des opérateurs télécoms qui ne couvrent pas l’aspect éditorial) et d’échapper aussi à sa responsabilité d’opérateur télécom (en s’abritant derrière les régulations propres aux médias). Voilà notre troisième erreur : avoir accepté de traiter l’ensemble de ces grandes plateformes comme si elles n’étaient qu’un tout et n’avaient qu’un seul « métier », alors pourtant que depuis des années, la nécessité de leur démantèlement (ou de leur nationalisation partielle) était la seule hypothèse rationnelle.

En parallèle voilà plus de deux décennies que nous demandions et tentons d’installer dans le débat public la nécessité d’ouvrir le code ces algorithmes. Moi y compris et – pardon pour l’immodestie – moi parmi les tous premiers avec mon camarde Gabriel Gallezot dès 2003, Aujourd’hui non seulement ouvrir le code des algorithmes ne suffit plus puisqu’irrévocablement, irrémédiablement, « il n’y a pas d’algorithme, juste la décision de quelqu’un d’autre » (Antonio Casilli, 2017), et de quelqu’un d’autre qui, soit se cogne de toute considération politique, soit au contraire ne raisonne qu’en termes politiques et idéologiques.

Cela ne veut pas dire pour autant que toute plateforme hébergeant des contenus en ligne doit se voir assignée uniquement et exclusivement un rôle et statut d’éditeur. Cela veut par contre dire que toutes les très grandes plateformes sociales actuelles, disons pour reprendre la catégorisation du DSA (Digital Service Act) toutes celles ayant plus de 45 millions d’utilisateurs actifs (soit 10% de la population européenne), toutes ces très grandes plateformes doivent d’abord être considérées comme éditrices. Dans la jurisprudence, l’un des critères les plus déterminants qui permet de distinguer entre hébergeur et éditeur et celui dit du « rôle actif », défini comme « la connaissance et le contrôle sur les données qui vont être stockées. » Or qui peut aujourd’hui sérieusement prétendre que Facebook, Instagram, X, TikTok et les autres n’ont pas un rôle actif dans la circulation des contenus hébergés, et que ces plateformes n’auraient ni connaissance ni contrôle sur les données et contenus stockés ? Le gigantisme fut longtemps l’argument mis en avant par les plateformes pour, précisément échapper à leur responsabilité éditoriale. Cet argument n’a aujourd’hui (presque) plus rien de valide techniquement ou de valable en droit.

Entendez-vous le son qui monte ? « Cela reviendrait à condamner le modèle même de ces plateformes, à les empêcher d’exister« . Oui. Oui encore et encore oui. Puisqu’elles n’entendent rien et se soustraient à toutes leurs obligations légales ou morales, oui il faut les renvoyer à leur responsabilité première, qui est une responsabilité éditoriale. Et le risque qu’elles ferment ? Oui il faut prendre ce risque. Qu’elles revoient entièrement leur mode de fonctionnement ? Oui il faut prendre ce risque. Que les interactions y baissent drastiquement ? Oui il faut prendre ce risque. Qu’elles soient contraintes de massivement recruter des modérateurs et des modératrices bien au-delà de ce qu’exige l’actuel DSA (dont elles n’ont à peu près rien à secouer) ? Oui il faut prendre ce risque. Qu’elles soient contraintes d’appliquer toutes les décisions de justice qui restent jusqu’ici lettre morte ? Oui il faut prendre ce risque. Que leur modèle économique soit totalement remis en cause ? Oui il faut prendre ce risque. Qu’une mathématique algorithmique explicite s’applique de plein droit sans être en permanence triturée pour faire remonter le pire, le plus clivant, le plus choquant, le plus porteur émotionnellement et le plus au service des idéaux du patron ? Oui il faut prendre ce risque. Que nous soyons contraint.e.s de les quitter ? Oui il faut prendre ce risque.

Et par-delà ces « risques » il s’agit surtout d’opportunités. Je rappelle en effet que d’autres formes de collectif, d’agrégation, d’intelligences collectives ont toujours été possibles, le sont et le seront encore à l’échelle d’internet, à l’échelle du web, à l’échelle des plateformes. Car si l’on parvient, pour les plus grosses d’entre elles, à mettre fin à ce statut d’hébergeur aujourd’hui presque totalement dérogatoire au droit, alors il reviendra à chacun.e d’entre nous, aux pouvoirs politiques et aux collectifs citoyens, aux chercheurs, aux chercheuses, aux journalistes et à l’ensemble des corps intermédiaires aujourd’hui tous menacés ou contraints par ces plateformes, de retrouver ce qui fut un temps le rêve achevé du web : des gens s’exprimant en leur nom (ou pseudonyme qu’importe), depuis principalement leur adresse, créant entre elles et eux des liens plutôt que des like. Un Homme, une page, une adresse.

Éditorialiser.

Ce que nous ferons de l’actuelle l’irresponsabilité éditoriale des très grandes plateformes n’est ni temporairement un choix technique, ni réellement un choix juridique, ni même pleinement un choix politique ; c’est une somme de tout cela mais c’est bien plus encore que cela. C’est un choix ontologique, qui seul peut nous permettre de définir et d’assigner ces écosystèmes informationnels à ce qu’ils sont vraiment et non à ce qu’ils prétendent être. Fred Turner encore, dans une interview sur NeXt à l’occasion de la sortie de « Politique des machines » (chez le meilleur éditeur de la galaxie connue) nous le rappelle (je souligne) :

« Nous vivons dans une ère saturée de médias et d’histoires. Rien ne donne plus de pouvoir que la capacité à contrôler le récit. En la matière, Donald Trump, c’est un drame dans lequel chaque Américain a une chance de jouer un rôle. C’est ce drame qui structure la réalité.

Si la France est là où les États-Unis étaient en 2022, disons, alors elle a une opportunité que nous n’avons pas su saisir. Vous pouvez construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques. Vous pouvez commencer à parler du monde que vous voulez construire. De cette manière, si l’autoritarisme arrive à votre porte, vous aurez déjà une autre histoire à proposer. »

 

Il (me) semble que cette histoire ne pourra jamais être contée si nous ne contribuons pas, en parallèle et peux-être en préalable, à démolir et à éparpiller façon puzzle l’actuel paysage éditorial dominant.

Marcello Vitali Rosati donnait la définition suivante de l’éditorialisation, une définition que je vous ai souvent donnée ici, que j’ai souvent reprise à mon compte :

« L’éditorialisation n’est pas seulement un ensemble de techniques, même si l’aspect technique est le plus visible et le plus facilement définissable. On pourrait donner la définition suivante. L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »

 

« Avoir une autre histoire à proposer« , « produire des visions du monde« , produire du réel. Que font et que sont ces méga-plateformes aujourd’hui sinon un acte premier et fondateur de production du réel. Mais souvenez-vous en et retenez-le bien, c’est un réel « à peu près » ; c’est un acte de production « à notre place« . Il est temps que tout cela cesse. Alors cessons d’être le bruit, et surtout, empêchons-les de plonger notre monde dans la fureur.

  • ✇affordance.info
  • L’indigne et les indignés. Chronique d’une a-réalité.
    En une seule journée (c’était en début de semaine), nous avons donc eu la Une du JDNews (émanation putride de l’empire Bolloré) avec la phrase de Wauquiez sur l’enfermement et la déportation des OQTF à Saint-Pierre et Miquelon, mais aussi la sortie médiatique d’Elisabeth Borne expliquant qu’il fallait réfléchir très tôt à son orientation, et même « dès la maternelle » (le verbatim complet est le suivant « Il faut se préparer très jeunes, presque depuis la maternelle, à réfléchir à la façon dont
     

L’indigne et les indignés. Chronique d’une a-réalité.

11 avril 2025 à 12:43

En une seule journée (c’était en début de semaine), nous avons donc eu la Une du JDNews (émanation putride de l’empire Bolloré) avec la phrase de Wauquiez sur l’enfermement et la déportation des OQTF à Saint-Pierre et Miquelon, mais aussi la sortie médiatique d’Elisabeth Borne expliquant qu’il fallait réfléchir très tôt à son orientation, et même « dès la maternelle » (le verbatim complet est le suivant « Il faut se préparer très jeunes, presque depuis la maternelle, à réfléchir à la façon dont on se projette dans une formation et un métier« ).

« Et reprenons un peu de saucisson. »

Notez que la langue française est formidable car depuis la publication de cette Une, il est déjà passé dans le langage courant que l’on ne dit plus « con comme ses pieds » mais désormais « con comme Wauquiez« .

« Passé les bornes y’a plus de limites. » (Emile. 7 ans. CE1)

Cessons de louvoyer et d’y aller par demi-mesures, je propose de mon côté de réfléchir à un monde dans lequel les enfants qui n’auraient pas de projet professionnel clair à l’issue du CP seraient placés sous OQTF et déportés une bonne fois pour toutes dans des orphelinats militaires à Saint-Pierre et Miquelon.

« Quelle indignité. »

Sur les médias sociaux d’abord, sur les plateaux télé ensuite, dans les radios enfin, et parfois simultanément dans l’ensemble de ces biotopes médiatiques, ces propos ont été moqués, ridiculisés, dénoncés, combattus, ils ont aussi parfois été soutenus et défendus, et ils ont donc atteint leur objectif premier qui est de … circuler massivement (mais concernant Wauquiez, même sur CNews ils étaient à un doigt de trouver ça raciste et complètement con et puis finalement ils ont pris un whisky d’abord).

Oui bien sûr il y a de la fenêtre et surtout du rétroviseur d’Overton là-dedans, oui bien sûr derrière la Une travaillée et délibérément choquante du JDNnews comme derrière la sortie de route de Borne qui doit être lue comme un authentique lapsus tout à fait révélateur de son projet politique, oui bien sûr il y a l’idée d’élargir encore la fenêtre et le rétroviseur d’Overton et de nous préparer.

Mais il y a aussi cette forme fondamentale et chimiquement pure d’une rhétorique de l’indignation. Depuis que les réseaux et médias sociaux existent, nombre d’études scientifiques ont montré que le ressort principal et constant de la circulation virale des contenus était celui de l’indignation, indignation directement liée au sentiment de colère face à une injustice. L’indignation suite à la colère liée à une injustice en paroles ou en actes, est l’émotion qui sollicite le plus directement notre nécessité de réaction. On ne peut pas ne pas réagir lorsque des propos nous indignent et nous placent sous le coup de la colère.

L’indignation, en tout cas dans son expression virale, nous plonge également dans une posture cognitive « a-rationnelle ». On ne répond pas rationnellement à des propos qui nous indignent. L’indignation porte en elle l’effet miroir de sa réponse qui ne peut être qu’elle-même indignée. L’indignation contraint à d’autres réponses indignées qui elles-mêmes … ad libitum.

En France, en démocratie, les sorties de route ou déclarations suscitant de l’indignation se multiplient comme jamais auparavant et si ce sont les deux pôles radicaux de l’échiquier politique qui la monopolisent le plus, c’est bien l’ensemble du spectre qui s’y fourvoie avec une pathétique délectation. Parce qu’en termes d’agenda, il importe à toutes les formations politiques de dicter autant qu’elles le peuvent celui de nos indignations collectives (et donc sélectives).

On se souvient bien sûr de la phrase de Hannah Arendt : « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »

Remplaçons maintenant le mensonge par l’indignation. Ce qui donne « Quand tout le monde tient des propos suscitant l’indignation en permanence, le résultat n’est pas que vous vous indignez vous-même, mais que plus personne ne peut être autrement qu’indigné. Un peuple qui ne peut plus être autrement qu’indigné en permanence ne peut se faire une opinion. » La suite de la phrase d’Arendt reste inchangée. « Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez. »

Ces indignations, celles que véhiculent des écosystèmes idéologiques comme ceux de Stérin et de Bolloré, ces indignations programmatiques prennent le relai du mensonge et achèvent de déréaliser l’ensemble de nos repères informationnels et de nos représentations sociales collectives.

D’abord on vous ment. Puis sans vous laisser le temps de disserter sur le mensonge on vous indigne. Et vous vous indignez. Souvent ces mensonges suscitent de l’indignation. Souvent ces indignations mobilisent des mensonges pour les apaiser ou au contraire les alimenter et les accompagner. Et alors tout devient possible. Les faits alternatifs – qui mobilisent des systèmes de coordonnées auto-référentiels et qui n’ont plus besoin d’aucune autre validation que celle de la pure croyance – se généralisent et se systématisent. On peut tout à fait tenir un rassemblement sur une place à demi-vide, on peut montrer les images de cette place à demi-vide et affirmer sans sourciller que cette place était pleine. Trump l’avait fait pour son premier discours d’investiture lors de sa première élection, le rassemblement national l’a encore fait le week-end dernier. L’indignation porte en elle un phénomène dissociation : ce n’est plus le réel qui importe mais le discours sur le réel qui seul est débattu, y compris s’il se détache complètement du réel.

Ce que nous sommes en train de perdre c’est tout un système de coordonnés. Des coordonnées spatiales, géographiques (le changement de nom du Golfe du Mexique n’est pas seulement une lubie ou un coup de comm de la part de Trump), des coordonnées temporelles, informationnelles, culturelles.

Récemment un article paraissait qui expliquait la manière dont (une partie de) l’algorithme de TikTok fonctionnait :

« (…) comment une vidéo arrive-t-elle jusqu’à vous ? Tout commence par un immense réservoir, le « pool de contenu », où atterrissent toutes les nouvelles vidéos postées. Mais attention, elles ne passent pas toutes le filtre. Une première évaluation élimine celles qui ne respectent pas les règles. Ensuite, c’est l’étape du « rappel », où l’algorithme trie rapidement pour trouver ce qui pourrait vous plaire. Là, entre en scène le « Dual Tower Recall », un modèle qui transforme vous et les vidéos en points dans un espace numérique. On peut imaginer un grand tableau avec des coordonnées. Vous êtes un point, et chaque vidéo aussi. Si vos points sont proches, la magie s’opère, la vidéo vous est proposée. Ce système repose sur des calculs mathématiques complexes, mais l’idée est simple : plus vos goûts « matchent » avec une vidéo, plus elle a de chances d’apparaître sur votre écran.« 

 

Un système de coordonnées dans un espace numérique où nous sommes un point parmi tant d’autres, tout comme la théorie des graphes (notamment des graphes invariants d’échelle) permet de modéliser les infrastructures relationnelles des réseaux sociaux massifs.

La métaphore du « grand tableau » avec des coordonnées dans laquelle nous sommes autant de « points » et où les contenus en sont d’autres qu’il s’agit d’apparier, est relativement exacte et fonctionnelle (voilà plus de 20 ans que nous disposons en effet d’études scientifiques dans le champ des systèmes et algorithmes de prescription et de recommandation et de la théorie des graphes qui permettent de modéliser tout cela).

Là où en effet les systèmes d’appariement et de recommandation algorithmiques nous offrent et disposent de coordonnées extrêmement précises leur permettant de satisfaire la part la plus déterministe de nos attentes et de nos comportements à commencer par les plus singuliers et les plus grégaires, l’ensemble des autres systèmes référentiels collectifs de coordonnées culturelles, historiques, politiques et informationnelles se sont disloqués ou sont en train de s’effondrer sous les coups de boutoir redoublés des mensonges instrumentaux et des indignations brandies comme autant de stratégies comportementales de renforcement. En tout cas ils agissent beaucoup moins de manière « cadrante » et l’ensemble des phénomènes documentaires allant des pures Fake News aux faits alternatifs en passant par les artefacts génératifs, les mensonges instrumentaux et les indignations programmatiques finissent par produire des formes de décrochage du réel qui sont le point d’adhérence d’un grand nombre de dérives tant idéologiques que politiques, sociales et économiques.

Et l’ère des capitalistes bouffons armés de tronçonneuses ne fait qu’accélérer encore ces dérives désormais quotidiennes.

S’il fallait résumer tout cela par un dessin ce pourrait être celui-ci.

 

Les coordonnées de notre monde social se déplacent bien sûr aussi. Elles bougent. Le plus souvent dans la sens du progressisme, mais parfois également dans de mortifères conservatismes ou d’alarmantes régressions. Les coordonnées de notre monde ‘ »algorithmique », c’est à dire l’ensemble des référentiels produits par les technologies et dans lesquels nous sommes en permanence passés au crible, ces coordonnées là se déplacent non seulement beaucoup plus vite mais de manière aussi beaucoup plus incohérente car n’ayant pas nécessité d’attache dans le réel. De ce décalage naissent des formes de décrochage, de dissociation, de scission entre des systèmes de coordonnées qui si elles ne se tiennent plus ensemble, laissent place à toutes les dérives et à toutes les incompréhensions possibles.

Dans la situation 1, les coordonnées de notre monde social et de notre monde algorithmique se recouvrent presqu’entièrement et de manière cohérente. Seuls de petits espaces subsistent dans lesquels le monde algorithmique se singularise et dans lesquels le monde social peut exister indépendamment du monde algorithmique.

Dans la situation 2 en revanche, il est tout un pan (hachuré) de notre monde social qui n’a presque plus de liens, de coordonnées communes avec notre monde algorithmique. Et réciproquement.

Stéphane Hessel, en 2010, nous invitait à nous indigner. Indignez-vous. Dans le sillage de l’appel des Résistants aux jeunes générations du 8 mars 2004 (lors de la commémoration du 60ème anniversaire du programme du CNR), cet appel à l’indignation était avant tout un appel à l’engagement. Un appel à l’engagement comme un retour au réel. Et dont l’indignation n’était que le moteur et jamais, jamais la finalité. Son ouvrage se terminait par ces mots et cette citation de l’appel des résistantes et résistants :

« Aussi, appelons-nous toujours à « une véritable insurrection pacifique contre les moyens de communication de masse qui ne proposent comme horizon pour notre jeunesse que la consommation de masse, le mépris des plus faibles et de la culture, l’amnésie généralisée et la compétition à outrance de tous contre tous. »

 

  • ✇affordance.info
  • Poisson (mort) d’avril. Le réel selon la Tech.
    Il y a les images d’un monde version studio Ghibli. Et il y a Elon Musk avec un chapeau fromage. Le monde version studio Ghibli c’est une trace documentaire qui fait l’inverse de ce que documenter veut dire. Elle déréalise, elle euphémise, elle fictionnise. Elle enlève du relief aux êtres et aux choses. Elle les installe dans un univers d’à côté. Dans une tangence. Le monde version Elon Musk c’est à lui seul une exponentielle du grand n’importe quoi et l’asymptote d’un réel entièrement fiction
     

Poisson (mort) d’avril. Le réel selon la Tech.

1 avril 2025 à 12:06

Il y a les images d’un monde version studio Ghibli. Et il y a Elon Musk avec un chapeau fromage.

Le monde version studio Ghibli c’est une trace documentaire qui fait l’inverse de ce que documenter veut dire. Elle déréalise, elle euphémise, elle fictionnise. Elle enlève du relief aux êtres et aux choses. Elle les installe dans un univers d’à côté. Dans une tangence.

Le monde version Elon Musk c’est à lui seul une exponentielle du grand n’importe quoi et l’asymptote d’un réel entièrement fictionné pour servir ses seuls intérêts pour autant qu’il soit lui-même en capacité de les identifier comme tels. Salut Nazi hier, chapeau fromage aujourd’hui, et demain quoi d’autre ?

On a beaucoup parlé de l’ère des Fake News et de celle des faits alternatifs. En 2018 dans l’article « Fifty Shades of Fake » publié un 1er Avril, je vous parlais de la manière dont les architectures techniques toxiques des grandes plateformes numériques se mettaient au service presque « mécanique » de cette amplification du faux et de son écho dans nos sociétés. Je martelais que « la propagation de Fake News est davantage affaire de topologie que de sociologie » ; en d’autres termes que la capacité de circulation des contenus relevant des Fake News ou des faits alternatifs, leur capacité également de percoler dans tous les espaces sociaux conversationnels, massifs ou intersticiels, médiatiques ou dialogiques, cette capacité s’explique d’abord et avant tout par la topologie et l’organisation (le « dispositif ») des espaces numériques. Et que ce n’est qu’à la marge ou en tout cas dans un second temps que l’on peut caractériser de manière causale ces circulations en les rattachant à des catégories sociologiques liées à l’âge, au niveau d’éducation ou à tout autre variable.

Sept ans plus tard, ce 1er Avril 2025, ce qui se joue est de l’ordre de la tension désormais explosive entre un écosystème numérique bâti sur la question documentaire de la trace (traces de nos données, de nos comportements, de nos navigations, de nos opinions, etc.), et un saisissement technologique et politique qui ajoute un déterminisme de l’emballement à un extractivisme souche. Et ce que l’on nomme IA  – et qui est plus précisément un ensemble d’artefacts génératifs nourris d’une incommensurable quantité de données sans considération aucune pour leur origine, leur appartenance ou leur(s) propriété(s) – ce que l’on nomme IA n’est que le dernier (et peut-être ultime) avatar à la fois de cet extractivisme et de cet emballement. Avec un point nouveau qui est celui de l’alignement total de ces technologies avec les agendas politiques de régimes tous au mieux illibéraux.

« It is a tale
Told by an idiot, full of sound and fury,
Signifying nothing. »
(Macbeth. Shakespeare.)

Poisson (mort) d’Avril. Il y a de cela quelques années, la plupart des grands groupes technologiques de la trace (de Google à Facebook) se livraient à quelques « poissons » en ce jour particulier du 1er Avril. Aujourd’hui cette pratique s’est pour l’essentiel perdue et lorsqu’elle subsiste, elle ne suscite que peu ou pas d’écho médiatique tant le rapport que nous entretenons au quotidien avec la tromperie, la duperie, le décalage, de faux et l’irréel s’est totalement transformé. Ce qui était hier une stratégie éditoriale d’exception (dire le faux) est devenu aujourd’hui un régime éditorial courant, une routine.

Le monde façon studio Ghibli. Que chacun se soit emparé de la possibilité de faire « mème » dès lors que quelques-uns se sont saisis de la nouvelle opportunité offerte de créer des images, de soi ou du monde, à la manière du studio Ghibli dans ChatGPT, n’a rien d’inédit ou d’étonnant. Chaque époque numérique a pu documenter la manière dont ces productions documentaires particulièrement fécondes étaient massivement reprises lorsqu’elles présentaient la double capacité de se mettre en scène soi-même et/ou de s’attacher à des représentations culturelles déjà prégnantes. Ainsi certains et certaines se souviendront avec moi de ces générateurs permettant de « vieillir » une photo de nous, ou de chez nous, comme à l’argentique des premiers temps photographiques ; se souviendront aussi de la reprise du portrait « Hope » d’Obama par l’artiste Shepard Fairey et de la manière dont on vit presque partout se multiplier les copies de ce portrait avec nous à la place d’Obama. Et de tant d’autres choses encore.

Aujourd’hui des biotopes numériques tout entiers sont exclusivement bâtis sur leur capacité à faire « mème », à conditionner la production de contenus à leur alignement avec des ritournelles préenregistrées, des « trends ». « Trends » ou « tendances » : des formes de facilitations virales qui devraient nous interroger non pas par leur capacité à être suivies en tant que telles dès lors qu’elles ont été « amorcées », mais par l’assignation à l’identique qu’elles produisent et qui est une forme de prophylaxie paradoxalement mortifère de diversités, d’altérités et de dissemblances. En un mot : TikTok.

Que dire d’un monde dans lequel l’esthétisation de soi (et du monde) fait aussi fonction de bascule dans d’autres régimes de vérité ? Comment « être au monde » quand la plupart des « corporations du filtre » (pour reprendre une expression d’Umberto Eco désignant les journalistes, éditeurs, bibliothécaires, etc.) qui jusqu’ici faisaient fonction d’assignation, de rappel et de construction du réel sont en train de s’effondrer pendant qu’à l’autre bout de la chaîne documentaire de l’énonciation prospère une vision du réel qui n’est plus qu’essentiellement filtrée, et ce, des filtres de déguisement que chaque application ou biotope numérique propose ou superpose à chaque dialogue ou interaction jusqu’aux filtres de travestissement qui s’accolent aux paroles politiques publiques quand elles sont portées « sous couvert » de décalage, d’humour, de cynisme ou plus simplement de … programme.

Je fais ici une différence entre la question du filtre comme « déguisement » et dans lequel l’enjeu est précisément que le destinataire puisse repérer et identifier l’effet de décalage soit par l’exagération soit par le grotesque soit par l’irréalisme produit (par exemple les filtres « oreilles de chien » dans Snapchat), et la question des filtres comme « travestissements » dans lesquels l’enjeu est cette fois de produire un effet de réel authentifiable sinon authentique, travestissements qui « agissent » de manière performative autant chez l’émetteur (avec des troubles pouvant aller jusqu’à la dysmorphophobie) que chez le récepteur devenu incapable de discernement ou propulsé dans une vallée de l’étrange dont il ne sait à quelle part de son réel rattacher l’expérience ressentie.

Se confronter à l’information sur et dans les médias sociaux numériques (mais pas uniquement) c’est donc pour beaucoup se confronter à des surimpressions permanentes et rémanentes qui oscillent entre l’esthétique Ghibli, les chapeaux fromage d’Elon Musk, ou les pulsions d’un président élu pour envahir le Groenland. Non seulement plus grand-chose ne prête à sourire mais la tentation de faire des blagues se trouve totalement distancée par le réel lui-même. Par-delà la réalité sourde de l’état réel de notre monde, de ces effondrements climatiques et de ses guerres en cours en Ukraine, à Gaza, au Yémen et ailleurs, l’actualité géopolitique internationale est une oscillation permanente entre une version documentaire d’Idiocracy et des faits totalement en phase avec la ligne éditoriale du Gorafi.

Tout cela est irréel par intention ; tout cela contribue à déréaliser pour partie notre rapport au monde et aux autres ; tout cela nous installe dans une sorte d’a-réalité, une privation de réel, une douce torpeur ; tout cela produit des formes instrumentales et instrumentalisées de tech-réalité, c’est à dire d’une réalité qui ne serait sensible qu’au travers des politiques éditoriales ou des interfaces des grandes sociétés technologiques et de leurs filtres.

Le rêve avorté du Métavers imaginé par Zuckerberg n’est pas l’essentiel. L’essentiel est de rester en capacité de discernement sur des formes avérées d’univers sociaux et informationnels qui déjà peuplent, filtrent, habitent nos univers quotidiens et qui s’y superposent en évidence.

Le monde version studio Ghibli. Et le chapeau fromage d’Elon Musk. Irréel. Déréaliser. A-réalité. Tech-réel. Et la suite. Déjà là. Tescreal.

[Mise à jour du 6 Avril] I’ve got my Ghibli. And the World is filtered-reality.

❌