Vue lecture

Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).

Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »

 

Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.

Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.

Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.

La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.

La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».

Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)

Je leur dirai les mots noirs. 

Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».

Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation)  leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.

 

Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :

  • activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.

Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.

« Erase Baby, Erase ! »

Il faut effacer. « Erase Baby, Erase. » Comme Anne-Cécile Mailfert le rappelait dans sa chronique sur France Inter :

Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)

Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.

 

Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …

Ingénieries de l’effacement.

Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »

Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »

Les LGBTQIA+, les Noirs, les peuples indigènes, les Juifs et les Latinos. Le tout dans un monde où un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde où plus personne ne semble capable de simplement le qualifier pour ce qu’il est.

Un grand remplacement documentaire et linguistique.

Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.

Une boucle paradoxale dans laquelle les mêmes technologies d’IA utilisées pour générer des contenus jusqu’au-delà de la saturation sont également mobilisées et utilisées pour rechercher, détecter et supprimer les mots interdits. Et à partir de là de nouveau générer des contenus à saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.

La certitude d’une ingérence.

Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.

Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :

Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s). 

 

Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).

Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de déposer plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectés, c’est à dire d’Apple à Amazon en passant par Facebook, Microsoft et Google, et par-delà ce qu’Olivier Tesquet qualifie de « Watergate domestique », qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrées et qui relèvent de l’intime et du privé ?

Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.

Calculer la langue.

Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.

Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.

En conclusion il semble important de redire, de ré-expliquer et de réaffirmer qu’à chaque fois que nous utilisons des artefacts génératifs, et qu’à chaque fois que nous sommes confrontés à leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face à un système de valeurs. Un article récent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :

Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]

 

En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.

En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »

En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.

Poisson (mort) d’avril. Le réel selon la Tech.

Il y a les images d’un monde version studio Ghibli. Et il y a Elon Musk avec un chapeau fromage.

Le monde version studio Ghibli c’est une trace documentaire qui fait l’inverse de ce que documenter veut dire. Elle déréalise, elle euphémise, elle fictionnise. Elle enlève du relief aux êtres et aux choses. Elle les installe dans un univers d’à côté. Dans une tangence.

Le monde version Elon Musk c’est à lui seul une exponentielle du grand n’importe quoi et l’asymptote d’un réel entièrement fictionné pour servir ses seuls intérêts pour autant qu’il soit lui-même en capacité de les identifier comme tels. Salut Nazi hier, chapeau fromage aujourd’hui, et demain quoi d’autre ?

On a beaucoup parlé de l’ère des Fake News et de celle des faits alternatifs. En 2018 dans l’article « Fifty Shades of Fake » publié un 1er Avril, je vous parlais de la manière dont les architectures techniques toxiques des grandes plateformes numériques se mettaient au service presque « mécanique » de cette amplification du faux et de son écho dans nos sociétés. Je martelais que « la propagation de Fake News est davantage affaire de topologie que de sociologie » ; en d’autres termes que la capacité de circulation des contenus relevant des Fake News ou des faits alternatifs, leur capacité également de percoler dans tous les espaces sociaux conversationnels, massifs ou intersticiels, médiatiques ou dialogiques, cette capacité s’explique d’abord et avant tout par la topologie et l’organisation (le « dispositif ») des espaces numériques. Et que ce n’est qu’à la marge ou en tout cas dans un second temps que l’on peut caractériser de manière causale ces circulations en les rattachant à des catégories sociologiques liées à l’âge, au niveau d’éducation ou à tout autre variable.

Sept ans plus tard, ce 1er Avril 2025, ce qui se joue est de l’ordre de la tension désormais explosive entre un écosystème numérique bâti sur la question documentaire de la trace (traces de nos données, de nos comportements, de nos navigations, de nos opinions, etc.), et un saisissement technologique et politique qui ajoute un déterminisme de l’emballement à un extractivisme souche. Et ce que l’on nomme IA  – et qui est plus précisément un ensemble d’artefacts génératifs nourris d’une incommensurable quantité de données sans considération aucune pour leur origine, leur appartenance ou leur(s) propriété(s) – ce que l’on nomme IA n’est que le dernier (et peut-être ultime) avatar à la fois de cet extractivisme et de cet emballement. Avec un point nouveau qui est celui de l’alignement total de ces technologies avec les agendas politiques de régimes tous au mieux illibéraux.

« It is a tale
Told by an idiot, full of sound and fury,
Signifying nothing. »
(Macbeth. Shakespeare.)

Poisson (mort) d’Avril. Il y a de cela quelques années, la plupart des grands groupes technologiques de la trace (de Google à Facebook) se livraient à quelques « poissons » en ce jour particulier du 1er Avril. Aujourd’hui cette pratique s’est pour l’essentiel perdue et lorsqu’elle subsiste, elle ne suscite que peu ou pas d’écho médiatique tant le rapport que nous entretenons au quotidien avec la tromperie, la duperie, le décalage, de faux et l’irréel s’est totalement transformé. Ce qui était hier une stratégie éditoriale d’exception (dire le faux) est devenu aujourd’hui un régime éditorial courant, une routine.

Le monde façon studio Ghibli. Que chacun se soit emparé de la possibilité de faire « mème » dès lors que quelques-uns se sont saisis de la nouvelle opportunité offerte de créer des images, de soi ou du monde, à la manière du studio Ghibli dans ChatGPT, n’a rien d’inédit ou d’étonnant. Chaque époque numérique a pu documenter la manière dont ces productions documentaires particulièrement fécondes étaient massivement reprises lorsqu’elles présentaient la double capacité de se mettre en scène soi-même et/ou de s’attacher à des représentations culturelles déjà prégnantes. Ainsi certains et certaines se souviendront avec moi de ces générateurs permettant de « vieillir » une photo de nous, ou de chez nous, comme à l’argentique des premiers temps photographiques ; se souviendront aussi de la reprise du portrait « Hope » d’Obama par l’artiste Shepard Fairey et de la manière dont on vit presque partout se multiplier les copies de ce portrait avec nous à la place d’Obama. Et de tant d’autres choses encore.

Aujourd’hui des biotopes numériques tout entiers sont exclusivement bâtis sur leur capacité à faire « mème », à conditionner la production de contenus à leur alignement avec des ritournelles préenregistrées, des « trends ». « Trends » ou « tendances » : des formes de facilitations virales qui devraient nous interroger non pas par leur capacité à être suivies en tant que telles dès lors qu’elles ont été « amorcées », mais par l’assignation à l’identique qu’elles produisent et qui est une forme de prophylaxie paradoxalement mortifère de diversités, d’altérités et de dissemblances. En un mot : TikTok.

Que dire d’un monde dans lequel l’esthétisation de soi (et du monde) fait aussi fonction de bascule dans d’autres régimes de vérité ? Comment « être au monde » quand la plupart des « corporations du filtre » (pour reprendre une expression d’Umberto Eco désignant les journalistes, éditeurs, bibliothécaires, etc.) qui jusqu’ici faisaient fonction d’assignation, de rappel et de construction du réel sont en train de s’effondrer pendant qu’à l’autre bout de la chaîne documentaire de l’énonciation prospère une vision du réel qui n’est plus qu’essentiellement filtrée, et ce, des filtres de déguisement que chaque application ou biotope numérique propose ou superpose à chaque dialogue ou interaction jusqu’aux filtres de travestissement qui s’accolent aux paroles politiques publiques quand elles sont portées « sous couvert » de décalage, d’humour, de cynisme ou plus simplement de … programme.

Je fais ici une différence entre la question du filtre comme « déguisement » et dans lequel l’enjeu est précisément que le destinataire puisse repérer et identifier l’effet de décalage soit par l’exagération soit par le grotesque soit par l’irréalisme produit (par exemple les filtres « oreilles de chien » dans Snapchat), et la question des filtres comme « travestissements » dans lesquels l’enjeu est cette fois de produire un effet de réel authentifiable sinon authentique, travestissements qui « agissent » de manière performative autant chez l’émetteur (avec des troubles pouvant aller jusqu’à la dysmorphophobie) que chez le récepteur devenu incapable de discernement ou propulsé dans une vallée de l’étrange dont il ne sait à quelle part de son réel rattacher l’expérience ressentie.

Se confronter à l’information sur et dans les médias sociaux numériques (mais pas uniquement) c’est donc pour beaucoup se confronter à des surimpressions permanentes et rémanentes qui oscillent entre l’esthétique Ghibli, les chapeaux fromage d’Elon Musk, ou les pulsions d’un président élu pour envahir le Groenland. Non seulement plus grand-chose ne prête à sourire mais la tentation de faire des blagues se trouve totalement distancée par le réel lui-même. Par-delà la réalité sourde de l’état réel de notre monde, de ces effondrements climatiques et de ses guerres en cours en Ukraine, à Gaza, au Yémen et ailleurs, l’actualité géopolitique internationale est une oscillation permanente entre une version documentaire d’Idiocracy et des faits totalement en phase avec la ligne éditoriale du Gorafi.

Tout cela est irréel par intention ; tout cela contribue à déréaliser pour partie notre rapport au monde et aux autres ; tout cela nous installe dans une sorte d’a-réalité, une privation de réel, une douce torpeur ; tout cela produit des formes instrumentales et instrumentalisées de tech-réalité, c’est à dire d’une réalité qui ne serait sensible qu’au travers des politiques éditoriales ou des interfaces des grandes sociétés technologiques et de leurs filtres.

Le rêve avorté du Métavers imaginé par Zuckerberg n’est pas l’essentiel. L’essentiel est de rester en capacité de discernement sur des formes avérées d’univers sociaux et informationnels qui déjà peuplent, filtrent, habitent nos univers quotidiens et qui s’y superposent en évidence.

Le monde version studio Ghibli. Et le chapeau fromage d’Elon Musk. Irréel. Déréaliser. A-réalité. Tech-réel. Et la suite. Déjà là. Tescreal.

[Mise à jour du 6 Avril] I’ve got my Ghibli. And the World is filtered-reality.

Bétharram et le chaudron magique de ChatGPT.

Le 10 février 2025, France Info posait la question : « les IA conversationnelles comme ChatGPT sont-elles fiables ? »

Le 16 février, dans une séquence dont le replay semble avoir été supprimé, France Info répondait à la question via une consultante en communication (ancienne candidate LR), qui lors d’un plateau au sujet de l’affaire Bétharram déclarait : « Même si vous demandez aujourd’hui à l’intelligence artificielle son avis sur le sujet, (…) même l’intelligence artificielle exprime qu’il y a une récupération et une instrumentalisation politique de l’affaire Bétharram. »

Ite, missa est. L’IA est donc fiable.

La séquence a été repérée et isolée par le journaliste politique Nils Wilcke depuis ses comptes X et Mastodon. Elle est depuis devenue relativement virale sur différents médias sociaux.

 

Le nom de la communicante importe peu, elle a depuis fermé son compte X, probablement (et malheureusement) victime de quelques trolls. Ce qui m’intéresse dans cette affaire, c’est le dispositif, le « cadre » informationnel, et ce « momentum » dans la courte histoire des artefacts génératifs grand public.

Le dispositif, le voici. Une chaîne d’information, un fait divers qui devient un fait politique, un.e consultant.e, un plateau de débat, en présence de journalistes. Et le recours à ChatGPT (qui n’est pas directement nommé dans la séquence mais qui est immédiatement convoqué dans l’esprit de toute personne la visionnant).

C’est à ma connaissance la première fois que sur une chaîne d’information, en présence de journalistes, à l’occasion d’un fait divers devenu fait politique, on explique et explicite que l’on peut donc, primo, « demander son avis (sic) » à ChatGPT, et deuxio, considérer que cet avis dispose d’une quelconque valeur de preuve.

Il semble ici important de rappeler deux points fondamentaux.

Primo, ChatGPT (ou n’importe quel autre artefact génératif) n’a pas d’avis. Il n’en a jamais eu et il n’en aura jamais. Ou alors, et plus exactement, s’il doit avoir un avis, c’est soit l’avis de celles et ceux qui le programment et lui dictent quoi dire (un désormais classique « perroquet stochastique« ), soit, et c’est mon deuxio, l’avis tendanciellement dominant dans les bases de données (y compris d’actualité) sur lesquelles il s’appuie pour produire des textes qui sont des agencements statistiques probables et intrinsèquement cohérents mais n’ont pas davantage de valeur de preuve ou de vérité que l’agencement de phrases statistiquement probables et intrinsèquement cohérentes d’une conversation de bistrot entre potes.

« L’avis » de ChatGPT c’est tout à la fois « l’avis » de l’air du temps et de celles et ceux dont les avis ont été les plus repris et en résonance dans les médias dont se nourrit (et que pille) ChatGPT.

Une expérience (scientifique cette fois) a récemment eu lieu dans laquelle on essayait non pas de connaître « l’avis » des générateurs de texte mais d’analyser de quel programme et de quel candidat politique ils étaient le plus proches et reflétaient le mieux les opinions, et donc de quelles « perspectives politiques » ils se faisaient les pourvoyeurs.  Un article récent de Wired rend compte de ces travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :

Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.

Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]

 

D’où l’on retiendra donc que primo il est assez facile de « modifier » la perspective politique et donc ‘l’avis » de ces artefacts génératifs, et que deuxio les mêmes artefacts ont la tendance de n’exprimer que l’avis majoritaire sur lequel ils ont été entraînés et calibrés.

Donc je le répète une nouvelle fois, se servir de ChatGPT pour « avoir son avis » c’est comme se servir du premier résultat de Google sur la requête « migraine » ou « douleur abdominale » pour « énoncer un diagnostic médical« . Dans les deux cas, c’est l’équivalent de partir en plongée sous-marine avec un équipement de ski en pensant que tout va bien se passer au motif que sous l’eau comme en altitude, l’air se fait plus rare.

Je rappelle et souligne ce que j’écrivais encore récemment :

« Tant que ces modèles seront, de par leur conception même, en capacité même temporaire d’affirmer que les vaches et les moutons pondent des oeufs, et tant qu’ils ne seront capables que d’agir sur instruction et dans des contextes où ces instructions sont soit insondables soit intraçables, jamais je dis bien jamais nous ne devons les envisager comme des oeuvres de langage ou de conversation, mais comme des routines propagandistes par défaut, et délirantes par fonction.« 

 

[By the way si cela vous intéresse, je vous rappelle que j’ai écrit en Juin dernier un livre entier sur le sujet. Les IA à l’assaut dy cyberespace que ça s’appelle.]

Cette séquence de France Info ou une consultante raconte avoir sollicité l’avis de ChatGPT et en fait part comme « simple » élément de preuve au beau milieu d’un parterre de journalistes qui semblent trouver cela « amusant » est un nouveau Bad Buzz pour France Info, après l’épisode déjà totalement lunaire et ahurissant de ce plateau où un expert du camping (ou de l’immobilier je ne sais plus) était invité pour « discuter » de la possibilité de faire en effet de Gaza une nouvelle Riviera. France Info qui par ailleurs dispose de journalistes, de rédactions et de formats tout à fait capables d’éclairer le débat public (mais qui vient d’écarter son directeur).

Mais cette dernière séquence fera date. Elle fera date car elle est le résultat de l’arsenal marketing déployé depuis déjà plus d’un an autour de ces assistants faussement conversationnels. Elle fera date car elle est l’aboutissement de leur publicitarisation constante et permanente. Elle fera date car elle installe un nouveau trope, une nouvelle figure de discours, qui considère comme normal, comme admis, comme naturel et nécessaire de convoquer ces artefacts génératifs au titre de témoins ou de preuve, leur agentivité se trouvant désormais consacrée sur l’autel de ce rituel païen que l’on nomme une émission et une chaîne d’information.

Avant que d’être tristement célèbre pour les viols et violences subies par des enfants dans un établissement religieux privé, la commune de Bétharram l’était pour ses grottes. A l’image du récit platonicien de la caverne, il serait grand temps d’enfin nous retourner pour poser dans le débat public tout autre chose que les ombres projetées de l’avis de ChatGPT.

Google, Wikipédia et ChatGPT. Les trois cavaliers de l’apocalypse (qui ne vient pas).

[Republication, pour archivage, d’un article initialement paru le 13 Novembre 2024 dans AOC.Media. La publication originale de cet article a donné lieu à rémunération de son auteur – moi]

 

L’arrivée de ChatGPT et des autres artefacts génératifs en 2022, est une révolution semblable à celle que fut l’arrivée de Google en 1998 et de Wikipedia en 2001. Pour ChatGPT comme pour Wikipédia et comme pour Google, on a d’abord annoncé la mort programmée des bibliothèques et de toutes celles et ceux qui faisaient profession de médiation documentaire ou de transmission de connaissances, des bibliothécaires aux enseignants. Bien sûr il n’en fut rien même si la manière dont Google et Wiklipédia impactèrent nos vies intimes et nos rapports à l’information et à la connaissance eut bien sûr un effet sur nos métiers. Mais pour le reste, Google a trouvé sa place en bibliothèque et les bibliothèques ont – plus difficilement c’est vrai – trouvé leur place dans Google ; même chose pour Wikipédia sachant que nombre de Wikipédiens et Wikipédiennes sont également enseignants ou bibliothécaires.

Les questions posées furent les mêmes qui se posent aujourd’hui à l’arrivée de ChatGPT et autres artefacts génératifs, et tournèrent principalement autour :

  • de la fiabilité : est-ce que ça ne raconte pas trop d’âneries ?
  • des usages et de la volumétrie de ces usages : qui va vraiment s’en servir et est-ce que ce n’est pas un problème que tout le monde puisse s’en servir ?
  • et de la perception que nous avons des contours de certains métiers : est-ce que cela va nous prendre (tout ou partie de) nos emplois ?

Il est plus que probable que la réponse à ces trois questions, à l’échelle de ChatGPT, soit semblable à celle apportée pour Google et Wikipédia. « Oui » c’est (globalement) fiable, cela le devient en tout cas au fil du temps (même si cela repose sur des conceptions différentes de la fiabilité). « Oui » tout le monde va s’en servir et ce n’est pas un problème (même s’il demeure plein de problèmes à l’échelle de certains usages particuliers et circonscrits). Et « non » cela ne va pas nous piquer notre emploi mais il est certains aspects de nos emplois que nous devrons envisager différemment.

Pourtant Google (un acteur économique en situation de prédation attentionnelle) n’est pas Wikipédia (une fondation à but non lucratif rassemblant des millions de contributeurs et contributrices), et Google et Wikipédia ne sont pas ChatGPT.

Alors quel est le problème spécifique que pose chacune des révolutions annoncées et avant cela existe-t-il un plus petit dénominateur commun à ces révolutions ? Ce plus petit dénominateur c’est celui du discours, Toutes ces révolutions, absolument toutes, Facebook, Twitter, Snapchat, TikTok et les médias sociaux en général sont des révolutions du discours.

Pour trouver la première grande révolution discursive, il faut remonter au 19ème siècle avec l’invention du télégraphe qui vînt abolir la distance entre deux locuteurs, mais qui surtout, par-delà le fait de permettre aux informations de circuler « plus vite », leur permet définitivement de n’être plus jamais limitées par la capacité de déplacement de l’être humain. Et alors en effet tout changea, de l’intime de nos conversations, à la géopolitique de certaines de nos décisions. Et nous entrâmes dans une ère de « l’instant » qui préfigurait celle du tout instantané.

Puis vînt la deuxième grande révolution discursive, celle où « les » médias sociaux ont inventé des formes de discours où pour la toute première fois à l’échelle de l’histoire de l’humanité, nous nous mîmes à parler, fort, haut et souvent, à des gens dont nous étions totalement incapables de déterminer s’ils étaient présents ou absents au moment de l’échange.

Et puis voici la troisième grande révolution discursive, celle de ChatGPT, celle d’un artefact génératif avec lequel nous « conversons », et ce faisant conversons tout à la fois avec les milliers de travailleurs pauvres qui « modèrent » les productions discursives de la bête, mais aussi avec l’ensemble des textes qui ont été produits aussi bien par des individus lambda dans des forums de discussion Reddit ou sur Wikipédia que par des poètes ou des grands auteurs des siècles passés, et enfin avec tout un tas d’autres nous-mêmes et l’archive de leurs conversations qui sont aussi le corpus de ce tonneau des Danaïdes de nos discursivités. Quand nous parlons à ChatGPT nous parlons à l’humanité toute entière, mais il n’est ni certain que nous ayons quelque chose d’intéressant à lui dire, ni même probable qu’elle nous écoute encore.

Revenons maintenant un peu au triptyque que forment les paradigmes de Google, puis de Wikipédia et enfin de ChatGPT et aux problèmes qu’ils soulèvent.

Le problème posé par Google est celui certification de l’attention à l’aune de métriques (algorithmes) de popularité que lui seul maîtrise et détermine, et la main-mise dont il dispose sur une bourse des mots (et donc des idées) sur laquelle là encore il est le seul à être en capacité d’organiser la spéculation (cf le « capitalisme linguistique » définit par Frédéric Kaplan).

Le problème posé par Wikipédia est celui des routines de certification de la production de connaissances avec comme première clé celle de leur vérifiabilité affirmée comme un critère de vérité (plus cela est vérifiable au travers de différentes sources et plus cela est donc « vrai » et tient une place légitime dans l’encyclopédie collaborative).

Quel est le principal problème posé par ChatGPT ? Ils sont en vérité multiples. Le premier d’entre eux est celui de la certification de la confiance conversationnelle. Qui peut (et comment) garantir que les échanges avec ChatGPT sont soit vrais soit à tout le moins vérifiables ?

Le problème de ChatGPT est aussi qu’il se présente et est utilisé comme une encyclopédie alors qu’il n’en partage aucune des conditions définitoires, et qu’il se prétend et est utilisé comme un moteur de recherche alors que là encore c’est tout sauf son coeur de métier.

Le problème de chatGPT c’est également qu’il « interprète » (des connaissances et des informations) avant de nous avoir restitué clairement les sources lui permettant de le faire ; à la différence d’un moteur de recherche qui restitue (des résultats) après avoir interprété (notre requête).

Le problème de ChatGPT, enfin, c’est qu’il assigne pêle-mêle des faits, des opinions, des informations et des connaissances à des stratégies conversationnelles se présentant comme encyclopédiques alors même que le projet encyclopédique, de Diderot et d’Alembert jusqu’à Wikipédia, est précisément d’isoler, de hiérarchiser et d’exclure ce qui relève de l’opinion pour ne garder que ce qui relève d’un consensus définitoire de connaissances vérifiables.

L’autre point qu’il faut prendre en compte pour comprendre l’originalité des révolutions qu’ont amené ces trois biotopes techniques dans notre rapport à l’information et aux connaissances, ce sont les relations qu’ils entretiennent entre eux. Je m’explique. Lorsque Wikipedia arrive trois ans après Google, les deux vont entrer dans une relation trouble qui fait émerger un nouveau couple de puissance. Sur la base initiale de l’application stricte de son algorithme de popularité, Google va rapidement tout faire pour phagocyter les contenus de Wikipédia en choisissant de les afficher quasi-systématiquement en premier résultat de l’essentiel des questions que l’on lui pose, avant de s’apercevoir que faisant cela il perdait en capacité de fixer l’attention de ses utilisateurs (renvoyés à Wikipédia) et de changer de stratégie en affichant non plus simplement le lien vers l’encyclopédie mais une partie significative de son contenu afin de garder ses utilisateurs dans l’écosystème du moteur : il s’agissait de renforcer son propre système attentionnel tout en épuisant le modèle attentionnel concurrent, mais sans y aller en force brute car Google avait parfaitement conscience dès le départ de l’atout que représentait pour lui une telle encyclopédie qu’il pouvait « piller » comme bon lui semblait mais dont il devenait aussi le premier garant de survie et de développement (y compris d’ailleurs en finançant la fondation Wikimedia) et sans laquelle il perdait aussi en confiance attentionnelle. Financeur donc, mais aussi client, prédateur mais aussi garant, longue est l’histoire de l’encyclopédie et du moteur, entre résilience et résistance (titre d’un article déjà vieux de 10 ans).

Il y eut donc la révolution Google, puis la révolution Wikipédia, puis la révolution du « Power Couple » Google et Wikipédia. Et avec désormais l’arrivée de ChatGPT, le Power Couple initial vire au triolisme. Car naturellement ChatGPT inaugure une relation trouble avec la fonction sociale d’un moteur de recherche (qui est de permettre de répondre à tout type de questions), autant qu’avec la nature profonde d’une encyclopédie (qui est de permettre de comprendre le monde).

Si Google apparaît comme une technologie qui est au sens littéral une technologie de concentration (par le monopole institué autant que par l’objectif attentionnel visé), il repose pour autant sur la capacité de la forme antagoniste à celle du bloc monopolistique qu’il incarne et instancie, c’est à dire le rhizome et la puissance de l’itinérance des liens qu’il parcourt pour les ramener au figé de sa page de résultat (Landing Page).

Wikipédia se plie à la même contradiction d’apparence : elle n’est riche que de la diversité des contributeurs et contributrices qui l’alimentent et discutent et modifient en permanence chaque contenu sur le fond comme sur la forme, mais elle n’est puissante que de la capacité qu’elle a d’exister comme entité détachable de tout lien marchand et de tout espace publicitarisable, et à figer des dynamiques de construction de connaissances comme autant de révélations au sens photographique du terme.

Pour le résumer d’une formule, Google affiche des liens qui font connaissance, Wikipédia affiche des connaissances qui font lien. ChatGPT fait conversation autant que conservation de connaissances sans liens et de liens sans connaissances. ChatGPT est une éditorialisation ivre, en permanence déplacée, déséditorialisée et rééditorialisée comme Guattari et Deleuze parlaient de déterritorialisation et de reterritorialisation.

A ce titre, ChatGPT est un agent (conversationnel) de contamination ; il est bâti comme le sont Google et Wikipédia, autour de la figure du palimpseste, c’est à dire de la réécriture permanente. Mais là où le palimpseste de Google se donne à lire dans les liens affichés sur sa page, là où le palimpseste de Wikipédia se donne à lire derrière l’historique de chaque page, celui de ChatGPT est essentiellement inauditable, intraçable, inaccessible, invérifiable, impossible ; il est l’aporie du palimspeste : pleinement évident et parfaitement intraçable. Telle est la force (et le problème majeur) de ChatGPT et des technologies associées : cette contamination inédite de l’ensemble des espaces d’un marché conversationnel, d’une agora politique, et d’une université de tous les savoirs.

A ce jour, ChatGPT demeure la 1ère interface conversationnelle capable de mobiliser à la fois la puissance encyclopédique de Wikipédia et la puissance attentionnelle de Google. Il le fait au prix (d’ailleurs littéralement de plus en plus élevé) de différents vertiges et autres hallucinations. Si, comme Balzac l’écrivait, « L’homme est un bouffon qui danse sur des précipices« , alors ChatGPT est aujourd’hui sa slackline, et si chacun peut temporairement s’émerveiller d’un moment suspendu ou d’une perspective nouvelle, nous ne sommes pas toutes et tous, loin s’en faut, préparés à l’exercice de ce funambulisme d’un nouveau genre, ni aux chutes qu’il augure.

Le boeuf de Durham, le canard de Vaucanson, et Macron qui fait le con (et le sommet sur l’IA).

Jusqu’à la nausée nos espaces médiatiques vont être saturés d’échos de ces deux jours où la France accueille le sommet mondial de l’IA. Avec quelques signaux faibles intéressants : le contre-sommet de l’IA lancé simultanément par le philosophe Eric Sadin, et des initiatives fédérées comme celle de « Hiatus » qui réunit des acteurs du libre et des militants des libertés numériques. Et puis Mardi soir la diffusion du documentaire « Les sacrifiés de l’IA » de Henri Poulain sur France 2 (avec Antonio Casilli à la manoeuvre en conseiller scientifique).

Et Macron qui fait le con.

Alors voilà, un sommet de l’IA poussé par le président de la Start-Up nation qui s’est vautrée et qui tente d’être le président de l’IA nation qui va se lever. Et qui se fend d’un post totalement lunaire sur son compte X, dans lequel il met en scène des Deep Fakes de sa propre image et de sa propre voix pour dire d’abord « Bien joué » (sic) et expliquer que ça l’a même fait rire, puis pour rappeler « l’importance de ce sommet de l’IA » (dans lequel on ne va donc pas faire que golri), avant de rediffuser un Deep Fake de lui en MacGyver et de conclure « Ok, là c’est bien moi« .

« Bien joué »

Et là bon bah comment te dire Manu. Mettre en scène ses propres Deep Fake dans un message qui semble valider l’importance d’être en alerte sur ces technologies de propagande mais en les présentant comme essentiellement comiques (« ça m’a fait rire« ) et en se présentant comme battu (« bien joué« ), puis conclure en validant la performativité d’un mensonge (« Ok là c’est bien moi« ), le tout depuis son compte officiel à 10 millions d’abonnés, non seulement ça invalide totalement le très court passage du milieu (20 secondes sur les 55 secondes du post) sur « venez au sommet de l’IA c’est important et ça va changer la santé, l’énergie, la vie (…) », et accessoirement ça éparpille façon puzzle le travail patient de l’ensemble du monde académique, scolaire et universitaire, et d’une partie du monde médiatique, qui s’échine à démontrer l’urgence de réfléchir à de nouvelles heuristiques de preuve.

La dernière fois qu’il était apparu sur un média social c’était sur TikTok et pour rétablir le glaive de la justice sur un sujet Ô combien régalien (non) en réaction à un influenceur qui se plaignait d’avoir reçu une amende pour avoir réglé au péage avec son téléphone. Et là pour annoncer son sommet de l’IA et alors que l’ensemble de la chaîne de valeur informationnelle (et donc culturelle) est en train d’être éparpillée façon puzzle par ces artefacts génératifs et les puissances qui les possèdent et les manipulent, le type se fend d’un post en mode « c’est quand même bien rigolo tout ça ». On a juste envie de lui dire « Chaton, sois gentil, ouvre un Whatsapp avec ta famille, et fais-toi plaisir pour y partager tes délires kikoulol mais bordel de merde lâche la rampe des espaces publics dans lesquels tu touches 10 millions de personnes en tant que président de la république. »

Dans un siècle ou deux les historiens qui se pencheront sur notre époque auront toujours du mal à comprendre comment le président d’un BDE d’école de commerce a pu par deux fois être élu à la présidence de la république rien qu’en filmant ses oraux aux épreuves du cours de Marketing de 1ère année de l’ESSEC.

Revenons à ce sommet de l’IA.

Un sommet dans lequel les acteurs du domaine vont faire des annonces (Truc.AI va sortit un tout nouveau modèle encore plus powerful et green, Machin.AI va lancer un giga centre de données à Trifouillis les Oies, Bidule.AI va révolutionner le secteur des services de telle ou telle niche de consommation). Un sommet dans lequel les politiques vont faire des annonces (Machin va annoncer un « grand plan de l’IA », Truc va décrire comment dans toutes les administrations on va faire de l’IA et même que ça va tout disrupter, Bidule va rappeler que quand même ici c’est la France et pas le Far-West et que la French Rectal Touch va conserver ses valeurs sauf si vraiment on la regarde avec des doigts emplis de vaseline). Le tout va se terminer par quelques plus ou moins gros contrats, une pluie d’argent magique, une foule de communiqués de presse oscillant entre le laxatif et le laudatif, l’annonce d’un grand plan de formation (préempté par des acteurs essentiellement privés des « EdTech ») et bien sûr une charte (qui ne sera pas respectée), un calendrier (qui ne sera pas tenu), et une feuille de route pensée comme un argument auto-suffisant pour éviter les sorties de route. On va bien sûr parler de l’impact écologique de ces technologies en expliquant qu’on fait confiance aux acteurs de ces technologies pour réduire leur impact écologique (donc en vrai on ne va pas parler d’écologie). Et pour le reste et les questions (notamment) liées aux problématiques de surveillance, la dernière enquête de Disclose atteste de l’Open Bar validé par Matignon en lien avec l’Elysée dans le cadre de l’IA Act. Voilà. Ce passage a été écrit samedi 9 février (la preuve) et vous voyez déjà ce mardi 11 Février qu’à peu près l’ensemble de ce qui y est décrit est advenu. Magie 🙂

Le canard de Vaucanson.

Dans l’histoire des techniques de l’automatisation il est au moins deux grands exemples qui ont toujours valeur d’analogie. Le premier de ces exemples est relativement connu et je vous en ai déjà souvent parlé ici, il s’agit du Turc mécanique (1770), cet automate supposé jouer aux échecs alors qu’en fait bah non il y avait quelqu’un de caché à l’intérieur. Amazon reprit d’ailleurs avec son habituel cynisme cette histoire pour en faire « Amazon mechanical Turk« , l’une des premières plateformes numérique d’exploitation des travailleurs pauvres de la galaxie connue (mais eux ils parlent de « crowdsourcing »). Le symptôme ou syndrome du Turc mécanique est devenu une sorte de constante des grands messes technologiques (dernier épisode en date, les robots humanoïdes autonomes de Musk, mais on pourrait aussi mentionner la vidéo bidonnée du lancement de l’IA Gemini chez Google et plein d’autres) tout autant qu’un puissant facteur d’explication et d’explicitation des mécanismes de dissimulation et d’exploitation qui traversent la sociologie du numérique (et dont l’un des points culminants est l’ouvrage « En attendant les robots » d’Antonio Casilli).

Et l’autre grand exemple, un peu moins connu du grand public me semble-t-il, c’est le canard de Vaucanson, également connu sous le nom de canard défécateur.

(Source BNF)

Précédant de quelques dizaines d’années le Turc mécanique, ce canard automate est présenté au public aux alentours de 1739 et il sera décrit ainsi dans l’encyclopédie de Diderot et d’Alembert :

 » Il boit, barbote dans l’eau, croasse (sic) comme le canard naturel […], il allonge son cou pour aller prendre du grain dans la main, il l’avale, le digère, et le rend par les voies ordinaires tout digéré ; tous les gestes d’un canard qui avale avec précipitation, et qui redouble de vitesse dans le mouvement de son gosier, pour faire passer son manger jusque dans l’estomac, y sont copiés d’après nature : l’aliment y est digéré comme dans les vrais animaux, par dissolution, et non par trituration ; la matière digérée dans l’estomac est conduite par des tuyaux, comme dans l’animal par ses boyaux, jusqu’à l’anus, où il y a un sphincter qui en permet la sortie. »

 

Un canard automate qui fait caca. L’allitération est belle, la métaphore l’est également. Et un canard automate qui digère « par dissolution et non par trituration. » C’est à dire qui reproduit non pas mécaniquement mais chimiquement le processus de digestion, afin d’être au plus près (en tout cas pour l’époque) des connaissances biologiques sur ce sujet.

Prenez maintenant les deux, le canard défécateur et le Turc mécanique, et vous avez un spectre presque complet des questions soulevées par cet ensemble de technologies : automatisation, imitation, dissimulation, reproduction. Un ensemble de technologies (« l’intelligence artificielle ») qui singent aujourd’hui la réflexion à peu près dans les mêmes proportions et avec la même vraisemblance que le canard de Vaucanson singeait la digestion, et qui surtout, dans la version grand public qui constitue aujourd’hui l’essentiel de leur dynamique, nous noient littéralement sous des flots de merde (voir à ce sujet les travaux de Cory Doctorrow sur l’emmerdification – enshittification – ou plus immodestement les miens sur l’avènement d’un web synthétique).

Et écrire cela n’est pas nier l’immensité des progrès et des promesses de ces technologies dans des secteurs comme celui de la santé (médecine, biologie, etc.) mais simplement rappeler qu’elles sont aujourd’hui essentiellement opérantes comme autant de technologies de gestion (management) au service d’intérêts économiques capitalistiques et principalement spéculatifs visant à optimiser des rentes existantes ou à en créer de nouvelles. Je vous invite d’ailleurs à lire le remarquable ouvrage de Pablo Jensen, « Deep Earnings », pour comprendre le lien épistémologique très fort entre l’invention du néolibéralisme et celle des réseaux de neurones. Si le sommet de l’IA se résumait à la lecture publique de cet ouvrage, alors au moins aurait-il servi à autre chose qu’à un immense satisfecit.

[Incise] Il faut toujours penser « l’iA » avec un pas de côté. Par exemple à la très présente et très pénible bullshit question du « grand remplacement par l’IA » qui peuple n’importe quel sujet journalistique grand public (« Mais quels métiers l’IA va-t-elle remplacer ? » et de lister tout à trac les radiologues, les secrétaires, les avocats, les institutrices, puéricultrices, administratrices, dessinatrices, les boulangers, les camionneurs, les policiers, les agriculteurs, les ménagères, les infirmières, les conseillères d’orientation, etc.), posons-nous plutôt la question, simple, de savoir qui veut, ou qui a intérêt à remplacer les radiologues, les secrétaires, les avocats, les institutrices, puéricultrices, administratrices, dessinatrices, les boulangers, les camionneurs, les policiers, les agriculteurs, les ménagères, les infirmières, les conseillères d’orientation, etc. Et vous verrez que bizarrement les enjeux nous apparaîtront beaucoup plus clairement. [/incise]

On a surtout besoin d’un sommet épistémologique.

Pour comprendre, toujours de manière fine, ce qui est à l’oeuvre derrière ces sommets et annonces autour de l’intelligence artificielle (en France mais partout dans le monde), je vous invite très vivement à lire cet article là encore remarquable (et remarquablement synthétique) de Jacques Haiech, disponible en accès ouvert : « Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir et la comprendre. » Je vous en livre quelques extraits.

[les conférences Macy] ont permis d’acter une fracture entre deux communautés : celle qui veut simuler les processus cognitifs, en utilisant des machines digitales, et celle qui veut comprendre ces processus, en prenant en compte les caractéristiques émotionnelles et sociales. Jean-Pierre Dupuy (ingénieur et philosophe français) a analysé le rôle de ces conférences dans la naissance des sciences cognitives. (…)

Le terme « Intelligence artificielle » a été choisi en juillet 1956 par John McCarthy, pour ne pas faire allégeance à la « cybernétique » et à son chef de file, Norbert Wiener. Ce dernier va se rapprocher du « ratio club », un club anglais fondé par John Bates, qui réunira ses membres de 1949 à 1958, et où l’on trouve Ross Ashby (psychiatre-ingénieur anglais venu très tôt à la cybernétique) et, après la première réunion, Alan Turing. Un nouveau domaine de recherche ayant pour objet la simulation et la compréhension des processus cognitifs est, à cette époque, en train de naître. On assiste alors à une bataille sémantique, porté par les ego de chacun, et la création de deux communautés distinctes (l’intelligence artificielle qui a ses racines plutôt américaines et la cybernétique/systémique qui a plutôt ses racines en Europe). Ces deux communautés sont cependant en interaction permanente, mais avec des niveaux de financements qui varient dans le temps. Pour l’intelligence artificielle, on parlera d’une succession de périodes hivernales (hivers de l’IA), dans les moments où elle ne sera pas ou peu financée par les institutions aux États-Unis et en Europe.

La cybernétique, quant à elle, est un domaine qui est lié au concept d’homéostasie, cher à Claude Bernard (qu’il propose en 1865 dans son Introduction à l’étude de la médecine expérimentale) et que l’on va retrouver dans la théorie générale des systèmes de Ludwig von Bertanlanffy (en 1968). (…)

Dans les années 1960, on assiste à la convergence de quatre sous-domaines :

1. la cybernétique, avec son aspect robotique et automate (Norbert Wiener et John von Newman), qui est focalisée sur le rétrocontrôle (feedback) des structures vivantes (de la cellule jusqu’aux sociétés). Le vivant apparaît comme stable face aux agressions non programmables de l’environnement. On retrouvera ces paradigmes dans les travaux de Francisco Varella et de son mentor Umberto Maturana et, en France, ceux d’Henri Atlan (qui fut influencé par les travaux d’Heinz von Foerster, le rédacteur en chef des conférences de Macy) ;

2. la théorie générale des systèmes de Ludwig von Bertalanffy (influencé par les travaux de Ross Ashby, cité plus avant), qui sera à l’origine de la biologie des systèmes. Tout système vivant est constitué d’éléments qui interagissent entre eux et ce sont les différents modes d’interaction qui font émerger des comportements et des structures complexes. On y associe l’aphorisme selon lequel le Tout est supérieur fonctionnellement à la somme de ses éléments. On y perçoit aussi l’importance des flux d’information au-delà des flux de matière et d’énergie, et l’importance de l’émergence de la complexité par itération de lois simples : la fractalisation du vivant. Edgar Morin, lorsqu’il organise avec Jacques Monod et Massimo Piatelli-Palmarini le colloque de Royaumont en septembre 1972 sur l’unité de l’homme, va déboucher sur le concept de pensée complexe qu’il a emprunté à Ross Ashby ;

3. l’intelligence artificielle dans sa phase d’ingénierie qui, partant de l’analogie entre cerveau et ordinateur digital, va permettre de construire les machines, les langages et les modes de représentation de données, pour fabriquer des dispositifs capables de jouer mieux ou aussi bien qu’un être humain (théorie des jeux, recherche opérationnelle) ou de démontrer des théorèmes mieux ou aussi bien qu’un mathématicien (raisonnement symbolique) ;

4. les méthodes de classification, capables d’annoter des groupes d’objets à partir d’un langage de description prédéfini, ou capables de définir le meilleur langage de description, pour obtenir la meilleure annotation souhaitée. Dans le premier cas, on a affaire à une classification non supervisée et dans l’autre cas, à une classification supervisée. Les méthodes utilisées s’appuient sur les statistiques descriptives (avec les travaux de Jean-Pierre Benzecri, un mathématicien et statisticien français spécialiste de l’analyse de données), jusqu’aux réseaux neuronaux monocouches et multicouches, en pointe aujourd’hui avec les travaux de Yan LeCun sur le deep learning, en passant par les outils de statistiques peu enseignés, comme les inférences bayésiennes.

Ces différents sous-domaines ont induit la création de communautés avec leurs lots de jargons, de conférences et de journaux, et leurs leaders majeurs d’opinion. Peu ou pas de fertilisation croisée, et peu ou pas d’enseignements permettant d’avoir une vision globale et comparative de ces différentes positions et méthodes.

 

Et voilà. « L’intelligence artificielle » est riche de l’ensemble de cet héritage et de ces affrontements égotiques autant qu’épistémologiques et techniques. Et l’on ne comprend et ne comprendra rien aux enjeux de l’intelligence artificielle dans nos sociétés si l’on n’est pas capable de retrouver, de questionner et de mobiliser ces héritages et ces affiliations.

Et maintenant, les vaches rectangle 🙂

Le boeuf (ou taureau) de Durham (et les vaches rectangle).

J’avoue être tombé là-dessus totalement par hasard et c’est une histoire dont je n’avais encore jamais entendu parler. Le boeuf (ou taureau) de Durham c’est donc ceci :

(Durham Ox. Wikipedia)

Et son histoire vous est (entre autres) racontée dans cet article et dans celui-ci, d’où je puise les illustrations suivantes, car oui le boeuf de Durham avait aussi plein de copains et de copines : les vaches rectangle et les moutons chelous. L’histoire donc d’un boeuf tellement gros et gras qu’il gagne un concours agricole, devient une légende, et finit par influencer tout une série de peintures et de représentations.

 

Et là je vous entends me dire : « Heu … mais c’est quoi le rapport avec l’IA ? ». Vous ne voyez pas ? Vraiment ? Dès que j’ai vu ces peintures à la fois voulues comme hyper-réalistes et naturalistes mais tout aussi délibérément irréalistes je me suis immédiatement souvenu de mes exercices de génération d’image via Midjourney ou d’autres artefacts génératifs (que je vous raconte dans ce remarquable livre ;-).

L’histoire de ce boeuf de Durham et des représentations animalières associées (ci-dessus mais il en existe plein d’autres), l’histoire de ces peintures du XIXème siècle, c’est celle de représentations étonnamment géométriques et exagérées que de riches propriétaires terriens commandaient pour se prévaloir de vendre et de posséder, à l’image du boeuf de Durham donc, des animaux « plus gros et plus gras que jamais » et s’afficher fièrement auprès d’eux. Qué lo apélorio : la peinture d’élevage.

 

« Le début du XIXe siècle a été l’apogée de la peinture d’animaux d’élevage. Les sujets étaient souvent des chevaux de course, peints en lignes fines dénotant leur vitesse et leur grâce. Mais pour les animaux de ferme, la corpulence était essentielle. Dans les peintures, la vache, le mouton et les cochons sont massifs, mais curieusement soutenus par seulement quatre pattes grêles. Parfois, leur propriétaire est également représenté, regardant fièrement leur création. D’autres fois, l’animal se tient seul, apparemment prêt à dévorer un village voisin. Ce style simple est souvent qualifié d’art rustique ou « naïf », même si les sujets étaient des animaux appartenant à une élite riche. Les images qui en résultaient étaient à la fois publicitaires et spectaculaires. » Anne Ewbank.

Et plus loin :

« L’historienne B. Litvo note également que les fermiers de la noblesse utilisaient le patriotisme pour justifier les compétitions et l’autopromotion. Si les élites pouvaient élever et nourrir des vaches plus grosses et plus grasses, les fermiers les plus pauvres pourraient éventuellement en être propriétaires. Avec plus de viande à vendre, les communautés rurales seraient plus stables financièrement. La sécurité nationale du pays en bénéficierait, selon l’argument avancé. La population britannique augmentait rapidement et, en raison de la perspective de guerres fréquentes, il était impératif de disposer d’un approvisionnement alimentaire sûr en animaux gras . L’« amélioration » progressa rapidement. Le poids moyen des vaches britanniques augmenta d’un tiers entre 1710 et 1795. (…)

« Les peintures et les gravures commerciales commandées étaient souvent accompagnées d’informations telles que les mensurations de l’animal et les efforts d’élevage du propriétaire. Selon le professeur d’études animales Ron Broglio, les portraits étaient souvent exagérés pour mettre en valeur la forme idéalisée de l’animal, qui consistait généralement à « [fournir] un peu plus de graisse dans les zones cruciales ». Pour les cochons, l’idéal était une forme de ballon de football américain. Les vaches étaient rectangulaires et les moutons avaient tendance à être oblongs. (…)

En plus de rendre célèbres les riches fermiers, les peintures et gravures animalières avaient une utilité pratique. Les éleveurs de tout le pays pouvaient utiliser l’image d’un animal spécifique comme modèle pour leur propre troupeau, car le bétail qui correspondait aux idéaux de beauté valait beaucoup plus cher. » Anne Ewbank.

 

Ce qui m’a frappé à la découverte de l’histoire du boeuf de Durham (et de ses copines les vaches rectangles et les moutons oblongs), c’est l’effet d’amorçage stéréotypique qui me semble par bien des points semblable à celui que nous observons aujourd’hui avec les artefacts génératifs dopés à l’IA. Ce qui nous est présenté par ces modèles, par ces « larges modèles de langage », ce sont aussi des vaches rectangle modernes. Des représentations de l’humanité qui insistent sur le « gras » d’une irréalité trouble jusqu’à distendre totalement notre perception de la réalité. Cette sorte d’inflation (je parlais dans un ancien article de capitalisme sémiotique) dans laquelle il s’agit avant tout, pour ces modèles et les sociétés qui les pilotent et les administrent de fabriquer des boeufs de Durham à la chaîne. De s’assurer de la dimension toujours consubstantiellement « publicitaire et spectaculaire » de la capacité même de génération et de ce qu’elle produit comme représentations.

Lorsque nous regardons aujourd’hui le boeuf de Durham et ses copines les vaches rectangle, nous comprenons ce pour quoi est faite cette représentation, les intérêts qu’elle sert et les ressorts bourgeois, capitalistes et ostentatoires qui la précèdent. Nous avons aujourd’hui une lecture politique de ces peintures, de ces représentations. C’est cette lecture politique qui nous a tant fait défaut lorsque, comme probablement quelques primo-spectateurs de ces peintures au XIXème siècle, nous fûmes et sommes encore confrontés aux mécaniques des artefacts génératifs de texte, d’image, de vidéo ou de toute autre chose. Nous peinons à en imposer une lecture politique alors que ces représentations ne servent que des intérêts économiques parfaitement délimités. Ce que parmi d’autres (mais bien mieux que d’autres) Kate Crawford soulignait dans son « Atlas de l’Intelligence Artificielle » :

L’IA n’est ni intelligente ni artificielle. Elle n’est qu’une industrie du calcul intensive et extractive qui sert les intérêts dominants. Une technologie de pouvoir qui à la fois reflète et produit les relations sociales et la compréhension du monde. (…) Les modèles permettant de comprendre et de tenir les systèmes responsables ont longtemps reposé sur des idéaux de transparence… (…) Dans le cas de l’IA, il n’y a pas de boîte noire unique à ouvrir, pas de secret à révéler, mais une multitude de systèmes de pouvoir entrelacés. La transparence totale est donc un objectif impossible à atteindre. Nous parviendrons à mieux comprendre le rôle de l’IA dans le monde en nous intéressant à ses architectures matérielles, à ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la manière dont ils sont reliés.

 

(presque) Toute l’histoire contemporaine des artefacts génératifs et de l’intelligence artificielle est là dedans, mais également des questions de santé publique tournant autour de l’essor de formes neuves de dysmorphophobie à force d’usage de plateformes fabriquant ou jouant à dessein sur notre volonté de devenir des boeufs de Durham ou des vaches rectangle modernes (j’englobe ici la question de la sur-représentation de certains corps et de l’invisibilisation d’autres, mais aussi l’usage des différents filtres de TikTok à Snapchat en passant par Instagram, et bien entendu l’ensemble des relais médiatiques de ces perceptions « publicitaires et spectaculaires« . Il n’y pas grande différence entre les vaches rectangle, les moutons oblongs du XIXème siècle et les « hallucinations » visuelles encadrées de nos modèles contemporains d’IA au XXIème siècle.

« Les vaches grasses, les porcs massifs et les moutons obèses étaient prisés comme preuve de la réussite de leurs propriétaires dans la sélection des races en fonction de leur taille et de leur poids. Les fermiers nobles utilisaient la sélection sélective pour créer du bétail lourd et à croissance rapide. Parallèlement à la sélection, de nouvelles pratiques agricoles et alimentaires ont également produit des animaux plus gros. Les fermiers riches participaient à des concours agricoles et lisaient de nouvelles recherches. On les appelait « améliorateurs », car ils essayaient d’améliorer les races animales existantes. Des méthodes telles que nourrir les vaches avec des tourteaux et des navets pour un engraissement final avant l’abattage se sont généralisées. Même le prince Albert, époux de la reine Victoria, est devenu un améliorateur, en exhibant ses porcs et ses bovins primés. » Anne Ewbank.

 

Du canard défécateur de Vaucanson au boeuf de Durham et aux vaches rectangle, on croise énormément « d’améliorateurs » dans la grande galaxie néolibérale de l’IA (dont une bonne partie est représentée au sommet de l’IA). Toute métaphore a bien sûr ses limites interprétatives et il ne s’agit pas, heureusement, de littéralement nous mettre en situation d’être gavés par quelques riches fermiers investisseurs qui auraient pour seul horizon de produire des représentations suffisamment altérées de la réalité pour qu’elles satisfassent à leurs intérêts propres de publicitarisation et de spectacularisation. A moins que … attendez … Bon sang mais c’est bien sûr 😉

 

One More Thing.

Lorsque ces perceptions distendues de la réalité finissent par s’imposer comme d’authentiques formes de réalisable, alors nous entrons dans ce que Grégory Chatonsky nomme un espace latent et dans les logiques de « chiralité ».

« L’émergence des technologies d’intelligence artificielle a donné naissance à un concept fondamental qui transforme notre compréhension de la vérité : l’espace latent. Ce concept, qui mérite d’être défini avec précision, désigne un système mathématique complexe où les informations ne sont plus stockées sous forme de données discrètes (comme des fichiers constitués de 0 et de 1), mais comme des distributions statistiques continues. Plus concrètement, l’espace latent est une représentation multidimensionnelle où chaque dimension correspond à une caractéristique abstraite que l’intelligence artificielle a apprise à partir des données d’entraînement. (…) Or cet espace latent, fruit de la théorie des jeux et des espaces bayésiens où chacun parie sur le pari de l’autre transforme radicalement la relation entre discours, vérité et réalité. En effet, alors que la révolution industrielle avec introduit une reproductibilité technique des indices ou des traces de la réalité, telle que l’empreinte d’une lumière sur une surface photosensible, les espaces latents sont des expressions des indices passés. Ainsi, un espace latent peut non seulement reconnaître un oiseau qu’il n’a jamais vu, qui ne fait pas partie de sa base d’entraînement, s’il ressemble bien à un oiseau, mais il peut aussi générer un oiseau inexistant et crédible ouvrant le précipice du simulacre dans la réalité. (…) Un espace latent, pour produire un résultat crédible, doit être maintenu dans un savant et juste équilibre entre l’apprentissage et le bruit. D’un côté, il ne sait que reproduire le déjà appris, de l’autre il ne génère que de l’informe. Mais en ayant les deux, on peut créer du reconnaissable inexistant, bref automatiser et industrialiser la représentation mimétique. Nous dépassons non seulement l’empreinte du photoréalisme, mais encore la modélisation hypothético-déductive de la simulation informatique à laquelle nous ont habitués les effets spéciaux, la réalité virtuelle et les jeux vidéo. Cette conception de l’espace latent a des implications profondes sur notre compréhension de la réalité et de la vérité. »

 

Le concept d’espace latent est éclairant à plus d’un titre. Et la « chiralité » (en gros on objet ou un système qui n’est pas superposable à son image dans un miroir) l’est tout autant pour penser les logiques et les dynamiques de l’IA et de l’ensemble des évolutions numériques actuelles. Je vous en reparlerai probablement dans un autre article, mais d’ici là précipitez-vous pour lire celui de Grégory Chatonsky sur AOC.

❌