Vue normale

Reçu avant avant-hier
  • ✇Dans les algorithmes
  • Saisir le monde des objets autour de nous
    On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous inv
     

Saisir le monde des objets autour de nous

6 novembre 2025 à 01:00

On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous invitent à nous intéresser aux objets techniques qui nous entourent, à les observer pour nous libérer de leur autorité. Ces 11 nouveaux exercices d’observation active nous montrent que comprendre la technique nécessite, plus que jamais, de chercher à l’observer autrement que la manière dont elle nous est présentée. 

A contre-emploi commence par un moulin à café qui tombe en panne et continue en explorant des machines qui dysfonctionnent… Dans ce monde à réparer, nous avons « à remettre du je » dans le lien que nous entretenons avec les machines. Que ce soit en explorant les controverses situées des trottinettes en libre accès ou les rapports difficiles que nous avons à nos imprimantes, les deux artistes nous invitent au glanage pour ré-armer notre sensibilité technique. Ils nous invitent à ré-observer notre rapport aux objets techniques, pour mieux le caractériser, en s’inspirant des travaux d’observations typologiques réalisés par Bernd et Hilla Becher ou par Marianne Wex par exemple. Pour Raffard et Roussel, à la suite des travaux du psychologue James Gibson dans Approche écologique de la perception visuelle (1979, éditions du Dehors, 2014), c’est en se déplaçant dans notre environnement visuel qu’on peut voir émerger d’autres catégories. C’est le mouvement qui nous permet de voir autrement, rappellent-ils Pour les deux artistes : « c’est la fixité de notre position d’observateur qui rend notre lecture des environnements technologiques compliquée »

Pour changer de regard sur la technologie, nous avons besoin d’une « nouvelle écologie de la perception ». Pour cela, ils nous invitent donc à démonter nos objets pour mieux les comprendre, pour mieux les cartographier, pour mieux saisir les choix socio-économiques qui y sont inscrits et déplacer ainsi leur cadre symbolique. Ils nous invitent également à lire ce qu’on y trouve, comme les inscriptions écrites sur les circuits électroniques, d’une manière quasi-automatique, comme quand Kenneth Goldsmith avait recopié un exemplaire du New York Times pour mieux se sentir concerné par tout ce qui y était inscrit – voir notre lecture de L’écriture sans écriture (Jean Boîte éditions, 2018). Raffard et Roussel rappellent que jusqu’en 1970, jusqu’à ce qu’Intel mette au point le processeur 4004, tout le monde pouvait réencoder une puce électronique, comme l’explique le théoricien des médias Friedrich Kittler dans Mode protégé (Presses du réel, 2015). Cet accès a été refermé depuis, nous plongeant dans le « paradoxe de l’accessibilité » qui veut que « plus un objet devient universel et limpide en surface, plus il devient opaque et hermétique en profondeur. Autrement dit, ce que l’on gagne en confort d’expérience, on le perd en capacité de compréhension – et d’action ». Pour le géographe Nigel Thrift, nos objets technologiques nous empêchent d’avoir pleinement conscience de leur réalité. Et c’est dans cet « inconscient technologique », comme il l’appelait, que les forces économiques prennent l’ascendant sur nos choix. « Dans les sociétés technocapitalistes, nous sommes lus davantage que nous ne pouvons lire ».

Ils nous invitent à extraire les mécanismes que les objets assemblent, comme nous y invitait déjà le philosophe Gilbert Simondon quand il évoquait l’assemblage de « schèmes techniques », c’est-à-dire l’assemblage de mécanismes existants permettant de produire des machines toujours plus complexes. Ils nous invitent bien sûr à représenter et schématiser les artefacts à l’image des vues éclatées, diffractées que proposent les dessins techniques, tout en constatant que la complexité technologique les a fait disparaître. On pense bien sûr au travail de Kate Crawford  (Anatomy of AI, Calculating Empires) et son « geste stratégique », ou établir une carte permet de se réapproprier le monde. On pense également au Handbook of Tyranny (Lars Müller Publishers,  2018) de l’architecte Theo Deutinger ou les topographies de pouvoir de l’artiste Mark Lombardi ou encore au Stack (UGA éditions, 2019) du designer Benjamin Bratton qui nous aident à visualiser et donc à comprendre la complexité à laquelle nous sommes confrontés. La cartographie aide à produire des représentations qui permettent de comprendre les points faibles des technologies, plaident les artistes. Elle nous aide à comprendre comment les technologies peuvent être neutralisées, comme quand Extinction Rébellion a proposé de neutraliser les trottinettes électriques urbaines en barrant à l’aide d’un marqueur indélébile, les QR codes pour les rendre inutilisables. Ces formes de neutralisations, comme on les trouve dans le travail de Simon Weckert et son hack de Google Maps en 2020, permettent de faire dérailler la machine, de trouver ses faiblesses, de contourner leur emprise, de « s’immiscer dans l’espace que contrôlent les technologies », de contourner ou détourner leurs assignations, de détourner leurs usages, c’est-à-dire de nous extraire nous-mêmes des scénarios d’usages dans lesquels les objets technologiques nous enferment, c’est-à-dire de réécrire les « scripts normatifs » que les technologies, par leur pouvoir, nous assignent, de comprendre leur « toxicité relationnelle »

Ils nous invitent enfin à construire nos machines, bien plus modestement qu’elles n’existent, bien sûr. Les machines que nous sommes capables de refaçonner, seuls, ne peuvent répondre à la toute-puissance des technologies modernes, rappellent-ils en évoquant leur tentative de reconstruire une imprimante à jet d’encre. Raffard et Roussel ont reconstruit une imprimante encombrante et peu performante, tout comme Thomas Thwaites avait reconstruit un grille-pain défaillant (The Toaster Project, Princeton, 2011). Cette bricologie a néanmoins des vertus, rappellent les artistes. Elle nous rappelle qu’à la toute puissance répond la vulnérabilité, à la high tech, la low tech. Et que ce changement même de regard, cette réappropriation, permet au moins de modifier le système cognitif des utilisateurs. Comme quand les manifestes cyberféministes nous invitent à regarder le monde autrement (souvenez-vous de Data Feminism). Pour Raffard et Roussel, créer des situations de vulnérabilité permet de changer la relation que nous avons avec les objets techniques. De nous réinterroger, pour savoir si nous sommes satisfaits de la direction dans laquelle les objets technologiques et nous-mêmes évoluons. En nous invitant à décider de ce que nous voulons faire de nos technologies et de ce que nous acceptons qu’elles nous fassent, ils militent pour une éducation à l’expérimentation technologique, qui fait peut-être la part un peu trop belle à notre rapport aux technologies, plutôt qu’à notre liberté à ne pas s’y intéresser. 

Le manuel pour réveiller notre curiosité technologique oublie peut-être que nous aurions aussi envie de les éteindre, de nous en détourner, de nous y opposer. Car le constat qu’ils dressent, à savoir celui que nous ne sommes pas capables de reproduire la puissance des machines contemporaines par nous-mêmes, risque d’être perçu comme un aveu d’impuissance. C’est peut-être là, la grande limite au démontage qu’ils proposent. Renforcer notre impuissance, plutôt que de nous aider à prendre le contrôle des systèmes, à peser de nos moyens d’actions collectifs contre eux, comme le peuvent la démocratie technique et la législation. Nous pouvons aussi parfois vouloir que la technologie ne nous saisisse pas… Et prendre le contrôle des systèmes pour que cela n’arrive pas, les réguler, nous y opposer, refuser de les comprendre, de les faire entrer là où nous ne voulons pas qu’ils interviennent est aussi un levier pour nous saisir des objets qui s’imposent autour de nous.

Hubert Guillaud

La couverture du livre de Matthieu Raffard et Mathilde Roussel, A contre-emploi.

MAJ du 7/11/2025 : Signalons que Matthieu Raffard et Mathilde Roussel publient un autre livre, directement issu de leur thèse, Bourrage papier : leçons politiques d’une imprimante (Les liens qui libèrent, 2025).

  • ✇Dans les algorithmes
  • Saisir le monde des objets autour de nous
    On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous inv
     

Saisir le monde des objets autour de nous

6 novembre 2025 à 01:00

On se souvient, avec entrain, des 19 petits Exercices d’observations (Premier Parallèle, 2022) de Nicolas Nova : invitations à nous jouer du monde, à aiguiser nos capacités d’observations en apprenant à décaler son regard sur le monde qui nous entoure. Matthieu Raffard et Mathilde Roussel les mettent en pratique et les prolongent, dans A contre-emploi : manuel expérimental pour réveiller notre curiosité technologique (Premier Parallèle, 2025). Les deux artistes et enseignants-chercheurs nous invitent à nous intéresser aux objets techniques qui nous entourent, à les observer pour nous libérer de leur autorité. Ces 11 nouveaux exercices d’observation active nous montrent que comprendre la technique nécessite, plus que jamais, de chercher à l’observer autrement que la manière dont elle nous est présentée. 

A contre-emploi commence par un moulin à café qui tombe en panne et continue en explorant des machines qui dysfonctionnent… Dans ce monde à réparer, nous avons « à remettre du je » dans le lien que nous entretenons avec les machines. Que ce soit en explorant les controverses situées des trottinettes en libre accès ou les rapports difficiles que nous avons à nos imprimantes, les deux artistes nous invitent au glanage pour ré-armer notre sensibilité technique. Ils nous invitent à ré-observer notre rapport aux objets techniques, pour mieux le caractériser, en s’inspirant des travaux d’observations typologiques réalisés par Bernd et Hilla Becher ou par Marianne Wex par exemple. Pour Raffard et Roussel, à la suite des travaux du psychologue James Gibson dans Approche écologique de la perception visuelle (1979, éditions du Dehors, 2014), c’est en se déplaçant dans notre environnement visuel qu’on peut voir émerger d’autres catégories. C’est le mouvement qui nous permet de voir autrement, rappellent-ils Pour les deux artistes : « c’est la fixité de notre position d’observateur qui rend notre lecture des environnements technologiques compliquée »

Pour changer de regard sur la technologie, nous avons besoin d’une « nouvelle écologie de la perception ». Pour cela, ils nous invitent donc à démonter nos objets pour mieux les comprendre, pour mieux les cartographier, pour mieux saisir les choix socio-économiques qui y sont inscrits et déplacer ainsi leur cadre symbolique. Ils nous invitent également à lire ce qu’on y trouve, comme les inscriptions écrites sur les circuits électroniques, d’une manière quasi-automatique, comme quand Kenneth Goldsmith avait recopié un exemplaire du New York Times pour mieux se sentir concerné par tout ce qui y était inscrit – voir notre lecture de L’écriture sans écriture (Jean Boîte éditions, 2018). Raffard et Roussel rappellent que jusqu’en 1970, jusqu’à ce qu’Intel mette au point le processeur 4004, tout le monde pouvait réencoder une puce électronique, comme l’explique le théoricien des médias Friedrich Kittler dans Mode protégé (Presses du réel, 2015). Cet accès a été refermé depuis, nous plongeant dans le « paradoxe de l’accessibilité » qui veut que « plus un objet devient universel et limpide en surface, plus il devient opaque et hermétique en profondeur. Autrement dit, ce que l’on gagne en confort d’expérience, on le perd en capacité de compréhension – et d’action ». Pour le géographe Nigel Thrift, nos objets technologiques nous empêchent d’avoir pleinement conscience de leur réalité. Et c’est dans cet « inconscient technologique », comme il l’appelait, que les forces économiques prennent l’ascendant sur nos choix. « Dans les sociétés technocapitalistes, nous sommes lus davantage que nous ne pouvons lire ».

Ils nous invitent à extraire les mécanismes que les objets assemblent, comme nous y invitait déjà le philosophe Gilbert Simondon quand il évoquait l’assemblage de « schèmes techniques », c’est-à-dire l’assemblage de mécanismes existants permettant de produire des machines toujours plus complexes. Ils nous invitent bien sûr à représenter et schématiser les artefacts à l’image des vues éclatées, diffractées que proposent les dessins techniques, tout en constatant que la complexité technologique les a fait disparaître. On pense bien sûr au travail de Kate Crawford  (Anatomy of AI, Calculating Empires) et son « geste stratégique », ou établir une carte permet de se réapproprier le monde. On pense également au Handbook of Tyranny (Lars Müller Publishers,  2018) de l’architecte Theo Deutinger ou les topographies de pouvoir de l’artiste Mark Lombardi ou encore au Stack (UGA éditions, 2019) du designer Benjamin Bratton qui nous aident à visualiser et donc à comprendre la complexité à laquelle nous sommes confrontés. La cartographie aide à produire des représentations qui permettent de comprendre les points faibles des technologies, plaident les artistes. Elle nous aide à comprendre comment les technologies peuvent être neutralisées, comme quand Extinction Rébellion a proposé de neutraliser les trottinettes électriques urbaines en barrant à l’aide d’un marqueur indélébile, les QR codes pour les rendre inutilisables. Ces formes de neutralisations, comme on les trouve dans le travail de Simon Weckert et son hack de Google Maps en 2020, permettent de faire dérailler la machine, de trouver ses faiblesses, de contourner leur emprise, de « s’immiscer dans l’espace que contrôlent les technologies », de contourner ou détourner leurs assignations, de détourner leurs usages, c’est-à-dire de nous extraire nous-mêmes des scénarios d’usages dans lesquels les objets technologiques nous enferment, c’est-à-dire de réécrire les « scripts normatifs » que les technologies, par leur pouvoir, nous assignent, de comprendre leur « toxicité relationnelle »

Ils nous invitent enfin à construire nos machines, bien plus modestement qu’elles n’existent, bien sûr. Les machines que nous sommes capables de refaçonner, seuls, ne peuvent répondre à la toute-puissance des technologies modernes, rappellent-ils en évoquant leur tentative de reconstruire une imprimante à jet d’encre. Raffard et Roussel ont reconstruit une imprimante encombrante et peu performante, tout comme Thomas Thwaites avait reconstruit un grille-pain défaillant (The Toaster Project, Princeton, 2011). Cette bricologie a néanmoins des vertus, rappellent les artistes. Elle nous rappelle qu’à la toute puissance répond la vulnérabilité, à la high tech, la low tech. Et que ce changement même de regard, cette réappropriation, permet au moins de modifier le système cognitif des utilisateurs. Comme quand les manifestes cyberféministes nous invitent à regarder le monde autrement (souvenez-vous de Data Feminism). Pour Raffard et Roussel, créer des situations de vulnérabilité permet de changer la relation que nous avons avec les objets techniques. De nous réinterroger, pour savoir si nous sommes satisfaits de la direction dans laquelle les objets technologiques et nous-mêmes évoluons. En nous invitant à décider de ce que nous voulons faire de nos technologies et de ce que nous acceptons qu’elles nous fassent, ils militent pour une éducation à l’expérimentation technologique, qui fait peut-être la part un peu trop belle à notre rapport aux technologies, plutôt qu’à notre liberté à ne pas s’y intéresser. 

Le manuel pour réveiller notre curiosité technologique oublie peut-être que nous aurions aussi envie de les éteindre, de nous en détourner, de nous y opposer. Car le constat qu’ils dressent, à savoir celui que nous ne sommes pas capables de reproduire la puissance des machines contemporaines par nous-mêmes, risque d’être perçu comme un aveu d’impuissance. C’est peut-être là, la grande limite au démontage qu’ils proposent. Renforcer notre impuissance, plutôt que de nous aider à prendre le contrôle des systèmes, à peser de nos moyens d’actions collectifs contre eux, comme le peuvent la démocratie technique et la législation. Nous pouvons aussi parfois vouloir que la technologie ne nous saisisse pas… Et prendre le contrôle des systèmes pour que cela n’arrive pas, les réguler, nous y opposer, refuser de les comprendre, de les faire entrer là où nous ne voulons pas qu’ils interviennent est aussi un levier pour nous saisir des objets qui s’imposent autour de nous.

Hubert Guillaud

La couverture du livre de Matthieu Raffard et Mathilde Roussel, A contre-emploi.

MAJ du 7/11/2025 : Signalons que Matthieu Raffard et Mathilde Roussel publient un autre livre, directement issu de leur thèse, Bourrage papier : leçons politiques d’une imprimante (Les liens qui libèrent, 2025).

  • ✇Climb to the Stars
  • Pour une « nétiquette » de l’IA générative [en]
    [en] L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo. Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve
     

Pour une « nétiquette » de l’IA générative [en]

27 octobre 2025 à 13:59
[en]

L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.

Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.

Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:

  1. Laisser l’IA parler à notre place, tel Christian avec Cyrano
  2. Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM

L’IA-Cyrano

Voici quelques exemples du premier cas de figure:

  • quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
  • je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
  • dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
  • je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.

Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.

Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.

C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.

Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?

Je pense qu’il y a deux aspects à prendre en compte.

Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?

Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)

Et la zone grise? Peut-on collaborer avec une IA?

Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!

La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.

Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?

Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.

Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.

Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.

Si c’est joli, où est le mal?

Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)

Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”

Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.

Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.

On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.

L’IA-RTFM

Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:

  • dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
  • dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
  • en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.

Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?

Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.

Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.

Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.

(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)

C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.

Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.

C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.

La version courte?

ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:

  • C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
  • Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
  • Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.

Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.

Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.

La version encore plus courte:

  1. transparence concernant l’implication de l’IA dans le contenu proposé
  2. vérification et adaptation du contenu généré (forme et fond)
  3. respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.

❌