Vue normale

Reçu aujourd’hui — 14 novembre 2025
  • ✇Climb to the Stars
  • Des “mini-podcasts” à écouter [en]
    [en] Après l’introduction d’hier (enfin à l’heure de publication, c’est avant-hier), venons-en au menu principal: une collection de podcasts en série limitée, type documentaire en x épisodes, surtout en anglais (parce qu’il y en a moins en français, tout simplement). A écouter, bien sûr. Je ne les ai pas mis dans un ordre particulier, juste comme ça vient. Mon corps électriqueAprès un accident suite auquel il se retrouve tétraplégique, Arnaud prend part à une étude médicale dans l’espoir de
     

Des “mini-podcasts” à écouter [en]

14 novembre 2025 à 14:39
[en]

Après l’introduction d’hier (enfin à l’heure de publication, c’est avant-hier), venons-en au menu principal: une collection de podcasts en série limitée, type documentaire en x épisodes, surtout en anglais (parce qu’il y en a moins en français, tout simplement). A écouter, bien sûr. Je ne les ai pas mis dans un ordre particulier, juste comme ça vient.

Mon corps électrique
Après un accident suite auquel il se retrouve tétraplégique, Arnaud prend part à une étude médicale dans l’espoir de retrouver un peu de mobilité dans son bras gauche. En même temps journaliste et sujet, il nous emmène avec lui au fil de sept épisodes pour nous questionner sur la médecine, le handicap, l’espoir, les limites, le deuil, le corps, la vie. (Voir aussi mon article Mais sérieux, le suivi psy?)

Soleil noir, autopsie d’une secte
Si vous avez mon âge ou plus, vous vous souvenez de l’Ordre du Temple Solaire. Ce podcast revient sur cette tragique histoire, en détail, et ce faisant, montre à quel point tout un chacun peut se retrouver victime d’emprise. Glaçant et fascinant.

Précipice
Sept épisodes. Sept vies qui basculent. On peut voir ce podcast somme un prélude stylistique à Mon corps électrique: l’épisode 7, c’est Arnaud.

No Easy Fix
Trois épisodes sur le sans-abrisme, l’addiction, et la réalité du parcours pour sortir de la rue à San Francisco.

Scripts
Ce podcast explore comment l’explication “physiologique” est devenue dominante aux USA pour la santé mentale, et ce que ça a eu comme impact sur le rapport qu’on a aux médicaments psychotropes. Egalement en trois épisodes.

The Missing Cryptoqueen
Dans le genre True Crime qui n’a rien à envier à un triller fictionnel: douze épisodes d’enquête sur une crypto-arnaque à grand échelle menée par une charismatique entrepreneuse qui finit par se volatiliser.

S-Town
J’ai écouté ce podcast il y a longtemps et je ne me souviens plus clairement du contenu. L’impression qu’il m’a fait, par contre, est bien clair. C’était prenant, intriguant, surprenant, et très bien raconté.

The Kids of Rutherford County
Quelque part aux USA, on met en taule des gosses aussi jeunes que 8 ans pour des bagarres de cour de récréation. Comment est-ce qu’on en est arrivé à ça? Et qu’est-ce qu’il a fallu pour sortir de cette dystopie?

The Preventionist
Amener son enfant à l’hôpital pour un commun accident domestique, une chute par exemple, et se retrouver non seulement accusé de maltraitance mais perdre la garde. Un cauchemar parental qui se répète année après année dans un coin de Pennsylvanie. Quand la protection de l’enfance finit par briser des familles innocentes et traumatiser ceux-là mêmes qu’elle est supposée protéger.

Un aparté, à ce stade: vous allez vous dire que je n’écoute que des trucs glauques et déprimants. C’est peut-être un peu vrai. Ce qui m’intéresse dans toutes ces histoires, c’est l’autopsie de systèmes qui dysfonctionnent. Comment les bonnes intentions créent-elles l’enfer institutionnalisé? Comment des personnes se retrouvent-elles prises dans des rôles où elles contribuent à rendre misérable la vie d’autrui? Que faut-il pour réparer nos systèmes défectueux, qu’ils soient politiques, médicaux, administratifs, sociaux, politiques, ou autre? Comment réussit-on (ou échoue-t-on) à réparer ce qui semble irrémédiablement cassé dans notre monde?

The Good Whale
Vous vous souvenez de “Sauvez Willy”? Derrière le film qui a ému les coeurs, il y a la vraie histoire, nettement plus compliquée, de Keiko – l’orque que l’on voit dans le film. Dans le genre enfer pavé de bonnes intentions, on est pas mal.

The Cat Drug Black Market (partie II, partie III)
La PIF est une maladie auparavant incurable chez le chat. C’est la maladie qui avait emporté Safran. Depuis quelques années, un traitement existe – efficace, mais disponible uniquement au marché noir. Des vétérinaires, mains liées par l’absence de traitement autorisé pour cette maladie sinon mortelle, se retrouvent à “suggérer” à leurs clients d’aller chercher de l’aide dans des groupes facebook. Ces trois épisodes retracent l’histoire de ce traitement, des communautés qui ont sauvé des milliers de chats, et de comment on s’est retrouvés dans cette situation abracadabrante.

Articles of Interest
Une mini-série sur les vêtements que l’on porte. Autant les questions vestimentaires m’intéressent peu, autant j’ai trouvé ces épisodes fascinants. Ce n’est pas étonnant, puisque cette série vient de 99% Invisible, un podcast qui a le don de rendre passionnants des sujets qui de prime abord peuvent paraître bien fades. AoI est par la suite devenu un podcast à part entière.

Master: The Allegations Against Neil Gaiman
Un auteur populaire et adoré est accusé d’abus sexuels par plusieurs femmes. Il nie en bloc. Une enquête dont j’ai apprécié la nuance, sur un sujet extrêmement inconfortable. (Je note juste là que Tortoise a d’autres séries d’investigation, je vais les mettre dans ma liste à écouter!)

Serial (saison 1)
Le podcast qui a lancé le genre, en 2014. Du True Crime pur et dur: Adnan Syed est derrière les barreaux depuis l’âge de 17 ans, accusé d’avoir tué Hae Min Lee, sa camarade de classe et ex-copine. Il clame son innocence, certains le croient, d’autres pas. La journaliste Sarah Koenig découvre que l’histoire est nettement plus compliquée que ce qu’il y paraît de prime abord.

Et ici je m’interromps à nouveau. Serial a lancé le genre, et continué. J’ai cité ci-dessus S-Town, The Kids of Rutherford County, The Preventionist, The Good Whale – tout ça, c’est Serial. Mais je découvre en faisant ce listing que suite au rachat de Serial par le New York Times, tout un tas d’épisodes de saisons passées sont maintenant réservées aux abonnés. Pas cool. Du coup, je vais bricoler un peu pour vous.

The Trojan Horse Affair
Le lien ci-dessus ne mène pas à la page officielle de ce podcast, mais au moins, il vous donne accès à tous les épisodes. Vous l’aurez deviné: une production Serial. On se rend cette fois à Birmingham, sur les traces d’un scandale qui a secoué l’Angleterre dix ans auparavant. Lettre anonyme, islamophobie et théorie du complot.

The Retrievals
Aussi une production Serial. Deux saisons difficiles à écouter sur la non prise en compte de la douleur des femmes dans le milieu médical. La première nous plonge dans une clinique de PMA où durant des années, une infirmière piquait dans le fentanyl utilisé comme antidouleur pour les patientes durant les interventions – le remplaçant avec une solution physiologique. Vous imaginez les conséquences pour les patientes, mais peut-être pas à quel point le monde médical est construit pour ignorer une femme qui dit qu’elle a mal. La deuxième saison porte sur les césariennes, et est plus porteuse d’espoir, car elle nous raconte comment une personne a pu mettre en route une véritable prise de conscience à l’intérieur de sa profession et faire bouger des pratiques médicales désuètes.

Dolly Parton’s America
En écoutant ce podcast, j’ai découvert la femme extraordinaire qu’est Dolly Parton. Je n’avais aucune idée. Et c’est possible que vous non plus.

Dead End: A New Jersey Political Murder Mystery
Le podcast a pris son envol et changé de nom, mais la première saison se penche sur le meurtre des Sheridan et les machinations politiques qui y sont liées.

The Making of Musk
En fait la 6e saison du podcast Understood, ces 4 épisodes nous racontent les origines biographiques et idéologiques d’Elon Musk. Eclairant.

The Disappearance of Nuseiba Hasan
Comme le podcast précédent, celui-ci est également une saison d’un podcast plus large. La troisième saison de Conviction, précisément. C’est chez Spotify, donc quasi impossible de faire un lien propre vers la saison, d’où le lien ci-dessus sur le premier épisode. Une enquête sur la disparition d’une femme que sa famille signale… des années après sa disparition.

Tiny Huge Decisions
Deux amis, Mohsin et Dalia. Ils sont les deux mariés. Elle a eu son premier enfant récemment. Lui souhaite également fonder une famille, avec son mari. Une discussion délicate, que l’on suit au fil des épisodes, où ils réfléchissent, ensemble et séparément, à une décision lourde de conséquences: va-t-elle lui proposer de porter son enfant? Ce podcast aborde avec finesse la question de la gestation pour autrui, mais pas que. Amitié, dialogue, religion, homosexualité, couple… la palette est large. Les protagonistes sont attachants, lucides, et courageux.

The Protocol
Une reportage en six parties sur la façon dont on approche la question de la transidentité chez les jeunes, enfants et ados, partant d’un protocole hollandais dont on suit l’application et l’interprétation outre-Atlantique. Un traitement très nuancé d’un sujet qui a tendance à polariser.

Pour terminer, deux recommandations un poil à part. Will Be Wild, d’abord, une enquête sur la genèse et la préparation de l’assaut du Capitole du 6 janvier. Malheureusement, l’intégralité des épisodes n’est plus disponible sans abonnement payant. Ensuite, les mini-séries de On The Media, podcast que j’écoute depuis des années. Au fil du temps ils ont produit des mini-séries sur tout un tas de sujets, allant de la pauvreté à l’histoire de la radio conservatrice. Ils en valent tous la peine.

Voilà, je crois que vous avez de quoi vous occuper avec tout ça!

Reçu avant avant-hier
  • ✇Climb to the Stars
  • Pour une « nétiquette » de l’IA générative [en]
    [en] L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo. Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve
     

Pour une « nétiquette » de l’IA générative [en]

27 octobre 2025 à 13:59
[en]

L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.

Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.

Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:

  1. Laisser l’IA parler à notre place, tel Christian avec Cyrano
  2. Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM

L’IA-Cyrano

Voici quelques exemples du premier cas de figure:

  • quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
  • je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
  • dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
  • je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.

Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.

Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.

C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.

Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?

Je pense qu’il y a deux aspects à prendre en compte.

Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?

Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)

Et la zone grise? Peut-on collaborer avec une IA?

Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!

La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.

Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?

Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.

Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.

Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.

Si c’est joli, où est le mal?

Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)

Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”

Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.

Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.

On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.

L’IA-RTFM

Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:

  • dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
  • dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
  • en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.

Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?

Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.

Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.

Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.

(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)

C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.

Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.

C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.

La version courte?

ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:

  • C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
  • Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
  • Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.

Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.

Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.

La version encore plus courte:

  1. transparence concernant l’implication de l’IA dans le contenu proposé
  2. vérification et adaptation du contenu généré (forme et fond)
  3. respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.

❌