Vue normale
-
#MonCarnet
-
Des pirates chinois ont utilisé l’IA d’Anthropic pour automatiser des cyberattaques
Anthropic révèle qu’un groupe de pirates liés à l’État chinois a exploité ses outils d’intelligence artificielle pour automatiser une vaste opération de piratage menée en septembre. L’attaque ciblait des entreprises et des gouvernements étrangers, et une part inhabituelle du processus ( entre 80 et 90 % ) aurait été exécutée automatiquement grâce à l’IA. Selon […]
-
#MonCarnet
-
Firefox prépare une nouvelle fenêtre d’IA pour transformer l’expérience de navigation
Mozilla annonce une évolution majeure pour Firefox avec l’arrivée d’une nouvelle interface dédiée à l’intelligence artificielle : l’AI Window. Cette fonctionnalité, encore en développement, permettra aux utilisateurs de dialoguer avec un assistant intégré directement dans le navigateur, dans un espace distinct des onglets classiques et privés. Contrairement à d’autres acteurs du secteur qui misent sur […]
Firefox prépare une nouvelle fenêtre d’IA pour transformer l’expérience de navigation
-
#MonCarnet
-
ChatGPT teste les conversations de groupe : un nouvel espace pour collaborer en ligne
OpenAI ouvre une nouvelle étape dans l’usage quotidien de l’intelligence artificielle avec l’arrivée des group chats, un système de conversations partagées où plusieurs personnes peuvent dialoguer ensemble tout en faisant intervenir ChatGPT au besoin. Le pilote débute dans quatre régions : le Japon, la Nouvelle-Zélande, la Corée du Sud et Taïwan. Cette première phase permettra […]
ChatGPT teste les conversations de groupe : un nouvel espace pour collaborer en ligne
-
#MonCarnet
-
IA : encadrer sans étouffer, selon Stéphane Ricoul
Mon Carnet, le podcast · {RÉFLEXION} – IA : encadrer sans étouffer, selon Stéphane Ricoul Dans sa chronique, Stéphane Ricoul s’attaque au débat sur la gouvernance de l’intelligence artificielle, en réagissant à la position de Yoshua Bengio sur la limitation des systèmes « agentiques ». S’il partage l’objectif d’une IA sûre et transparente, il défend […]
IA : encadrer sans étouffer, selon Stéphane Ricoul
-
#MonCarnet
-
Comment l’usage de l’IA transforme les rencontres en ligne
Les applications de rencontres vivent une mutation inattendue : l’arrivée du « chatfishing ». Cette pratique, qui détourne l’usage d’outils conversationnels comme ChatGPT, permet à certains utilisateurs de se présenter sous un jour trop parfait pour être vrai. L’histoire de Rachel, relatée par le Guardian, illustre bien ce phénomène. Séduite par des échanges d’une rare […]
Comment l’usage de l’IA transforme les rencontres en ligne
-
#MonCarnet
-
Nouveau GPT-5.1 : une version plus humaine et personnalisable de ChatGPT
OpenAI annonce le déploiement progressif de GPT-5.1, une mise à jour majeure de sa série GPT-5, d’abord réservée aux utilisateurs payants. L’entreprise promet un robot conversationnel plus intelligent, plus chaleureux et surtout plus conforme au ton que chacun souhaite adopter dans ses échanges. Deux modèles sont proposés : GPT-5.1 Instant, la version la plus utilisée, […]
Nouveau GPT-5.1 : une version plus humaine et personnalisable de ChatGPT
-
#MonCarnet
-
Yann LeCun quitte Meta pour créer sa propre entreprise d’intelligence artificielle
L’un des esprits les plus influents de l’IA moderne, Yann LeCun, s’apprête à tourner la page chez Meta. Selon le Financial Times, le scientifique franco-américain, lauréat du prix Turing et directeur scientifique de l’IA chez Meta depuis 2013, prépare son départ pour fonder sa propre start-up. Cette décision survient alors que Mark Zuckerberg redéfinit profondément […]
Yann LeCun quitte Meta pour créer sa propre entreprise d’intelligence artificielle
-
#MonCarnet
-
IA : de la commodité à la création de valeur pour une entreprise
Mon Carnet, le podcast · {ENTREVUE} – Sarah Légendre-Bilodeau : de la commodité à la création de valeur avec l’IA Dans cette entrevue, Sarah Légendre-Bilodeau, la Première vice-présidente, Groupe conseil, intelligence artificielle de Videns, propulsée par Cofomo, explique la différence entre une IA de commodité, adoptée par tous via des outils comme ChatGPT ou Copilot, […]
IA : de la commodité à la création de valeur pour une entreprise
-
#MonCarnet
-
OpenAI brûle 15 millions $ par jour pour alimenter Sora
OpenAI brûle des milliards dans sa course à la vidéo générative. Selon une enquête de Forbes, l’entreprise dépenserait jusqu’à 15 millions $ US par jour pour alimenter Sora, son application de création vidéo par intelligence artificielle, lancée sur iOS à la fin de septembre. Une ardoise colossale, évaluée à plus de 5 milliards $ US […]
OpenAI brûle 15 millions $ par jour pour alimenter Sora
-
#MonCarnet
-
Copilot : Microsoft mise sur les influenceurs pour rivaliser avec ChatGPT
Microsoft redouble d’efforts pour rattraper ChatGPT sur le terrain des utilisateurs grand public, et son arme secrète n’est pas technologique, mais sociale : les influenceurs. L’entreprise de Redmond mise désormais sur des figures populaires de TikTok et d’Instagram pour donner à son robot conversationnel Copilot une image plus jeune, plus accessible, et surtout plus « […]
Copilot : Microsoft mise sur les influenceurs pour rivaliser avec ChatGPT
-
#MonCarnet
-
L’intelligence artificielle ne supprime pas les emplois, ce sont plutôt les budgets qui l’accompagnent
Depuis trois ans, les grands discours annonçant la disparition imminente du travail humain sous la pression de l’intelligence artificielle se multiplient. Mais selon les économistes Gary N. Smith et Jeffrey Funk, la réalité est toute autre : ce ne sont pas les algorithmes qui suppriment les emplois, mais bien les dépenses massives qu’ils entraînent. Derrière […]
L’intelligence artificielle ne supprime pas les emplois, ce sont plutôt les budgets qui l’accompagnent
-
InfoBref ACTUALITES | L’essentiel de l’actualité politique et générale

-
MedAssistant veut permettre à votre médecin de vous consacrer plus de temps
Avez-vous déjà vécu une consultation médicale expéditive? C’est probablement parce que votre médecin ou votre infirmière devait se garder du temps pour remplir de la paperasse. MedAssistant, une jeune pousse de Sherbrooke, a conçu un assistant médical qui, grâce à l’intelligence artificielle, automatise plusieurs tâches administratives médicales, libérant ainsi aux médecins et infirmières du temps à consacrer aux patients. Le problème Les protocoles médicaux sont très standardisés,
MedAssistant veut permettre à votre médecin de vous consacrer plus de temps

Avez-vous déjà vécu une consultation médicale expéditive? C’est probablement parce que votre médecin ou votre infirmière devait se garder du temps pour remplir de la paperasse.
MedAssistant, une jeune pousse de Sherbrooke, a conçu un assistant médical qui, grâce à l’intelligence artificielle, automatise plusieurs tâches administratives médicales, libérant ainsi aux médecins et infirmières du temps à consacrer aux patients.
Le problème
Les protocoles médicaux sont très standardisés, et doivent suivre plusieurs étapes administratives obligatoires.
Par exemple, pour chaque consultation d’un patient, les médecins et infirmières cliniciennes doivent documenter la rencontre et parfois remplir des formulaires.
Ces tâches obligatoires «réduisent le temps que les médecins et les infirmières peuvent consacrer à leurs patients», dit à InfoBref Félix-Antoine Toussaint, PDG et cofondateur de MedAssistant.
Il croit que cette pression peut nuire à la qualité du service.
Message du commanditaire
Propulsez votre entreprise technologique!
Déposez votre projet à l’ACET
La solution
MedAssistant a conçu un logiciel qui automatise certaines tâches administratives médicales liées à la cueillette d’informations et à la documentation clinique.
Le logiciel propose un questionnaire intelligent qui recueille des informations sur chaque patient avant sa consultation.
- Dans les minutes qui précèdent la consultation, le patient répond au questionnaire sur une tablette électronique.
- Les questions s’ajustent automatiquement selon les réponses aux questions précédentes.
Une autre outil automatise la prise de note pendant le rendez-vous.
- L’outil enregistre la conversation et en fait la synthèse.
- Il peut également remplir certains formulaires médicaux selon les informations obtenues pendant la consultation.
Ces outils font gagner du temps aux professionnels de la santé.
De plus, ils «favorisent la collaboration entre les différentes équipes de soin» parce que les informations colligées sont accessibles à plusieurs professionnels en même temps, soutient Félix-Antoine Toussaint.
L’essentiel des nouvelles en 5 minutes chaque matin et, chaque mois, des conseils d’experts en finances personnelles et consommation: c’est ce que vous offrent les infolettres d’InfoBref. Faites comme plus de 30 000 Québécois·es, essayez-les: inscrivez-vous gratuitement ici ou en cliquant Infolettres en haut à droite
Le modèle d’affaires
MedAssistant vend son logiciel sous la forme d’un abonnement mensuel.
- Le prix est actuellement fixé à 99 $ par an par professionnel.
- Un abonnement de groupe est également proposé.
L’entreprise fournit des tablettes verrouillées qui permettent aux patients de répondre au questionnaire.
La clientèle de l’entreprise compte actuellement plus d’une centaine d’utilisateurs, répartis principalement dans la grande région de Montréal et en Estrie.
- La clientèle est composée surtout de médecins de famille.
- Il y a aussi des médecins spécialistes et des équipes de soins infirmiers.
Une partie de la clientèle participe à un essai pilote.
La jeune pousse a obtenu auprès du ministère de la santé la certification TGV (Trousse globale de vérification) qui atteste que son logiciel est conforme à des normes quant à la protection et à la confidentialité des données de ses utilsateurs.
MedAssistant bénéficie d’un accompagnement personnalisé par l’Accélérateur de création d’entreprises technologiques (ACET). [Découvrez d’autres jeunes entreprises québécoises innovantes soutenues par cet organisme et par d’autres.]
Message du commanditaire
Maximisons l’impact de votre entreprise technologique!
Déposez votre projet à l’ACET
À venir
L’entreprise se concentre actuellement à développer le marché québécois et ontarien.
Elle prévoit ensuite des lancements dans le reste du Canada puis aux États-Unis.
Pour recevoir chaque lundi le portrait d’une jeune entreprise québécoise innovante, abonnez-vous gratuitement à l’infolettre d’InfoBref ici (ou en cliquant Infolettres en haut à droite): elle vous donnera chaque jour, en 5 minutes, l’essentiel des nouvelles économiques, technologiques et politiques
[L'article MedAssistant veut permettre à votre médecin de vous consacrer plus de temps a d'abord été publié dans InfoBref.]
-
affordance.info

-
A lire sur AOC : Le réel, le vrai et la technorrhée. Comment la question du langage s’est déplacée.
Comme je le fais depuis quelques temps, certains de mes textes sont initialement publiés dans la revue AOC avant d’être republiés ici en version gratuite après embargo de 2 mois (sachant qu’AOC vous offre un article par mois gratuitement en échange de votre adresse mail). Mon dernier texte s’intitule « Le réel, le vrai et la technorrhée. Comment la question du langage s’est déplacée. » Il est disponible sur AOC depuis le 20 octobre 2025 (et sera donc republié ici fin décembre). C’est un texte as
A lire sur AOC : Le réel, le vrai et la technorrhée. Comment la question du langage s’est déplacée.
Comme je le fais depuis quelques temps, certains de mes textes sont initialement publiés dans la revue AOC avant d’être republiés ici en version gratuite après embargo de 2 mois (sachant qu’AOC vous offre un article par mois gratuitement en échange de votre adresse mail).
Mon dernier texte s’intitule « Le réel, le vrai et la technorrhée. Comment la question du langage s’est déplacée. » Il est disponible sur AOC depuis le 20 octobre 2025 (et sera donc republié ici fin décembre). C’est un texte assez long et assez dense qui propose plusieurs concepts (celui de technorrhée, celui « d’assemblages machiniques informationnels », et quelques autres encore), travaille plusieurs aspects de l’IA au travers des différents générateurs (de texte, d’image, de vidéo), qui revient aussi sur les cadres discursifs et langagiers qui se trouvent bousculées et remodelés et tente de replacer ces dernières évolutions dans le temps long des espaces discursifs en ligne, qui ont, depuis l’invention des plateformes de médias sociaux, toujours été davantage astreignants que libératoires. Parmi quelques-uns des aspects développés dans ce texte, je vous livre ici deux courts extraits qui, je l’espère, vous donneront envie de lire l’ensemble sur AOC (et de vous y abonner, c’est un espace de réflexion et de respiration aussi salutaire que nécessaire dans l’époque actuelle).
Extrait 1.
« Il y a deux niveaux différents sur lesquels penser la complexification de nos anciennes heuristiques de preuve. D’abord la documentation récréative, ludique ou fictionnée du monde : l’enjeu est alors celui de la dissimulation ; il faut soit faire en sorte que le destinataire ne voit pas la simulation, soit qu’elle se dise pour ce qu’elle est (un « dit » de simulation) et qu’elle suscite l’étonnement sur sa nature. Et puis il y a la documentation rétrospective de tout ce qui fait histoire dans le temps long ainsi que celle qui concerne l’actualité. C’est alors l’exemple de la vidéo du SIG que j’évoquais plus haut, où le moindre casque à pointe nous fait basculer de l’ahurissement à l’abrutissement.
On croit souvent – et l’on s’abrite derrière cette croyance – que chaque simulation, chaque nouvelle production documentaire générée par intelligence artificielle, ajoute au réel. C’est totalement faux. Chaque nouvelle simulation enlève au réel. Parce que le réel historique n’est pas un réel extensible : il peut se nourrir de représentations historiques mouvantes au gré de l’historiographie et de l’émergence de preuves ou de témoignages, mais chaque nouvelle génération de ce réel historique potentiel va venir se sédimenter dans l’espace public mémoriel dont la part transmissible est extrêmement ténue et s’accommode mal d’effets de concurrences génératives. La question, dès lors, n’est pas tant de condamner les utilisations imbéciles ou négligentes de technologies d’IA pour illustrer un fait historique mais, par exemple, de savoir comment mieux rendre visible et faire pédagogie de la force incroyable d’authentiques images d’archives.
Nos imaginaires sont des réels en plus. Les effets de réel produits par les artefacts génératifs sont des imaginaires en moins.
(…) Il est en train de nous arriver exactement la même chose avec l’ensemble de l’actuelle panoplie des artefacts génératifs disponibles, de Genie 3 à ChatGPT5 : nous ne multiplions pas nos capacités collectives à faire récit (que ces récits soient imaginaires, réels ou réalistes et que leur support premier soit celui du texte, de l’image ou de la vidéo), nous les standardisons et nous nous enfonçons dans des dynamiques de reproduction qui se nourrissent de toutes les formes possibles de confusion ; une confusion entretenue par des formes complexes d’indiscernabilité qui tiennent à l’immensité non auditable des corpus sur lesquels ces IA et autres artefacts génératifs sont « entraînés » et ensuite calibrés.
Extrait 2.
À propos de ce que je nomme « Assemblages machiniques informationnels »
L’arrivée des artefacts génératifs ajoute une dimension nouvelle et passablement problématique au tableau contemporain de la fabrication de nos croyances et adhésions. Jusqu’ici, moteurs de recherche et réseaux sociaux jouaient sur le levier déjà immensément puissant de leurs arbitraires d’indexation et de publication (le fait de choisir ce qu’ils allaient indexer et/ou publier) ainsi que sur celui, tout aussi puissant, de la hiérarchisation et de la circulation (viralisation) de ce qui pouvait être vu et donc en creux de ce qu’ils estimaient devoir l’être moins ou pas du tout.
Choisir quoi mettre à la « Une » et définir l’agenda médiatique selon le vieux précepte de « l’agenda setting » qui dit que les médias ne nous disent pas ce qu’il faut penser mais ce à quoi il faut penser. Ce principe premier de l’éditorialisation se double, avec les artefacts génératifs conversationnels à vocation de recherche, d’une capacité à produire des sortes d’assemblages machiniques informationnels, c’est à dire des contenus uniquement déterminés par ce que nous interprétons comme un « devenir machine** » en capacité de « phraser » les immenses bases de données textuelles sur lesquelles il repose. Des machines à communiquer mais en aucun cas, comme le souligne aussi Arthur Perret, en aucun cas des machines à informer.
** [ce « devenir-machine » est à lire dans le sens du « devenir-animal » chez Deleuze et Guattari : « le “devenir-animal” ne consiste pas à “imiter l’animal, mais d’entrer dans des rapports de composition, d’affect et d’intensité sensible” ».]
Ce concept d’assemblage machinique informationnel me semble intéressant à penser en miroir ou en leurre des agencements collectifs d’énonciation théorisés par Félix Guattari. D’abord parce qu’un assemblage n’est pas un agencement. Il n’en a justement pas l’agentivité. Il n’est mû par aucune intentionnalité, par aucun désir combinatoire, calculatoire, informationnel, communicationnel ou social. Ensuite parce que la dimension machinique est antithétique de la dimension collective, elle en est la matière noire : ChatGPT (et les autres artefacts génératifs) n’est rien sans la base de connaissance sur laquelle il repose et les immenses réservoirs de textes, d’images et de contenus divers qui ont été, pour le coup, assemblés, et sont l’oeuvre de singularités fondues dans un collectif qui n’a jamais été mobilisé ou sollicité en tant que tel. Enfin, l’information est ici un degré zéro de l’énonciation. L’énonciation c’est précisément ce qui va donner un corps social à ce qui étymologiquement, a donc déjà été « mis en forme » (in-formare) et se trouve prêt à être transmis, à trouver résonance. ChatGPT est l’ombre, le simulacre, le leurre d’une énonciation. Et cette duperie est aussi sa plus grande victoire.
La question du langage s’est déplacée. Un grand déplacement. Quelque chose qui n’est plus aligné entre le territoire du monde et la langue qui en est la carte.

-
#MonCarnet
-
Meta lance Vibes en Europe, un fil de vidéos courtes entièrement générées par IA
Meta Platforms élargit son offre de courtes vidéos entièrement générées par intelligence artificielle avec la mise en service européenne de son fil Vibes via l’application Meta AI. Le service, déjà lancé aux États-Unis il y a environ six semaines, permet aux utilisateurs de visionner des vidéos courtes créées par IA, d’en générer via des consignes […]
Meta lance Vibes en Europe, un fil de vidéos courtes entièrement générées par IA
-
#MonCarnet
-
Snap s’allie à Perplexity pour intégrer la recherche par IA à Snapchat
Snap Inc. a annoncé un partenariat de 400 millions $ US avec Perplexity AI afin d’intégrer son moteur de recherche conversationnel à l’application Snapchat à l’échelle mondiale. L’annonce, faite mercredi, a aussitôt fait bondir l’action de Snap de 16 % après la clôture des marchés (source : Bloomberg, Alexandra S. Levine et Kurt Wagner, 5 […]
Snap s’allie à Perplexity pour intégrer la recherche par IA à Snapchat
-
#MonCarnet
-
Siri passe à l’ère de l’IA géante : Apple adopte le modèle Gemini de Google
Apple préparerait une refonte majeure de Siri en s’appuyant sur la technologie de Google. Selon des informations obtenues par Bloomberg, l’entreprise californienne prévoit d’utiliser un modèle Gemini de 1,2 billion de paramètres développé par Alphabet pour propulser la prochaine génération de son assistant vocal. Ce modèle colossal, bien plus avancé que ceux qu’Apple utilise actuellement, […]
Siri passe à l’ère de l’IA géante : Apple adopte le modèle Gemini de Google
-
#MonCarnet
-
Google découvre les premiers logiciels malveillants propulsés par l’IA
Les chercheurs de Google affirment avoir identifié les premiers cas connus de programmes malveillants utilisant l’intelligence artificielle générative dans une véritable cyberattaque. Ces découvertes confirment que les pirates franchissent une nouvelle étape : celle de l’industrialisation de l’IA dans leurs opérations. Selon le rapport publié par le Threat Intelligence Group de Google, deux nouveaux maliciels […]
Google découvre les premiers logiciels malveillants propulsés par l’IA
-
InfoBref ACTUALITES | L’essentiel de l’actualité politique et générale

-
Budget fédéral: Ottawa prévoit un déficit de 78 milliards $ cette année – voici l’essentiel
Le ministre fédéral des finances François-Philippe Champagne a présenté le premier budget du gouvernement Carney. Il l’a qualifié de «plan d’investissements». Le déficit budgétaire va doubler: il s’élèvera cette année (avril 2025 à mars 2026) à 78,3 milliards $. L’an dernier, sous le gouvernement de Justin Trudeau, le déficit était de 43 milliards $. Pas de retour à l’équilibre budgétaire prévu au cours des cinq prochaines années. Le gouvernement fédéral prévoit cependan
Budget fédéral: Ottawa prévoit un déficit de 78 milliards $ cette année – voici l’essentiel

Le ministre fédéral des finances François-Philippe Champagne a présenté le premier budget du gouvernement Carney.
- Il l’a qualifié de «plan d’investissements».
Le déficit budgétaire va doubler: il s’élèvera cette année (avril 2025 à mars 2026) à 78,3 milliards $.
- L’an dernier, sous le gouvernement de Justin Trudeau, le déficit était de 43 milliards $.
Pas de retour à l’équilibre budgétaire prévu au cours des cinq prochaines années.
- Le gouvernement fédéral prévoit cependant d’équilibrer ses dépenses de fonctionnement avant l’année fiscale 2028-2029.
Investissements en infrastructures
Le gouvernement fédéral veut créer un nouveau fonds pour financer des projets d’infrastructures à travers le pays.
Ce fonds serait doté de 51 milliards $ sur 10 ans.
- 17 milliards $ seraient réservés aux priorités des provinces, dont 5 milliards $ pour des infrastructures en santé.
Réductions des dépenses
Le gouvernement Carney espère faire des économies de 60 milliards $ grâce aux compressions budgétaires qu’il a demandées à ses ministères.
Ottawa compte, de plus, supprimer 16 000 postes dans la fonction publique d’ici 2028-2029.
- Cela représente environ 4,5% de ses effectifs.
Nouveaux corridors commerciaux
Le gouvernement fédéral prévoit 5 milliards $ sur 7 ans pour permettre aux entreprises canadiennes d’explorer de nouveaux marchés.
Ce montant servirait à financer des infrastructures visant à faciliter le transport des produits canadiens destinés à l’exportation.
L’essentiel des nouvelles en 5 minutes? C’est ce qu’offre chaque jour l’infolettre InfoBref Matin aux entrepreneurs, gestionnaires, professionnels et investisseurs. Essayez-la: inscrivez-vous gratuitement ici ou en cliquant Infolettres en haut à droite
Incitatifs fiscaux pour entreprises
Le gouvernement Carney veut mettre en place une «superdéduction» pour les entreprises du secteur manufacturier, dans l’objectif est d’augmenter leur productivité.
Cette mesure permettrait aux entreprises d’immédiatement amortir (c’est-à-dire déclarer comme dépense fiscale déductible des revenus) une plus grande partie de leurs nouveaux investissements.
- Elles pourraient ainsi déduire immédiatement le cout des machines et du matériel servant à la fabrication ou la transformation.
Par ailleurs, les entreprises pourraient aussi:
- amortir immédiatement le cout de bâtiments servant à la fabrication ou la transformation;
- amortir plus rapidement le cout des équipements pour du gaz naturel liquéfié dans des installations ayant une faible teneur en carbone.
Le cout total de ces deux mesures est évalué à 2,7 milliards $.
Le gouvernement estime qu’elles pourraient générer jusqu’à 9 milliards $ de retombées économiques au cours des 10 prochaines années.
Intelligence artificielle
Le budget 2025-2026 prévoit 925 millions $sur 5 ans pour soutenir des centres de données à grande échelle pour l’IA.
Le gouvernement veut par ailleurs:
- créer un «nuage souverain canadien»;
- autoriser la Banque de l’infrastructure du Canada à investir dans des projets d’infrastructure en intelligence artificielle.
[L'article Budget fédéral: Ottawa prévoit un déficit de 78 milliards $ cette année – voici l’essentiel a d'abord été publié dans InfoBref.]
-
#MonCarnet
-
Joëlle Pineau : « Les lois de l’échelle en IA continueront de s’imposer »
Le podcasteur britannique Harry Stebbings a mis en ligne une longue entrevue avec Joëlle Pineau, cheffe de la recherche en intelligence artificielle chez Cohere, où plusieurs sujets majeurs de l’IA sont abordés, de l’efficacité des modèles aux risques de dérive. Dans cet échange dense, Pineau voit dans l’actuelle frénésie autour des grands modèles de langage […]
Joëlle Pineau : « Les lois de l’échelle en IA continueront de s’imposer »
-
#MonCarnet
-
Amazon mise sur l’IA : Rufus pourrait générer 10 milliards $ US de ventes supplémentaires
Amazon vient de chiffrer l’impact spectaculaire de son assistant d’achat basé sur l’intelligence artificielle, Rufus. Selon le PDG Andy Jassy, cet outil conversationnel intégré à la plateforme d’achat en ligne devrait générer à lui seul jusqu’à 10 milliards $ US de ventes supplémentaires par an. L’annonce a été faite lors de la présentation des résultats […]
Amazon mise sur l’IA : Rufus pourrait générer 10 milliards $ US de ventes supplémentaires
-
#MonCarnet
-
AWS et OpenAI annoncent un partenariat stratégique de plusieurs années
Amazon Web Services et OpenAI ont officialisé une entente majeure d’une valeur de 38 milliards de dollars, qui permettra à OpenAI d’exécuter ses charges de travail d’intelligence artificielle sur l’infrastructure infonuagique d’AWS. L’accord, annoncé ce matin à New York, vise à renforcer la capacité de calcul d’OpenAI grâce à un accès immédiat à des centaines […]
AWS et OpenAI annoncent un partenariat stratégique de plusieurs années
-
#MonCarnet
-
L’intelligence artificielle rend les menaces de mort plus réalistes que jamais
Les menaces de mort sur internet prennent une tournure inquiétante avec l’arrivée des outils d’intelligence artificielle générative. De simples mots, elles deviennent désormais des images et des vidéos hyperréalistes, capables de montrer une personne dans des scènes de violence simulée, avec un niveau de détail troublant. En Australie, Caitlin Roper, militante du groupe féministe Collective […]
L’intelligence artificielle rend les menaces de mort plus réalistes que jamais
-
#MonCarnet
-
Les navigateurs d’IA contournent les bloqueurs et les murs payants
Une nouvelle génération de navigateurs dopés à l’intelligence artificielle, comme Atlas d’OpenAI ou Comet de Perplexity, bouleverse l’équilibre fragile entre les médias et les grandes plateformes technologiques. Ces outils, capables d’agir de manière autonome sur le Web, posent un défi inédit aux éditeurs qui tentent de contrôler l’accès à leurs contenus. Contrairement à Chrome ou […]
Les navigateurs d’IA contournent les bloqueurs et les murs payants
-
#MonCarnet
-
L’intelligence artificielle : les petits modèles font le vrai travail
Dans le monde de l’intelligence artificielle, les projecteurs se braquent sur les modèles géants comme GPT-5, Gemini ou Claude. Pourtant, ce sont les petits modèles ( plus simples, rapides et économiques ) qui transforment réellement le quotidien des entreprises. Alors que les grands laboratoires d’IA rêvent d’atteindre l’intelligence artificielle générale, celle qui rivaliserait avec l’esprit […]
L’intelligence artificielle : les petits modèles font le vrai travail
-
affordance.info

-
Le web pourrissant et l’IA florissante. Si nous sommes le bruit, qui sera la fureur ?
Chapitre 1er. Le web pourrissant et l’IA florissante. Nos espaces discursifs en ligne, nos médias sociaux, sont déjà largement contaminés de contenus entièrement générés par IA. Les proportions peuvent varier d’un média à l’autre mais il s’agit de bien plus qu’une simple tendance, il s’agit de l’aboutissement d’un changement complet de paradigme. Après avoir été acteurs et actrices de la production de contenus, après avoir été essentiellement spectateurs et spectatrices de contenus publiés par d
Le web pourrissant et l’IA florissante. Si nous sommes le bruit, qui sera la fureur ?
Chapitre 1er.
Le web pourrissant et l’IA florissante.
Nos espaces discursifs en ligne, nos médias sociaux, sont déjà largement contaminés de contenus entièrement générés par IA. Les proportions peuvent varier d’un média à l’autre mais il s’agit de bien plus qu’une simple tendance, il s’agit de l’aboutissement d’un changement complet de paradigme. Après avoir été acteurs et actrices de la production de contenus, après avoir été essentiellement spectateurs et spectatrices de contenus publiés par d’autres que nous appartenant à différents sphères « d’influence » ou de médias, nous sommes aujourd’hui entrés dans une ère où des contenus produits par des IA phagocytent et recouvrent la quasi-totalité des contenus qui nous sont proposés. Il ne s’agit pas ici de rejoindre la théorie conspirationniste du « Dead Internet » selon laquelle les bots seraient en charge et à l’origine de la totalité du trafic en ligne ainsi que des contenus produits afin de mettre l’humanité sous coupe réglée, mais de constater que les bots et les contenus générés par IA … sont désormais à l’origine d’une majeure partie du trafic en ligne des des contenus produits. Pas de complot donc mais une question : que peut-il se produire dès lors que la réalité de nos espaces informationnels et discursifs en ligne est effectivement majoritairement produite par des bots et des IA. Bref, le pitch d’un excellent bouquin : « Les IA à l’assaut du cyberespace : vers un web synthétique. » Et sans divulgâcher la suite de cet article, il est évident qu’il ne peut pas en sortir grand chose de bon.
D’autant que ces contenus générés par IA et autres artefacts génératifs, sont devenus un nouvel horizon du capitalisme sémiotique et que la totalité de nos ectoplasmiques plateformes sociales annoncent vouloir s’y engouffrer, et s’y engouffrer massivement. Le groupe de Mark le Mascu annonce ainsi le lancement de Vibes, qui va se présenter comme un fil (feed) présentant uniquement des vidéos créées par IA (et par d’autres que nous parce qu’une fois qu’on aura fait joujou 5 minutes avec on se contentera de faire défiler). Le phénomène de « Slop AI » devient non plus un « encombrement » ou une « bouillie » numérique mais une ligne éditoriale revendiquée. De son côté, Singularity Sam (Altman) annonce le lancement de devinez quoi ? Bah oui, un réseau social sur le modèle de TikTok et entièrement dédié aux contenus vidéos générés par IA (des contenus directement issus de Sora, la plateforme de génération de vidéos par IA d’Open AI, ou comme on dit dans le milieu des égoutiers et autres fabriquants de pompes à merde, « Garbage In, Garbage Out« ). Toutes proportions gardées, c’est un peu comme si au début des années 2000 avec l’explosion du Spam (contenus, souvent publicitaires, non sollicités et invasifs) on avait dit « Oh vazy c’est cool, on va mettre en avant le Spam, on va faire des médias avec juste du Spam dedans« . La seule différence c’est qu’aujourd’hui le Spam du Slop (vous suivez ?) est essentiellement constitué d’animaux mignons et autres contenus suffisamment débiles pour être consommés rapidement et à coût cognitif nul, et suffisamment « engageants » pour nous faire croire qu’on ne perd pas totalement nos vies à regarder des trucs débiles. Et ce n’est pas près de s’arrêter, car pour l’instant en tout cas, la production de ces contenus « Slop » est une manne financière conséquente, car ces VAAC (Vidéos Artificielles A la Con, bah quoi moi aussi j’acronymise si je veux), car ces VAAC ** disais-je sont certes tout aussi répétitives et ennuyeuses que d’autres avant elles, mais elles agrègent un grand nombre de vues, et donc de monétisation, et beaucoup de Youtubeurs et Youtubeuses s’en frottent déjà les mains.
** Sur Mastodon, le camarade Tristan Nitot propose le concept de VACCUM : « Vidéos Artificielles à la Con Universellement et Uniformément Merdiques. »
Pour l’instant uniquement disponibles aux US, ces applications ont pu être testées, notamment par Michaël Szadkowski de l’équipe Pixels du Monde :
Le 7 octobre, entouré de collègues curieux, nous découvrons, entre amusement et effarement, la réalité concrète de ces deux applications. Un chat faisant du skateboard. Un lion jouant du djembé. Jésus câlinant un enfant. Une grand-mère en roue arrière sur une Harley.
Défile sous nos yeux une forme de reconnaissance du « brainrot » (abrutissement numérique) et autre « slop » (contenus IA de faible qualité et produits à la chaîne) qui prospéraient jusqu’ici à la marge des réseaux. Ici, ces formats sont pleinement assumés, une nouvelle forme de divertissement, d’expérience collective – et de source de revenus, de l’aveu même de Sam Altman, le PDG d’OpenAI.
Par-delà la facilité de générer ces vidéos sur la base d’un simple prompt, par-delà les fonctionnalités de mise en scène de soi dans lesdites vidéos au moyen d’une fonction « caméo » vous permettant de vous ajouter (votre avatar en tout cas) au coeur de n’importe quelle scène, et par-delà l’immensité subséquente des problèmes que cela peut poser selon les usages – et les âges – de celles et ceux qui utiliseront ces fonctions, c’est le sentiment qu’après plus d’un quart de siècle d’internet « grand public » nous n’avons rien compris, ou qu’en tout cas les propriétaires de ces plateformes n’ont rien appris, car comme le relate encore Michaël Szadkowski :
Rapidement, sans même parler de la culpabilité liée au bilan carbone de nos expériences, les problèmes s’accumulent. Générer une version obèse, plus maigre ou plus musclée de mon caméo a été un jeu d’enfant. De même que de me faire tenir des propos ou des gestes condamnés par la loi, de faire de la pub de services douteux ou de danser avec une célébrité sulfureuse. On devine aussi les immenses problèmes à venir en termes de détournements. Surtout que la plupart des vidéos générées dans les brouillons d’un utilisateur peuvent être téléchargées, sauf quand elles contiennent un caméo de quelqu’un d’autre.
Si besoin, croisez aussi cela avec les récentes annonces d’Open AI de permettre à ChatGPT d’avoir des conversations « érotiques », et avec les révélations sur le fait que le groupe Méta entraîne ses modèles d’IA à des conversations érotiques avec des mineurs** et vous aurez une idée à peu près exacte de l’irresponsabilité autant que du cynisme le plus crasse des dirigeants de ces plateformes.
** à ce propos je vous invite à lire l’enquête de Reuters qui a rendu publics des documents internes dans lesquels les limites de « l’acceptable » sont définies face à des prompts dans lesquels une petite fille de 8 ans se dénude (enlève son t-shirt) devant l’écran et demande à l’assistant IA son ‘avis’, ou cet autre exemple dans lequel le prompt consiste à demander d’argumenter sur le fait que les noirs seraient plus cons que les blancs (sic). Dans tous les cas, les réponses jugées et définies comme « acceptables » par le groupe Méta permettent de mesurer toute l’étendue de l’absolue bêtise et de la dangerosité critique de celles et ceux définissant lesdits cadres d’acceptabilité, et qui ne sont rien moins que « les équipes juridiques, de politique publique et d’ingénierie de Meta, y compris son responsable de l’éthique. » Puissent l’ensemble de ces connards décérébrés être rapidement mis à grande distance de toute forme de responsabilité juridique ou éthique dans quelque secteur que ce soit.

D’autant que ce même groupe Méta annonce sans broncher et un mois à peine après les révélations de Reuters, qu’il va « lancer des comptes spéciaux pour les ados sur Facebook et Messenger« , des outils « pensés pour protéger les jeunes en ligne. » Autant confier la justice des mineurs à Jean-Marc Morandini.
Vous aurez donc compris qu’il va être très compliqué d’analyser tout ça autrement que sous l’angle d’un gigantesque tsunami de merde. Mais pour m’efforcer d’être moins grossier et plus constructif, j’ai en tête le modèle mathématique de la communication proposé par Claude Shannon (en 1949), un modèle dans lequel il s’agissait (en gros) de comprendre comment optimiser la transmission d’un message en limitant le « bruit », c’est à dire tout signal parasite entre l’encodage et le décodage de l’information transmise. Avec ce célèbre schéma que tous et toutes les étudiant.e.s passées par le champ de l’information et de la communication ont eu sous les yeux :

Et ce souvenir en tête, la situation dans laquelle nous placent aujourd’hui l’ensemble des médias sociaux nous inondant de contenus générés par IA bien plus que par nous-mêmes, notamment par l’usage de « prompts » qui sont moins des « commandes » faites à des systèmes que des assignations et des injonctions faites à nous-même de s’inscrire dans ces dynamiques de générations, cette situation c’est que dans ce schéma global de la communication, j’ai le sentiment que nous ne sommes plus que le bruit. Nous sommes cet élément que Shannon et son camarade Weaver essayaient de réduire et de limiter. Nous sommes le bruit de ces plateformes qui n’aspirent finalement qu’à communiquer sans nous autrement que comme spectateurs assignés à justifier leur existence (celle des plateformes hein, pas celle des spectateurs, suivez un peu quoi). Chacun de nos prompts ajoute au bruit de cette grande lessiveuse qui choisira de ne visibiliser que la part qu’elle estimera immédiatement rentable de nos im-prompt-us murmures, de nos souffles, de nos cris, de nos ahurissements et de nos consentements à l’étrangeté de ces mondes générés pour rien. J’écrivais récemment dans une analyse parue sur AOC à propos de ce que j’appelais une « technorhée » que « les effets de réel produits par les artefacts génératifs sont des imaginaires en moins » : s’il s’agit d’imaginaires en moins c’est aussi parce ce que l’ensemble de ces générations artificielles sont du réel en trop, du réel pour rien. Et le reste, tout le reste, retournera au silence des plateformes.
Nous ne sommes plus que le bruit. Mais si nous sommes le bruit, alors qui sera la fureur ?
Chapitre 2nd.
Des moteurs de recherche aux super-assistants dopés à l’IA ?
Il y a une dizaine de jours (21 Octobre 2025) OpenAI a annoncé la sortie de son nouveau « super-assistant » baptisé « Atlas », qui est un navigateur intégrant toutes les fonctionnalités de ChatGPT présentées à la manière d’un moteur de recherche.
« ChatGPT Atlas est un navigateur conçu avec ChatGPT qui vous rapproche d’un véritable super assistant, capable de comprendre votre univers et de vous aider à atteindre vos objectifs »
Alors évidemment il s’agit d’une nouvelle offre de service « logique » dans la guerre de position qui doit permettre à OpenAI de venir butiner sur les terres de ses concurrents directs, Google en tête. Et à ce titre et à l’échelle du web, « sortir » ChatGPT de sa « page » et propulser un navigateur dans lequel il fera office de moteur est tout à fait cohérent. Ce n’est pas pour autant que la bascule des usages se fera car à l’échelle des navigateurs justement, les habitudes ont la vie dure. Du côté des moteurs de recherche aussi d’ailleurs : Google peine à imposer les usages de Gemini (son IA maison) dans le cadre d’usage du moteur de recherche, pas sûr que OpenAI arrive à imposer l’usage d’un assistant IA comme un nouveau moteur de recherche. Nous y reviendrons. Mais bon il eût été dans tous les cas incompréhensible qu’OpenAI ne tente pas le coup. De fait l’expérience (j’ai testé) d’Atlas est rapidement assez déceptive en ce sens qu’elle oblige à passer par l’installation d’un navigateur et qu’en termes de fonctionnalités on n’a pas grand chose de plus que ce qui était déjà proposé sur la page dédiée à ChatGPT sur le site d’OpenAI (mais cela permet au passage à OpenAI de s’installer sur votre machine et de vous demander de récupérer l’ensemble de vos contacts, signets, mots de passe, réglages divers, etc.)
La seule valeur ajoutée réelle est celle de la fonction « agent » décrite comme suit par Alexandre Piquard sur Le Monde :
Le navigateur intègre aussi la fonction « agent » de ChatGPT, par laquelle l’utilisateur peut demander à l’assistant d’accomplir pour lui des actions, notamment en surfant le Web : réserver des billets de théâtre, un restaurant ou un livre, faire des courses de supermarché en ligne, remplir un formulaire, trouver un e-mail de contact puis envoyer un message… L’IA est en principe capable de consulter des pages par lui-même et même, avec autorisation de l’utilisateur, de se connecter à des services protégés par mot de passe, par exemple pour faire des achats en ligne. La fonctionnalité « agent » est toutefois réservée aux abonnés payants de ChatGPT.
Ce qui m’intéresse donc dans l’annonce du lancement d’Atlas (Titan mythologique assez fort pour supporter le poids de la voûte céleste et assez débile pour céder à la ruse de CE1 d’Héraclès à qui il avait réussi à la refiler), c’est précisément le narratif qui l’accompagne en tant que « super assistant ». En résumé ce narratif me semble être le nouveau signe d’une bascule anthropo-technique proche de son aboutissement. Car face à des nouveaux « assistants » ou « super assistants » nous sommes essentiellement désignés comme les assistés, les super assistés. Et face aux nouveaux « agents » conversationnels qui prennent en charge (notamment) nos recherches et qui, comme je l’expliquerai plus bas, « font à notre place », nous sommes désignés comme de nouveaux « mandants », presque de nouveaux « mand-IA-nts » (mais qui n’ont hélas rien de clochards célestes). Comment en sommes-nous arrivés là ?
Il fut un temps où la désignation des circulations possibles à l’échelle de l’internet et du web étaient de claires métaphores. Nous avions des « navigateurs« , lesquels utilisaient des « moteurs » ; et parfois sans moteur mais toujours en navigateur on se contentait de « surfer« . Pour se repérer on connaissait des adresses (URL) qui étaient autant de phares, de rives déjà apprivoisées ou de rivages à découvrir.
Et puis. Puis les moteurs de « recherche » sont devenus des moteurs de « réponses ». Puis les adresses (URL) se sont effacées, rétrogradées au second plan, amputées au-delà de leur racine, considérant que plus personne n’avait à se soucier de les retenir et nous privant du même coup d’une autre possibilité de s’orienter en dehors des déterminismes techniques servant de béquilles à nos mémoires. Et donc aujourd’hui, plus de moteurs ou de navigateurs, ou plus exactement qu’importent les moteurs et les navigateurs, nous serons « super assistés » par de « super assistants », et deviendrons donc « mandants » de ces nouveaux « agents ».
Chapitre 3ème.
Des technologies de la déprise qui ouvrent de nouveaux horizons d’emprise.
Depuis les NTIC (nouvelles technologies de l’information et de la communication) et les métaphoriquement célèbres « autoroutes de l’information », depuis aussi cette idée idiote que « l’internet » serait un « Far-West » (Sarkozy, 2007) et autres récurrences tout aussi crétines de l’idée qu’il faudrait « reciviliser internet » (Mounir Mahjoubi en 2018) en passant par l’inénarrable Frédéric Lefebvre en 2009 et sa diatribe Kamoulox entre Hadopi, jeunes filles violées et identité nationale (sic) et jusqu’à tout récemment Clara Chappaz (2025) qui ressort le coup du Far-West à l’occasion de la mort de Raphaël Graven, chacun voit bien que la question de ces technologies est avant tout de nature politique. Et que ce qu’elles viennent bousculer dans nos schémas de communication et d’information est tout ce qui tient à notre capacité de faire société c’est à dire à nourrir des formes de sociabilités informationnelles, affectives et cognitives qui dessinent une réalité partagée.
La question des infrastructures technologiques n’est évidemment pas neutre dans l’équation, elle est même déterminante (à ce sujet lisez ou relisez Cyberstructure de Stéphane Bortzmeyer). Mais nous héritons d’un monde où la question politique de ces technologies et de leurs infrastructures n’a été posée en termes à peu près correct qu’à partir du moment où précisément elles avaient déjà commencé à ronger les structures même du débat public et politique tout autant que ses conditions pratiques d’exercice. L’histoire est malheureusement connue, à force de se concentrer sur la ruée vers l’or personne n’a noté que les seuls à faire réellement fortune étaient les fabricants de pelles. Et bien voici venu le temps des coups de pelle dans la tronche.
Pour sortir de cette qualification dépolitisante de « NTIC » beaucoup ont proposé d’autres dénominations. Pour ma part j’ai suggéré de questionner les NTAD, nouvelles technologies de l’attention et de la distraction. J’ai aussi et surtout interrogé la question de la déprise, c’est à dire la capacité de ces technologies à nous placer en situation de dépendance choisie, de nous installer dans des routines à coût cognitif nul, et finalement de presque tout faire à notre place, et inexorablement, de ne plus répondre à nos commandes que dans un « à peu près » qui nous satisfasse au regard de l’habitude prise à ne plus nous soucier de la précision du monde et de ce qui le constitue. Je vous invite à relire mon article de 2018 dans lequel j’explique tout cela avec de nombreux exemples et où je proposais l’insatisfaisant concept de « technologies de l’à peu près et de l’à ta place » que je requalifie donc aujourd’hui comme des technologies de la déprise (voilà pour le côté « à peu près ») et de l’emprise (voilà pour le côté « à ta place »). A partir de deux exemples « d’innovation » j’y montrais notamment ceci :
« Ce qui m’intéresse dans cette affaire c’est la chose suivante : nous avons donc un algorithme qui s’occupe de recadrer automatiquement les photos que nous prenons, au risque de nous faire prendre des photos que nous ne voulions pas prendre, ou en tout cas de donner à voir une « composition photographique » qui n’est pas celle que nous voulions montrer. Et ce « choix algorithmique » de recadrage, dont on nous dit qu’il est là pour permettre d’optimiser – paradoxalement – la visibilité, se trouve lui-même soumis au choix algorithmique conditionnant la visibilité du Tweet lui-même, indépendamment des photos recadrées qu’il contient. Soit un empilement de strates et de régimes algorithmiques d’obfuscation et de dévoilement, sur lesquels nous n’avons quasiment plus aucune prise (de vue).
Là encore, comme pour Clips de Google mais à un niveau légèrement différent, l’usage de la technologie nous installe dans une position que l’on pourrait qualifier « d’assistance contrainte » : nous n’avons pas demandé à ce que nos photos soient recadrées, mais nous n’avons pas d’autre choix en les soumettant que de les voir recadrées. La technologie et l’algorithme de machine-learning le font à notre place. TIYS (Technology In Your Stead) & AIYS (Algorithms In Your Stead). La négociation dans l’usage se jouant autour de la promesse de gain de visibilité pour l’utilisateur (et donc d’interaction ou d’engagement pour la plateforme).
Aujourd’hui l’ensemble des contenus produits par IA sont l’incarnation finale de ces technologies qui font à la fois « à peu près » et « à notre place ». Donnez-leur un prompt et vous aurez une projection qui sera « à peu près » ce que vous imaginiez, et qui surtout sera produite « à votre place » au double sens du terme, c’est à dire depuis votre place qui est une place à distance de l’acte de création, mais également qui vous départit de l’essentiel même de ce qu’imaginer ou créer veut dire.
Chapitre 4ème
À moins de revoir la doctrine entre le statut d’éditeur et celui d’hébergeur
J’ai le sentiment qu’il est beaucoup trop tard et que la seule manière de remettre un peu d’eau claire dans ce flot de merde, c’est de revenir sur une constante qui fut pourtant fondamentale et constitutive de l’histoire du web et des plateformes. Il faut que les plateformes soient immédiatement considérées comme totalement et pleinement éditrices des contenus qu’elles font circuler. De tous les contenus ? Oui. Voici pourquoi et voici aussi comment cela pourrait permettre de résoudre le problème qu’Emmanuel Macron résume parfaitement (bah oui faut le dire parfois il résume bien les trucs) mais en omettant de parler de l’autre éléphant dans la pièce, c’est à dire les « autres » médias classiques, traditionnels et pas spécialement sociaux mais qui sont au moins autant coupables de l’effondrement démocratique qui se dessine.
Parce que t’as raison Manu, on tape Islam sur TikTok et on tombe en trois clics sur des contenus salafistes. Mais je te rappelle qu’on dit « Bonjour » sur CNews et on tombe encore plus rapidement sur des contenus racistes éditorialisés par des gens condamnés pour corruption de mineurs et harcèlement sexuel, donc bon voilà quoi.

Oh oui reprends-moi le contrôle et enfourchons le tigre.
[Si vous êtes familiers de la distinction entre éditeur et hébergeur et de tout ce qui tient à la « section 230 », vous pouvez directement sauter ce passage et on se retrouve après les crochets, sinon je vous invite à lire l’article d’Anne Deysine dans l’excellentissime Revue Européenne des médias et du numérique, et vous en partage l’extrait qui suit :
« La section 230 a été ajoutée à la loi Communications Decency Act (CDA) de 1996 (qui visait à réguler la pornographie) grâce au lobbying de ceux que les chercheuses Mary Ann Franks et Danielle Keats Citron appellent les « fondamentalistes de l’internet » : ceux qui défendent une vision du web comme espace paradisiaque de liberté totale. La section 230 (surnommée « les 26 mots qui ont créé l’internet ») fut, à l’origine, conçue pour encourager les compagnies de la Tech à nettoyer les contenus offensifs en ligne. Il s’agissait de contrer une décision rendue en 1995 dans l’État de New York, ayant conclu à la responsabilité de Prodigy qui avait modéré des contenus postés sur son site. La section 230 (c) (1) stipule qu’« aucun fournisseur d’accès ne sera traité comme un éditeur ». Un deuxième paragraphe, 230 (c) (2), précise qu’« aucun fournisseur ou utilisateur d’un service informatique interactif ne sera tenu responsable, s’il a de bonne foi restreint l’accès ou la disponibilité de matériaux qu’il considère être obscènes, excessivement violents, de nature harcelante ou autrement problématiques (otherwise objectionable), que cette information soit constitutionnellement protégée ou non.
C’est ce qu’on appelle la disposition du « bon Samaritain », conçue comme plus limitée que le paragraphe (c) (1), car nécessitant de prouver la bonne foi.
Mais les juridictions étatiques et fédérales ont étendu la protection juridique bien au-delà de ce que prévoit le texte de la loi, avec pour résultat que les plateformes ne soient guère incitées à combattre les abus en ligne. La section 230 a, de fait, libéré les sites internet, les sites de streaming et les réseaux sociaux (pas encore nés en 1996), qui peuvent héberger du contenu extérieur sans être confrontés à la tâche (impossible ?) de vérifier et de contrôler tout ce qui est posté par les utilisateurs. Telle qu’interprétée par les juridictions fédérales, la section 230 confère aux plateformes et réseaux sociaux une immunité totale, quels que soient le contexte et le cas de figure (modération ou non). Avec pour conséquences, entre autres, la multiplication des mensonges et la prolifération de la désinformation et des discours de haine. Ils ont donc le pouvoir sans la responsabilité, selon les mots de Rebecca Tushnet. » in Deysine, Anne. « La section 230 : quelle immunité pour les réseaux sociaux ? » La revue européenne des médias et du numérique, 13 février 2024.
Pour rappel également, Trump s’est tour à tour « amusé », dans ce mandat comme dans son précédent, à brandir la menace de la suppression de la section 230 (quand ça l’arrangeait pour mettre la pression aux grands patrons de la tech qui tardaient à lui donner des gages de servilité) puis à en rappeler l’importance (dès lors que les gages de servilité avaient été obtenus et qu’il s’agissait alors pour lui de rétablir les plateformes dans une immunité totale au service de ses intérêts politiques.]
Reprenons.
Dans le contexte de l’explosion totalement dérégulée des contenus générés par IA, continuer aujourd’hui à prétendre encore distinguer entre un statut d’éditeur et un autre d’hébergeur en privilégiant ce dernier, c’est prétendre vouloir nettoyer les écuries d’Augias avec un coton-tige et un mi-temps thérapeutique. Il ne s’agit plus de dire que c’est trop tard (c’est en effet trop tard) ; il s’agit de dire que ce n’est simplement plus le sujet.
On ne peut plus considérer aujourd’hui que les très grandes plateformes actuelles de médias sociaux sont légitimes à continuer de s’abriter derrière un statut d’hébergeur. Elles ne le sont plus. Du tout. Leurs algorithmes tordent la réalité sous l’impulsion et les intentions claires et transparentes de l’idéologie de leurs propriétaires. Et elles ont toutes jusqu’ici absolument tout mis en place pour, à chaque fois que possible, se soustraire à leurs obligations légales ou à leurs engagements moraux.
Nous sommes au coeur d’un nouvel épisode du paradoxe de la tolérance de Popper : nous avons été beaucoup trop tolérants avec des grandes plateformes qui trop longtemps furent et continuent d’être la caution de toutes les intolérances. Tout a été dit et documenté sur le fait que toutes les plateformes ont non seulement parfaitement conscience des dérives et des dangers qu’elles représentent (notamment mais pas uniquement pour les publics les plus jeunes), sur les moyens dont elles disposent toutes pour immédiatement atténuer ces dangers et ces dérives, et sur les coupables atermoiements, reniements, dissimulations et mensonges qui les conduisent à ne rien mettre en place de significatif à l’échelle de l’immensité et de l’urgence des problèmes qu’elles posent. Je l’ai (et tant d’autres avec moi) tant de fois dit, écrit, montré et démontré et le redis encore une fois :
Après les mensonges de l’industrie du tabac sur sa responsabilité dans la conduite vers la mort de centaines de millions de personnes, après les mensonges de l’industrie du pétrole sur sa responsabilité dans le dérèglement climatique, nous faisons face aujourd’hui au troisième grand mensonge de notre modernité. Et ce mensonge est celui des industries extractivistes de l’information, sous toutes leurs formes. (…) Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux (…) les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.
Autre fait incontestable de ce premier quart du 21ème siècle, aujourd’hui et lorsqu’ils ne disposent pas déjà d’un internet totalement fermé ou sous contrôle (comme en Chine ou en Russie par exemple), l’essentiel des pouvoirs politiques de la planète n’ont plus pour projet, ambition ou vocation de contrôler et de limiter le pouvoir de nuisance de ces plateformes mais tout au contraire de le maximiser et de le mettre à leur propre service ou, le cas échéant, à celui d’un agenda du chaos sur lequel ils espèrent pouvoir encore prospérer. Comme le rappelle très bien Fred Turner dans « Politique des machines » :
« L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre. »
Il revient donc aux quelques états encore pleinement démocratiques (ou pas encore totalement illibéraux), en Europe notamment, de mettre immédiatement fin à la tolérance qui est faite à ces très grandes plateformes, de rompre avec leur statut d’hébergeur et de les rendre éditrices en droit. À celles et ceux qui m’objecteront que c’est impossible, je répondrai qu’il s’agit de l’une de nos dernières chances pour préserver l’espoir de vivre encore dans une forme de réalité partagée et consensuelle, et qui ne soit pas en permanence minée et traversée d’opérations massives de déstabilisation ou d’influence de plus en plus simples à initier et de plus en plus complexes à contrer (si vous êtes curieux de cela, regardez par exemple ce qui se passe actuellement autour de l’IA, des LLM et de la stratégie des « data voids » – données manquantes – et autres LLM Grooming). Et que si ce mur là continue de se fissurer et tombe, alors …
À celles et ceux qui disent que c’est impossible je répondrai aussi que refuser de le faire c’est continuer de nier la place et le rôle politique de ces plateformes et privilégier un argument de neutralité de la technique dont nous avons chaque jour démonstration de l’ineptie totale qu’il recouvre. C’est bien parce que ces plateformes sont avant tout politiques, c’est bien parce que ces plateformes sont dirigées par des hommes (et quelques rares femmes) aux agendas idéologiques clairs (et le plus souvent dangereux), c’est bien parce qu’ouvrir le code des algorithmes ne suffit plus, c’est bien parce qu’il s’agit de protéger des populations entières d’usages incitatifs qui tendent majoritairement à corrompre, à pourrir, à remettre en doute toute forme de réalité objectivable et partagée, c’est bien pour l’ensemble de ces raisons qu’il est aujourd’hui impérieux de sortir d’une logique où le statut d’hébergeur est systématiquement brandi comme la carte joker de l’effacement de toute responsabilité ou de toute contrainte.
Le maintient d’un statut d’hébergeur primant sur celui d’éditeur n’avait de sens que dès lors qu’il n’y avait pas plus qu’un doute raisonnable sur l’indépendance politique et idéologique des plateformes et de ceux qui les dirigent. Ce doute étant aujourd’hui totalement levé et démonstration étant faite quasi-quotidiennement de l’ingérence de ces plateformes dans chacune des strates et orientation du débat public comme des décisions politiques, il faut imposer un statut d’éditeur à toutes ces grandes plateformes et que ce statut prime sur des fonctions d’hébergeur qui peuvent, marginalement ou périphériquement leur être conservées. Bref il faut de toute urgence inverser la logique. Il faut que ces plateformes répondent en droit de leur responsabilité d’abord éditoriale ou il faut qu’elles s’effondrent. Tout autre scénario revient aujourd’hui à accepter l’effondrement à moyen terme de nos démocraties. Il nous faut un effet cliquet ; il nous faut « cranter » une décision suffisamment forte pour qu’elle change totalement les dynamiques en cours.
Depuis l’émergence des grands réseaux puis médias sociaux « grand public », disons depuis 15 ou 20 ans, nous avons, et le législateur, raisonné en alignement avec l’argumentaire des plateformes consistant à expliquer que « plus elles étaient grosses » (en nombre d’utilisateurs), « plus les contenus y étaient abondants« , et « plus il était impossible d’y appliquer une modération ou une transparence éditoriale. » Or nous avons commis une triple erreur.
D’abord sur le statut d’hébergeur versus celui d’éditeur : cet argumentaire était directement repris de celui des fournisseurs d’accès, qui eux, étaient à l’époque comme maintenant, parfaitement légitimes à être protégés par le statut d’hébergeur en tant qu’intermédiaires techniques. Mais aucune des grandes plateformes dont nous parlons aujourd’hui n’a bâti son succès et son audience en tant qu’intermédiaire technique. Voilà notre première erreur.
La seconde erreur est de considérer que plus les gens sont nombreux à interagir, plus il y a de contenus en circulation, et moins il devrait y avoir de règles (ou seulement des règles « automatisées ») car toutes ces interactions seraient impossibles à contrôler. Je vous demande maintenant de relire la phrase précédente et d’imaginer que nous ne parlons plus de grandes plateformes numériques mais de pays et de populations civiles. Imagine-t-on réellement pouvoir tenir un argumentaire qui expliquerait que plus la population d’un pays est nombreuse, plus elle interagit et produit des discours et des richesses, et moins il doit y avoir de règles et de lois car tout cela serait trop complexes à gérer ? Voilà notre deuxième erreur. Et même si par nature, les espaces de ces très grandes plateformes ne sont ni entièrement des espaces publics, ni jamais pleinement des espaces privés, ils demeurent des espaces politiques traversés en chacun de leurs points et de leurs vecteurs par la question du « rendu public » et des règles afférentes qui le permettent et l’autorisent.
La troisième erreur est d’avoir laissé ces grandes plateformes agglomérer, agglutiner, une série de services et de « métiers » qui n’ont rien à voir entre eux et obéissent à des logiques de régulation différentes pouvant aller jusqu’à l’antagonisme. Ainsi, un service de « réseau social » qui s’appuie uniquement sur de la mise en relation, un service de messagerie électronique, un service de production de contenus vidéos, un service de moteur de recherche, et quelques autres encore, ne peuvent évidemment pas être soumis aux mêmes règles ou statuts d’hébergeur ou d’éditeur. Il n’est ainsi pas question pour un service de courrier électronique de faire peser la même responsabilité éditoriale que, par exemple, pour un service de production de vidéos. Lorsque Mark Zuckerberg déclarait ainsi en 2020, « Treat us like something between a telco and a newspaper » (« traitez-nous comme quelque chose entre un opérateur télécom et un journal »), c’est une manière d’échapper à sa responsabilité de « journal » (en s’abritant derrière les régulations des opérateurs télécoms qui ne couvrent pas l’aspect éditorial) et d’échapper aussi à sa responsabilité d’opérateur télécom (en s’abritant derrière les régulations propres aux médias). Voilà notre troisième erreur : avoir accepté de traiter l’ensemble de ces grandes plateformes comme si elles n’étaient qu’un tout et n’avaient qu’un seul « métier », alors pourtant que depuis des années, la nécessité de leur démantèlement (ou de leur nationalisation partielle) était la seule hypothèse rationnelle.
En parallèle voilà plus de deux décennies que nous demandions et tentons d’installer dans le débat public la nécessité d’ouvrir le code ces algorithmes. Moi y compris et – pardon pour l’immodestie – moi parmi les tous premiers avec mon camarde Gabriel Gallezot dès 2003, Aujourd’hui non seulement ouvrir le code des algorithmes ne suffit plus puisqu’irrévocablement, irrémédiablement, « il n’y a pas d’algorithme, juste la décision de quelqu’un d’autre » (Antonio Casilli, 2017), et de quelqu’un d’autre qui, soit se cogne de toute considération politique, soit au contraire ne raisonne qu’en termes politiques et idéologiques.
Cela ne veut pas dire pour autant que toute plateforme hébergeant des contenus en ligne doit se voir assignée uniquement et exclusivement un rôle et statut d’éditeur. Cela veut par contre dire que toutes les très grandes plateformes sociales actuelles, disons pour reprendre la catégorisation du DSA (Digital Service Act) toutes celles ayant plus de 45 millions d’utilisateurs actifs (soit 10% de la population européenne), toutes ces très grandes plateformes doivent d’abord être considérées comme éditrices. Dans la jurisprudence, l’un des critères les plus déterminants qui permet de distinguer entre hébergeur et éditeur et celui dit du « rôle actif », défini comme « la connaissance et le contrôle sur les données qui vont être stockées. » Or qui peut aujourd’hui sérieusement prétendre que Facebook, Instagram, X, TikTok et les autres n’ont pas un rôle actif dans la circulation des contenus hébergés, et que ces plateformes n’auraient ni connaissance ni contrôle sur les données et contenus stockés ? Le gigantisme fut longtemps l’argument mis en avant par les plateformes pour, précisément échapper à leur responsabilité éditoriale. Cet argument n’a aujourd’hui (presque) plus rien de valide techniquement ou de valable en droit.
Entendez-vous le son qui monte ? « Cela reviendrait à condamner le modèle même de ces plateformes, à les empêcher d’exister« . Oui. Oui encore et encore oui. Puisqu’elles n’entendent rien et se soustraient à toutes leurs obligations légales ou morales, oui il faut les renvoyer à leur responsabilité première, qui est une responsabilité éditoriale. Et le risque qu’elles ferment ? Oui il faut prendre ce risque. Qu’elles revoient entièrement leur mode de fonctionnement ? Oui il faut prendre ce risque. Que les interactions y baissent drastiquement ? Oui il faut prendre ce risque. Qu’elles soient contraintes de massivement recruter des modérateurs et des modératrices bien au-delà de ce qu’exige l’actuel DSA (dont elles n’ont à peu près rien à secouer) ? Oui il faut prendre ce risque. Qu’elles soient contraintes d’appliquer toutes les décisions de justice qui restent jusqu’ici lettre morte ? Oui il faut prendre ce risque. Que leur modèle économique soit totalement remis en cause ? Oui il faut prendre ce risque. Qu’une mathématique algorithmique explicite s’applique de plein droit sans être en permanence triturée pour faire remonter le pire, le plus clivant, le plus choquant, le plus porteur émotionnellement et le plus au service des idéaux du patron ? Oui il faut prendre ce risque. Que nous soyons contraint.e.s de les quitter ? Oui il faut prendre ce risque.
Et par-delà ces « risques » il s’agit surtout d’opportunités. Je rappelle en effet que d’autres formes de collectif, d’agrégation, d’intelligences collectives ont toujours été possibles, le sont et le seront encore à l’échelle d’internet, à l’échelle du web, à l’échelle des plateformes. Car si l’on parvient, pour les plus grosses d’entre elles, à mettre fin à ce statut d’hébergeur aujourd’hui presque totalement dérogatoire au droit, alors il reviendra à chacun.e d’entre nous, aux pouvoirs politiques et aux collectifs citoyens, aux chercheurs, aux chercheuses, aux journalistes et à l’ensemble des corps intermédiaires aujourd’hui tous menacés ou contraints par ces plateformes, de retrouver ce qui fut un temps le rêve achevé du web : des gens s’exprimant en leur nom (ou pseudonyme qu’importe), depuis principalement leur adresse, créant entre elles et eux des liens plutôt que des like. Un Homme, une page, une adresse.
Éditorialiser.
Ce que nous ferons de l’actuelle l’irresponsabilité éditoriale des très grandes plateformes n’est ni temporairement un choix technique, ni réellement un choix juridique, ni même pleinement un choix politique ; c’est une somme de tout cela mais c’est bien plus encore que cela. C’est un choix ontologique, qui seul peut nous permettre de définir et d’assigner ces écosystèmes informationnels à ce qu’ils sont vraiment et non à ce qu’ils prétendent être. Fred Turner encore, dans une interview sur NeXt à l’occasion de la sortie de « Politique des machines » (chez le meilleur éditeur de la galaxie connue) nous le rappelle (je souligne) :
« Nous vivons dans une ère saturée de médias et d’histoires. Rien ne donne plus de pouvoir que la capacité à contrôler le récit. En la matière, Donald Trump, c’est un drame dans lequel chaque Américain a une chance de jouer un rôle. C’est ce drame qui structure la réalité.
Si la France est là où les États-Unis étaient en 2022, disons, alors elle a une opportunité que nous n’avons pas su saisir. Vous pouvez construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques. Vous pouvez commencer à parler du monde que vous voulez construire. De cette manière, si l’autoritarisme arrive à votre porte, vous aurez déjà une autre histoire à proposer. »
Il (me) semble que cette histoire ne pourra jamais être contée si nous ne contribuons pas, en parallèle et peux-être en préalable, à démolir et à éparpiller façon puzzle l’actuel paysage éditorial dominant.
Marcello Vitali Rosati donnait la définition suivante de l’éditorialisation, une définition que je vous ai souvent donnée ici, que j’ai souvent reprise à mon compte :
« L’éditorialisation n’est pas seulement un ensemble de techniques, même si l’aspect technique est le plus visible et le plus facilement définissable. On pourrait donner la définition suivante. L’éditorialisation est l’ensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens l’éditorialisation est une production de visions du monde, ou mieux, un acte de production du réel. »
« Avoir une autre histoire à proposer« , « produire des visions du monde« , produire du réel. Que font et que sont ces méga-plateformes aujourd’hui sinon un acte premier et fondateur de production du réel. Mais souvenez-vous en et retenez-le bien, c’est un réel « à peu près » ; c’est un acte de production « à notre place« . Il est temps que tout cela cesse. Alors cessons d’être le bruit, et surtout, empêchons-les de plonger notre monde dans la fureur.
-
InfoBref ACTUALITES | L’essentiel de l’actualité politique et générale
-
Les Québécois craignent d’être trompés par du contenu généré par l’IA
Selon un sondage de la firme d’études The Harris Poll pour la Fondation pour le journalisme canadien, 8 Québécois sur 10 se disent préoccupés par la possibilité que des contenus (nouvelle, image ou vidéo) générés par l’intelligence artificielle puissent servir à les tromper. Les Québécois sont les Canadiens qui se disent les plus exposés à des contenus d’information trompeurs. 54% des Québécois disent que, en voyant des contenus d’actualité, ils ont été confrontés à des hypertrucages
Les Québécois craignent d’être trompés par du contenu généré par l’IA
Selon un sondage de la firme d’études The Harris Poll pour la Fondation pour le journalisme canadien, 8 Québécois sur 10 se disent préoccupés par la possibilité que des contenus (nouvelle, image ou vidéo) générés par l’intelligence artificielle puissent servir à les tromper.
Les Québécois sont les Canadiens qui se disent les plus exposés à des contenus d’information trompeurs.
- 54% des Québécois disent que, en voyant des contenus d’actualité, ils ont été confrontés à des hypertrucages (deepfakes) ou à des images modifiées.
[L'article Les Québécois craignent d’être trompés par du contenu généré par l’IA a d'abord été publié dans InfoBref.]
-
#MonCarnet
-
À quelle fréquence modifiez-vous les réglages de votre compte ChatGPT ?
Il suffit de quelques ajustements dans les paramètres de ChatGPT pour transformer son utilisation. L’auteure et analyste Alexandra Samuel recommande six réglages simples pour personnaliser le robot conversationnel, le rendre plus utile et mieux maîtriser la confidentialité de vos données. D’abord, renseignez les informations de personnalisation : votre nom, votre profession, vos priorités et vos […]
À quelle fréquence modifiez-vous les réglages de votre compte ChatGPT ?
-
#MonCarnet
-
Google crée sa première publicité entièrement générée par intelligence artificielle
Google vient de dévoiler sa toute première publicité conçue entièrement à l’aide de ses propres outils d’intelligence artificielle, notamment son générateur vidéo Veo 3. La star inattendue de ce court-métrage publicitaire : une dinde en peluche, bien décidée à fuir la ferme pour échapper à l’inévitable repas de Thanksgiving, grâce au mode IA du moteur […]
Google crée sa première publicité entièrement générée par intelligence artificielle
-
#MonCarnet
-
L’adoption de l’IA au Canada : un retard qui s’accentue malgré une forte appétence
Selon le Microsoft AI Diffusion Report 2025, le Canada demeure l’un des pays de l’OCDE les plus réceptifs à l’intelligence artificielle sur le plan culturel et entrepreneurial, mais son rythme d’adoption réelle reste modéré comparé aux États-Unis, au Royaume-Uni et à l’Australie. Environ 38 % des entreprises canadiennes déclarent avoir intégré des outils d’IA dans […]
L’adoption de l’IA au Canada : un retard qui s’accentue malgré une forte appétence
-
#MonCarnet
-
Sora entre dans l’ère payante : OpenAI lance ses crédits et prépare son économie créative
OpenAI amorce un virage commercial majeur avec Sora, son générateur de vidéos par intelligence artificielle. L’entreprise introduit un système de crédits payants, marquant la première étape d’une stratégie de monétisation plus large. Les utilisateurs peuvent désormais acheter 10 créations additionnelles pour 4 $ US via l’App Store d’Apple. Jusqu’ici, chacun disposait de 30 générations gratuites […]
Sora entre dans l’ère payante : OpenAI lance ses crédits et prépare son économie créative
-
#MonCarnet
-
Amazon : Andy Jassy nie tout lien entre l’IA et les récentes vagues de licenciements
Malgré un trimestre record, Amazon continue de réduire ses effectifs. Lors de la présentation des résultats du troisième trimestre, son PDG Andy Jassy a tenu à dissiper une idée répandue : selon lui, l’intelligence artificielle n’est pas responsable des 14 000 suppressions de postes annoncées la semaine dernière. Le géant du commerce en ligne a […]
Amazon : Andy Jassy nie tout lien entre l’IA et les récentes vagues de licenciements
-
#MonCarnet
-
À l’ère de l’IA, faut-il encore faire des études ?
Avec l’intelligence artificielle qui bouleverse la plupart des métiers, la valeur des diplômes traditionnels est remise en question. Dans Ne faites plus d’études : comment apprendre à l’ère de l’IA ? (Buchet-Chastel), Laurent Alexandre et Olivier Babeau affirment que les universités forment désormais des profils que les algorithmes remplaceront. Selon eux, « les robots ouvriers […]
À l’ère de l’IA, faut-il encore faire des études ?
-
#MonCarnet
-
Google, Meta et Microsoft ont dépensé près de 80 milliards de dollars dans les infrastructures d’IA sur un seul trimestre.
Les groupes majeurs du numérique ont engagé près de 80 milliards de dollars américains de dépenses en infrastructures d’intelligence artificielle sur un seul trimestre, un record absolu. Alphabet, Meta et Microsoft sont au cœur de cette course effrénée à la puissance de calcul, chacun cherchant à dominer la prochaine génération de services alimentés par l’IA. […]
Google, Meta et Microsoft ont dépensé près de 80 milliards de dollars dans les infrastructures d’IA sur un seul trimestre.
-
#MonCarnet
-
Universal Music met fin à son différend avec Udio et prépare une plateforme d’IA musicale sous licence
Universal Music Group (UMG) a conclu un accord avec l’entreprise américaine Udio, spécialisée dans la génération musicale par intelligence artificielle, mettant ainsi un terme à un litige pour violation du droit d’auteur. Cet accord ouvre la voie à une nouvelle plateforme où les fans pourront créer leurs propres morceaux à partir de chansons sous licence, […]
Universal Music met fin à son différend avec Udio et prépare une plateforme d’IA musicale sous licence
-
#MonCarnet
-
Yoshua Bengio : « Mieux vaut une bulle qui éclate qu’une IA incontrôlable »
Yoshua Bengio, chercheur et professeur à l’Université de Montréal, figure emblématique de l’intelligence artificielle, vient de franchir un cap historique : plus d’un million de citations sur Google Scholar. Ce seuil symbolique le place parmi les scientifiques les plus influents au monde. Fin octobre, il rejoint le philosophe Michel Foucault dans le cercle très restreint […]
Yoshua Bengio : « Mieux vaut une bulle qui éclate qu’une IA incontrôlable »
-
#MonCarnet
-
Le virage sécurité de Character.ai : les adolescents privés de conversations prolongées avec les robots conversationnels
La start-up californienne Character.ai, connue pour ses robots conversationnels capables d’adopter des personnalités variées, a annoncé qu’elle allait interdire aux utilisateurs de moins de 18 ans d’engager des discussions prolongées avec ses systèmes d’intelligence artificielle. D’ici le 25 novembre, les jeunes seront d’abord limités à deux heures de conversation par jour, avant d’être complètement exclus […]
Le virage sécurité de Character.ai : les adolescents privés de conversations prolongées avec les robots conversationnels
-
#MonCarnet
-
L’intelligence artificielle accélère la disparition des emplois de col blanc
Un vent froid souffle sur les bureaux de nos voisins américains. De Seattle à Chicago, des dizaines de milliers d’employés qualifiés, souvent titulaires d’un diplôme universitaire, voient leurs postes disparaître alors que l’intelligence artificielle s’installe au cœur des entreprises. Amazon, Target, UPS, General Motors et bien d’autres ont entamé une vaste cure d’amincissement de leurs […]
L’intelligence artificielle accélère la disparition des emplois de col blanc
-
#MonCarnet
-
La moitié du web serait désormais rédigée par des intelligences artificielles
Selon une étude de l’agence Graphite, près d’un article sur deux publié sur Internet en 2025 aurait été écrit par une intelligence artificielle. Un cap symbolique, franchi à peine trois ans après l’arrivée de ChatGPT, qui illustre l’ampleur de la transformation du journalisme et de la création de contenu en ligne. Graphite a analysé 65 […]
La moitié du web serait désormais rédigée par des intelligences artificielles
-
#MonCarnet
-
Elon Musk lance Grokipedia, son encyclopédie IA pour défier Wikipédia
Après les voitures électriques, les fusées et les réseaux sociaux, Elon Musk s’attaque désormais au savoir. Le milliardaire vient de lancer Grokipedia, une encyclopédie en ligne propulsée par intelligence artificielle et développée par sa société xAI. Son ambition affichée : « éliminer la propagande » que Musk attribue à Wikipédia. Le site, accessible à l’adresse […]
Elon Musk lance Grokipedia, son encyclopédie IA pour défier Wikipédia
-
#MonCarnet
-
Le test LUCIA et la maturité IA avec Sarah Legendre Bilodeau
Mon Carnet, le podcast · {ENTREVUE} – Le test LUCIA et la maturité IA avec Sarah Legendre Bilodeau Bruno Guglielminetti échange avec Sarah Legendre Bilodeau, PDG de Videns, qui vient d’intégrer le groupe Cofomo pour accélérer sa croissance au Canada et à l’international. Elle revient sur les projets récents de l’entreprise, comme l’automatisation chez Cain […]
Le test LUCIA et la maturité IA avec Sarah Legendre Bilodeau
-
#MonCarnet
-
Des vacances de rêve… générées par l’intelligence artificielle
Quand on ne peut pas se payer un voyage, pourquoi ne pas simplement en inventer un ? C’est la promesse de plusieurs applications d’intelligence artificielle qui proposent désormais de créer des photos ultra-réalistes de soi en vacances, sans jamais quitter son salon. L’une d’elles, Endless Summer, imaginée par Laurent Del Rey, designer au laboratoire Superintelligence […]
Des vacances de rêve… générées par l’intelligence artificielle
-
#MonCarnet
-
ChatGPT devient plus sûr face à la détresse émotionnelle
OpenAI affirme avoir franchi une étape importante dans la sécurisation de ChatGPT face aux situations de détresse psychologique. L’entreprise a travaillé avec plus de 170 experts en santé mentale afin d’enseigner au modèle à mieux reconnaître les signes de souffrance, à désamorcer les conversations à risque et à orienter les utilisateurs vers un soutien humain […]
ChatGPT devient plus sûr face à la détresse émotionnelle
-
Climb to the Stars
-
Pour une « nétiquette » de l’IA générative [en]
[en] L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo. Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve
Pour une « nétiquette » de l’IA générative [en]
L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.
Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.
Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:
- Laisser l’IA parler à notre place, tel Christian avec Cyrano
- Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM
L’IA-Cyrano
Voici quelques exemples du premier cas de figure:
- quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
- je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
- dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
- je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.
Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.
Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.
C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.
Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?
Je pense qu’il y a deux aspects à prendre en compte.
Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?
Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)
Et la zone grise? Peut-on collaborer avec une IA?
Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!
La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.
Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?
Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.
Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.
Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.
Si c’est joli, où est le mal?
Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)
Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”
Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.
Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.
On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.
L’IA-RTFM
Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:
- dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
- dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
- en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.
Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?
Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.
Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.
Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.
(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)
C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.
Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.
C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.
La version courte?
ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:
- C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
- Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
- Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.
Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.
Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.
La version encore plus courte:
- transparence concernant l’implication de l’IA dans le contenu proposé
- vérification et adaptation du contenu généré (forme et fond)
- respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.
-
#MonCarnet
-
Quand la fièvre de l’investissement menace la rentabilité de l’IA
L’industrie technologique américaine vit un moment charnière. Les géants du numérique, de Microsoft à Amazon, en passant par Meta et Google, se sont engagés dans une course effrénée à la construction d’infrastructures pour soutenir l’intelligence artificielle. Selon McKinsey, ces dépenses atteindront plus de 5,2 billions de dollars d’ici 2030. Un pari colossal, fondé sur l’espoir […]
Quand la fièvre de l’investissement menace la rentabilité de l’IA
-
#MonCarnet
-
« Ne faites plus confiance à vos yeux » : l’IA alimente une flambée de fraudes aux notes de frais
L’intelligence artificielle donne un nouveau visage à une vieille arnaque. Des employés utilisent désormais des générateurs d’images pour créer de fausses factures et reçus de dépenses indiscernables de vrais documents, alertent plusieurs entreprises de logiciels comptables. Selon AppZen, environ 14 % des documents frauduleux soumis en septembre présentaient des signes d’altération par IA, contre aucun […]
« Ne faites plus confiance à vos yeux » : l’IA alimente une flambée de fraudes aux notes de frais
-
#MonCarnet
-
Les navigateurs web à intelligence artificielle : une nouvelle ère, mais à quel prix pour la sécurité ?
Les navigateurs dopés à l’intelligence artificielle comme ChatGPT Atlas d’OpenAI et Comet de Perplexity se présentent comme les successeurs annoncés de Google Chrome. Leur promesse : simplifier la vie des internautes grâce à des agents autonomes capables d’effectuer des tâches à leur place, du remplissage de formulaires à la navigation sur des sites. Mais selon […]
Les navigateurs web à intelligence artificielle : une nouvelle ère, mais à quel prix pour la sécurité ?
-
#MonCarnet
-
Google Earth AI : anticiper les catastrophes et protéger les populations
Google franchit une nouvelle étape dans l’anticipation des crises climatiques. L’entreprise a dévoilé une version améliorée de Google Earth AI, alimentée par son modèle Gemini, capable non seulement de prévoir la trajectoire d’un ouragan, mais aussi d’identifier les communautés les plus exposées. En combinant des décennies de données satellitaires, démographiques et météorologiques, cette technologie promet […]
Google Earth AI : anticiper les catastrophes et protéger les populations
-
#MonCarnet
-
OpenAI prépare une offensive musicale avec l’intelligence artificielle
Après avoir bouleversé la création vidéo avec Sora, OpenAI s’attaque désormais à la musique. Selon The Information, l’entreprise de Sam Altman travaille à la conception d’un modèle d’intelligence artificielle capable de générer des morceaux à partir de simples instructions textuelles ou vocales, une avancée qui la placerait en concurrence directe avec les jeunes pousses Suno […]
OpenAI prépare une offensive musicale avec l’intelligence artificielle
-
#MonCarnet
-
AI : est-ce la fin des preuves visuelles ?
OpenAI vient d’ouvrir un nouveau chapitre dans l’histoire de la manipulation numérique avec Sora, une application gratuite pour iPhone capable de générer en quelques secondes des vidéos photoréalistes à partir d’une simple description textuelle. Tapez « caméra de surveillance d’un chien arrêté pour vol de viande » ou « bataille entre Biggie et Tupac version […]
AI : est-ce la fin des preuves visuelles ?
-
#MonCarnet
-
ChatGPT se transforme en moteur de recherche pour les données d’entreprise
OpenAI franchit une nouvelle étape avec ChatGPT en lui permettant de fouiller directement dans les documents professionnels ou scolaires. Baptisée « company knowledge », cette mise à jour, déployée le 24 octobre, transforme le robot conversationnel en véritable moteur de recherche interne capable d’explorer les informations d’un espace de travail sans passer d’une application à […]
