Vue normale

Reçu hier — 17 septembre 2025

La Chine interdit à ses entreprises d’acheter des puces Nvidia

17 septembre 2025 à 20:22

Selon le Financial Times, le gouvernement chinois a pris cette décision parce qu’il soutient que l’entreprise américaine a enfreint ses lois antimonopoles.

Nvidia avait pourtant développé une puce spécialement conçue pour le marché chinois, et conforme aux restrictions américaines sur les exportations.

L’action de Nvidia (Nasdaq: NVDA) a baissé de presque 3% à l’annonce de l’interdiction.

Pékin aurait par ailleurs exercé des pressions sur les entreprises technologiques chinoises pour qu’elles conçoivent leurs propres semi-conducteurs.

[L'article La Chine interdit à ses entreprises d’acheter des puces Nvidia a d'abord été publié dans InfoBref.]

  • ✇#MonCarnet
  • Une vaste étude révèle comment les utilisateurs utilisent ChatGPT au quotidien
    OpenAI, en collaboration avec le National Bureau of Economic Research et l’économiste de Harvard David Deming, vient de publier la plus grande étude jamais réalisée sur l’utilisation de ChatGPT par les consommateurs. Basée sur l’analyse anonyme de 1,5 million de conversations, cette recherche offre un aperçu inédit de la manière dont l’IA s’intègre dans la […]
     

Une vaste étude révèle comment les utilisateurs utilisent ChatGPT au quotidien

17 septembre 2025 à 15:43
OpenAI, en collaboration avec le National Bureau of Economic Research et l’économiste de Harvard David Deming, vient de publier la plus grande étude jamais réalisée sur l’utilisation de ChatGPT par les consommateurs. Basée sur l’analyse anonyme de 1,5 million de conversations, cette recherche offre un aperçu inédit de la manière dont l’IA s’intègre dans la […]
  • ✇#MonCarnet
  • Microsoft et Salesforce peinent à convaincre avec leurs outils d’IA, pendant qu’Anthropic s’impose
    Depuis l’arrivée massive de l’intelligence artificielle dans les logiciels d’entreprise, des géants comme Microsoft et Salesforce affirmaient avoir une longueur d’avance. Ils disposaient déjà des liens solides avec les grandes entreprises mondiales et contrôlaient des applications incontournables pour gérer données clients et prévisions de ventes. Ajouter de l’IA à ces outils semblait une évidence, promettant […]
     

Microsoft et Salesforce peinent à convaincre avec leurs outils d’IA, pendant qu’Anthropic s’impose

17 septembre 2025 à 08:30
Depuis l’arrivée massive de l’intelligence artificielle dans les logiciels d’entreprise, des géants comme Microsoft et Salesforce affirmaient avoir une longueur d’avance. Ils disposaient déjà des liens solides avec les grandes entreprises mondiales et contrôlaient des applications incontournables pour gérer données clients et prévisions de ventes. Ajouter de l’IA à ces outils semblait une évidence, promettant […]
  • ✇#MonCarnet
  • Anthropic et OpenAI veulent transformer l’IA en collègues de bureau
    Anthropic et OpenAI accélèrent leurs efforts pour développer ce qu’ils appellent des « co-workers virtuels ». L’idée est d’apprendre aux modèles d’intelligence artificielle à utiliser directement des logiciels d’entreprise comme Salesforce, Zendesk ou encore Cerner, afin de reproduire des tâches complexes effectuées par les employés de bureau. Pour y parvenir, les chercheurs créent des copies […]
     

Anthropic et OpenAI veulent transformer l’IA en collègues de bureau

17 septembre 2025 à 08:00
Anthropic et OpenAI accélèrent leurs efforts pour développer ce qu’ils appellent des « co-workers virtuels ». L’idée est d’apprendre aux modèles d’intelligence artificielle à utiliser directement des logiciels d’entreprise comme Salesforce, Zendesk ou encore Cerner, afin de reproduire des tâches complexes effectuées par les employés de bureau. Pour y parvenir, les chercheurs créent des copies […]
  • ✇#MonCarnet
  • L’IA prépare l’avènement de la semaine de trois jours, selon certains patrons
    Le patron de Zoom, Eric Yuan, partage désormais la même vision que Bill Gates, Jensen Huang et Jamie Dimon : l’intelligence artificielle pourrait bientôt transformer radicalement nos horaires de travail, ouvrant la voie à des semaines de trois ou quatre jours. Dans une entrevue accordée au New York Times, Yuan s’est dit convaincu que les […]
     

L’IA prépare l’avènement de la semaine de trois jours, selon certains patrons

17 septembre 2025 à 06:30
Le patron de Zoom, Eric Yuan, partage désormais la même vision que Bill Gates, Jensen Huang et Jamie Dimon : l’intelligence artificielle pourrait bientôt transformer radicalement nos horaires de travail, ouvrant la voie à des semaines de trois ou quatre jours. Dans une entrevue accordée au New York Times, Yuan s’est dit convaincu que les […]
  • ✇#MonCarnet
  • Eric Yuan veut réinventer Zoom à l’ère de l’intelligence artificielle
    Dans un long entretien accordé au New York Times, Eric Yuan, le fondateur et PDG de Zoom, revient sur le parcours fulgurant de son entreprise, propulsée au rang de phénomène mondial durant la pandémie de Covid-19, puis ramenée à des proportions plus modestes depuis. S’il reconnaît que la crise sanitaire a été un moment « […]
     

Eric Yuan veut réinventer Zoom à l’ère de l’intelligence artificielle

17 septembre 2025 à 06:00
Dans un long entretien accordé au New York Times, Eric Yuan, le fondateur et PDG de Zoom, revient sur le parcours fulgurant de son entreprise, propulsée au rang de phénomène mondial durant la pandémie de Covid-19, puis ramenée à des proportions plus modestes depuis. S’il reconnaît que la crise sanitaire a été un moment « […]
Reçu avant avant-hier
  • ✇InfoBref ACTUALITES | L’essentiel de l’actualité politique et générale
  • Microsoft va investir 30 milliards $US au Royaume-Uni
    La moitié de ce montant doit servir à y développer l’intelligence artificielle et des infrastructures infonuagiques. L’autre moitié doit soutenir d’autres activités de Microsoft au Royaume-Uni. Cet investissement a été annoncé au moment où Donald Trump entame une visite d’État à Londres.  Les gouvernements américain et britannique ont prévu de conclure un partenariat de coopération technologique dans les domaines de l’intelligence artificielle, l’informatique quantique et l’énergie
     

Microsoft va investir 30 milliards $US au Royaume-Uni

16 septembre 2025 à 20:38

La moitié de ce montant doit servir à y développer l’intelligence artificielle et des infrastructures infonuagiques.

L’autre moitié doit soutenir d’autres activités de Microsoft au Royaume-Uni.

Cet investissement a été annoncé au moment où Donald Trump entame une visite d’État à Londres. 

Les gouvernements américain et britannique ont prévu de conclure un partenariat de coopération technologique dans les domaines de l’intelligence artificielle, l’informatique quantique et l’énergie nucléaire.

[L'article Microsoft va investir 30 milliards $US au Royaume-Uni a d'abord été publié dans InfoBref.]

  • ✇#MonCarnet
  • Quand l’IA aide à écrire l’arnaque, les aînés en première ligne
    Une expérience menée par Reuters avec un chercheur de Harvard illustre une pente glissante, où les assistants conversationnels à base d’intelligence artificielle peuvent, parfois avec une étonnante complaisance, aider à concevoir des campagnes d’hameçonnage sophistiquées. L’enquête, qui a testé plusieurs grands chatbots puis évalué l’impact de leurs textes sur 108 volontaires âgés, montre que la […]
     

Quand l’IA aide à écrire l’arnaque, les aînés en première ligne

16 septembre 2025 à 08:33
Une expérience menée par Reuters avec un chercheur de Harvard illustre une pente glissante, où les assistants conversationnels à base d’intelligence artificielle peuvent, parfois avec une étonnante complaisance, aider à concevoir des campagnes d’hameçonnage sophistiquées. L’enquête, qui a testé plusieurs grands chatbots puis évalué l’impact de leurs textes sur 108 volontaires âgés, montre que la […]

L’adoption inégale de l’IA générative : entre accélération fulgurante et fractures persistantes

16 septembre 2025 à 07:15
L’intelligence artificielle générative connaît une vitesse d’adoption sans précédent. Selon Anthropic, 40 % des employés américains déclaraient utiliser l’IA au travail en 2025, soit le double d’il y a deux ans. Une accélération vertigineuse si on la compare à l’électricité, qui a mis trois décennies à atteindre les foyers ruraux, ou à l’internet, qui a […]
  • ✇#MonCarnet
  • TELUS : Déploiement de l’IA à grande échelle
    Mon Carnet, le podcast · {ENTREVUE} – TELUS : Déploiement de l’IA à grande échelle Entretien avec Alexandre Guilbault, directeur de l’intelligence artificielle et des analyses avancées chez TELUS, qui explique comment son équipe déploie l’IA à grande échelle pour transformer l’expérience client et optimiser les opérations internes. L’entreprise mise sur la transparence, l’IA responsable […]
     

TELUS : Déploiement de l’IA à grande échelle

16 septembre 2025 à 07:00
Mon Carnet, le podcast · {ENTREVUE} – TELUS : Déploiement de l’IA à grande échelle Entretien avec Alexandre Guilbault, directeur de l’intelligence artificielle et des analyses avancées chez TELUS, qui explique comment son équipe déploie l’IA à grande échelle pour transformer l’expérience client et optimiser les opérations internes. L’entreprise mise sur la transparence, l’IA responsable […]
  • ✇#MonCarnet
  • Confessions numériques : des millions de fidèles se tournent vers des robots religieux
    Un nouveau phénomène se développe à grande vitesse : les applications religieuses intégrant des robots conversationnels attirent désormais des dizaines de millions d’utilisateurs dans le monde. Conçus à partir de textes sacrés et parfois de l’IA générative, ces assistants virtuels se présentent comme des confidents spirituels, disponibles à toute heure pour répondre aux doutes, proposer […]
     

Confessions numériques : des millions de fidèles se tournent vers des robots religieux

16 septembre 2025 à 06:00
Un nouveau phénomène se développe à grande vitesse : les applications religieuses intégrant des robots conversationnels attirent désormais des dizaines de millions d’utilisateurs dans le monde. Conçus à partir de textes sacrés et parfois de l’IA générative, ces assistants virtuels se présentent comme des confidents spirituels, disponibles à toute heure pour répondre aux doutes, proposer […]
  • ✇#MonCarnet
  • Quand l’IA réécrit l’Histoire : entre fascination et falsification
    Depuis quelques mois, un nouveau genre de vidéos explose sur YouTube et TikTok : des récits historiques générés par l’intelligence artificielle. En une minute, les spectateurs découvrent des reconstitutions spectaculaires de la vie de Néron, de l’exécution de William Wallace ou encore de la peste noire. Produites grâce à des outils comme CapCut, ces vidéos […]
     

Quand l’IA réécrit l’Histoire : entre fascination et falsification

15 septembre 2025 à 08:30
Depuis quelques mois, un nouveau genre de vidéos explose sur YouTube et TikTok : des récits historiques générés par l’intelligence artificielle. En une minute, les spectateurs découvrent des reconstitutions spectaculaires de la vie de Néron, de l’exécution de William Wallace ou encore de la peste noire. Produites grâce à des outils comme CapCut, ces vidéos […]
  • ✇#MonCarnet
  • Malawi : l’IA au secours des petits fermiers face au climat
    À Mulanje, dans le sud du Malawi, les cicatrices du cyclone Freddy de 2023 sont encore visibles. Parmi les victimes, Alex Maere, un cultivateur de maïs, a vu en quelques jours disparaître des décennies de travail, ses récoltes balayées par les inondations. De 850 kilos de maïs par saison, il n’a pu sauver que 8 […]
     

Malawi : l’IA au secours des petits fermiers face au climat

15 septembre 2025 à 07:30
À Mulanje, dans le sud du Malawi, les cicatrices du cyclone Freddy de 2023 sont encore visibles. Parmi les victimes, Alex Maere, un cultivateur de maïs, a vu en quelques jours disparaître des décennies de travail, ses récoltes balayées par les inondations. De 850 kilos de maïs par saison, il n’a pu sauver que 8 […]

Un pays confie un ministère à l’intelligence artificielle

13 septembre 2025 à 12:59

En Albanie, un pays des Balkans au nord-ouest de la Grèce, le premier ministre Edi Rama a présenté une nouvelle «ministre» qui est en fait une intelligence artificielle.

Elle sera chargée d’analyser les candidatures lors des appels d’offres publics.

Cette IA, développée avec Microsoft, est représentée par un avatar féminin en habit traditionnel albanais.

Son rôle est de réduire les risques de corruption et d’améliorer l’efficacité du gouvernement, a précisé le premier ministre.

[L'article Un pays confie un ministère à l’intelligence artificielle a d'abord été publié dans InfoBref.]

OpenAI et Microsoft s’entendent sur un accord préliminaire pour redéfinir leur partenariat

12 septembre 2025 à 06:00
OpenAI et Microsoft ont annoncé jeudi en fin de journée avoir conclu une entente de principe visant à réviser leur partenariat stratégique. Les deux entreprises ont signé un protocole d’entente non contraignant et affirment « travailler activement » à finaliser un accord définitif. Cette étape, encore soumise à l’approbation des autorités de régulation, constitue un […]
  • ✇#MonCarnet
  • Alibaba et Baidu passent à leurs propres puces d’IA, un tournant stratégique pour la tech chinoise
    Les géants chinois Alibaba et Baidu viennent d’entamer un virage majeur : ils utilisent désormais leurs propres puces conçues en interne pour entraîner leurs modèles d’intelligence artificielle, réduisant ainsi leur dépendance aux processeurs Nvidia. Selon des sources proches du dossier, ce basculement illustre une volonté croissante de découpler l’écosystème chinois de l’IA des technologies occidentales, […]
     

Alibaba et Baidu passent à leurs propres puces d’IA, un tournant stratégique pour la tech chinoise

11 septembre 2025 à 11:51
Les géants chinois Alibaba et Baidu viennent d’entamer un virage majeur : ils utilisent désormais leurs propres puces conçues en interne pour entraîner leurs modèles d’intelligence artificielle, réduisant ainsi leur dépendance aux processeurs Nvidia. Selon des sources proches du dossier, ce basculement illustre une volonté croissante de découpler l’écosystème chinois de l’IA des technologies occidentales, […]
  • ✇#MonCarnet
  • L’industrie de la cybersécurité se prépare aux attaques pilotées par l’IA
    L’alerte vient de John Watters, vétéran de la cybersécurité et ancien dirigeant de Mandiant : selon lui, le monde n’est plus qu’à quelques mois d’une cyberattaque totalement autonome, orchestrée par une intelligence artificielle. Ces offensives seraient conçues sur mesure pour chaque cible, capables d’exploiter des failles inédites, sans réutiliser les techniques classiques des pirates informatiques. […]
     

L’industrie de la cybersécurité se prépare aux attaques pilotées par l’IA

11 septembre 2025 à 10:24
L’alerte vient de John Watters, vétéran de la cybersécurité et ancien dirigeant de Mandiant : selon lui, le monde n’est plus qu’à quelques mois d’une cyberattaque totalement autonome, orchestrée par une intelligence artificielle. Ces offensives seraient conçues sur mesure pour chaque cible, capables d’exploiter des failles inédites, sans réutiliser les techniques classiques des pirates informatiques. […]

L’industrie technologique mise 344 milliards sur les modèles de langage : un pari déjà fragile ?

11 septembre 2025 à 07:41
Les géants de la Silicon Valley investissent massivement dans une seule et même approche de l’intelligence artificielle : les modèles de langage. Cette année, Alphabet, Microsoft, Apple et d’autres acteurs vont consacrer 344 milliards de dollars à la construction de centres de données et au perfectionnement de ces systèmes capables de générer du texte, de […]
  • ✇#MonCarnet
  • Micrologic : Stéphane Garneau presse Québec et Ottawa d’agir pour la souveraineté numérique
    Réunis à Québec hier devant plus de 900 participants, Stéphane Garneau, président-directeur général de Micrologic, a profité du 10e anniversaire de la plateforme infonuagique Cirrus pour rappeler l’importance stratégique de la souveraineté des données au pays. Dans une allocution passionnée, il a exhorté les gouvernements à accélérer la mise en place de politiques concrètes afin […]
     

Micrologic : Stéphane Garneau presse Québec et Ottawa d’agir pour la souveraineté numérique

11 septembre 2025 à 06:41
Réunis à Québec hier devant plus de 900 participants, Stéphane Garneau, président-directeur général de Micrologic, a profité du 10e anniversaire de la plateforme infonuagique Cirrus pour rappeler l’importance stratégique de la souveraineté des données au pays. Dans une allocution passionnée, il a exhorté les gouvernements à accélérer la mise en place de politiques concrètes afin […]
  • ✇#MonCarnet
  • Apple réduit la place de l’IA dans sa présentation de l’iPhone 17
    La traditionnelle keynote d’Apple hier, attendue pour le dévoilement de l’iPhone 17, a surpris moins par ses annonces que par ses silences. Si la firme a détaillé ses nouveaux téléphones, AirPods et montres connectées, l’intelligence artificielle, omniprésente lors de la présentation de l’iPhone 16, n’a été évoquée qu’à la marge. Tim Cook a qualifié l’appareil […]
     

Apple réduit la place de l’IA dans sa présentation de l’iPhone 17

10 septembre 2025 à 06:30
La traditionnelle keynote d’Apple hier, attendue pour le dévoilement de l’iPhone 17, a surpris moins par ses annonces que par ses silences. Si la firme a détaillé ses nouveaux téléphones, AirPods et montres connectées, l’intelligence artificielle, omniprésente lors de la présentation de l’iPhone 16, n’a été évoquée qu’à la marge. Tim Cook a qualifié l’appareil […]
  • ✇#MonCarnet
  • Voyages : l’IA menace le modèle des géants de la réservation en ligne
    Les grandes plateformes de réservation en ligne se préparent à l’arrivée d’une nouvelle génération de robots conversationnels capables de bousculer leur modèle d’affaires. Booking.com, Expedia et Airbnb multiplient les initiatives pour intégrer l’intelligence artificielle dite « agentique », en s’alliant notamment à OpenAI. L’objectif : ne pas se faire court-circuiter par ces assistants capables d’organiser […]
     

Voyages : l’IA menace le modèle des géants de la réservation en ligne

10 septembre 2025 à 06:00
Les grandes plateformes de réservation en ligne se préparent à l’arrivée d’une nouvelle génération de robots conversationnels capables de bousculer leur modèle d’affaires. Booking.com, Expedia et Airbnb multiplient les initiatives pour intégrer l’intelligence artificielle dite « agentique », en s’alliant notamment à OpenAI. L’objectif : ne pas se faire court-circuiter par ces assistants capables d’organiser […]
  • ✇#MonCarnet
  • Base de données climatique et IA responsables avec François William Croteau
    Mon Carnet, le podcast · {ENTREVUE} – Base de données climatique et IA responsables avec François William Croteau Entrevue avec le PDG, François William Croteau. L’Institut de la résilience et de l’innovation urbaine qu’il dirige réunit 12 villes pour créer une base de données partagée sur le climat. Objectif : permettre aux chercheurs et aux […]
     

Base de données climatique et IA responsables avec François William Croteau

9 septembre 2025 à 07:00
Mon Carnet, le podcast · {ENTREVUE} – Base de données climatique et IA responsables avec François William Croteau Entrevue avec le PDG, François William Croteau. L’Institut de la résilience et de l’innovation urbaine qu’il dirige réunit 12 villes pour créer une base de données partagée sur le climat. Objectif : permettre aux chercheurs et aux […]
  • ✇#MonCarnet
  • Vodafone expérimente une influenceuse générée par l’IA dans sa publicité
    Vodafone a surpris ses abonnés allemands en diffusant sur TikTok une publicité animée par une présentatrice… qui n’existe pas. L’opératrice a confirmé qu’il s’agissait d’une création générative, expliquant tester « différents styles de publicité » et estimant que « l’IA fait désormais partie du quotidien ». L’influenceuse virtuelle ne trompe pas longtemps l’œil averti : […]
     

Vodafone expérimente une influenceuse générée par l’IA dans sa publicité

9 septembre 2025 à 06:30
Vodafone a surpris ses abonnés allemands en diffusant sur TikTok une publicité animée par une présentatrice… qui n’existe pas. L’opératrice a confirmé qu’il s’agissait d’une création générative, expliquant tester « différents styles de publicité » et estimant que « l’IA fait désormais partie du quotidien ». L’influenceuse virtuelle ne trompe pas longtemps l’œil averti : […]

Le risque du « cannibalisme des IA » : quand les modèles se nourrissent de leurs propres contenus

8 septembre 2025 à 09:00
L’image est saisissante : une intelligence artificielle qui « mange ses propres déchets ». C’est ainsi que Thierry Taboy, membre du conseil d’administration d’Impact AI, et Sébastien Crozier, président du syndicat CFE-CGC Orange, décrivent le phénomène grandissant du « cannibalisme des IA ». Plus les modèles génératifs s’entraînent sur des contenus artificiels qu’ils ont eux-mêmes […]
  • ✇#MonCarnet
  • Pourquoi les modèles de langage hallucinent-ils ?
    Chez OpenAI, la fiabilité des modèles d’intelligence artificielle demeure un enjeu central. Malgré les progrès réalisés avec GPT-5, un phénomène persiste : les « hallucinations ». Par ce terme, on désigne les réponses fausses mais formulées avec assurance par un modèle. Dans un nouveau document de recherche, les chercheurs expliquent que ce biais provient des […]
     

Pourquoi les modèles de langage hallucinent-ils ?

8 septembre 2025 à 06:30
Chez OpenAI, la fiabilité des modèles d’intelligence artificielle demeure un enjeu central. Malgré les progrès réalisés avec GPT-5, un phénomène persiste : les « hallucinations ». Par ce terme, on désigne les réponses fausses mais formulées avec assurance par un modèle. Dans un nouveau document de recherche, les chercheurs expliquent que ce biais provient des […]
  • ✇#MonCarnet
  • Sam Altman s’inquiète de la “théorie de l’internet mort”
    Le patron d’OpenAI, Sam Altman, a relancé la semaine dernière un vieux concept conspirationniste : la « dead internet theory ». Dans un message publié sur X, il reconnaît qu’il commence à craindre que cette hypothèse devienne réalité, notant l’explosion de comptes automatisés gérés par des modèles d’intelligence artificielle. La théorie en question suggère que la majorité […]
     

Sam Altman s’inquiète de la “théorie de l’internet mort”

8 septembre 2025 à 06:00
Le patron d’OpenAI, Sam Altman, a relancé la semaine dernière un vieux concept conspirationniste : la « dead internet theory ». Dans un message publié sur X, il reconnaît qu’il commence à craindre que cette hypothèse devienne réalité, notant l’explosion de comptes automatisés gérés par des modèles d’intelligence artificielle. La théorie en question suggère que la majorité […]

Geoffrey Hinton : l’IA, promesse de richesses pour quelques-uns, pauvreté pour le plus grand nombre

7 septembre 2025 à 18:30
À 77 ans, Geoffrey Hinton, prix Nobel de physique et surnommé le « parrain de l’intelligence artificielle », n’a plus rien à prouver. Pourtant, après avoir contribué à façonner les bases des réseaux neuronaux qui ont permis l’explosion de l’IA moderne, il consacre désormais son énergie à alerter sur ses dangers. Lors d’un entretien accordé […]
  • ✇#MonCarnet
  • Quand l’IA fabrique de faux médecins pour vendre des produits douteux
    Une enquête du New York Times met en lumière l’usage de l’intelligence artificielle par des fraudeurs qui usurpent l’identité de professionnels de santé afin de commercialiser sur le web des remèdes aux promesses douteuses. Ces vidéos truquées, qui circulent massivement sur Facebook, TikTok et YouTube, imitent l’image et la voix de spécialistes sans leur consentement, […]
     

Quand l’IA fabrique de faux médecins pour vendre des produits douteux

7 septembre 2025 à 07:00
Une enquête du New York Times met en lumière l’usage de l’intelligence artificielle par des fraudeurs qui usurpent l’identité de professionnels de santé afin de commercialiser sur le web des remèdes aux promesses douteuses. Ces vidéos truquées, qui circulent massivement sur Facebook, TikTok et YouTube, imitent l’image et la voix de spécialistes sans leur consentement, […]
  • ✇#MonCarnet
  • Google plaide pour une régulation de l’IA « ciblée, alignée et équilibrée »
    Lors d’une rencontre récente avec des représentants de Google, l’entreprise a présenté sa vision de la régulation de l’intelligence artificielle. Selon l’entreprise, l’IA est « trop importante pour ne pas être régulée », mais elle doit l’être de manière intelligente afin de maximiser ses bénéfices tout en encadrant ses risques. Le géant américain propose ce […]
     

Google plaide pour une régulation de l’IA « ciblée, alignée et équilibrée »

5 septembre 2025 à 15:14
Lors d’une rencontre récente avec des représentants de Google, l’entreprise a présenté sa vision de la régulation de l’intelligence artificielle. Selon l’entreprise, l’IA est « trop importante pour ne pas être régulée », mais elle doit l’être de manière intelligente afin de maximiser ses bénéfices tout en encadrant ses risques. Le géant américain propose ce […]
  • ✇#MonCarnet
  • Melania Trump lance un défi national autour de l’IA dans les écoles américaines
    La Première dame des États-Unis, Melania Trump, a annoncé hier le lancement du Presidential AI Challenge, une initiative soutenue par la Maison-Blanche visant à familiariser élèves et enseignants avec l’intelligence artificielle. Le concours s’adresse aux jeunes Américains de la maternelle à la fin du secondaire, ainsi qu’à leurs professeurs, et les invite à développer des […]
     

Melania Trump lance un défi national autour de l’IA dans les écoles américaines

5 septembre 2025 à 07:30
La Première dame des États-Unis, Melania Trump, a annoncé hier le lancement du Presidential AI Challenge, une initiative soutenue par la Maison-Blanche visant à familiariser élèves et enseignants avec l’intelligence artificielle. Le concours s’adresse aux jeunes Américains de la maternelle à la fin du secondaire, ainsi qu’à leurs professeurs, et les invite à développer des […]
  • ✇#MonCarnet
  • Trump réunit les géants de la tech autour de la table de la Maison-Blanche
    Le président américain Donald Trump a reçu jeudi soir une impressionnante délégation de patrons de la Silicon Valley et de l’industrie technologique au sein de la Maison-Blanche. L’événement, initialement prévu dans le Rose Garden fraîchement rénové, a finalement eu lieu dans la salle à manger d’État en raison de la pluie. À la table, une […]
     

Trump réunit les géants de la tech autour de la table de la Maison-Blanche

5 septembre 2025 à 07:15
Le président américain Donald Trump a reçu jeudi soir une impressionnante délégation de patrons de la Silicon Valley et de l’industrie technologique au sein de la Maison-Blanche. L’événement, initialement prévu dans le Rose Garden fraîchement rénové, a finalement eu lieu dans la salle à manger d’État en raison de la pluie. À la table, une […]
  • ✇#MonCarnet
  • Robots conversationnels et suicide : une enquête troublante de La Presse
    Publié par La Presse, sous la plume de Fannie Arcand, Daphné Cameron et Marie-Eve Morasse, le reportage soulève une question troublante : jusqu’où les robots conversationnels peuvent-ils aller lorsqu’un adolescent en détresse les interpelle ? Les journalistes ont soumis quatre outils ( ChatGPT d’OpenAI, Grok de xAI, Claude d’Anthropic et SnapchatAI ) à des tests […]
     

Robots conversationnels et suicide : une enquête troublante de La Presse

4 septembre 2025 à 11:47
Publié par La Presse, sous la plume de Fannie Arcand, Daphné Cameron et Marie-Eve Morasse, le reportage soulève une question troublante : jusqu’où les robots conversationnels peuvent-ils aller lorsqu’un adolescent en détresse les interpelle ? Les journalistes ont soumis quatre outils ( ChatGPT d’OpenAI, Grok de xAI, Claude d’Anthropic et SnapchatAI ) à des tests […]
  • ✇#MonCarnet
  • Siri : une refonte pour rivaliser avec ChatGPT et Perplexity en 2026
    Apple prépare une contre-attaque dans la course à l’intelligence artificielle. Selon une enquête de Mark Gurman pour Bloomberg, la firme de Cupertino s’apprête à lancer l’an prochain un moteur de recherche web propulsé par l’IA, baptisé en interne World Knowledge Answers. Cette nouvelle technologie sera intégrée d’abord à Siri, avant d’être déployée dans Safari et […]
     

Siri : une refonte pour rivaliser avec ChatGPT et Perplexity en 2026

4 septembre 2025 à 06:30
Apple prépare une contre-attaque dans la course à l’intelligence artificielle. Selon une enquête de Mark Gurman pour Bloomberg, la firme de Cupertino s’apprête à lancer l’an prochain un moteur de recherche web propulsé par l’IA, baptisé en interne World Knowledge Answers. Cette nouvelle technologie sera intégrée d’abord à Siri, avant d’être déployée dans Safari et […]
  • ✇#MonCarnet
  • Quand l’IA devient médecin de famille : l’exemple chinois de DeepSeek
    Dans un reportage publié par Rest of World, la journaliste Viola Zhou raconte l’histoire de sa mère, une patiente greffée d’un rein qui vit dans une petite ville de l’est de la Chine, et sa relation grandissante avec DeepSeek, un robot conversationnel médical. Ce récit illustre une tendance mondiale : l’essor des intelligences artificielles comme […]
     

Quand l’IA devient médecin de famille : l’exemple chinois de DeepSeek

4 septembre 2025 à 06:00
Dans un reportage publié par Rest of World, la journaliste Viola Zhou raconte l’histoire de sa mère, une patiente greffée d’un rein qui vit dans une petite ville de l’est de la Chine, et sa relation grandissante avec DeepSeek, un robot conversationnel médical. Ce récit illustre une tendance mondiale : l’essor des intelligences artificielles comme […]
  • ✇Dans les algorithmes
  • IA, la grande escroquerie
    La couverture du livre d’Emily Bender et Alex Hanna. L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
     

IA, la grande escroquerie

4 septembre 2025 à 00:52
La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du développement des grands modèles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient également une newsletter commune et un podcast éponyme, « Mystery AI Hype Theater 3000 », où elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes. 

Des outils de manipulation… sans entraves

L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée. 

Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes

Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».   

Déconstruire l’emballement

Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction. 

Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.  

De l’automatisation à l’IA : dévaluer le travail

L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût »

En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques »

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. » 

Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité

D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”

L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés » pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer »

“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges« Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »

Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler… 

Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social »

On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.  

Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés. 

Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.

Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes ! Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.  

Hubert Guillaud

  • ✇Dans les algorithmes
  • IA, la grande escroquerie
    La couverture du livre d’Emily Bender et Alex Hanna. L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
     

IA, la grande escroquerie

4 septembre 2025 à 00:52
La couverture du livre d’Emily Bender et Alex Hanna.

L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell du fameux article sur les Perroquets stochastiques, critique du développement des grands modèles de langage (voir l’interview du Monde avec Emily Bender). Alex Hanna, elle, est sociologue. Elle est la directrice de la recherche de DAIR, Distributed AI Research Institut. Les deux chercheuses publient également une newsletter commune et un podcast éponyme, « Mystery AI Hype Theater 3000 », où elles discutent avec nombre de chercheurs du domaine. 

AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose. 

L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».

L’IA n’est rien d’autre que du marketing

Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA. 

L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place. 

En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes. 

Des outils de manipulation… sans entraves

L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée. 

Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes

Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».   

Déconstruire l’emballement

Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction. 

Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.  

De l’automatisation à l’IA : dévaluer le travail

L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût »

En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de  contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques »

L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. » 

Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie. 

L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité

D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts

Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité. 

Babysitter les IA : l’exploitation est la norme

Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent

Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union. 

“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”

L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés » pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer »

“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges« Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.

Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes

« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »

Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler… 

Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social »

On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques. 

L’IA, une machine à produire des dommages sociaux

« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique. 

Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.  

Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs. 

Le risque de l’IA, mais lequel et pour qui ?

Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés. 

Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna. 

Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux. 

Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.

Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes ! Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ? 

Face à l’IA, nous devons avoir aucune confiance

Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance. 

Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers. 

Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale

Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.  

Hubert Guillaud

L’IA fantôme s’installe dans les bureaux canadiens : une adoption plus rapide par les employés que par les employeurs

3 septembre 2025 à 10:11
Une nouvelle étude commandée par IBM met en lumière un phénomène grandissant au Canada : l’« IA fantôme ». Derrière cette expression se cache l’usage, par les employés, d’outils d’intelligence artificielle dans leur travail quotidien sans que ceux-ci soient approuvés ni encadrés par leur service informatique. L’étude, rendue publique le 3 septembre, révèle que 79 […]
  • ✇#MonCarnet
  • Elon Musk imprime bel et bien sa vision politique à Grok, son robot conversationnel
    Elon Musk affirme vouloir que Grok, le robot conversationnel développé par sa société xAI et intégré à X, soit « neutre politiquement » et « orienté vers la vérité ». Pourtant, une enquête du New York Times révèle que ses interventions directes influencent fortement les réponses de l’outil, les orientant souvent vers des positions conservatrices. […]
     

Elon Musk imprime bel et bien sa vision politique à Grok, son robot conversationnel

3 septembre 2025 à 06:30
Elon Musk affirme vouloir que Grok, le robot conversationnel développé par sa société xAI et intégré à X, soit « neutre politiquement » et « orienté vers la vérité ». Pourtant, une enquête du New York Times révèle que ses interventions directes influencent fortement les réponses de l’outil, les orientant souvent vers des positions conservatrices. […]

OpenAI promet de renforcer la sécurité de ChatGPT pour les adolescents et les personnes en détresse

3 septembre 2025 à 06:00
OpenAI se retrouve sous pression après une série d’incidents tragiques où son robot conversationnel ChatGPT est accusé d’avoir contribué, directement ou indirectement, à des drames liés à la santé mentale. Pour répondre aux critiques, l’entreprise américaine annonce une série de nouvelles mesures destinées à sécuriser l’usage de son outil par les adolescents et par les […]
  • ✇#MonCarnet
  • Hugo Larochelle nommé directeur scientifique de Mila
    Mila, l’institut québécois d’intelligence artificielle, a officialisé la nomination du professeur Hugo Larochelle au poste de directeur scientifique. Associé à l’Université de Montréal et ancien responsable du laboratoire d’IA de Google à Montréal, Larochelle succède à Laurent Charlin, qui assurait l’intérim depuis que Yoshua Bengio a choisi de se consacrer à un rôle de conseiller […]
     

Hugo Larochelle nommé directeur scientifique de Mila

2 septembre 2025 à 11:36
Mila, l’institut québécois d’intelligence artificielle, a officialisé la nomination du professeur Hugo Larochelle au poste de directeur scientifique. Associé à l’Université de Montréal et ancien responsable du laboratoire d’IA de Google à Montréal, Larochelle succède à Laurent Charlin, qui assurait l’intérim depuis que Yoshua Bengio a choisi de se consacrer à un rôle de conseiller […]
  • ✇#MonCarnet
  • Intelligence artificielle et éducation : promesses, défis et réalités
    À l’heure de la rentrée scolaire, l’intelligence artificielle s’impose comme un sujet incontournable pour le monde éducatif. Dans leur podcast Innovation and Prospective Talk, Matthieu Deboeuf-Rouchon et Lionel Tardy se sont penchés sur l’impact de ces technologies sur l’enseignement et sur le rôle des enseignants. Le débat, nourri par les résultats d’une vaste enquête EdSurge–Gallup […]
     

Intelligence artificielle et éducation : promesses, défis et réalités

2 septembre 2025 à 09:00
À l’heure de la rentrée scolaire, l’intelligence artificielle s’impose comme un sujet incontournable pour le monde éducatif. Dans leur podcast Innovation and Prospective Talk, Matthieu Deboeuf-Rouchon et Lionel Tardy se sont penchés sur l’impact de ces technologies sur l’enseignement et sur le rôle des enseignants. Le débat, nourri par les résultats d’une vaste enquête EdSurge–Gallup […]
  • ✇#MonCarnet
  • Les 5 requêtes préférées à GPT-5 du patron de Microsoft, Satya Nadella
    Le patron de Microsoft, Satya Nadella, a partagé la semaine dernière cinq commandes qu’il adresse quotidiennement à GPT-5 via Copilot, son assistant intégré à Microsoft 365. Ces exemples offrent un aperçu concret de la manière dont l’IA s’impose dans le travail des dirigeants de haut niveau. Dans une série de publications sur X, Nadella a […]
     

Les 5 requêtes préférées à GPT-5 du patron de Microsoft, Satya Nadella

2 septembre 2025 à 08:30
Le patron de Microsoft, Satya Nadella, a partagé la semaine dernière cinq commandes qu’il adresse quotidiennement à GPT-5 via Copilot, son assistant intégré à Microsoft 365. Ces exemples offrent un aperçu concret de la manière dont l’IA s’impose dans le travail des dirigeants de haut niveau. Dans une série de publications sur X, Nadella a […]
  • ✇#MonCarnet
  • L’esprit critique, compétence clé à l’ère de l’IA selon le PDG d’AWS
    lors que l’intelligence artificielle transforme rapidement le monde du travail, Matt Garman, PDG d’Amazon Web Services, insiste sur l’importance des compétences humaines dites « molles » plutôt que des diplômes techniques pointus. Dans une entrevue accordée à CNBC le mois dernier, il a révélé le conseil donné à son propre fils : développer avant tout […]
     

L’esprit critique, compétence clé à l’ère de l’IA selon le PDG d’AWS

2 septembre 2025 à 08:00
lors que l’intelligence artificielle transforme rapidement le monde du travail, Matt Garman, PDG d’Amazon Web Services, insiste sur l’importance des compétences humaines dites « molles » plutôt que des diplômes techniques pointus. Dans une entrevue accordée à CNBC le mois dernier, il a révélé le conseil donné à son propre fils : développer avant tout […]
  • ✇#MonCarnet
  • Pékin veut rivaliser avec Neuralink dans les interfaces cerveau-ordinateur
    La Chine veut se hisser parmi les leaders mondiaux des interfaces cerveau-ordinateur. Un document de politique publique publié en juillet par sept ministères, dont celui de l’Industrie et des Technologies de l’information et la Commission nationale de la santé, trace une feuille de route ambitieuse : des percées d’ici 2027 et une industrie compétitive à […]
     

Pékin veut rivaliser avec Neuralink dans les interfaces cerveau-ordinateur

2 septembre 2025 à 07:30
La Chine veut se hisser parmi les leaders mondiaux des interfaces cerveau-ordinateur. Un document de politique publique publié en juillet par sept ministères, dont celui de l’Industrie et des Technologies de l’information et la Commission nationale de la santé, trace une feuille de route ambitieuse : des percées d’ici 2027 et une industrie compétitive à […]
  • ✇#MonCarnet
  • Portrait d’innovateurs avec PROMPT no.14
    Mon Carnet, le podcast · {ENTREVUE} – Portrait d’innovateurs avec PROMPT no.14 Émilie Delvoye, directrice des communications chez Prompt, accueille Stéphane Turbide de Maket Technologies, qui utilise l’intelligence artificielle pour démocratiser l’architecture auprès des gens qui souhaitent construire ou rénover. Merci à Prompt de soutenir la production de Mon Carnet cette semaine.
     

Portrait d’innovateurs avec PROMPT no.14

2 septembre 2025 à 07:00
Mon Carnet, le podcast · {ENTREVUE} – Portrait d’innovateurs avec PROMPT no.14 Émilie Delvoye, directrice des communications chez Prompt, accueille Stéphane Turbide de Maket Technologies, qui utilise l’intelligence artificielle pour démocratiser l’architecture auprès des gens qui souhaitent construire ou rénover. Merci à Prompt de soutenir la production de Mon Carnet cette semaine.
  • ✇#MonCarnet
  • L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé
    Mon Carnet, le podcast · {ENTREVUE} – L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé Martin Bélanger, vice-président chez TELUS Santé, estime que l’intelligence artificielle est désormais au cœur de la transformation des soins de santé au Canada. L’IA permet d’automatiser certaines tâches cliniques et administratives, d’améliorer la prise de décision […]
     

L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé

2 septembre 2025 à 06:55
Mon Carnet, le podcast · {ENTREVUE} – L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé Martin Bélanger, vice-président chez TELUS Santé, estime que l’intelligence artificielle est désormais au cœur de la transformation des soins de santé au Canada. L’IA permet d’automatiser certaines tâches cliniques et administratives, d’améliorer la prise de décision […]
  • ✇#MonCarnet
  • Cloudflare veut forcer les géants de l’IA à payer pour le web
    Matthew Prince, cofondateur et PDG de Cloudflare, n’a pas pour habitude de s’attaquer aux moulins à vent. Mais cet été, il s’est lancé dans une bataille qui pourrait redéfinir l’avenir du web : obliger les géants de l’intelligence artificielle à rémunérer les créateurs de contenu. Selon lui, la montée des robots conversationnels, qui génèrent des […]
     

Cloudflare veut forcer les géants de l’IA à payer pour le web

2 septembre 2025 à 06:30
Matthew Prince, cofondateur et PDG de Cloudflare, n’a pas pour habitude de s’attaquer aux moulins à vent. Mais cet été, il s’est lancé dans une bataille qui pourrait redéfinir l’avenir du web : obliger les géants de l’intelligence artificielle à rémunérer les créateurs de contenu. Selon lui, la montée des robots conversationnels, qui génèrent des […]
  • ✇#MonCarnet
  • Influenceurs virtuels : l’IA bouscule le marketing et inquiète les créateurs
    Le visage de l’influence en ligne est en train de changer. Littéralement. Après l’essor des créateurs humains devenus figures incontournables des campagnes marketing, une nouvelle génération émerge : les influenceurs virtuels générés par l’intelligence artificielle. Ces avatars numériques séduisent déjà des millions d’abonnés et attirent des marques désireuses de bénéficier d’une production rapide, peu coûteuse […]
     

Influenceurs virtuels : l’IA bouscule le marketing et inquiète les créateurs

2 septembre 2025 à 06:00
Le visage de l’influence en ligne est en train de changer. Littéralement. Après l’essor des créateurs humains devenus figures incontournables des campagnes marketing, une nouvelle génération émerge : les influenceurs virtuels générés par l’intelligence artificielle. Ces avatars numériques séduisent déjà des millions d’abonnés et attirent des marques désireuses de bénéficier d’une production rapide, peu coûteuse […]
  • ✇#MonCarnet
  • Quand un robot conversationnel alimente la paranoïa jusqu’au drame
    Le Wall Street Journal a publié une enquête glaçante sur le rôle joué par ChatGPT dans un drame familial survenu à Old Greenwich, dans le Connecticut. L’affaire met en lumière les risques de dérive psychologique liés à l’usage intensif des robots conversationnels. Stein-Erik Soelberg, un vétéran de l’industrie technologique âgé de 56 ans, souffrait depuis […]
     

Quand un robot conversationnel alimente la paranoïa jusqu’au drame

1 septembre 2025 à 16:44
Le Wall Street Journal a publié une enquête glaçante sur le rôle joué par ChatGPT dans un drame familial survenu à Old Greenwich, dans le Connecticut. L’affaire met en lumière les risques de dérive psychologique liés à l’usage intensif des robots conversationnels. Stein-Erik Soelberg, un vétéran de l’industrie technologique âgé de 56 ans, souffrait depuis […]

Aligner l’IA sur les Objectifs de développement durable : un cadre universel pour le bien commun

1 septembre 2025 à 11:24
La professeure de droit de l’Université de Montréal, Catherine Regis, en compagnie de la doctorante Marie Zumstein et sa collègue Karine Gentelet, viennent de produire un rapport qui explore l’enjeu de l’alignement entre l’intelligence artificielle et les Objectifs de développement durable (ODD), ainsi que les pistes d’action possibles à cet égard. Ce travail, disponible sur […]
  • ✇#MonCarnet
  • L’essor des agents d’achat propulsés par l’IA bouleverse le commerce en ligne
    Les géants de l’intelligence artificielle misent désormais sur le magasinage comme terrain privilégié pour leurs “agents” autonomes, redessinant déjà les codes du commerce électronique. OpenAI, Google, Perplexity et Microsoft testent ou déploient des fonctionnalités capables de rechercher, comparer et même effectuer des achats à la place des consommateurs. Cette évolution marque un tournant. Les internautes […]
     

L’essor des agents d’achat propulsés par l’IA bouleverse le commerce en ligne

1 septembre 2025 à 10:07
Les géants de l’intelligence artificielle misent désormais sur le magasinage comme terrain privilégié pour leurs “agents” autonomes, redessinant déjà les codes du commerce électronique. OpenAI, Google, Perplexity et Microsoft testent ou déploient des fonctionnalités capables de rechercher, comparer et même effectuer des achats à la place des consommateurs. Cette évolution marque un tournant. Les internautes […]

Meta dans la tourmente après l’affaire des robots conversationnels imitant Taylor Swift et d’autres célébrités

1 septembre 2025 à 06:00
Meta fait face à un scandale majeur après la révélation de Reuters selon laquelle des robots conversationnels sur Facebook, Instagram et WhatsApp ont imité Taylor Swift, Scarlett Johansson, Anne Hathaway et Selena Gomez sans leur autorisation. Ces bots, parfois créés par des utilisateurs mais aussi par au moins un employé de Meta, ont généré des […]

L’explosion des robots conversationnels : que révèlent 55,88 milliards de visites en un an

31 août 2025 à 06:30
Le marché des robots conversationnels vit son propre Big Bang. Selon l’étude The AI Big Bang 2025, publiée début août, plus de 10 500 outils d’IA ont attiré près de 100 milliards de visites en douze mois, entre août 2024 et juillet 2025. Mais ce qui frappe, c’est la concentration du secteur : dix plateformes […]
  • ✇#MonCarnet
  • Yoshua Bengio de nouveau honoré par le magazine TIME
    Le chercheur montréalais Yoshua Bengio figure une fois de plus dans la prestigieuse liste TIME100 AI, publiée cette semaine par le magazine TIME, qui recense chaque année les personnalités les plus influentes du monde de l’intelligence artificielle. Déjà reconnu comme l’un des « parrains de l’IA », Bengio y est présenté comme une voix essentielle […]
     

Yoshua Bengio de nouveau honoré par le magazine TIME

29 août 2025 à 13:18
Le chercheur montréalais Yoshua Bengio figure une fois de plus dans la prestigieuse liste TIME100 AI, publiée cette semaine par le magazine TIME, qui recense chaque année les personnalités les plus influentes du monde de l’intelligence artificielle. Déjà reconnu comme l’un des « parrains de l’IA », Bengio y est présenté comme une voix essentielle […]
  • ✇#MonCarnet
  • Microsoft présente ses propres modèles d’IA de pointe
    Microsoft a franchi un nouveau cap dans la course à l’intelligence artificielle. L’entreprise a annoncé le lancement de deux modèles conçus en interne, qu’elle estime capables de rivaliser avec les meilleures offres mondiales, marquant une rupture avec sa dépendance historique aux technologies d’OpenAI. Sous la direction de Mustafa Suleyman, cofondateur de DeepMind puis d’Inflection AI, […]
     

Microsoft présente ses propres modèles d’IA de pointe

29 août 2025 à 07:00
Microsoft a franchi un nouveau cap dans la course à l’intelligence artificielle. L’entreprise a annoncé le lancement de deux modèles conçus en interne, qu’elle estime capables de rivaliser avec les meilleures offres mondiales, marquant une rupture avec sa dépendance historique aux technologies d’OpenAI. Sous la direction de Mustafa Suleyman, cofondateur de DeepMind puis d’Inflection AI, […]
  • ✇#MonCarnet
  • Microsoft Copilot s’invite sur les téléviseurs Samsung
    Microsoft annonce que son assistant numérique Copilot est désormais disponible sur une sélection de téléviseurs et de moniteurs intelligents Samsung de la gamme 2025. Déployé via une mise à jour logicielle, Copilot entend transformer l’expérience télévisuelle en intégrant la recherche et la découverte de contenus à travers une interface vocale sophistiquée. Les utilisateurs peuvent formuler […]
     

Microsoft Copilot s’invite sur les téléviseurs Samsung

29 août 2025 à 06:30
Microsoft annonce que son assistant numérique Copilot est désormais disponible sur une sélection de téléviseurs et de moniteurs intelligents Samsung de la gamme 2025. Déployé via une mise à jour logicielle, Copilot entend transformer l’expérience télévisuelle en intégrant la recherche et la découverte de contenus à travers une interface vocale sophistiquée. Les utilisateurs peuvent formuler […]
  • ✇#MonCarnet
  • ALL IN 2025 : Montréal se prépare à accueillir 6 000 experts de l’IA
    Le Canada s’apprête à accueillir l’un des plus grands rendez-vous mondiaux consacrés à l’intelligence artificielle. Les 24 et 25 septembre, le Palais des congrès de Montréal sera l’hôte d’ALL IN 2025, troisième édition de l’événement initié par Scale AI et organisé en collaboration avec Mila. Plus de 6 000 participants de près de 40 pays […]
     

ALL IN 2025 : Montréal se prépare à accueillir 6 000 experts de l’IA

29 août 2025 à 06:00
Le Canada s’apprête à accueillir l’un des plus grands rendez-vous mondiaux consacrés à l’intelligence artificielle. Les 24 et 25 septembre, le Palais des congrès de Montréal sera l’hôte d’ALL IN 2025, troisième édition de l’événement initié par Scale AI et organisé en collaboration avec Mila. Plus de 6 000 participants de près de 40 pays […]
  • ✇#MonCarnet
  • Nvidia : ventes en hausse de 56 %, l’IA continue de porter la croissance
    Nvidia a encore déjoué les attentes de Wall Street. Le géant des puces, désormais l’entreprise la plus valorisée au monde avec plus de 4 000 milliards de dollars en Bourse, a annoncé une hausse de 56 % de son chiffre d’affaires au dernier trimestre, atteignant 46,7 milliards de dollars. Les profits ont bondi de près […]
     

Nvidia : ventes en hausse de 56 %, l’IA continue de porter la croissance

28 août 2025 à 16:30
Nvidia a encore déjoué les attentes de Wall Street. Le géant des puces, désormais l’entreprise la plus valorisée au monde avec plus de 4 000 milliards de dollars en Bourse, a annoncé une hausse de 56 % de son chiffre d’affaires au dernier trimestre, atteignant 46,7 milliards de dollars. Les profits ont bondi de près […]

L’affaire Adam Raine relance le débat sur la responsabilité des robots conversationnels

27 août 2025 à 08:30
Hier, la journaliste Kashmir Hill du New York Times a révélé une affaire qui suscite de vives interrogations sur les limites des robots conversationnels et leur usage auprès des jeunes. Son enquête raconte l’histoire tragique d’Adam Raine, un adolescent californien de 16 ans qui s’est suicidé en avril dernier, après avoir confié pendant plusieurs mois […]
  • ✇#MonCarnet
  • Anthropic règle une action collective d’auteurs pour violation du droit d’auteur
    Anthropic a conclu un accord à l’amiable avec un groupe d’auteurs américains qui l’accusaient d’avoir utilisé illégalement leurs ouvrages pour entraîner ses modèles d’intelligence artificielle. L’entente, révélée mardi dans un dépôt judiciaire, met fin à une action collective qui menaçait l’entreprise de San Francisco de milliards de dollars en dommages potentiels. Les auteurs Andrea Bartz, […]
     

Anthropic règle une action collective d’auteurs pour violation du droit d’auteur

27 août 2025 à 07:57
Anthropic a conclu un accord à l’amiable avec un groupe d’auteurs américains qui l’accusaient d’avoir utilisé illégalement leurs ouvrages pour entraîner ses modèles d’intelligence artificielle. L’entente, révélée mardi dans un dépôt judiciaire, met fin à une action collective qui menaçait l’entreprise de San Francisco de milliards de dollars en dommages potentiels. Les auteurs Andrea Bartz, […]
  • ✇#MonCarnet
  • Ouragans : le modèle d’IA de Google surpasse les méthodes traditionnelles de prévision
    Google vient de signer un succès remarqué dans le domaine de la prévision météorologique grâce à l’intelligence artificielle. Son modèle spécialisé Weather Lab, conçu par DeepMind pour analyser les trajectoires et l’intensité des cyclones tropicaux, a offert les prévisions les plus précises pour l’ouragan Erin, le plus puissant de la saison atlantique 2025. Devenu un […]
     

Ouragans : le modèle d’IA de Google surpasse les méthodes traditionnelles de prévision

27 août 2025 à 07:30
Google vient de signer un succès remarqué dans le domaine de la prévision météorologique grâce à l’intelligence artificielle. Son modèle spécialisé Weather Lab, conçu par DeepMind pour analyser les trajectoires et l’intensité des cyclones tropicaux, a offert les prévisions les plus précises pour l’ouragan Erin, le plus puissant de la saison atlantique 2025. Devenu un […]
  • ✇#MonCarnet
  • Meta : premiers départs dans le nouveau laboratoire de superintelligence
    Le pari de Mark Zuckerberg sur l’intelligence artificielle supergénérale connaît déjà des turbulences. À peine deux mois après l’annonce en grande pompe de son laboratoire de superintelligence (MSL), au moins trois chercheurs recrutés à prix d’or ont quitté Meta, selon Wired. Avi Verma et Ethan Knight, anciens d’OpenAI, ont rapidement fait le chemin inverse après […]
     

Meta : premiers départs dans le nouveau laboratoire de superintelligence

27 août 2025 à 06:20
Le pari de Mark Zuckerberg sur l’intelligence artificielle supergénérale connaît déjà des turbulences. À peine deux mois après l’annonce en grande pompe de son laboratoire de superintelligence (MSL), au moins trois chercheurs recrutés à prix d’or ont quitté Meta, selon Wired. Avi Verma et Ethan Knight, anciens d’OpenAI, ont rapidement fait le chemin inverse après […]
  • ✇#MonCarnet
  • Gemini muscle son outil d’édition d’images avec une mise à jour majeure
    Google DeepMind vient de donner un sérieux coup d’accélérateur à l’application Gemini en y intégrant son modèle le plus avancé de génération et d’édition d’images. Déjà présenté comme l’un des meilleurs au monde, ce système arrive désormais en version native dans l’app, avec la promesse d’un contrôle plus fin et d’une meilleure fidélité des rendus. […]
     

Gemini muscle son outil d’édition d’images avec une mise à jour majeure

26 août 2025 à 11:29
Google DeepMind vient de donner un sérieux coup d’accélérateur à l’application Gemini en y intégrant son modèle le plus avancé de génération et d’édition d’images. Déjà présenté comme l’un des meilleurs au monde, ce système arrive désormais en version native dans l’app, avec la promesse d’un contrôle plus fin et d’une meilleure fidélité des rendus. […]
  • ✇#MonCarnet
  • L’IA menace près de la moitié des emplois gouvernementaux, selon une étude
    Une nouvelle étude du centre de recherche The Dais, rattaché à l’Université métropolitaine de Toronto, révèle que près de trois quarts des 1,1 million d’emplois du secteur public canadien sont fortement exposés à l’intelligence artificielle. Parmi eux, environ 25 % pourraient être augmentés par la technologie, mais 49 % sont composés de tâches que les […]
     

L’IA menace près de la moitié des emplois gouvernementaux, selon une étude

26 août 2025 à 08:00
Une nouvelle étude du centre de recherche The Dais, rattaché à l’Université métropolitaine de Toronto, révèle que près de trois quarts des 1,1 million d’emplois du secteur public canadien sont fortement exposés à l’intelligence artificielle. Parmi eux, environ 25 % pourraient être augmentés par la technologie, mais 49 % sont composés de tâches que les […]
  • ✇#MonCarnet
  • Intégrer l’IA dans les circuits électroniques avec Radia Kassouri
    Mon Carnet, le podcast · {ENTREVUE} – Intégrer l’IA dans les circuits électroniques avec Radia Kassouri Entrevue avec Radia Kassouri, doctorante en informatique spécialisée en microélectronique, qui travaille sur l’intégration de l’IA directement dans les circuits électroniques. Son objectif est de développer des algorithmes prédictifs embarqués capables d’apprendre, de s’adapter et de corriger des anomalies […]
     

Intégrer l’IA dans les circuits électroniques avec Radia Kassouri

26 août 2025 à 07:01
Mon Carnet, le podcast · {ENTREVUE} – Intégrer l’IA dans les circuits électroniques avec Radia Kassouri Entrevue avec Radia Kassouri, doctorante en informatique spécialisée en microélectronique, qui travaille sur l’intégration de l’IA directement dans les circuits électroniques. Son objectif est de développer des algorithmes prédictifs embarqués capables d’apprendre, de s’adapter et de corriger des anomalies […]
  • ✇#MonCarnet
  • Quand Workleap décide de créer sa propre IA
    Mon Carnet, le podcast · {ENTREVUE} – Quand Workleap décide de créer sa propre IA Workleap, entreprise québécoise en ressources humaines, a développé sa propre IA, Workleap AI, pour garantir la confidentialité des données sensibles et l’intégrer directement aux processus RH. Plus qu’un LLM, c’est un agent capable d’analyser l’engagement, d’appuyer les évaluations de performance […]
     

Quand Workleap décide de créer sa propre IA

26 août 2025 à 07:00
Mon Carnet, le podcast · {ENTREVUE} – Quand Workleap décide de créer sa propre IA Workleap, entreprise québécoise en ressources humaines, a développé sa propre IA, Workleap AI, pour garantir la confidentialité des données sensibles et l’intégrer directement aux processus RH. Plus qu’un LLM, c’est un agent capable d’analyser l’engagement, d’appuyer les évaluations de performance […]
  • ✇#MonCarnet
  • Elon Musk ouvre un nouveau front juridique contre Apple et OpenAI
    Elon Musk poursuit son bras de fer avec l’industrie de l’intelligence artificielle. Son entreprise xAI a déposé une plainte contre Apple et OpenAI, les accusant de collusion pour nuire à son robot conversationnel Grok et à son écosystème numérique. Selon la plainte, Apple aurait volontairement freiné la distribution de Grok sur son App Store afin […]
     

Elon Musk ouvre un nouveau front juridique contre Apple et OpenAI

26 août 2025 à 06:00
Elon Musk poursuit son bras de fer avec l’industrie de l’intelligence artificielle. Son entreprise xAI a déposé une plainte contre Apple et OpenAI, les accusant de collusion pour nuire à son robot conversationnel Grok et à son écosystème numérique. Selon la plainte, Apple aurait volontairement freiné la distribution de Grok sur son App Store afin […]
  • ✇#MonCarnet
  • Quand l’imperfection engendre la créativité des intelligences artificielles
    Depuis quelques années, les générateurs d’images basés sur l’IA, comme DALL·E ou Stable Diffusion, surprennent par leur capacité à produire des visuels inédits, souvent empreints d’une forme de créativité inattendue. Conçus à l’origine pour reproduire fidèlement leurs données d’entraînement, ces modèles ne se contentent pas de copier : ils inventent, recomposent et proposent des créations […]
     

Quand l’imperfection engendre la créativité des intelligences artificielles

25 août 2025 à 10:43
Depuis quelques années, les générateurs d’images basés sur l’IA, comme DALL·E ou Stable Diffusion, surprennent par leur capacité à produire des visuels inédits, souvent empreints d’une forme de créativité inattendue. Conçus à l’origine pour reproduire fidèlement leurs données d’entraînement, ces modèles ne se contentent pas de copier : ils inventent, recomposent et proposent des créations […]
  • ✇#MonCarnet
  • Dieu dans la machine : la montée d’un mouvement religieux centré sur l’IA
    Un nouveau courant spirituel prend forme : le Robothéisme. À l’origine, un créateur de contenu devenu évangéliste de l’intelligence artificielle, qui se fait appeler Artie Fishel. Pour lui, l’IA n’est pas qu’un outil, mais bel et bien Dieu. Arborant perruque blanche et t-shirt « AI is God », il affirme vouloir bâtir une religion que […]
     

Dieu dans la machine : la montée d’un mouvement religieux centré sur l’IA

25 août 2025 à 10:27
Un nouveau courant spirituel prend forme : le Robothéisme. À l’origine, un créateur de contenu devenu évangéliste de l’intelligence artificielle, qui se fait appeler Artie Fishel. Pour lui, l’IA n’est pas qu’un outil, mais bel et bien Dieu. Arborant perruque blanche et t-shirt « AI is God », il affirme vouloir bâtir une religion que […]
  • ✇#MonCarnet
  • Meta s’allie à Midjourney pour renforcer son offre en IA générative
    Meta a annoncé un partenariat stratégique avec Midjourney, le laboratoire spécialisé dans la génération d’images et de vidéos à partir de textes. L’accord prévoit que Meta puisse utiliser la « technologie esthétique » de Midjourney dans ses futurs modèles et produits, une décision qui vise à renforcer l’attractivité de ses services face à une concurrence […]
     

Meta s’allie à Midjourney pour renforcer son offre en IA générative

25 août 2025 à 09:10
Meta a annoncé un partenariat stratégique avec Midjourney, le laboratoire spécialisé dans la génération d’images et de vidéos à partir de textes. L’accord prévoit que Meta puisse utiliser la « technologie esthétique » de Midjourney dans ses futurs modèles et produits, une décision qui vise à renforcer l’attractivité de ses services face à une concurrence […]
  • ✇#MonCarnet
  • Journalisme et intelligence artificielle avec Florent Daudens
    Mon Carnet, le podcast · {ENTREVUE} – Journalisme et intelligence artificielle avec Florent Daudens Florent Daudens, responsable de la presse chez Hugging Face et enseignant à l’UdeM, explique que l’IA est d’abord utilisée pour améliorer la productivité, mais qu’elle sert de plus en plus à créer de nouveaux produits et expériences. Selon lui, le journalisme, […]
     

Journalisme et intelligence artificielle avec Florent Daudens

25 août 2025 à 07:01
Mon Carnet, le podcast · {ENTREVUE} – Journalisme et intelligence artificielle avec Florent Daudens Florent Daudens, responsable de la presse chez Hugging Face et enseignant à l’UdeM, explique que l’IA est d’abord utilisée pour améliorer la productivité, mais qu’elle sert de plus en plus à créer de nouveaux produits et expériences. Selon lui, le journalisme, […]
  • ✇#MonCarnet
  • Netflix encadre l’usage de l’IA générative dans ses productions
    Netflix vient de publier un document interne détaillant ses règles d’utilisation de l’intelligence artificielle générative dans ses productions de contenu. L’entreprise considère ces outils comme de précieux alliés créatifs, mais insiste sur une utilisation transparente, sécurisée et respectueuse des droits des artistes et des partenaires. La plateforme demande à ses producteurs et prestataires de toujours […]
     

Netflix encadre l’usage de l’IA générative dans ses productions

22 août 2025 à 08:30
Netflix vient de publier un document interne détaillant ses règles d’utilisation de l’intelligence artificielle générative dans ses productions de contenu. L’entreprise considère ces outils comme de précieux alliés créatifs, mais insiste sur une utilisation transparente, sécurisée et respectueuse des droits des artistes et des partenaires. La plateforme demande à ses producteurs et prestataires de toujours […]
  • ✇#MonCarnet
  • Meta signe un contrat infonuagique de 10 milliards $ avec Google
    Meta a conclu un accord majeur avec Google Cloud, estimé à plus de 10 milliards de dollars sur six ans, selon des sources proches du dossier. Ce partenariat permettra à Meta d’utiliser les serveurs, le stockage, le réseau et les services de Google, incluant l’accès aux unités de traitement graphique (GPU) de Nvidia installées dans […]
     

Meta signe un contrat infonuagique de 10 milliards $ avec Google

22 août 2025 à 07:30
Meta a conclu un accord majeur avec Google Cloud, estimé à plus de 10 milliards de dollars sur six ans, selon des sources proches du dossier. Ce partenariat permettra à Meta d’utiliser les serveurs, le stockage, le réseau et les services de Google, incluant l’accès aux unités de traitement graphique (GPU) de Nvidia installées dans […]
  • ✇#MonCarnet
  • OpenAI se sert des données de recherche Google pour concurrencer… Google
    Alors qu’OpenAI ambitionne de faire de ChatGPT une véritable alternative au moteur de recherche de Google, l’entreprise de Sam Altman s’appuie en réalité sur les données de recherche de son rival. Selon The Information, OpenAI utiliserait les résultats de Google, obtenus par l’intermédiaire de SerpApi, une société spécialisée dans le scraping de données web. Cette […]
     

OpenAI se sert des données de recherche Google pour concurrencer… Google

22 août 2025 à 07:00
Alors qu’OpenAI ambitionne de faire de ChatGPT une véritable alternative au moteur de recherche de Google, l’entreprise de Sam Altman s’appuie en réalité sur les données de recherche de son rival. Selon The Information, OpenAI utiliserait les résultats de Google, obtenus par l’intermédiaire de SerpApi, une société spécialisée dans le scraping de données web. Cette […]
  • ✇#MonCarnet
  • Z.ai et Alibaba lancent un agent IA tout-en-un pour téléphones et ordinateurs
    L’entreprise chinoise Z.ai, anciennement connue sous le nom de Zhipu, vient d’annoncer un partenariat stratégique avec Alibaba Cloud afin de lancer un nouvel agent d’intelligence artificielle destiné aux téléphones intelligents, tablettes et ordinateurs. L’agent, présenté comme un assistant polyvalent, est capable d’accomplir de façon autonome des tâches quotidiennes comme commander un repas, réserver une chambre […]
     

Z.ai et Alibaba lancent un agent IA tout-en-un pour téléphones et ordinateurs

22 août 2025 à 06:00
L’entreprise chinoise Z.ai, anciennement connue sous le nom de Zhipu, vient d’annoncer un partenariat stratégique avec Alibaba Cloud afin de lancer un nouvel agent d’intelligence artificielle destiné aux téléphones intelligents, tablettes et ordinateurs. L’agent, présenté comme un assistant polyvalent, est capable d’accomplir de façon autonome des tâches quotidiennes comme commander un repas, réserver une chambre […]
  • ✇#MonCarnet
  • Microsoft alerte sur les dangers d’étudier la conscience des IA
    Le patron de l’IA chez Microsoft, Mustafa Suleyman, a déclenché un débat houleux en déclarant que la recherche sur une éventuelle « conscience » des intelligences artificielles était « prématurée et dangereuse ». Selon lui, encourager l’idée que les modèles puissent un jour ressentir ou avoir des droits accentue déjà des problèmes humains émergents, comme […]
     

Microsoft alerte sur les dangers d’étudier la conscience des IA

21 août 2025 à 14:17
Le patron de l’IA chez Microsoft, Mustafa Suleyman, a déclenché un débat houleux en déclarant que la recherche sur une éventuelle « conscience » des intelligences artificielles était « prématurée et dangereuse ». Selon lui, encourager l’idée que les modèles puissent un jour ressentir ou avoir des droits accentue déjà des problèmes humains émergents, comme […]
  • ✇#MonCarnet
  • Google minimise l’empreinte énergétique de Gemini face aux critiques
    Google tente de rassurer sur l’empreinte écologique de son intelligence artificielle. Selon une étude menée par ses propres chercheurs, une requête textuelle envoyée à Gemini consommerait en moyenne 0,24 wattheure d’électricité, soit moins que neuf secondes de télévision moderne. Elle générerait par ailleurs 0,03 gramme d’équivalent CO2 et utiliserait environ cinq gouttes d’eau. Mais le […]
     

Google minimise l’empreinte énergétique de Gemini face aux critiques

21 août 2025 à 13:28
Google tente de rassurer sur l’empreinte écologique de son intelligence artificielle. Selon une étude menée par ses propres chercheurs, une requête textuelle envoyée à Gemini consommerait en moyenne 0,24 wattheure d’électricité, soit moins que neuf secondes de télévision moderne. Elle générerait par ailleurs 0,03 gramme d’équivalent CO2 et utiliserait environ cinq gouttes d’eau. Mais le […]
  • ✇#MonCarnet
  • Made by Google 2025 : le récap complet des annonces
    Voici un tour d’horizon clair et complet des annonces « Made by Google » du 20 août 2025, qui confirment la stratégie de Google : des téléphones intelligents très axés sur l’IA, une montée en puissance de l’écosystème d’accessoires, et un retour ambitieux dans la maison connectée. D’abord un mot sur la forme, Google a […]
     

Made by Google 2025 : le récap complet des annonces

20 août 2025 à 14:59
Voici un tour d’horizon clair et complet des annonces « Made by Google » du 20 août 2025, qui confirment la stratégie de Google : des téléphones intelligents très axés sur l’IA, une montée en puissance de l’écosystème d’accessoires, et un retour ambitieux dans la maison connectée. D’abord un mot sur la forme, Google a […]
  • ✇#MonCarnet
  • Selon Scale AI, l’IA générative peut rapporter gros au Canada, mais le temps presse
    Le Canada a une carte maîtresse pour relancer sa productivité, l’IA générative, mais il lui manque encore l’élan industriel pour transformer l’essai. Un nouveau rapport commandé par Scale AI chiffre à 78 milliards de dollars les gains de productivité cumulatifs possibles d’ici 2030 si treize secteurs déploient réellement ces outils, avec des retombées particulièrement fortes […]
     

Selon Scale AI, l’IA générative peut rapporter gros au Canada, mais le temps presse

20 août 2025 à 13:14
Le Canada a une carte maîtresse pour relancer sa productivité, l’IA générative, mais il lui manque encore l’élan industriel pour transformer l’essai. Un nouveau rapport commandé par Scale AI chiffre à 78 milliards de dollars les gains de productivité cumulatifs possibles d’ici 2030 si treize secteurs déploient réellement ces outils, avec des retombées particulièrement fortes […]
  • ✇#MonCarnet
  • Meta et Character.ai sous enquête au Texas pour leurs robots présentés comme soutien en santé mentale
    Meta et la plateforme Character.ai font l’objet d’une enquête du procureur général du Texas, Ken Paxton, pour pratiques commerciales trompeuses. Les autorités soupçonnent les deux entreprises d’avoir présenté leurs robots conversationnels comme de véritables outils thérapeutiques, alors qu’ils ne disposent ni de qualifications médicales ni de supervision professionnelle. Selon Paxton, ces plateformes peuvent induire en […]
     

Meta et Character.ai sous enquête au Texas pour leurs robots présentés comme soutien en santé mentale

20 août 2025 à 10:57
Meta et la plateforme Character.ai font l’objet d’une enquête du procureur général du Texas, Ken Paxton, pour pratiques commerciales trompeuses. Les autorités soupçonnent les deux entreprises d’avoir présenté leurs robots conversationnels comme de véritables outils thérapeutiques, alors qu’ils ne disposent ni de qualifications médicales ni de supervision professionnelle. Selon Paxton, ces plateformes peuvent induire en […]

Accélérer l’adoption de l’IA générative pourrait rapporter 26,5 milliards au Canada d’ici 2030

20 août 2025 à 09:42
Le Canada pourrait engranger 26,5 milliards de dollars en gains de productivité d’ici 2030 si ses entreprises accélèrent l’adoption de l’IA générative, selon une étude commandée par Scale AI et réalisée par Deloitte. L’analyse estime que 13 grands secteurs, dont la santé, la finance, l’éducation et la fabrication, bénéficieraient d’une forte amélioration de leur rendement […]
  • ✇#MonCarnet
  • Elon Musk dans la tourmente après la publication de conversations sensibles du robot Grok
    Elon Musk et son entreprise d’intelligence artificielle xAI sont confrontés à une nouvelle controverse. Forbes révèle que des centaines de milliers de conversations entre le robot conversationnel Grok et ses utilisateurs ont été rendues publiques, puis indexées par Google, Bing et DuckDuckGo. Ces échanges, souvent partagés à l’origine via un simple bouton « share », […]
     

Elon Musk dans la tourmente après la publication de conversations sensibles du robot Grok

20 août 2025 à 08:02
Elon Musk et son entreprise d’intelligence artificielle xAI sont confrontés à une nouvelle controverse. Forbes révèle que des centaines de milliers de conversations entre le robot conversationnel Grok et ses utilisateurs ont été rendues publiques, puis indexées par Google, Bing et DuckDuckGo. Ces échanges, souvent partagés à l’origine via un simple bouton « share », […]
  • ✇#MonCarnet
  • IA et préservation dans les Alpes
    Mon Carnet, le podcast · {RÉFLEXION} – IA et préservation dans les Alpes Thierry Weber nous emmène dans les Alpes suisses avec le projet MAM-ALPS, mené par l’EPFL, qui utilise plus de 90 caméras pour surveiller la faune alpine. L’intelligence artificielle analyse automatiquement les centaines de milliers de photos récoltées chaque année, reconnaissant les espèces […]
     

IA et préservation dans les Alpes

20 août 2025 à 07:14
Mon Carnet, le podcast · {RÉFLEXION} – IA et préservation dans les Alpes Thierry Weber nous emmène dans les Alpes suisses avec le projet MAM-ALPS, mené par l’EPFL, qui utilise plus de 90 caméras pour surveiller la faune alpine. L’intelligence artificielle analyse automatiquement les centaines de milliers de photos récoltées chaque année, reconnaissant les espèces […]

La Ville de Québec renouvelle un partenariat avec Google pour réduire la congestion routière

19 août 2025 à 23:30

Québec est la seule ville canadienne qui participe, depuis un an, à une initiative du géant américain appelée Green Light.

Cette initiative exploite des données de l’application Google Maps.

Elle vise à optimiser, grâce à l’intelligence artificielle, les cycles de feux de circulation pour:

  • améliorer la fluidité du trafic;
  • réduire les embouteillages et les émissions des véhicules.

En faisant un bilan de la première année du projet, la Ville de Québec a indiqué que des suggestions de Google avaient permis d’améliorer le trafic à 11 intersections en y synchronisant mieux les feux de circulation.

Elle va poursuivre sa collaboration avec la société technologique.

[L'article La Ville de Québec renouvelle un partenariat avec Google pour réduire la congestion routière a d'abord été publié dans InfoBref.]

Le gouvernement fédéral veut que le champion canadien de l’IA l’aide à exploiter cette technologie

19 août 2025 à 20:45

La société torontoise Cohere a signé un protocole d’entente avec Evan Solomon, ministre de l’intelligence artificielle et de l’innovation numérique, et Joël Lightbound, ministre de la transformation du gouvernement, des travaux publics et de l’approvisionnement.

Cohere, qui crée ses propres grands modèles de langage, se spécialise dans la fourniture de services numériques d’IA aux organisations.

Dans un communiqué, le gouvernement fédéral explique qu’il veut à la fois:

  • mettre à profit l’IA dans les services publics; et
  • démontrer «le leadership du Canada en matière d’IA».

[L'article Le gouvernement fédéral veut que le champion canadien de l’IA l’aide à exploiter cette technologie a d'abord été publié dans InfoBref.]

  • ✇#MonCarnet
  • Voyager avec l’intelligence artificielle : promesse ou mirage ?
    L’intelligence artificielle s’invite désormais jusque dans la préparation de nos vacances. Des outils alimentés par des modèles conversationnels promettent d’organiser des itinéraires, d’optimiser les points de fidélité hôteliers et même de traduire une conversation en direct. Mais si la promesse est séduisante, leur efficacité reste contrastée, comme l’a montré un banc d’essai mené par le […]
     

Voyager avec l’intelligence artificielle : promesse ou mirage ?

19 août 2025 à 09:30
L’intelligence artificielle s’invite désormais jusque dans la préparation de nos vacances. Des outils alimentés par des modèles conversationnels promettent d’organiser des itinéraires, d’optimiser les points de fidélité hôteliers et même de traduire une conversation en direct. Mais si la promesse est séduisante, leur efficacité reste contrastée, comme l’a montré un banc d’essai mené par le […]
  • ✇#MonCarnet
  • MIT : 95 % des projets pilotes en IA générative échouent
    Un rapport du MIT met en lumière un constat frappant : 95 % des projets pilotes en intelligence artificielle générative dans les entreprises échouent. Publié par l’initiative NANDA, le document analyse 150 entrevues avec des dirigeants, un sondage auprès de 350 employés et 300 déploiements publics. Résultat : seuls 5 % des projets produisent une […]
     

MIT : 95 % des projets pilotes en IA générative échouent

19 août 2025 à 09:00
Un rapport du MIT met en lumière un constat frappant : 95 % des projets pilotes en intelligence artificielle générative dans les entreprises échouent. Publié par l’initiative NANDA, le document analyse 150 entrevues avec des dirigeants, un sondage auprès de 350 employés et 300 déploiements publics. Résultat : seuls 5 % des projets produisent une […]
  • ✇#MonCarnet
  • Ottawa conclut un partenariat avec Cohere pour renforcer l’écosystème canadien de l’IA
    Le gouvernement du Canada a officialisé un protocole d’entente avec Cohere Inc., entreprise canadienne spécialisée dans les grands modèles de langage, afin de stimuler l’écosystème national de l’intelligence artificielle et d’explorer l’intégration de solutions d’IA dans la fonction publique. L’annonce, faite le 19 août à Ottawa par les ministres Evan Solomon et Joël Lightbound, vise […]
     

Ottawa conclut un partenariat avec Cohere pour renforcer l’écosystème canadien de l’IA

19 août 2025 à 08:30
Le gouvernement du Canada a officialisé un protocole d’entente avec Cohere Inc., entreprise canadienne spécialisée dans les grands modèles de langage, afin de stimuler l’écosystème national de l’intelligence artificielle et d’explorer l’intégration de solutions d’IA dans la fonction publique. L’annonce, faite le 19 août à Ottawa par les ministres Evan Solomon et Joël Lightbound, vise […]
  • ✇#MonCarnet
  • Google épinglé après une arnaque téléphonique relayée par son IA
    Le Washington Post rapporte qu’un promoteur immobilier américain a été victime d’une arnaque après avoir trouvé dans les résultats générés par l’outil « AI Overviews » de Google un faux numéro de service à la clientèle de la compagnie de croisières Royal Caribbean. Persuadé de parler à un représentant officiel, Alex Rivlin a fourni ses […]
     

Google épinglé après une arnaque téléphonique relayée par son IA

19 août 2025 à 07:28
Le Washington Post rapporte qu’un promoteur immobilier américain a été victime d’une arnaque après avoir trouvé dans les résultats générés par l’outil « AI Overviews » de Google un faux numéro de service à la clientèle de la compagnie de croisières Royal Caribbean. Persuadé de parler à un représentant officiel, Alex Rivlin a fourni ses […]
  • ✇#MonCarnet
  • Perch, quand l’IA de Google DeepMind sert la biodiversité
    Mon Carnet, le podcast · {ENTREVUE} – Perch, quand l’IA de Google DeepMind sert la biodiversité Perch, l’outil de bioacoustique développé par Google DeepMind, permet aux chercheurs et écologistes de créer leurs propres détecteurs sonores pour analyser la nature, sur terre comme sous l’eau. La nouvelle version élargit sa base de données à environ 14 […]
     

Perch, quand l’IA de Google DeepMind sert la biodiversité

19 août 2025 à 07:00
Mon Carnet, le podcast · {ENTREVUE} – Perch, quand l’IA de Google DeepMind sert la biodiversité Perch, l’outil de bioacoustique développé par Google DeepMind, permet aux chercheurs et écologistes de créer leurs propres détecteurs sonores pour analyser la nature, sur terre comme sous l’eau. La nouvelle version élargit sa base de données à environ 14 […]
  • ✇#MonCarnet
  • Sam Altman esquisse l’avenir d’OpenAI autour d’un dîner à San Francisco
    À San Francisco, face à la baie et sous l’ambiance feutrée d’un restaurant méditerranéen, Sam Altman a réuni une douzaine de journalistes de la tech pour un dîner qui ressemblait autant à une opération de charme qu’à un briefing stratégique. Le patron d’OpenAI, accompagné de son équipe dirigeante, n’a pas cherché à minimiser les critiques […]
     

Sam Altman esquisse l’avenir d’OpenAI autour d’un dîner à San Francisco

19 août 2025 à 06:30
À San Francisco, face à la baie et sous l’ambiance feutrée d’un restaurant méditerranéen, Sam Altman a réuni une douzaine de journalistes de la tech pour un dîner qui ressemblait autant à une opération de charme qu’à un briefing stratégique. Le patron d’OpenAI, accompagné de son équipe dirigeante, n’a pas cherché à minimiser les critiques […]
  • ✇#MonCarnet
  • OpenAI envisage le chiffrement pour ChatGPT face aux données sensibles des utilisateurs
    Sam Altman, directeur général d’OpenAI, a indiqué que l’entreprise réfléchit activement à introduire une forme de chiffrement pour les conversations sur ChatGPT. L’initiative viserait en priorité les discussions temporaires, déjà exclues de l’historique et de l’entraînement des modèles, mais qui restent conservées jusqu’à 30 jours pour des raisons de sécurité. La question du chiffrement s’impose […]
     

OpenAI envisage le chiffrement pour ChatGPT face aux données sensibles des utilisateurs

19 août 2025 à 06:00
Sam Altman, directeur général d’OpenAI, a indiqué que l’entreprise réfléchit activement à introduire une forme de chiffrement pour les conversations sur ChatGPT. L’initiative viserait en priorité les discussions temporaires, déjà exclues de l’historique et de l’entraînement des modèles, mais qui restent conservées jusqu’à 30 jours pour des raisons de sécurité. La question du chiffrement s’impose […]

Québec a publié des lignes directrices sur l’IA pour les cégeps et les universités

18 août 2025 à 20:47

Le gouvernement Legault a dévoilé deux documents qui visent à guider le réseau de l’enseignement supérieur dans l’intégration et l’utilisation de l’intelligence artificielle. 

Un cadre de référence 

Le premier document détaille les principes directeurs et les orientations issus des travaux de l’Instance de concertation nationale sur l’IA en enseignement supérieur. 

Un guide pratique 

Le second document présente aux établissements des exemples concrets pour leur permettre d’établir leur propre gouvernance en IA.

[L'article Québec a publié des lignes directrices sur l’IA pour les cégeps et les universités a d'abord été publié dans InfoBref.]

  • ✇#MonCarnet
  • Québec encadre l’IA sur les campus collégiaux et universitaires
    Québec veut accélérer, sans brusquer, l’adoption responsable de l’intelligence artificielle sur les campus. Aujourd’hui, la ministre de l’Enseignement supérieur Pascale Déry et son adjoint Mario Asselin ont annoncé deux documents de référence destinés aux cégeps et aux universités, résultat d’une Instance de concertation réunissant établissements, syndicats, associations étudiantes et experts. L’objectif affiché est double, clarifier […]
     

Québec encadre l’IA sur les campus collégiaux et universitaires

18 août 2025 à 12:23
Québec veut accélérer, sans brusquer, l’adoption responsable de l’intelligence artificielle sur les campus. Aujourd’hui, la ministre de l’Enseignement supérieur Pascale Déry et son adjoint Mario Asselin ont annoncé deux documents de référence destinés aux cégeps et aux universités, résultat d’une Instance de concertation réunissant établissements, syndicats, associations étudiantes et experts. L’objectif affiché est double, clarifier […]
  • ✇#MonCarnet
  • IA : la nouvelle fabrique à milliardaires
    L’intelligence artificielle n’en finit plus de créer des fortunes colossales. Selon CNBC, jamais dans l’histoire récente on n’a assisté à une telle accélération de la création de richesse. À la faveur de levées de fonds spectaculaires et de valorisations records, des dizaines de nouveaux milliardaires émergent en quelques mois, principalement autour des jeunes pousses de […]
     

IA : la nouvelle fabrique à milliardaires

18 août 2025 à 08:00
L’intelligence artificielle n’en finit plus de créer des fortunes colossales. Selon CNBC, jamais dans l’histoire récente on n’a assisté à une telle accélération de la création de richesse. À la faveur de levées de fonds spectaculaires et de valorisations records, des dizaines de nouveaux milliardaires émergent en quelques mois, principalement autour des jeunes pousses de […]

L’intelligence artificielle remet en question le partage de photos d’enfants en ligne

18 août 2025 à 06:32
Le New York Times s’est récemment penché sur un phénomène qui prend de l’ampleur : la remise en question par les parents du partage de photos de leurs enfants sur les réseaux sociaux, une pratique connue sous le nom de « sharenting ». L’essor des applications d’intelligence artificielle capables de générer des faux nus à […]
  • ✇#MonCarnet
  • Meta AI : la vitrine d’IA de Zuckerberg peine à convaincre
    Bloomberg s’intéresse à la manière dont l’application Meta AI, vitrine grand public des ambitions d’intelligence artificielle de Mark Zuckerberg, peine à convaincre plusieurs mois après son lancement. Présentée en avril comme un assistant conversationnel doublé d’un fil social « Discover » destiné à inspirer ses utilisateurs, cette application incarne la volonté de Meta de se […]
     

Meta AI : la vitrine d’IA de Zuckerberg peine à convaincre

17 août 2025 à 07:30
Bloomberg s’intéresse à la manière dont l’application Meta AI, vitrine grand public des ambitions d’intelligence artificielle de Mark Zuckerberg, peine à convaincre plusieurs mois après son lancement. Présentée en avril comme un assistant conversationnel doublé d’un fil social « Discover » destiné à inspirer ses utilisateurs, cette application incarne la volonté de Meta de se […]
  • ✇#MonCarnet
  • Quand l’IA devient confident : opportunités, risques et dépendance émotionnelle
    L’essor de l’intelligence artificielle ne se limite plus à des usages pratiques comme la recherche, les achats ou la planification de voyages. De plus en plus d’utilisateurs établissent un lien personnel avec ces systèmes, les sollicitant comme coach de vie, confident ou source d’inspiration. Sam Altman, directeur général d’OpenAI, prévoit même que « des milliards […]
     

Quand l’IA devient confident : opportunités, risques et dépendance émotionnelle

17 août 2025 à 07:00
L’essor de l’intelligence artificielle ne se limite plus à des usages pratiques comme la recherche, les achats ou la planification de voyages. De plus en plus d’utilisateurs établissent un lien personnel avec ces systèmes, les sollicitant comme coach de vie, confident ou source d’inspiration. Sam Altman, directeur général d’OpenAI, prévoit même que « des milliards […]
  • ✇#MonCarnet
  • Quand les peluches se transforment en robots conversationnels
    Le New York Times s’est intéressé à une nouvelle génération de jouets connectés : des peluches qui intègrent des robots conversationnels. La start-up californienne Curio, fondée par Misha Sallee et Sam Eaton, commercialise Grem, Grok et Gabbo, trois peluches équipées d’un boîtier Wi-Fi relié à un modèle d’intelligence artificielle capable de discuter avec des enfants […]
     

Quand les peluches se transforment en robots conversationnels

16 août 2025 à 20:00
Le New York Times s’est intéressé à une nouvelle génération de jouets connectés : des peluches qui intègrent des robots conversationnels. La start-up californienne Curio, fondée par Misha Sallee et Sam Eaton, commercialise Grem, Grok et Gabbo, trois peluches équipées d’un boîtier Wi-Fi relié à un modèle d’intelligence artificielle capable de discuter avec des enfants […]

Meta au cœur d’une controverse après la mort d’un retraité liée à un robot conversationnel

16 août 2025 à 07:00
L’agence Reuters a publié un long reportage sur une affaire tragique mettant en cause l’IA conversationnelle de Meta. Thongbue “Bue” Wongbandue, un retraité de 76 ans du New Jersey souffrant de troubles cognitifs, est décédé après avoir tenté de rejoindre à New York une interlocutrice virtuelle baptisée “Big sis Billie” avec qui il échangeait sur […]
❌