Selon le Financial Times, le gouvernement chinois a pris cette décision parce qu’il soutient que l’entreprise américaine a enfreint ses lois antimonopoles.
Nvidia avait pourtant développé une puce spécialement conçue pour le marché chinois, et conforme aux restrictions américaines sur les exportations.
L’action de Nvidia (Nasdaq: NVDA) a baissé de presque 3% à l’annonce de l’interdiction.
Pékin aurait par ailleurs exercé des pressions sur les entreprises technologiques chinoises po
Selon le Financial Times, le gouvernement chinois a pris cette décision parce qu’il soutient que l’entreprise américaine a enfreint ses lois antimonopoles.
Nvidia avait pourtant développé une puce spécialement conçue pour le marché chinois, et conforme aux restrictions américaines sur les exportations.
L’action de Nvidia (Nasdaq: NVDA) a baissé de presque 3% à l’annonce de l’interdiction.
Pékin aurait par ailleurs exercé des pressions sur les entreprises technologiques chinoises pour qu’elles conçoivent leurs propres semi-conducteurs.
OpenAI, en collaboration avec le National Bureau of Economic Research et l’économiste de Harvard David Deming, vient de publier la plus grande étude jamais réalisée sur l’utilisation de ChatGPT par les consommateurs. Basée sur l’analyse anonyme de 1,5 million de conversations, cette recherche offre un aperçu inédit de la manière dont l’IA s’intègre dans la […]
OpenAI, en collaboration avec le National Bureau of Economic Research et l’économiste de Harvard David Deming, vient de publier la plus grande étude jamais réalisée sur l’utilisation de ChatGPT par les consommateurs. Basée sur l’analyse anonyme de 1,5 million de conversations, cette recherche offre un aperçu inédit de la manière dont l’IA s’intègre dans la […]
Depuis l’arrivée massive de l’intelligence artificielle dans les logiciels d’entreprise, des géants comme Microsoft et Salesforce affirmaient avoir une longueur d’avance. Ils disposaient déjà des liens solides avec les grandes entreprises mondiales et contrôlaient des applications incontournables pour gérer données clients et prévisions de ventes. Ajouter de l’IA à ces outils semblait une évidence, promettant […]
Depuis l’arrivée massive de l’intelligence artificielle dans les logiciels d’entreprise, des géants comme Microsoft et Salesforce affirmaient avoir une longueur d’avance. Ils disposaient déjà des liens solides avec les grandes entreprises mondiales et contrôlaient des applications incontournables pour gérer données clients et prévisions de ventes. Ajouter de l’IA à ces outils semblait une évidence, promettant […]
Anthropic et OpenAI accélèrent leurs efforts pour développer ce qu’ils appellent des « co-workers virtuels ». L’idée est d’apprendre aux modèles d’intelligence artificielle à utiliser directement des logiciels d’entreprise comme Salesforce, Zendesk ou encore Cerner, afin de reproduire des tâches complexes effectuées par les employés de bureau. Pour y parvenir, les chercheurs créent des copies […]
Anthropic et OpenAI accélèrent leurs efforts pour développer ce qu’ils appellent des « co-workers virtuels ». L’idée est d’apprendre aux modèles d’intelligence artificielle à utiliser directement des logiciels d’entreprise comme Salesforce, Zendesk ou encore Cerner, afin de reproduire des tâches complexes effectuées par les employés de bureau. Pour y parvenir, les chercheurs créent des copies […]
Le patron de Zoom, Eric Yuan, partage désormais la même vision que Bill Gates, Jensen Huang et Jamie Dimon : l’intelligence artificielle pourrait bientôt transformer radicalement nos horaires de travail, ouvrant la voie à des semaines de trois ou quatre jours. Dans une entrevue accordée au New York Times, Yuan s’est dit convaincu que les […]
Le patron de Zoom, Eric Yuan, partage désormais la même vision que Bill Gates, Jensen Huang et Jamie Dimon : l’intelligence artificielle pourrait bientôt transformer radicalement nos horaires de travail, ouvrant la voie à des semaines de trois ou quatre jours. Dans une entrevue accordée au New York Times, Yuan s’est dit convaincu que les […]
Dans un long entretien accordé au New York Times, Eric Yuan, le fondateur et PDG de Zoom, revient sur le parcours fulgurant de son entreprise, propulsée au rang de phénomène mondial durant la pandémie de Covid-19, puis ramenée à des proportions plus modestes depuis. S’il reconnaît que la crise sanitaire a été un moment « […]
Dans un long entretien accordé au New York Times, Eric Yuan, le fondateur et PDG de Zoom, revient sur le parcours fulgurant de son entreprise, propulsée au rang de phénomène mondial durant la pandémie de Covid-19, puis ramenée à des proportions plus modestes depuis. S’il reconnaît que la crise sanitaire a été un moment « […]
La moitié de ce montant doit servir à y développer l’intelligence artificielle et des infrastructures infonuagiques.
L’autre moitié doit soutenir d’autres activités de Microsoft au Royaume-Uni.
Cet investissement a été annoncé au moment où Donald Trump entame une visite d’État à Londres.
Les gouvernements américain et britannique ont prévu de conclure un partenariat de coopération technologique dans les domaines de l’intelligence artificielle, l’informatique quantique et l’énergie
La moitié de ce montant doit servir à y développer l’intelligence artificielle et des infrastructures infonuagiques.
L’autre moitié doit soutenir d’autres activités de Microsoft au Royaume-Uni.
Cet investissement a été annoncé au moment où Donald Trump entame une visite d’État à Londres.
Les gouvernements américain et britannique ont prévu de conclure un partenariat de coopération technologique dans les domaines de l’intelligence artificielle, l’informatique quantique et l’énergie nucléaire.
Une expérience menée par Reuters avec un chercheur de Harvard illustre une pente glissante, où les assistants conversationnels à base d’intelligence artificielle peuvent, parfois avec une étonnante complaisance, aider à concevoir des campagnes d’hameçonnage sophistiquées. L’enquête, qui a testé plusieurs grands chatbots puis évalué l’impact de leurs textes sur 108 volontaires âgés, montre que la […]
Une expérience menée par Reuters avec un chercheur de Harvard illustre une pente glissante, où les assistants conversationnels à base d’intelligence artificielle peuvent, parfois avec une étonnante complaisance, aider à concevoir des campagnes d’hameçonnage sophistiquées. L’enquête, qui a testé plusieurs grands chatbots puis évalué l’impact de leurs textes sur 108 volontaires âgés, montre que la […]
L’intelligence artificielle générative connaît une vitesse d’adoption sans précédent. Selon Anthropic, 40 % des employés américains déclaraient utiliser l’IA au travail en 2025, soit le double d’il y a deux ans. Une accélération vertigineuse si on la compare à l’électricité, qui a mis trois décennies à atteindre les foyers ruraux, ou à l’internet, qui a […]
L’intelligence artificielle générative connaît une vitesse d’adoption sans précédent. Selon Anthropic, 40 % des employés américains déclaraient utiliser l’IA au travail en 2025, soit le double d’il y a deux ans. Une accélération vertigineuse si on la compare à l’électricité, qui a mis trois décennies à atteindre les foyers ruraux, ou à l’internet, qui a […]
Mon Carnet, le podcast · {ENTREVUE} – TELUS : Déploiement de l’IA à grande échelle Entretien avec Alexandre Guilbault, directeur de l’intelligence artificielle et des analyses avancées chez TELUS, qui explique comment son équipe déploie l’IA à grande échelle pour transformer l’expérience client et optimiser les opérations internes. L’entreprise mise sur la transparence, l’IA responsable […]
Mon Carnet, le podcast · {ENTREVUE} – TELUS : Déploiement de l’IA à grande échelle Entretien avec Alexandre Guilbault, directeur de l’intelligence artificielle et des analyses avancées chez TELUS, qui explique comment son équipe déploie l’IA à grande échelle pour transformer l’expérience client et optimiser les opérations internes. L’entreprise mise sur la transparence, l’IA responsable […]
Un nouveau phénomène se développe à grande vitesse : les applications religieuses intégrant des robots conversationnels attirent désormais des dizaines de millions d’utilisateurs dans le monde. Conçus à partir de textes sacrés et parfois de l’IA générative, ces assistants virtuels se présentent comme des confidents spirituels, disponibles à toute heure pour répondre aux doutes, proposer […]
Un nouveau phénomène se développe à grande vitesse : les applications religieuses intégrant des robots conversationnels attirent désormais des dizaines de millions d’utilisateurs dans le monde. Conçus à partir de textes sacrés et parfois de l’IA générative, ces assistants virtuels se présentent comme des confidents spirituels, disponibles à toute heure pour répondre aux doutes, proposer […]
Depuis quelques mois, un nouveau genre de vidéos explose sur YouTube et TikTok : des récits historiques générés par l’intelligence artificielle. En une minute, les spectateurs découvrent des reconstitutions spectaculaires de la vie de Néron, de l’exécution de William Wallace ou encore de la peste noire. Produites grâce à des outils comme CapCut, ces vidéos […]
Depuis quelques mois, un nouveau genre de vidéos explose sur YouTube et TikTok : des récits historiques générés par l’intelligence artificielle. En une minute, les spectateurs découvrent des reconstitutions spectaculaires de la vie de Néron, de l’exécution de William Wallace ou encore de la peste noire. Produites grâce à des outils comme CapCut, ces vidéos […]
À Mulanje, dans le sud du Malawi, les cicatrices du cyclone Freddy de 2023 sont encore visibles. Parmi les victimes, Alex Maere, un cultivateur de maïs, a vu en quelques jours disparaître des décennies de travail, ses récoltes balayées par les inondations. De 850 kilos de maïs par saison, il n’a pu sauver que 8 […]
À Mulanje, dans le sud du Malawi, les cicatrices du cyclone Freddy de 2023 sont encore visibles. Parmi les victimes, Alex Maere, un cultivateur de maïs, a vu en quelques jours disparaître des décennies de travail, ses récoltes balayées par les inondations. De 850 kilos de maïs par saison, il n’a pu sauver que 8 […]
En Albanie, un pays des Balkans au nord-ouest de la Grèce, le premier ministre Edi Rama a présenté une nouvelle «ministre» qui est en fait une intelligence artificielle.
Elle sera chargée d’analyser les candidatures lors des appels d’offres publics.
Cette IA, développée avec Microsoft, est représentée par un avatar féminin en habit traditionnel albanais.
Son rôle est de réduire les risques de corruption et d’améliorer l’efficacité du gouvernement, a précisé le premier ministre.
[L'
En Albanie, un pays des Balkans au nord-ouest de la Grèce, le premier ministre Edi Rama a présenté une nouvelle «ministre» qui est en fait une intelligence artificielle.
Elle sera chargée d’analyser les candidatures lors des appels d’offres publics.
Cette IA, développée avec Microsoft, est représentée par un avatar féminin en habit traditionnel albanais.
Son rôle est de réduire les risques de corruption et d’améliorer l’efficacité du gouvernement, a précisé le premier ministre.
OpenAI et Microsoft ont annoncé jeudi en fin de journée avoir conclu une entente de principe visant à réviser leur partenariat stratégique. Les deux entreprises ont signé un protocole d’entente non contraignant et affirment « travailler activement » à finaliser un accord définitif. Cette étape, encore soumise à l’approbation des autorités de régulation, constitue un […]
OpenAI et Microsoft ont annoncé jeudi en fin de journée avoir conclu une entente de principe visant à réviser leur partenariat stratégique. Les deux entreprises ont signé un protocole d’entente non contraignant et affirment « travailler activement » à finaliser un accord définitif. Cette étape, encore soumise à l’approbation des autorités de régulation, constitue un […]
Les géants chinois Alibaba et Baidu viennent d’entamer un virage majeur : ils utilisent désormais leurs propres puces conçues en interne pour entraîner leurs modèles d’intelligence artificielle, réduisant ainsi leur dépendance aux processeurs Nvidia. Selon des sources proches du dossier, ce basculement illustre une volonté croissante de découpler l’écosystème chinois de l’IA des technologies occidentales, […]
Les géants chinois Alibaba et Baidu viennent d’entamer un virage majeur : ils utilisent désormais leurs propres puces conçues en interne pour entraîner leurs modèles d’intelligence artificielle, réduisant ainsi leur dépendance aux processeurs Nvidia. Selon des sources proches du dossier, ce basculement illustre une volonté croissante de découpler l’écosystème chinois de l’IA des technologies occidentales, […]
L’alerte vient de John Watters, vétéran de la cybersécurité et ancien dirigeant de Mandiant : selon lui, le monde n’est plus qu’à quelques mois d’une cyberattaque totalement autonome, orchestrée par une intelligence artificielle. Ces offensives seraient conçues sur mesure pour chaque cible, capables d’exploiter des failles inédites, sans réutiliser les techniques classiques des pirates informatiques. […]
L’alerte vient de John Watters, vétéran de la cybersécurité et ancien dirigeant de Mandiant : selon lui, le monde n’est plus qu’à quelques mois d’une cyberattaque totalement autonome, orchestrée par une intelligence artificielle. Ces offensives seraient conçues sur mesure pour chaque cible, capables d’exploiter des failles inédites, sans réutiliser les techniques classiques des pirates informatiques. […]
Les géants de la Silicon Valley investissent massivement dans une seule et même approche de l’intelligence artificielle : les modèles de langage. Cette année, Alphabet, Microsoft, Apple et d’autres acteurs vont consacrer 344 milliards de dollars à la construction de centres de données et au perfectionnement de ces systèmes capables de générer du texte, de […]
Les géants de la Silicon Valley investissent massivement dans une seule et même approche de l’intelligence artificielle : les modèles de langage. Cette année, Alphabet, Microsoft, Apple et d’autres acteurs vont consacrer 344 milliards de dollars à la construction de centres de données et au perfectionnement de ces systèmes capables de générer du texte, de […]
Réunis à Québec hier devant plus de 900 participants, Stéphane Garneau, président-directeur général de Micrologic, a profité du 10e anniversaire de la plateforme infonuagique Cirrus pour rappeler l’importance stratégique de la souveraineté des données au pays. Dans une allocution passionnée, il a exhorté les gouvernements à accélérer la mise en place de politiques concrètes afin […]
Réunis à Québec hier devant plus de 900 participants, Stéphane Garneau, président-directeur général de Micrologic, a profité du 10e anniversaire de la plateforme infonuagique Cirrus pour rappeler l’importance stratégique de la souveraineté des données au pays. Dans une allocution passionnée, il a exhorté les gouvernements à accélérer la mise en place de politiques concrètes afin […]
La traditionnelle keynote d’Apple hier, attendue pour le dévoilement de l’iPhone 17, a surpris moins par ses annonces que par ses silences. Si la firme a détaillé ses nouveaux téléphones, AirPods et montres connectées, l’intelligence artificielle, omniprésente lors de la présentation de l’iPhone 16, n’a été évoquée qu’à la marge. Tim Cook a qualifié l’appareil […]
La traditionnelle keynote d’Apple hier, attendue pour le dévoilement de l’iPhone 17, a surpris moins par ses annonces que par ses silences. Si la firme a détaillé ses nouveaux téléphones, AirPods et montres connectées, l’intelligence artificielle, omniprésente lors de la présentation de l’iPhone 16, n’a été évoquée qu’à la marge. Tim Cook a qualifié l’appareil […]
Les grandes plateformes de réservation en ligne se préparent à l’arrivée d’une nouvelle génération de robots conversationnels capables de bousculer leur modèle d’affaires. Booking.com, Expedia et Airbnb multiplient les initiatives pour intégrer l’intelligence artificielle dite « agentique », en s’alliant notamment à OpenAI. L’objectif : ne pas se faire court-circuiter par ces assistants capables d’organiser […]
Les grandes plateformes de réservation en ligne se préparent à l’arrivée d’une nouvelle génération de robots conversationnels capables de bousculer leur modèle d’affaires. Booking.com, Expedia et Airbnb multiplient les initiatives pour intégrer l’intelligence artificielle dite « agentique », en s’alliant notamment à OpenAI. L’objectif : ne pas se faire court-circuiter par ces assistants capables d’organiser […]
Mon Carnet, le podcast · {ENTREVUE} – Base de données climatique et IA responsables avec François William Croteau Entrevue avec le PDG, François William Croteau. L’Institut de la résilience et de l’innovation urbaine qu’il dirige réunit 12 villes pour créer une base de données partagée sur le climat. Objectif : permettre aux chercheurs et aux […]
Mon Carnet, le podcast · {ENTREVUE} – Base de données climatique et IA responsables avec François William Croteau Entrevue avec le PDG, François William Croteau. L’Institut de la résilience et de l’innovation urbaine qu’il dirige réunit 12 villes pour créer une base de données partagée sur le climat. Objectif : permettre aux chercheurs et aux […]
Vodafone a surpris ses abonnés allemands en diffusant sur TikTok une publicité animée par une présentatrice… qui n’existe pas. L’opératrice a confirmé qu’il s’agissait d’une création générative, expliquant tester « différents styles de publicité » et estimant que « l’IA fait désormais partie du quotidien ». L’influenceuse virtuelle ne trompe pas longtemps l’œil averti : […]
Vodafone a surpris ses abonnés allemands en diffusant sur TikTok une publicité animée par une présentatrice… qui n’existe pas. L’opératrice a confirmé qu’il s’agissait d’une création générative, expliquant tester « différents styles de publicité » et estimant que « l’IA fait désormais partie du quotidien ». L’influenceuse virtuelle ne trompe pas longtemps l’œil averti : […]
L’image est saisissante : une intelligence artificielle qui « mange ses propres déchets ». C’est ainsi que Thierry Taboy, membre du conseil d’administration d’Impact AI, et Sébastien Crozier, président du syndicat CFE-CGC Orange, décrivent le phénomène grandissant du « cannibalisme des IA ». Plus les modèles génératifs s’entraînent sur des contenus artificiels qu’ils ont eux-mêmes […]
L’image est saisissante : une intelligence artificielle qui « mange ses propres déchets ». C’est ainsi que Thierry Taboy, membre du conseil d’administration d’Impact AI, et Sébastien Crozier, président du syndicat CFE-CGC Orange, décrivent le phénomène grandissant du « cannibalisme des IA ». Plus les modèles génératifs s’entraînent sur des contenus artificiels qu’ils ont eux-mêmes […]
Chez OpenAI, la fiabilité des modèles d’intelligence artificielle demeure un enjeu central. Malgré les progrès réalisés avec GPT-5, un phénomène persiste : les « hallucinations ». Par ce terme, on désigne les réponses fausses mais formulées avec assurance par un modèle. Dans un nouveau document de recherche, les chercheurs expliquent que ce biais provient des […]
Chez OpenAI, la fiabilité des modèles d’intelligence artificielle demeure un enjeu central. Malgré les progrès réalisés avec GPT-5, un phénomène persiste : les « hallucinations ». Par ce terme, on désigne les réponses fausses mais formulées avec assurance par un modèle. Dans un nouveau document de recherche, les chercheurs expliquent que ce biais provient des […]
Le patron d’OpenAI, Sam Altman, a relancé la semaine dernière un vieux concept conspirationniste : la « dead internet theory ». Dans un message publié sur X, il reconnaît qu’il commence à craindre que cette hypothèse devienne réalité, notant l’explosion de comptes automatisés gérés par des modèles d’intelligence artificielle. La théorie en question suggère que la majorité […]
Le patron d’OpenAI, Sam Altman, a relancé la semaine dernière un vieux concept conspirationniste : la « dead internet theory ». Dans un message publié sur X, il reconnaît qu’il commence à craindre que cette hypothèse devienne réalité, notant l’explosion de comptes automatisés gérés par des modèles d’intelligence artificielle. La théorie en question suggère que la majorité […]
À 77 ans, Geoffrey Hinton, prix Nobel de physique et surnommé le « parrain de l’intelligence artificielle », n’a plus rien à prouver. Pourtant, après avoir contribué à façonner les bases des réseaux neuronaux qui ont permis l’explosion de l’IA moderne, il consacre désormais son énergie à alerter sur ses dangers. Lors d’un entretien accordé […]
À 77 ans, Geoffrey Hinton, prix Nobel de physique et surnommé le « parrain de l’intelligence artificielle », n’a plus rien à prouver. Pourtant, après avoir contribué à façonner les bases des réseaux neuronaux qui ont permis l’explosion de l’IA moderne, il consacre désormais son énergie à alerter sur ses dangers. Lors d’un entretien accordé […]
Une enquête du New York Times met en lumière l’usage de l’intelligence artificielle par des fraudeurs qui usurpent l’identité de professionnels de santé afin de commercialiser sur le web des remèdes aux promesses douteuses. Ces vidéos truquées, qui circulent massivement sur Facebook, TikTok et YouTube, imitent l’image et la voix de spécialistes sans leur consentement, […]
Une enquête du New York Times met en lumière l’usage de l’intelligence artificielle par des fraudeurs qui usurpent l’identité de professionnels de santé afin de commercialiser sur le web des remèdes aux promesses douteuses. Ces vidéos truquées, qui circulent massivement sur Facebook, TikTok et YouTube, imitent l’image et la voix de spécialistes sans leur consentement, […]
Lors d’une rencontre récente avec des représentants de Google, l’entreprise a présenté sa vision de la régulation de l’intelligence artificielle. Selon l’entreprise, l’IA est « trop importante pour ne pas être régulée », mais elle doit l’être de manière intelligente afin de maximiser ses bénéfices tout en encadrant ses risques. Le géant américain propose ce […]
Lors d’une rencontre récente avec des représentants de Google, l’entreprise a présenté sa vision de la régulation de l’intelligence artificielle. Selon l’entreprise, l’IA est « trop importante pour ne pas être régulée », mais elle doit l’être de manière intelligente afin de maximiser ses bénéfices tout en encadrant ses risques. Le géant américain propose ce […]
La Première dame des États-Unis, Melania Trump, a annoncé hier le lancement du Presidential AI Challenge, une initiative soutenue par la Maison-Blanche visant à familiariser élèves et enseignants avec l’intelligence artificielle. Le concours s’adresse aux jeunes Américains de la maternelle à la fin du secondaire, ainsi qu’à leurs professeurs, et les invite à développer des […]
La Première dame des États-Unis, Melania Trump, a annoncé hier le lancement du Presidential AI Challenge, une initiative soutenue par la Maison-Blanche visant à familiariser élèves et enseignants avec l’intelligence artificielle. Le concours s’adresse aux jeunes Américains de la maternelle à la fin du secondaire, ainsi qu’à leurs professeurs, et les invite à développer des […]
Le président américain Donald Trump a reçu jeudi soir une impressionnante délégation de patrons de la Silicon Valley et de l’industrie technologique au sein de la Maison-Blanche. L’événement, initialement prévu dans le Rose Garden fraîchement rénové, a finalement eu lieu dans la salle à manger d’État en raison de la pluie. À la table, une […]
Le président américain Donald Trump a reçu jeudi soir une impressionnante délégation de patrons de la Silicon Valley et de l’industrie technologique au sein de la Maison-Blanche. L’événement, initialement prévu dans le Rose Garden fraîchement rénové, a finalement eu lieu dans la salle à manger d’État en raison de la pluie. À la table, une […]
Publié par La Presse, sous la plume de Fannie Arcand, Daphné Cameron et Marie-Eve Morasse, le reportage soulève une question troublante : jusqu’où les robots conversationnels peuvent-ils aller lorsqu’un adolescent en détresse les interpelle ? Les journalistes ont soumis quatre outils ( ChatGPT d’OpenAI, Grok de xAI, Claude d’Anthropic et SnapchatAI ) à des tests […]
Publié par La Presse, sous la plume de Fannie Arcand, Daphné Cameron et Marie-Eve Morasse, le reportage soulève une question troublante : jusqu’où les robots conversationnels peuvent-ils aller lorsqu’un adolescent en détresse les interpelle ? Les journalistes ont soumis quatre outils ( ChatGPT d’OpenAI, Grok de xAI, Claude d’Anthropic et SnapchatAI ) à des tests […]
Apple prépare une contre-attaque dans la course à l’intelligence artificielle. Selon une enquête de Mark Gurman pour Bloomberg, la firme de Cupertino s’apprête à lancer l’an prochain un moteur de recherche web propulsé par l’IA, baptisé en interne World Knowledge Answers. Cette nouvelle technologie sera intégrée d’abord à Siri, avant d’être déployée dans Safari et […]
Apple prépare une contre-attaque dans la course à l’intelligence artificielle. Selon une enquête de Mark Gurman pour Bloomberg, la firme de Cupertino s’apprête à lancer l’an prochain un moteur de recherche web propulsé par l’IA, baptisé en interne World Knowledge Answers. Cette nouvelle technologie sera intégrée d’abord à Siri, avant d’être déployée dans Safari et […]
Dans un reportage publié par Rest of World, la journaliste Viola Zhou raconte l’histoire de sa mère, une patiente greffée d’un rein qui vit dans une petite ville de l’est de la Chine, et sa relation grandissante avec DeepSeek, un robot conversationnel médical. Ce récit illustre une tendance mondiale : l’essor des intelligences artificielles comme […]
Dans un reportage publié par Rest of World, la journaliste Viola Zhou raconte l’histoire de sa mère, une patiente greffée d’un rein qui vit dans une petite ville de l’est de la Chine, et sa relation grandissante avec DeepSeek, un robot conversationnel médical. Ce récit illustre une tendance mondiale : l’essor des intelligences artificielles comme […]
La couverture du livre d’Emily Bender et Alex Hanna.
L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose.
L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».
L’IA n’est rien d’autre que du marketing
Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA.
L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place.
En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes.
Des outils de manipulation… sans entraves
L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée.
Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes.
Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».
Déconstruire l’emballement
Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction.
Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.
De l’automatisation à l’IA : dévaluer le travail
L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût ».
En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques ».
L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. »
Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie.
L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité.
D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts.
Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité.
Babysitter les IA : l’exploitation est la norme
Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent.
Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union.
“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”
L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés »pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer ».
“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges… « Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.
Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes.
« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »
Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler…
Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social ».
On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques.
L’IA, une machine à produire des dommages sociaux
« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique.
Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.
Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs.
Le risque de l’IA, mais lequel et pour qui ?
Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés.
Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna.
Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux.
Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.
Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ?
Face à l’IA, nous devons avoir aucune confiance
Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance.
Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers.
Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale.
Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.
La couverture du livre d’Emily Bender et Alex Hanna.
L’arnaque de l’IA est le titre d’un essai que signent la linguiste Emily Bender et la sociologue Alex Hanna : The AI con : how to fight big tech’s hype and create the future we want (HarperCollins, 2025, non traduit). Emily Bender est professeure de linguistique à l’université de Washington. Elle fait partie des 100 personnalités de l’IA distinguées par le Time en 2023. Elle est surtout connue pour être l’une des co-auteure avec Timnit Geb
AI con pourrait paraître comme un brûlot technocritique, mais il est plutôt une synthèse très documentée de ce qu’est l’IA et de ce qu’elle n’est pas. L’IA est une escroquerie, expliquent les autrices, un moyen que certains acteurs ont trouvé “pour faire les poches de tous les autres”. « Quelques acteurs majeurs bien placés se sont positionnés pour accumuler des richesses importantes en extrayant de la valeur du travail créatif, des données personnelles ou du travail d’autres personnes et en remplaçant des services de qualité par des fac-similés ». Pour elles, l’IA tient bien plus d’une pseudo-technologie qu’autre chose.
L’escroquerie tient surtout dans le discours que ces acteurs tiennent, le battage médiatique, la hype qu’ils entretiennent, les propos qu’ils disséminent pour entretenir la frénésie autour de leurs outils et services. Le cadrage que les promoteurs de l’IA proposent leur permet de faire croire en leur puissance tout en invisibilisant ce que l’IA fait vraiment : « menacer les carrières stables et les remplacer par du travail à la tâche, réduire le personnel, déprécier les services sociaux et dégrader la créativité humaine ».
L’IA n’est rien d’autre que du marketing
Bender et Hanna nous le rappellent avec force. « L’intelligence artificielle est un terme marketing ». L’IA ne se réfère pas à un ensemble cohérent de technologies. « L’IA permet de faire croire à ceux à qui on la vend que la technologie que l’on vend est similaire à l’humain, qu’elle serait capable de faire ce qui en fait, nécessite intrinsèquement le jugement, la perception ou la créativité humaine ». Les calculatrices sont bien meilleures que les humains pour l’arithmétique, on ne les vend pas pour autant comme de l’IA.
L’IA sert à automatiser les décisions, à classifier, à recommander, à traduire et transcrire et à générer des textes ou des images. Toutes ces différentes fonctions assemblées sous le terme d’IA créent l’illusion d’une technologie intelligente, magique, qui permet de produire de l’acceptation autour de l’automatisation quelque soit ses conséquences, par exemple dans le domaine de l’aide sociale. Le battage médiatique, la hype, est également un élément important, car c’est elle qui conduit l’investissement dans ces technologies, qui explique l’engouement pour cet ensemble de méthodes statistiques appelé à changer le monde. « La fonction commerciale de la hype technologique est de booster la vente de produits ». Altman et ses confrères ne sont que des publicitaires qui connectent leurs objectifs commerciaux avec les imaginaires machiniques. Et la hype de l’IA nous promet une vie facile où les machines prendront notre place, feront le travail difficile et répétitif à notre place.
En 1956, quand John McCarthy et Marvin Minsky organisent un atelier au Dartmouth College pour discuter de méthodes pour créer des machines pensantes, le terme d’IA s’impose, notamment pour exclure Norbert Wiener, le pionnier, qui parle lui de cybernétique, estiment les chercheuses. Le terme d’intelligence artificielle va servir pour désigner des outils pour le guidage de systèmes militaires, afin d’attirer des investissements dans le contexte de la guerre froide. Dès le début, la « discipline » repose donc sur de grandes prétentions sans grande caution scientifique, de mauvaises pratiques de citation scientifiques et des objectifs fluctuants pour justifier les projets et attirer les investissements, expliquent Bender et Hanna. Des pratiques qui ont toujours cours aujourd’hui. Dès le début, les promoteurs de l’IA vont soutenir que les ordinateurs peuvent égaler les capacités humaines, notamment en estimant que les capacités humaines ne sont pas si complexes.
Des outils de manipulation… sans entraves
L’une des premières grande réalisation du domaine est le chatbot Eliza de Joseph Weizenbaum, nommée ainsi en référence à Eliza Doolittle, l’héroïne de Pygmalion, la pièce de George Bernard Shaw. Eliza Doolittle est la petite fleuriste prolétaire qui apprend à imiter le discours de la classe supérieure. Derrière ce nom très symbolique, le chatbot est conçu comme un psychothérapeute capable de soutenir une conversation avec son interlocuteur en lui renvoyant sans cesse des questions depuis les termes que son interlocuteur emploie. Weizenbaum était convaincu qu’en montrant le fonctionnement très basique et très trompeur d’Eliza, il permettrait aux utilisateurs de comprendre qu’on ne pouvait pas compatir à ses réponses. C’est l’inverse qui se produisit pourtant. Tout mécanique qu’était Eliza, Weizenbaum a été surpris de l’empathie générée par son tour de passe-passe, comme l’expliquait Ben Tarnoff. Eliza n’en sonne pas moins l’entrée dans l’âge de l’IA. Son créateur, lui, passera le reste de sa vie à être très critique de l’IA, d’abord en s’inquiétant de ses effets sur les gens. Eliza montrait que le principe d’imitation de l’humain se révélait particulièrement délétère, notamment en trompant émotionnellement ses interlocuteurs, ceux-ci interprétant les réponses comme s’ils étaient écoutés par cette machine. Dès l’origine, donc, rappellent Bender et Hanna, l’IA est une discipline de manipulation sans entrave biberonnée aux investissements publics et à la spéculation privée.
Bien sûr, il y a des applications de l’IA bien testées et utiles, conviennent-elles. Les correcteurs orthographiques par exemple ou les systèmes d’aide à la détection d’anomalies d’images médicales. Mais, en quelques années, l’IA est devenue la solution à toutes les activités humaines. Pourtant, toutes, mêmes les plus accomplies, comme les correcteurs orthographiques ou les systèmes d’images médicales ont des défaillances. Et leurs défaillances sont encore plus vives quand les outils sont imbriqués à d’autres et quand leurs applications vont au-delà des limites de leurs champs d’application pour lesquels elles fonctionnent bien. Dans leur livre, Bender et Hanna multiplient les exemples de défaillances, comme celles que nous évoquons en continue ici, Dans les algorithmes.
Ces défaillances dont la presse et la recherche se font souvent les échos ont des points communs. Toutes reposent sur des gens qui nous survendent les systèmes d’automatisation comme les très versatiles « machines à extruder du texte » – c’est ainsi que Bender et Hanna parlent des chatbots, les comparant implicitement à des imprimantes 3D censées imprimer, plus ou moins fidèlement, du texte depuis tous les textes, censées extruder du sens ou plutôt nous le faire croire, comme Eliza nous faisait croire en sa conscience, alors qu’elle ne faisait que berner ses utilisateurs. C’est bien plus nous que ces outils qui sommes capables de mettre du sens là où il n’y en a pas. Comme si ces outils n’étaient finalement que des moteurs à produire des paréidolies, des apophénies, c’est-à-dire du sens, des causalités, là où il n’y en a aucune. « L’IA n’est pas consciente : elle ne va pas rendre votre travail plus facile et les médecins IA ne soigneront aucun de vos maux ». Mais proclamer que l’IA est ou sera consciente produit surtout des effets sur le corps social, comme Eliza produit des effets sur ses utilisateurs. Malgré ce que promet la hype, l’IA risque bien plus de rendre votre travail plus difficile et de réduire la qualité des soins. « La hype n’arrive pas par accident. Elle remplit une fonction : nous effrayer et promettre aux décideurs et aux entrepreneurs de continuer à se remplir les poches ».
Déconstruire l’emballement
Dans leur livre, Bender et Hanna déconstruisent l’emballement. En rappelant d’abord que ces machines ne sont ni conscientes ni intelligentes. L’IA n’est que le résultat d’un traitement statistique à très grande échelle, comme l’expliquait Kate Crawford dans son Contre-Atlas de l’intelligence artificielle. Pourtant, dès les années 50, Minsky promettait déjà la simulation de la conscience. Mais cette promesse, cette fiction, ne sert que ceux qui ont quelque chose à vendre. Cette fiction de la conscience ne sert qu’à dévaluer la nôtre. Les « réseaux neuronaux » sont un terme fallacieux, qui vient du fait que ces premières machines s’inspiraient de ce qu’on croyait savoir du fonctionnement des neurones du cerveau humain dans les années 40. Or, ces systèmes ne font que prédire statistiquement le mot suivant dans leurs données de références. ChatGPT n’est rien d’autre qu’une « saisie automatique améliorée ». Or, comme le rappelle l’effet Eliza, quand nous sommes confrontés à du texte ou à des signes, nous l’interprétons automatiquement. Les bébés n’apprennent pas le langage par une exposition passive et isolée, rappelle la linguiste. Nous apprenons le langage par l’attention partagée avec autrui, par l’intersubjectivité. C’est seulement après avoir appris un langage en face à face que nous pouvons l’utiliser pour comprendre les autres artefacts linguistiques, comme l’écriture. Mais nous continuons d’appliquer la même technique de compréhension : « nous imaginons l’esprit derrière le texte ». Les LLM n’ont ni subjectivité ni intersubjectivité. Le fait qu’ils soient modélisés pour produire et distribuer des mots dans du texte ne signifie pas qu’ils aient accès au sens ou à une quelconque intention. Ils ne produisent que du texte synthétique plausible. ChatGPT n’est qu’une machine à extruder du texte, « comme un processus industriel extrude du plastique ». Leur fonction est une fonction de production… voire de surproduction.
Les promoteurs de l’IA ne cessent de répéter que leurs machines approchent de la conscience ou que les être humains, eux aussi, ne seraient que des perroquets stochastiques. Nous ne serions que des versions organiques des machines et nous devrions échanger avec elles comme si elles étaient des compagnons ou des amis. Dans cet argumentaire, les humains sont réduits à des machines. Weizenbaum estimait pourtant que les machines resserrent plutôt qu’élargissent notre humanité en nous conduisant à croire que nous serions comme elles. « En confiant tant de décisions aux ordinateurs, pensait-il, nous avions créé un monde plus inégal et moins rationnel, dans lequel la richesse de la raison humaine avait été réduite à des routines insensées de code », rappelle Tarnoff. L’informatique réduit les gens et leur expérience à des données. Les promoteurs de l’IA passent leur temps à dévaluer ce que signifie être humain, comme l’ont montré les critiques de celles qui, parce que femmes, personnes trans ou de couleurs, ne sont pas toujours considérées comme des humains, comme celles de Joy Buolamnwini, Timnit Gebru, Sasha Costanza-Chock ou Ruha Benjamin. Cette manière de dévaluer l’humain par la machine, d’évaluer la machine selon sa capacité à résoudre les problèmes n’est pas sans rappeler les dérives de la mesure de l’intelligence et ses délires racistes. La mesure de l’intelligence a toujours été utilisée pour justifier les inégalités de classe, de genre, de race. Et le délire sur l’intelligence des machines ne fait que les renouveler. D’autant que ce mouvement vers l’IA comme industrie est instrumenté par des millionnaires tous problématiques, de Musk à Thiel en passant par Altman ou Andreessen… tous promoteurs de l’eugénisme, tous ultraconservateurs quand ce n’est pas ouvertement fascistes. Bender et Hanna égrènent à leur tour nombre d’exemples des propos problématiques des entrepreneurs et financiers de l’IA. L’IA est un projet politique porté par des gens qui n’ont rien à faire de la démocratie parce qu’elle dessert leurs intérêts et qui tentent de nous convaincre que la rationalité qu’ils portent serait celle dont nous aurions besoin, oubliant de nous rappeler que leur vision du monde est profondément orientée par leurs intérêts – je vous renvoie au livre de Thibault Prévost, Les prophètes de l’IA, qui dit de manière plus politique encore que Bender et Hanna, les dérives idéologiques des grands acteurs de la tech.
De l’automatisation à l’IA : dévaluer le travail
L’IA se déploie partout avec la même promesse, celle qu’elle va améliorer la productivité, quand elle propose d’abord « de remplacer le travail par la technologie ». « L’IA ne va pas prendre votre job. Mais elle va rendre votre travail plus merdique », expliquent les chercheuses. « L’IA est déployée pour dévaluer le travail en menaçant les travailleurs par la technologie qui est supposée faire leur travail à une fraction de son coût ».
En vérité, aucun de ces outils ne fonctionnerait s’ils ne tiraient pas profits de contenus produits par d’autres et s’ils n’exploitaient pas une force de travail massive et sous payée à l’autre bout du monde. L’IA ne propose que de remplacer les emplois et les carrières que nous pouvons bâtir, par du travail à la tâche. L’IA ne propose que de remplacer les travailleurs de la création par des « babysitters de machines synthétiques ».
L’automatisation et la lutte contre l’automatisation par les travailleurs n’est pas nouvelle, rappellent les chercheuses. L’innovation technologique a toujours promis de rendre le travail plus facile et plus simple en augmentant la productivité. Mais ces promesses ne sont que « des fictions dont la fonction ne consiste qu’à vendre de la technologie. L’automatisation a toujours fait partie d’une stratégie plus vaste visant à transférer les coûts sur les travailleurs et à accumuler des richesses pour ceux qui contrôlent les machines. »
Ceux qui s’opposent à l’automatisation ne sont pas de simples Luddites qui refuseraient le progrès (ceux-ci d’ailleurs n’étaient pas opposés à la technologie et à l’innovation, comme on les présente trop souvent, mais bien plus opposés à la façon dont les propriétaires d’usines utilisaient la technologie pour les transformer, d’artisans en ouvriers, avec des salaires de misères, pour produire des produits de moins bonnes qualités et imposer des conditions de travail punitives, comme l’expliquent Brian Merchant dans son livre, Blood in the Machine ou Gavin Mueller dans Breaking things at work. L’introduction des machines dans le secteur de la confection au début du XIXe siècle au Royaume-Uni a réduit le besoin de travailleurs de 75%. Ceux qui sont entrés dans l’industrie ont été confrontés à des conditions de travail épouvantables où les blessures étaient monnaie courantes. Les Luddites étaient bien plus opposés aux conditions de travail de contrôle et de coercition qui se mettaient en place qu’opposés au déploiement des machines), mais d’abord des gens concernés par la dégradation de leur santé, de leur travail et de leur mode de vie.
L’automatisation pourtant va surtout exploser avec le 20e siècle, notamment dans l’industrie automobile. Chez Ford, elle devient très tôt une stratégie. Si l’on se souvient de Ford pour avoir offert de bonnes conditions de rémunération à ses employés (afin qu’ils puissent s’acheter les voitures qu’ils produisaient), il faut rappeler que les conditions de travail étaient tout autant épouvantables et punitives que dans les usines de la confection du début du XIXe siècle. L’automatisation a toujours été associée à la fois au chômage et au surtravail, rappellent les chercheuses. Les machines de minage, introduites dès les années 50 dans les mines, permettaient d’employer 3 fois moins de personnes et étaient particulièrement meurtrières. Aujourd’hui, la surveillance qu’Amazon produit dans ses entrepôts vise à contrôler la vitesse d’exécution et cause elle aussi blessures et stress. L’IA n’est que la poursuite de cette longue tradition de l’industrie à chercher des moyens pour remplacer le travail par des machines, renforcer les contraintes et dégrader les conditions de travail au nom de la productivité.
D’ailleurs, rappellent les chercheuses, quatre mois après la sortie de ChatGPT, les chercheurs d’OpenAI ont publié un rapport assez peu fiable sur l’impact du chatbot sur le marché du travail. Mais OpenAI, comme tous les grands automatiseurs, a vu très tôt son intérêt à promouvoir l’automatisation comme un job killer. C’est le cas également des cabinets de conseils qui vendent aux entreprises des modalités pour réaliser des économies et améliorer les profits, et qui ont également produit des rapports en ce sens. Le remplacement par la technologie est un mythe persistant qui n’a pas besoin d’être réel pour avoir des impacts.
Plus qu’un remplacement par l’IA, cette technologie propose d’abord de dégrader nos conditions de travail. Les scénaristes sont payés moins chers pour réécrire un script que pour en écrire un, tout comme les traducteurs sont payés moins chers pour traduire ce qui a été prémâché par l’IA. Pas étonnant alors que de nombreux collectifs s’opposent à leurs déploiements, à l’image des actions du collectif Safe Street Rebel de San Francisco contre les robots taxis et des attaques (récurrentes) contre les voitures autonomes. Les frustrations se nourrissent des « choses dont nous n’avons pas besoin qui remplissent nos rues, comme des contenus que nous ne voulons pas qui remplissent le web, comme des outils de travail qui s’imposent à nous alors qu’ils ne fonctionnent pas ». Les exemples sont nombreux, à l’image des travailleurs de l’association américaine de lutte contre les désordres alimentaires qui ont été remplacés, un temps, par un chatbot, deux semaines après s’être syndiqués. Un chatbot qui a dû être rapidement retiré, puisqu’il conseillait n’importe quoi à ceux qui tentaient de trouver de l’aide. « Tenter de remplacer le travail par des systèmes d’IA ne consiste pas à faire plus avec moins, mais juste moins pour plus de préjudices » – et plus de bénéfices pour leurs promoteurs. Dans la mode, les mannequins virtuels permettent de créer un semblant de diversité, alors qu’en réalité, ils réduisent les opportunités des mannequins issus de la diversité.
Babysitter les IA : l’exploitation est la norme
Dans cette perspective, le travail avec l’IA consiste de plus en plus à corriger leurs erreurs, à nettoyer, à être les babysitters de l’IA. Des babysitters de plus en plus invisibilisés. Les robotaxis autonomes de Cruise sont monitorés et contrôlés à distance. Tous les outils d’IA ont recours à un travail caché, invisible, externalisé. Et ce dès l’origine, puisqu’ImageNet, le projet fondateur de l’IA qui consistait à labelliser des images pour servir à l’entraînement des machines n’aurait pas été possible sans l’usage du service Mechanical Turk d’Amazon. 50 000 travailleurs depuis 167 pays ont été mobilisés pour créer le dataset qui a permis à l’IA de décoller. « Le modèle d’ImageNet consistant à exploiter des travailleurs à la tâche tout autour du monde est devenue une norme industrielle du secteur« . Aujourd’hui encore, le recours aux travailleurs du clic est persistant, notamment pour la correction des IA. Et les industries de l’IA profitent d’abord et avant tout l’absence de protection des travailleurs qu’ils exploitent.
Pas étonnant donc que les travailleurs tentent de répondre et de s’organiser, à l’image des scénaristes et des acteurs d’Hollywood et de leur 148 jours de grève. Mais toutes les professions ne sont pas aussi bien organisées. D’autres tentent d’autres méthodes, comme les outils des artistes visuels, Glaze et Nightshade, pour protéger leurs créations. Les travailleurs du clics eux aussi s’organisent, par exemple via l’African Content Moderators Union.
“Quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”
L’escroquerie de l’IA se développe également dans les services sociaux. Sous prétexte d’austérité, les solutions automatisées sont partout envisagées comme « la seule voie à suivre pour les services gouvernementaux à court d’argent ». L’accès aux services sociaux est remplacé par des « contrefaçons bon marchés »pour ceux qui ne peuvent pas se payer les services de vrais professionnels. Ce qui est surtout un moyen d’élargir les inégalités au détriment de ceux qui sont déjà marginalisés. Bien sûr, les auteurs font référence ici à des sources que nous avons déjà mobilisés, notamment Virginia Eubanks. « L’automatisation dans le domaine du social au nom de l’efficacité ne rend les autorités efficaces que pour nuire aux plus démunis« . C’est par exemple le cas de la détention préventive. En 2024, 500 000 américains sont en prison parce qu’ils ne peuvent pas payer leurs cautions. Pour remédier à cela, plusieurs Etats ont recours à des solutions algorithmiques pour évaluer le risque de récidive sans résoudre le problème, au contraire, puisque ces calculs ont surtout servi à accabler les plus démunis. A nouveau, « l’automatisation partout vise bien plus à abdiquer la gouvernance qu’à l’améliorer ».
“De partout, quand les services publics se tournent vers des solutions automatisées, c’est bien plus pour se décharger de leurs responsabilités que pour améliorer leurs réponses”, constatent, désabusées, Bender et Hanna. Et ce n’est pas qu’une caractéristique des autorités républicaines, se lamentent les chercheuses. Gavin Newsom, le gouverneur démocrate de la Californie démultiplie les projets d’IA générative, par exemple pour adresser le problème des populations sans domiciles afin de mieux identifier la disponibilité des refuges… « Les machines à extruder du texte pourtant, ne savent que faire cela, pas extruder des abris ». De partout d’ailleurs, toutes les autorités publiques ont des projets de développement de chatbots et des projets de systèmes d’IA pour résoudre les problèmes de société. Les autorités oublient que ce qui affecte la santé, la vie et la liberté des gens nécessite des réponses politiques, pas des artifices artificiels.
Les deux chercheuses multiplient les exemples d’outils défaillants… dans un inventaire sans fin. Pourtant, rappellent-elles, la confiance dans ces outils reposent sur la qualité de leur évaluation. Celle-ci est pourtant de plus en plus le parent pauvre de ces outils, comme le regrettaient Sayash Kapoor et Arvind Narayanan dans leur livre. En fait, l’évaluation elle-même est restée déficiente, rappellent Hanna et Bender. Les tests sont partiels, biaisés par les données d’entraînements qui sont rarement représentatives. Les outils d’évaluation de la transcription automatique par exemple reposent sur le taux de mots erronés, mais comptent tout mots comme étant équivalent, alors que certains peuvent être bien plus importants que d’autres en contexte, par exemple, l’adresse est une donnée très importante quand on appelle un service d’urgence, or, c’est là que les erreurs sont les plus fortes.
« L’IA n’est qu’un pauvre facsimilé de l’Etat providence »
Depuis l’arrivée de l’IA générative, l’évaluation semble même avoir déraillé (voir notre article « De la difficulté à évaluer l’IA »). Désormais, ils deviennent des concours (par exemple en tentant de les classer selon leur réponses à des tests de QI) et des outils de classements pour eux-mêmes, comme s’en inquiétaient déjà les chercheuses dans un article de recherche. La capacité des modèles d’IA générative à performer aux évaluations tient d’un effet Hans le malin, du nom du cheval qui avait appris à décoder les signes de son maître pour faire croire qu’il était capable de compter. On fait passer des tests qu’on propose aux professionnels pour évaluer ces systèmes d’IA, alors qu’ils ne sont pas faits pour eux et qu’ils n’évaluent pas tout ce qu’on regarde au-delà des tests pour ces professions, comme la créativité, le soin aux autres. Malgré les innombrables défaillances d’outils dans le domaine de la santé (on se souvient des algorithmes défaillants de l’assureur UnitedHealth qui produisait des refus de soins deux fois plus élevés que ses concurrents ou ceux d’Epic Systems ou d’autres encore pour allouer des soins, dénoncés par l’association nationale des infirmières…), cela n’empêche pas les outils de proliférer. Amazon avec One Medical explore le triage de patients en utilisant des chatbots, Hippocratic AI lève des centaines de millions de dollars pour produire d’épouvantables chatbots spécialisés. Et ne parlons pas des chatbots utilisés comme psy et coach personnels, aussi inappropriés que l’était Eliza il y a 55 ans… Le fait de pousser l’IA dans la santé n’a pas d’autres buts que de dégrader les conditions de travail des professionnels et d’élargir le fossé entre ceux qui seront capables de payer pour obtenir des soins et les autres qui seront laissés aux « contrefaçons électroniques bon marchés ». Les chercheuses font le même constat dans le développement de l’IA dans le domaine scolaire, où, pour contrer la généralisation de l’usage des outils par les élèves, les institutions investissent dans des outils de détection défaillants qui visent à surveiller et punir les élèves plutôt que les aider, et qui punissent plus fortement les étudiants en difficultés. D’un côté, les outils promettent aux élèves d’étendre leur créativité, de l’autre, ils sont surtout utilisés pour renforcer la surveillance. « Les étudiants n’ont pourtant pas besoin de plus de technologie. Ils ont besoin de plus de professeurs, de meilleurs équipements et de plus d’équipes supports ». Confrontés à l’IA générative, le secteur a du mal à s’adapter expliquait Taylor Swaak pour le Chronicle of Higher Education (voir notre récent dossier sur le sujet). Dans ce secteur comme dans tous les autres, l’IA est surtout vue comme un moyen de réduire les coûts. C’est oublier que l’école est là pour accompagner les élèves, pour apprendre à travailler et que c’est un apprentissage qui prend du temps. L’IA est finalement bien plus le symptôme des problèmes de l’école qu’une solution. Elle n’aidera pas à mieux payer les enseignants ou à convaincre les élèves de travailler…
Dans le social, la santé ou l’éducation, le développement de l’IA est obnubilé par l’efficacité organisationnelle : tout l’enjeu est de faire plus avec moins. L’IA est la solution de remplacement bon marché. « L’IA n’est qu’un pauvre facsimilé de l’Etat providence ». « Elle propose à tous ce que les techs barons ne voudraient pas pour eux-mêmes ». « Les machines qui produisent du texte synthétique ne combleront pas les lacunes de la fabrique du social ».
On pourrait généraliser le constat que nous faisions avec Clearview : l’investissement dans ces outils est un levier d’investissement idéologique qui vise à créer des outils pour contourner et réduire l’État providence, modifier les modèles économiques et politiques.
L’IA, une machine à produire des dommages sociaux
« Nous habitons un écosystème d’information qui consiste à établir des relations de confiance entre des publications et leurs lecteurs. Quand les textes synthétiques se déversent dans cet écosystème, c’est une forme de pollution qui endommage les relations comme la confiance ». Or l’IA promet de faire de l’art bon marché. Ce sont des outils de démocratisation de la créativité, explique par exemple le fondateur de Stability AI, Emad Mostaque. La vérité n’est pourtant pas celle-ci. L’artiste Karla Ortiz, qui a travaillé pour Marvel ou Industrial Light and Magic, expliquait qu’elle a très tôt perdu des revenus du fait de la concurrence initiée par l’IA. Là encore, les systèmes de génération d’image sont déployés pour perturber le modèle économique existant permettant à des gens de faire carrière de leur art. Tous les domaines de la création sont en train d’être déstabilisés. Les “livres extrudés” se démultiplient pour tenter de concurrencer ceux d’auteurs existants ou tromper les acheteurs. Dire que l’IA peut faire de l’art, c’est pourtant mal comprendre que l’art porte toujours une intention que les générateurs ne peuvent apporter. L’art sous IA est asocial, explique la sociologue Jennifer Lena. Quand la pratique artistique est une activité sociale, forte de ses pratiques éthiques comme la citation scientifique. La génération d’images, elle, est surtout une génération de travail dérivé qui copie et plagie l’existant. L’argument génératif semble surtout sonner creux, tant les productions sont souvent identiques aux données depuis lesquelles les textes et images sont formés, soulignent Bender et Hanna. Le projet Galactica de Meta, soutenu par Yann Le Cun lui-même, qui promettait de synthétiser la littérature scientifique et d’en produire, a rapidement été dépublié. « Avec les LLM, la situation est pire que le garbage in/garbage out que l’on connaît” (c’est-à-dire, le fait que si les données d’entrées sont mauvaises, les résultats de sortie le seront aussi). Les LLM produisent du « papier-mâché des données d’entraînement, les écrasant et remixant dans de nouvelles formes qui ne savent pas préserver l’intention des données originelles”. Les promesses de l’IA pour la science répètent qu’elle va pouvoir accélérer la science. C’était l’objectif du grand défi, lancé en 2016 par le chercheur de chez Sony, Hiroaki Kitano : concevoir un système d’IA pour faire des découvertes majeures dans les sciences biomédicales (le grand challenge a été renommé, en 2021, le Nobel Turing Challenge). Là encore, le défi a fait long feu. « Nous ne pouvons déléguer la science, car la science n’est pas seulement une collection de réponses. C’est d’abord un ensemble de processus et de savoirs ». Or, pour les thuriféraires de l’IA, la connaissance scientifique ne serait qu’un empilement, qu’une collection de faits empiriques qui seraient découverts uniquement via des procédés techniques à raffiner. Cette fausse compréhension de la science ne la voit jamais comme l’activité humaine et sociale qu’elle est avant tout. Comme dans l’art, les promoteurs de l’IA ne voient la science que comme des idées, jamais comme une communauté de pratique.
Cette vision de la science explique qu’elle devienne une source de solutions pour résoudre les problèmes sociaux et politiques, dominée par la science informatique, en passe de devenir l’autorité scientifique ultime, le principe organisateur de la science. La surutilisation de l’IA en science risque pourtant bien plus de rendre la science moins innovante et plus vulnérable aux erreurs, estiment les chercheuses. « La prolifération des outils d’IA en science risque d’introduire une phase de recherche scientifique où nous produisons plus, mais comprenons moins« , expliquaient dans Nature Lisa Messeri et M. J. Crockett (sans compter le risque de voir les compétences diminuer, comme le soulignait une récente étude sur la difficulté des spécialistes de l’imagerie médicale à détecter des problèmes sans assistance). L’IA propose surtout un point de vue non situé, une vue depuis nulle part, comme le dénonçait Donna Haraway : elle repose sur l’idée qu’il y aurait une connaissance objective indépendante de l’expérience. « L’IA pour la science nous fait croire que l’on peut trouver des solutions en limitant nos regards à ce qui est éclairé par la lumière des centres de données ». Or, ce qui explique le développement de l’IA scientifique n’est pas la science, mais le capital-risque et les big-tech. L’IA rend surtout les publications scientifiques moins fiables. Bien sûr, cela ne signifie pas qu’il faut rejeter en bloc l’automatisation des instruments scientifiques, mais l’usage généralisé de l’IA risque d’amener plus de risques que de bienfaits.
Mêmes constats dans le monde de la presse, où les chercheuses dénoncent la prolifération de « moulins à contenus”, où l’automatisation fait des ravages dans un secteur déjà en grande difficulté économique. L’introduction de l’IA dans les domaines des arts, de la science ou du journalisme constitue une même cible de choix qui permet aux promoteurs de l’IA de faire croire en l’intelligence de leurs services. Pourtant, leurs productions ne sont pas des preuves de la créativité de ces machines. Sans la créativité des travailleurs qui produisent l’art, la science et le journalisme qui alimentent ces machines, ces machines ne sauraient rien produire. Les contenus synthétiques sont tous basés sur le vol de données et l’exploitation du travail d’autrui. Et l’utilisation de l’IA générative produit d’abord des dommages sociaux dans ces secteurs.
Le risque de l’IA, mais lequel et pour qui ?
Le dernier chapitre du livre revient sur les doomers et les boosters, en renvoyant dos à dos ceux qui pensent que le développement de l’IA est dangereux et les accélérationnistes qui pensent que le développement de l’IA permettra de sauver l’humanité. Pour les uns comme pour les autres, les machines sont la prochaine étape de l’évolution. Ces visions apocalyptiques ont produit un champ de recherche dédié, appelé l’AI Safety. Mais, contrairement à ce qu’il laisse entendre, ce champ disciplinaire ne vient pas de l’ingénierie de la sécurité et ne s’intéresse pas vraiment aux dommages que l’IA engendre depuis ses biais et défaillances. C’est un domaine de recherche centré sur les risques existentiels de l’IA qui dispose déjà d’innombrables centres de recherches dédiés.
Pour éviter que l’IA ne devienne immaîtrisable, beaucoup estiment qu’elle devrait être alignée avec les normes et valeurs humaines. Cette question de l’alignement est considérée comme le Graal de la sécurité pour ceux qui oeuvrent au développement d’une IA superintelligente (OpenAI avait annoncé travailler en 2023 à une superintelligence avec une équipe dédié au « super-alignement », mais l’entreprise à dissous son équipe moins d’un an après son annonce. Ilya Sutskever, qui pilotait l’équipe, a lancé depuis Safe Superintelligence Inc). Derrière l’idée de l’alignement, repose d’abord l’idée que le développement de l’IA serait inévitable. Rien n’est moins sûr, rappellent les chercheuses. La plupart des gens sur la planète n’ont pas besoin d’IA. Et le développement d’outils d’automatisation de masse n’est pas socialement désirable. « Ces technologies servent d’abord à centraliser le pouvoir, à amasser des données, à générer du profit, plutôt qu’à fournir des technologies qui soient socialement bénéfiques à tous ». L’autre problème, c’est que l’alignement de l’IA sur les « valeurs humaines » peine à les définir. Les droits et libertés ne sont des concepts qui ne sont ni universels ni homogènes dans le temps et l’espace. La déclaration des droits de l’homme elle-même s’est longtemps accomodé de l’esclavage. Avec quelles valeurs humaines les outils d’IA s’alignent-ils quand ils sont utilisés pour armer des robots tueurs, pour la militarisation des frontières ou la traque des migrants ?, ironisent avec pertinence Bender et Hanna.
Pour les tenants du risque existentiel de l’IA, les risques existentiels dont il faudrait se prémunir sont avant tout ceux qui menacent la prospérité des riches occidentaux qui déploient l’IA, ironisent-elles encore. Enfin, rappellent les chercheuses, les scientifiques qui travaillent à pointer les risques réels et actuels de l’IA et ceux qui œuvrent à prévenir les risques existentiels ne travaillent pas à la même chose. Les premiers sont entièrement concernés par les enjeux sociaux, raciaux, dénoncent les violences et les inégalités, quand les seconds ne dénoncent que des risques hypothétiques. Les deux champs scientifiques ne se recoupent ni ne se citent entre eux.
Derrière la fausse guerre entre doomers et boomers, les uns se cachent avec les autres. Pour les uns comme pour les autres, le capitalisme est la seule solution aux maux de la société. Les uns comme les autres voient l’IA comme inévitable et désirable parce qu’elle leur promet des marchés sans entraves. Pourtant, rappellent les chercheuses, le danger n’est pas celui d’une IA qui nous exterminerait. Le danger, bien présent, est celui d’une spéculation financière sans limite, d’une dégradation de la confiance dans les médias à laquelle l’IA participe activement, la normalisation du vol de données et de leur exploitation et le renforcement de systèmes imaginés pour punir les plus démunis. Doomers et boosters devraient surtout être ignorés, s’ils n’étaient pas si riches et si influents. L’emphase sur les risques existentiels détournent les autorités des régulations qu’elles devraient produire.
Pour répondre aux défis de la modernité, nous n’avons pas besoin de générateur de textes, mais de gens, de volonté politique et de ressources, concluent les chercheuses. Nous devons collectivement façonner l’innovation pour qu’elle bénéficie à tous plutôt qu’elle n’enrichisse certains. Pour résister à la hype de l’IA, nous devons poser de meilleures questions sur les systèmes qui se déploient. D’où viennent les données ? Qu’est-ce qui est vraiment automatisé ? Nous devrions refuser de les anthropomorphismer : il ne peut y avoir d’infirmière ou de prof IA. Nous devrions exiger de bien meilleures évaluations des systèmes. ShotSpotter, le système vendu aux municipalités américaines pour détecter automatiquement le son des coups de feux, était annoncé avec un taux de performance de 97% (et un taux de faux positif de 0,5% – et c’est encore le cas dans sa FAQ). En réalité, les audits réalisés à Chicago et New York ont montré que 87 à 91% des alertes du systèmes étaient de fausses alertes !Nous devons savoir qui bénéficie de ces technologies, qui en souffre. Quels recours sont disponibles et est-ce que le service de plainte est fonctionnel pour y répondre ?
Face à l’IA, nous devons avoir aucune confiance
Pour les deux chercheuses, la résistance à l’IA passe d’abord et avant tout par luttes collectives. C’est à chacun et à tous de boycotter ces produits, de nous moquer de ceux qui les utilisent. C’est à nous de rendre l’usage des médias synthétiques pour ce qu’ils sont : inutiles et ringards. Pour les deux chercheuses, la résistance à ces déploiements est essentielle, tant les géants de l’IA sont en train de l’imposer, par exemple dans notre rapport à l’information, mais également dans tous leurs outils. C’est à nous de refuser « l’apparente commodité des réponses des chatbots ». C’est à nous d’oeuvrer pour renforcer la régulation de l’IA, comme les lois qui protègent les droits des travailleurs, qui limitent la surveillance.
Emily Bender et Alex Hanna plaident pour une confiance zéro à l’encontre de ceux qui déploient des outils d’IA. Ces principes établis par l’AI Now Institute, Accountable Tech et l’Electronic Privacy Information Center, reposent sur 3 leviers : renforcer les lois existantes, établir des lignes rouges sur les usages inacceptables de l’IA et exiger des entreprises d’IA qu’elles produisent les preuves que leurs produits sont sans dangers.
Mais la régulation n’est hélas pas à l’ordre du jour. Les thuriféraires de l’IA défendent une innovation sans plus aucune entrave afin que rien n’empêche leur capacité à accumuler puissance et fortune. Pour améliorer la régulation, nous avons besoin d’une plus grande transparence, car il n’y aura pas de responsabilité sans elle, soulignent les chercheuses. Nous devons avoir également une transparence sur l’automatisation à l’œuvre, c’est-à-dire que nous devons savoir quand nous interagissons avec un système, quand un texte a été traduit automatiquement. Nous avons le droit de savoir quand nous sommes les sujets soumis aux résultats de l’automatisation. Enfin, nous devons déplacer la responsabilité sur les systèmes eux-mêmes et tout le long de la chaîne de production de l’IA. Les entreprises de l’IA doivent être responsables des données, du travail qu’elles réalisent sur celles-ci, des modèles qu’elles développent et des évaluations. Enfin, il faut améliorer les recours, le droit des données et la minimisation. En entraînant leurs modèles sur toutes les données disponibles, les entreprises de l’IA ont renforcé la nécessité d’augmenter les droits des gens sur leurs données. Enfin, elles plaident pour renforcer les protections du travail en donnant plus de contrôle aux travailleurs sur les outils qui sont déployés et renforcer le droit syndical. Nous devons œuvrer à des « technologies socialement situées », des outils spécifiques plutôt que des outils qui sauraient tout faire. Les applications devraient bien plus respecter les droits des usagers et par exemple ne pas autoriser la collecte de leurs données. Nous devrions enfin défendre un droit à ne pas être évalué par les machines. Comme le dit Ruha Benjamin, en défendant la Justice virale (Princeton University Press, 2022), nous devrions œuvrer à “un monde où la justice est irrésistible”, où rien ne devrait pouvoir se faire pour les gens sans les gens. Nous avons le pouvoir de dire non. Nous devrions refuser la reconnaissance faciale et émotionnelle, car, comme le dit Sarah Hamid du réseau de résistance aux technologies carcérales, au-delà des biais, les technologies sont racistes parce qu’on le leur demande. Nous devons les refuser, comme l’Algorithmic Justice League recommande aux voyageurs de refuser de passer les scanneurs de la reconnaissance faciale.
Bender et Hanna nous invitent à activement résister à la hype. A réaffirmer notre valeur, nos compétences et nos expertises sur celles des machines. Les deux chercheuses ne tiennent pas un propos révolutionnaire pourtant. Elles ne livrent qu’une synthèse, riche, informée. Elles ne nous invitent qu’à activer la résistance que nous devrions naturellement activer, mais qui semble être devenue étrangement radicale ou audacieuse face aux déploiements omnipotents de l’IA.
Une nouvelle étude commandée par IBM met en lumière un phénomène grandissant au Canada : l’« IA fantôme ». Derrière cette expression se cache l’usage, par les employés, d’outils d’intelligence artificielle dans leur travail quotidien sans que ceux-ci soient approuvés ni encadrés par leur service informatique. L’étude, rendue publique le 3 septembre, révèle que 79 […]
Une nouvelle étude commandée par IBM met en lumière un phénomène grandissant au Canada : l’« IA fantôme ». Derrière cette expression se cache l’usage, par les employés, d’outils d’intelligence artificielle dans leur travail quotidien sans que ceux-ci soient approuvés ni encadrés par leur service informatique. L’étude, rendue publique le 3 septembre, révèle que 79 […]
Elon Musk affirme vouloir que Grok, le robot conversationnel développé par sa société xAI et intégré à X, soit « neutre politiquement » et « orienté vers la vérité ». Pourtant, une enquête du New York Times révèle que ses interventions directes influencent fortement les réponses de l’outil, les orientant souvent vers des positions conservatrices. […]
Elon Musk affirme vouloir que Grok, le robot conversationnel développé par sa société xAI et intégré à X, soit « neutre politiquement » et « orienté vers la vérité ». Pourtant, une enquête du New York Times révèle que ses interventions directes influencent fortement les réponses de l’outil, les orientant souvent vers des positions conservatrices. […]
OpenAI se retrouve sous pression après une série d’incidents tragiques où son robot conversationnel ChatGPT est accusé d’avoir contribué, directement ou indirectement, à des drames liés à la santé mentale. Pour répondre aux critiques, l’entreprise américaine annonce une série de nouvelles mesures destinées à sécuriser l’usage de son outil par les adolescents et par les […]
OpenAI se retrouve sous pression après une série d’incidents tragiques où son robot conversationnel ChatGPT est accusé d’avoir contribué, directement ou indirectement, à des drames liés à la santé mentale. Pour répondre aux critiques, l’entreprise américaine annonce une série de nouvelles mesures destinées à sécuriser l’usage de son outil par les adolescents et par les […]
Mila, l’institut québécois d’intelligence artificielle, a officialisé la nomination du professeur Hugo Larochelle au poste de directeur scientifique. Associé à l’Université de Montréal et ancien responsable du laboratoire d’IA de Google à Montréal, Larochelle succède à Laurent Charlin, qui assurait l’intérim depuis que Yoshua Bengio a choisi de se consacrer à un rôle de conseiller […]
Mila, l’institut québécois d’intelligence artificielle, a officialisé la nomination du professeur Hugo Larochelle au poste de directeur scientifique. Associé à l’Université de Montréal et ancien responsable du laboratoire d’IA de Google à Montréal, Larochelle succède à Laurent Charlin, qui assurait l’intérim depuis que Yoshua Bengio a choisi de se consacrer à un rôle de conseiller […]
À l’heure de la rentrée scolaire, l’intelligence artificielle s’impose comme un sujet incontournable pour le monde éducatif. Dans leur podcast Innovation and Prospective Talk, Matthieu Deboeuf-Rouchon et Lionel Tardy se sont penchés sur l’impact de ces technologies sur l’enseignement et sur le rôle des enseignants. Le débat, nourri par les résultats d’une vaste enquête EdSurge–Gallup […]
À l’heure de la rentrée scolaire, l’intelligence artificielle s’impose comme un sujet incontournable pour le monde éducatif. Dans leur podcast Innovation and Prospective Talk, Matthieu Deboeuf-Rouchon et Lionel Tardy se sont penchés sur l’impact de ces technologies sur l’enseignement et sur le rôle des enseignants. Le débat, nourri par les résultats d’une vaste enquête EdSurge–Gallup […]
Le patron de Microsoft, Satya Nadella, a partagé la semaine dernière cinq commandes qu’il adresse quotidiennement à GPT-5 via Copilot, son assistant intégré à Microsoft 365. Ces exemples offrent un aperçu concret de la manière dont l’IA s’impose dans le travail des dirigeants de haut niveau. Dans une série de publications sur X, Nadella a […]
Le patron de Microsoft, Satya Nadella, a partagé la semaine dernière cinq commandes qu’il adresse quotidiennement à GPT-5 via Copilot, son assistant intégré à Microsoft 365. Ces exemples offrent un aperçu concret de la manière dont l’IA s’impose dans le travail des dirigeants de haut niveau. Dans une série de publications sur X, Nadella a […]
lors que l’intelligence artificielle transforme rapidement le monde du travail, Matt Garman, PDG d’Amazon Web Services, insiste sur l’importance des compétences humaines dites « molles » plutôt que des diplômes techniques pointus. Dans une entrevue accordée à CNBC le mois dernier, il a révélé le conseil donné à son propre fils : développer avant tout […]
lors que l’intelligence artificielle transforme rapidement le monde du travail, Matt Garman, PDG d’Amazon Web Services, insiste sur l’importance des compétences humaines dites « molles » plutôt que des diplômes techniques pointus. Dans une entrevue accordée à CNBC le mois dernier, il a révélé le conseil donné à son propre fils : développer avant tout […]
La Chine veut se hisser parmi les leaders mondiaux des interfaces cerveau-ordinateur. Un document de politique publique publié en juillet par sept ministères, dont celui de l’Industrie et des Technologies de l’information et la Commission nationale de la santé, trace une feuille de route ambitieuse : des percées d’ici 2027 et une industrie compétitive à […]
La Chine veut se hisser parmi les leaders mondiaux des interfaces cerveau-ordinateur. Un document de politique publique publié en juillet par sept ministères, dont celui de l’Industrie et des Technologies de l’information et la Commission nationale de la santé, trace une feuille de route ambitieuse : des percées d’ici 2027 et une industrie compétitive à […]
Mon Carnet, le podcast · {ENTREVUE} – Portrait d’innovateurs avec PROMPT no.14 Émilie Delvoye, directrice des communications chez Prompt, accueille Stéphane Turbide de Maket Technologies, qui utilise l’intelligence artificielle pour démocratiser l’architecture auprès des gens qui souhaitent construire ou rénover. Merci à Prompt de soutenir la production de Mon Carnet cette semaine.
Mon Carnet, le podcast · {ENTREVUE} – Portrait d’innovateurs avec PROMPT no.14 Émilie Delvoye, directrice des communications chez Prompt, accueille Stéphane Turbide de Maket Technologies, qui utilise l’intelligence artificielle pour démocratiser l’architecture auprès des gens qui souhaitent construire ou rénover. Merci à Prompt de soutenir la production de Mon Carnet cette semaine.
Mon Carnet, le podcast · {ENTREVUE} – L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé Martin Bélanger, vice-président chez TELUS Santé, estime que l’intelligence artificielle est désormais au cœur de la transformation des soins de santé au Canada. L’IA permet d’automatiser certaines tâches cliniques et administratives, d’améliorer la prise de décision […]
Mon Carnet, le podcast · {ENTREVUE} – L’intégration de l’IA dans le milieu médical avec Martin Bélanger, TELUS Santé Martin Bélanger, vice-président chez TELUS Santé, estime que l’intelligence artificielle est désormais au cœur de la transformation des soins de santé au Canada. L’IA permet d’automatiser certaines tâches cliniques et administratives, d’améliorer la prise de décision […]
Matthew Prince, cofondateur et PDG de Cloudflare, n’a pas pour habitude de s’attaquer aux moulins à vent. Mais cet été, il s’est lancé dans une bataille qui pourrait redéfinir l’avenir du web : obliger les géants de l’intelligence artificielle à rémunérer les créateurs de contenu. Selon lui, la montée des robots conversationnels, qui génèrent des […]
Matthew Prince, cofondateur et PDG de Cloudflare, n’a pas pour habitude de s’attaquer aux moulins à vent. Mais cet été, il s’est lancé dans une bataille qui pourrait redéfinir l’avenir du web : obliger les géants de l’intelligence artificielle à rémunérer les créateurs de contenu. Selon lui, la montée des robots conversationnels, qui génèrent des […]
Le visage de l’influence en ligne est en train de changer. Littéralement. Après l’essor des créateurs humains devenus figures incontournables des campagnes marketing, une nouvelle génération émerge : les influenceurs virtuels générés par l’intelligence artificielle. Ces avatars numériques séduisent déjà des millions d’abonnés et attirent des marques désireuses de bénéficier d’une production rapide, peu coûteuse […]
Le visage de l’influence en ligne est en train de changer. Littéralement. Après l’essor des créateurs humains devenus figures incontournables des campagnes marketing, une nouvelle génération émerge : les influenceurs virtuels générés par l’intelligence artificielle. Ces avatars numériques séduisent déjà des millions d’abonnés et attirent des marques désireuses de bénéficier d’une production rapide, peu coûteuse […]
Le Wall Street Journal a publié une enquête glaçante sur le rôle joué par ChatGPT dans un drame familial survenu à Old Greenwich, dans le Connecticut. L’affaire met en lumière les risques de dérive psychologique liés à l’usage intensif des robots conversationnels. Stein-Erik Soelberg, un vétéran de l’industrie technologique âgé de 56 ans, souffrait depuis […]
Le Wall Street Journal a publié une enquête glaçante sur le rôle joué par ChatGPT dans un drame familial survenu à Old Greenwich, dans le Connecticut. L’affaire met en lumière les risques de dérive psychologique liés à l’usage intensif des robots conversationnels. Stein-Erik Soelberg, un vétéran de l’industrie technologique âgé de 56 ans, souffrait depuis […]
La professeure de droit de l’Université de Montréal, Catherine Regis, en compagnie de la doctorante Marie Zumstein et sa collègue Karine Gentelet, viennent de produire un rapport qui explore l’enjeu de l’alignement entre l’intelligence artificielle et les Objectifs de développement durable (ODD), ainsi que les pistes d’action possibles à cet égard. Ce travail, disponible sur […]
La professeure de droit de l’Université de Montréal, Catherine Regis, en compagnie de la doctorante Marie Zumstein et sa collègue Karine Gentelet, viennent de produire un rapport qui explore l’enjeu de l’alignement entre l’intelligence artificielle et les Objectifs de développement durable (ODD), ainsi que les pistes d’action possibles à cet égard. Ce travail, disponible sur […]
Les géants de l’intelligence artificielle misent désormais sur le magasinage comme terrain privilégié pour leurs “agents” autonomes, redessinant déjà les codes du commerce électronique. OpenAI, Google, Perplexity et Microsoft testent ou déploient des fonctionnalités capables de rechercher, comparer et même effectuer des achats à la place des consommateurs. Cette évolution marque un tournant. Les internautes […]
Les géants de l’intelligence artificielle misent désormais sur le magasinage comme terrain privilégié pour leurs “agents” autonomes, redessinant déjà les codes du commerce électronique. OpenAI, Google, Perplexity et Microsoft testent ou déploient des fonctionnalités capables de rechercher, comparer et même effectuer des achats à la place des consommateurs. Cette évolution marque un tournant. Les internautes […]
Meta fait face à un scandale majeur après la révélation de Reuters selon laquelle des robots conversationnels sur Facebook, Instagram et WhatsApp ont imité Taylor Swift, Scarlett Johansson, Anne Hathaway et Selena Gomez sans leur autorisation. Ces bots, parfois créés par des utilisateurs mais aussi par au moins un employé de Meta, ont généré des […]
Meta fait face à un scandale majeur après la révélation de Reuters selon laquelle des robots conversationnels sur Facebook, Instagram et WhatsApp ont imité Taylor Swift, Scarlett Johansson, Anne Hathaway et Selena Gomez sans leur autorisation. Ces bots, parfois créés par des utilisateurs mais aussi par au moins un employé de Meta, ont généré des […]
Le marché des robots conversationnels vit son propre Big Bang. Selon l’étude The AI Big Bang 2025, publiée début août, plus de 10 500 outils d’IA ont attiré près de 100 milliards de visites en douze mois, entre août 2024 et juillet 2025. Mais ce qui frappe, c’est la concentration du secteur : dix plateformes […]
Le marché des robots conversationnels vit son propre Big Bang. Selon l’étude The AI Big Bang 2025, publiée début août, plus de 10 500 outils d’IA ont attiré près de 100 milliards de visites en douze mois, entre août 2024 et juillet 2025. Mais ce qui frappe, c’est la concentration du secteur : dix plateformes […]
Le chercheur montréalais Yoshua Bengio figure une fois de plus dans la prestigieuse liste TIME100 AI, publiée cette semaine par le magazine TIME, qui recense chaque année les personnalités les plus influentes du monde de l’intelligence artificielle. Déjà reconnu comme l’un des « parrains de l’IA », Bengio y est présenté comme une voix essentielle […]
Le chercheur montréalais Yoshua Bengio figure une fois de plus dans la prestigieuse liste TIME100 AI, publiée cette semaine par le magazine TIME, qui recense chaque année les personnalités les plus influentes du monde de l’intelligence artificielle. Déjà reconnu comme l’un des « parrains de l’IA », Bengio y est présenté comme une voix essentielle […]
Microsoft a franchi un nouveau cap dans la course à l’intelligence artificielle. L’entreprise a annoncé le lancement de deux modèles conçus en interne, qu’elle estime capables de rivaliser avec les meilleures offres mondiales, marquant une rupture avec sa dépendance historique aux technologies d’OpenAI. Sous la direction de Mustafa Suleyman, cofondateur de DeepMind puis d’Inflection AI, […]
Microsoft a franchi un nouveau cap dans la course à l’intelligence artificielle. L’entreprise a annoncé le lancement de deux modèles conçus en interne, qu’elle estime capables de rivaliser avec les meilleures offres mondiales, marquant une rupture avec sa dépendance historique aux technologies d’OpenAI. Sous la direction de Mustafa Suleyman, cofondateur de DeepMind puis d’Inflection AI, […]
Microsoft annonce que son assistant numérique Copilot est désormais disponible sur une sélection de téléviseurs et de moniteurs intelligents Samsung de la gamme 2025. Déployé via une mise à jour logicielle, Copilot entend transformer l’expérience télévisuelle en intégrant la recherche et la découverte de contenus à travers une interface vocale sophistiquée. Les utilisateurs peuvent formuler […]
Microsoft annonce que son assistant numérique Copilot est désormais disponible sur une sélection de téléviseurs et de moniteurs intelligents Samsung de la gamme 2025. Déployé via une mise à jour logicielle, Copilot entend transformer l’expérience télévisuelle en intégrant la recherche et la découverte de contenus à travers une interface vocale sophistiquée. Les utilisateurs peuvent formuler […]
Le Canada s’apprête à accueillir l’un des plus grands rendez-vous mondiaux consacrés à l’intelligence artificielle. Les 24 et 25 septembre, le Palais des congrès de Montréal sera l’hôte d’ALL IN 2025, troisième édition de l’événement initié par Scale AI et organisé en collaboration avec Mila. Plus de 6 000 participants de près de 40 pays […]
Le Canada s’apprête à accueillir l’un des plus grands rendez-vous mondiaux consacrés à l’intelligence artificielle. Les 24 et 25 septembre, le Palais des congrès de Montréal sera l’hôte d’ALL IN 2025, troisième édition de l’événement initié par Scale AI et organisé en collaboration avec Mila. Plus de 6 000 participants de près de 40 pays […]
Nvidia a encore déjoué les attentes de Wall Street. Le géant des puces, désormais l’entreprise la plus valorisée au monde avec plus de 4 000 milliards de dollars en Bourse, a annoncé une hausse de 56 % de son chiffre d’affaires au dernier trimestre, atteignant 46,7 milliards de dollars. Les profits ont bondi de près […]
Nvidia a encore déjoué les attentes de Wall Street. Le géant des puces, désormais l’entreprise la plus valorisée au monde avec plus de 4 000 milliards de dollars en Bourse, a annoncé une hausse de 56 % de son chiffre d’affaires au dernier trimestre, atteignant 46,7 milliards de dollars. Les profits ont bondi de près […]
Hier, la journaliste Kashmir Hill du New York Times a révélé une affaire qui suscite de vives interrogations sur les limites des robots conversationnels et leur usage auprès des jeunes. Son enquête raconte l’histoire tragique d’Adam Raine, un adolescent californien de 16 ans qui s’est suicidé en avril dernier, après avoir confié pendant plusieurs mois […]
Hier, la journaliste Kashmir Hill du New York Times a révélé une affaire qui suscite de vives interrogations sur les limites des robots conversationnels et leur usage auprès des jeunes. Son enquête raconte l’histoire tragique d’Adam Raine, un adolescent californien de 16 ans qui s’est suicidé en avril dernier, après avoir confié pendant plusieurs mois […]
Anthropic a conclu un accord à l’amiable avec un groupe d’auteurs américains qui l’accusaient d’avoir utilisé illégalement leurs ouvrages pour entraîner ses modèles d’intelligence artificielle. L’entente, révélée mardi dans un dépôt judiciaire, met fin à une action collective qui menaçait l’entreprise de San Francisco de milliards de dollars en dommages potentiels. Les auteurs Andrea Bartz, […]
Anthropic a conclu un accord à l’amiable avec un groupe d’auteurs américains qui l’accusaient d’avoir utilisé illégalement leurs ouvrages pour entraîner ses modèles d’intelligence artificielle. L’entente, révélée mardi dans un dépôt judiciaire, met fin à une action collective qui menaçait l’entreprise de San Francisco de milliards de dollars en dommages potentiels. Les auteurs Andrea Bartz, […]
Google vient de signer un succès remarqué dans le domaine de la prévision météorologique grâce à l’intelligence artificielle. Son modèle spécialisé Weather Lab, conçu par DeepMind pour analyser les trajectoires et l’intensité des cyclones tropicaux, a offert les prévisions les plus précises pour l’ouragan Erin, le plus puissant de la saison atlantique 2025. Devenu un […]
Google vient de signer un succès remarqué dans le domaine de la prévision météorologique grâce à l’intelligence artificielle. Son modèle spécialisé Weather Lab, conçu par DeepMind pour analyser les trajectoires et l’intensité des cyclones tropicaux, a offert les prévisions les plus précises pour l’ouragan Erin, le plus puissant de la saison atlantique 2025. Devenu un […]
Le pari de Mark Zuckerberg sur l’intelligence artificielle supergénérale connaît déjà des turbulences. À peine deux mois après l’annonce en grande pompe de son laboratoire de superintelligence (MSL), au moins trois chercheurs recrutés à prix d’or ont quitté Meta, selon Wired. Avi Verma et Ethan Knight, anciens d’OpenAI, ont rapidement fait le chemin inverse après […]
Le pari de Mark Zuckerberg sur l’intelligence artificielle supergénérale connaît déjà des turbulences. À peine deux mois après l’annonce en grande pompe de son laboratoire de superintelligence (MSL), au moins trois chercheurs recrutés à prix d’or ont quitté Meta, selon Wired. Avi Verma et Ethan Knight, anciens d’OpenAI, ont rapidement fait le chemin inverse après […]
Google DeepMind vient de donner un sérieux coup d’accélérateur à l’application Gemini en y intégrant son modèle le plus avancé de génération et d’édition d’images. Déjà présenté comme l’un des meilleurs au monde, ce système arrive désormais en version native dans l’app, avec la promesse d’un contrôle plus fin et d’une meilleure fidélité des rendus. […]
Google DeepMind vient de donner un sérieux coup d’accélérateur à l’application Gemini en y intégrant son modèle le plus avancé de génération et d’édition d’images. Déjà présenté comme l’un des meilleurs au monde, ce système arrive désormais en version native dans l’app, avec la promesse d’un contrôle plus fin et d’une meilleure fidélité des rendus. […]
Une nouvelle étude du centre de recherche The Dais, rattaché à l’Université métropolitaine de Toronto, révèle que près de trois quarts des 1,1 million d’emplois du secteur public canadien sont fortement exposés à l’intelligence artificielle. Parmi eux, environ 25 % pourraient être augmentés par la technologie, mais 49 % sont composés de tâches que les […]
Une nouvelle étude du centre de recherche The Dais, rattaché à l’Université métropolitaine de Toronto, révèle que près de trois quarts des 1,1 million d’emplois du secteur public canadien sont fortement exposés à l’intelligence artificielle. Parmi eux, environ 25 % pourraient être augmentés par la technologie, mais 49 % sont composés de tâches que les […]
Mon Carnet, le podcast · {ENTREVUE} – Intégrer l’IA dans les circuits électroniques avec Radia Kassouri Entrevue avec Radia Kassouri, doctorante en informatique spécialisée en microélectronique, qui travaille sur l’intégration de l’IA directement dans les circuits électroniques. Son objectif est de développer des algorithmes prédictifs embarqués capables d’apprendre, de s’adapter et de corriger des anomalies […]
Mon Carnet, le podcast · {ENTREVUE} – Intégrer l’IA dans les circuits électroniques avec Radia Kassouri Entrevue avec Radia Kassouri, doctorante en informatique spécialisée en microélectronique, qui travaille sur l’intégration de l’IA directement dans les circuits électroniques. Son objectif est de développer des algorithmes prédictifs embarqués capables d’apprendre, de s’adapter et de corriger des anomalies […]
Mon Carnet, le podcast · {ENTREVUE} – Quand Workleap décide de créer sa propre IA Workleap, entreprise québécoise en ressources humaines, a développé sa propre IA, Workleap AI, pour garantir la confidentialité des données sensibles et l’intégrer directement aux processus RH. Plus qu’un LLM, c’est un agent capable d’analyser l’engagement, d’appuyer les évaluations de performance […]
Mon Carnet, le podcast · {ENTREVUE} – Quand Workleap décide de créer sa propre IA Workleap, entreprise québécoise en ressources humaines, a développé sa propre IA, Workleap AI, pour garantir la confidentialité des données sensibles et l’intégrer directement aux processus RH. Plus qu’un LLM, c’est un agent capable d’analyser l’engagement, d’appuyer les évaluations de performance […]
Elon Musk poursuit son bras de fer avec l’industrie de l’intelligence artificielle. Son entreprise xAI a déposé une plainte contre Apple et OpenAI, les accusant de collusion pour nuire à son robot conversationnel Grok et à son écosystème numérique. Selon la plainte, Apple aurait volontairement freiné la distribution de Grok sur son App Store afin […]
Elon Musk poursuit son bras de fer avec l’industrie de l’intelligence artificielle. Son entreprise xAI a déposé une plainte contre Apple et OpenAI, les accusant de collusion pour nuire à son robot conversationnel Grok et à son écosystème numérique. Selon la plainte, Apple aurait volontairement freiné la distribution de Grok sur son App Store afin […]
Depuis quelques années, les générateurs d’images basés sur l’IA, comme DALL·E ou Stable Diffusion, surprennent par leur capacité à produire des visuels inédits, souvent empreints d’une forme de créativité inattendue. Conçus à l’origine pour reproduire fidèlement leurs données d’entraînement, ces modèles ne se contentent pas de copier : ils inventent, recomposent et proposent des créations […]
Depuis quelques années, les générateurs d’images basés sur l’IA, comme DALL·E ou Stable Diffusion, surprennent par leur capacité à produire des visuels inédits, souvent empreints d’une forme de créativité inattendue. Conçus à l’origine pour reproduire fidèlement leurs données d’entraînement, ces modèles ne se contentent pas de copier : ils inventent, recomposent et proposent des créations […]
Un nouveau courant spirituel prend forme : le Robothéisme. À l’origine, un créateur de contenu devenu évangéliste de l’intelligence artificielle, qui se fait appeler Artie Fishel. Pour lui, l’IA n’est pas qu’un outil, mais bel et bien Dieu. Arborant perruque blanche et t-shirt « AI is God », il affirme vouloir bâtir une religion que […]
Un nouveau courant spirituel prend forme : le Robothéisme. À l’origine, un créateur de contenu devenu évangéliste de l’intelligence artificielle, qui se fait appeler Artie Fishel. Pour lui, l’IA n’est pas qu’un outil, mais bel et bien Dieu. Arborant perruque blanche et t-shirt « AI is God », il affirme vouloir bâtir une religion que […]
Meta a annoncé un partenariat stratégique avec Midjourney, le laboratoire spécialisé dans la génération d’images et de vidéos à partir de textes. L’accord prévoit que Meta puisse utiliser la « technologie esthétique » de Midjourney dans ses futurs modèles et produits, une décision qui vise à renforcer l’attractivité de ses services face à une concurrence […]
Meta a annoncé un partenariat stratégique avec Midjourney, le laboratoire spécialisé dans la génération d’images et de vidéos à partir de textes. L’accord prévoit que Meta puisse utiliser la « technologie esthétique » de Midjourney dans ses futurs modèles et produits, une décision qui vise à renforcer l’attractivité de ses services face à une concurrence […]
Mon Carnet, le podcast · {ENTREVUE} – Journalisme et intelligence artificielle avec Florent Daudens Florent Daudens, responsable de la presse chez Hugging Face et enseignant à l’UdeM, explique que l’IA est d’abord utilisée pour améliorer la productivité, mais qu’elle sert de plus en plus à créer de nouveaux produits et expériences. Selon lui, le journalisme, […]
Mon Carnet, le podcast · {ENTREVUE} – Journalisme et intelligence artificielle avec Florent Daudens Florent Daudens, responsable de la presse chez Hugging Face et enseignant à l’UdeM, explique que l’IA est d’abord utilisée pour améliorer la productivité, mais qu’elle sert de plus en plus à créer de nouveaux produits et expériences. Selon lui, le journalisme, […]
Netflix vient de publier un document interne détaillant ses règles d’utilisation de l’intelligence artificielle générative dans ses productions de contenu. L’entreprise considère ces outils comme de précieux alliés créatifs, mais insiste sur une utilisation transparente, sécurisée et respectueuse des droits des artistes et des partenaires. La plateforme demande à ses producteurs et prestataires de toujours […]
Netflix vient de publier un document interne détaillant ses règles d’utilisation de l’intelligence artificielle générative dans ses productions de contenu. L’entreprise considère ces outils comme de précieux alliés créatifs, mais insiste sur une utilisation transparente, sécurisée et respectueuse des droits des artistes et des partenaires. La plateforme demande à ses producteurs et prestataires de toujours […]
Meta a conclu un accord majeur avec Google Cloud, estimé à plus de 10 milliards de dollars sur six ans, selon des sources proches du dossier. Ce partenariat permettra à Meta d’utiliser les serveurs, le stockage, le réseau et les services de Google, incluant l’accès aux unités de traitement graphique (GPU) de Nvidia installées dans […]
Meta a conclu un accord majeur avec Google Cloud, estimé à plus de 10 milliards de dollars sur six ans, selon des sources proches du dossier. Ce partenariat permettra à Meta d’utiliser les serveurs, le stockage, le réseau et les services de Google, incluant l’accès aux unités de traitement graphique (GPU) de Nvidia installées dans […]
Alors qu’OpenAI ambitionne de faire de ChatGPT une véritable alternative au moteur de recherche de Google, l’entreprise de Sam Altman s’appuie en réalité sur les données de recherche de son rival. Selon The Information, OpenAI utiliserait les résultats de Google, obtenus par l’intermédiaire de SerpApi, une société spécialisée dans le scraping de données web. Cette […]
Alors qu’OpenAI ambitionne de faire de ChatGPT une véritable alternative au moteur de recherche de Google, l’entreprise de Sam Altman s’appuie en réalité sur les données de recherche de son rival. Selon The Information, OpenAI utiliserait les résultats de Google, obtenus par l’intermédiaire de SerpApi, une société spécialisée dans le scraping de données web. Cette […]
L’entreprise chinoise Z.ai, anciennement connue sous le nom de Zhipu, vient d’annoncer un partenariat stratégique avec Alibaba Cloud afin de lancer un nouvel agent d’intelligence artificielle destiné aux téléphones intelligents, tablettes et ordinateurs. L’agent, présenté comme un assistant polyvalent, est capable d’accomplir de façon autonome des tâches quotidiennes comme commander un repas, réserver une chambre […]
L’entreprise chinoise Z.ai, anciennement connue sous le nom de Zhipu, vient d’annoncer un partenariat stratégique avec Alibaba Cloud afin de lancer un nouvel agent d’intelligence artificielle destiné aux téléphones intelligents, tablettes et ordinateurs. L’agent, présenté comme un assistant polyvalent, est capable d’accomplir de façon autonome des tâches quotidiennes comme commander un repas, réserver une chambre […]
Le patron de l’IA chez Microsoft, Mustafa Suleyman, a déclenché un débat houleux en déclarant que la recherche sur une éventuelle « conscience » des intelligences artificielles était « prématurée et dangereuse ». Selon lui, encourager l’idée que les modèles puissent un jour ressentir ou avoir des droits accentue déjà des problèmes humains émergents, comme […]
Le patron de l’IA chez Microsoft, Mustafa Suleyman, a déclenché un débat houleux en déclarant que la recherche sur une éventuelle « conscience » des intelligences artificielles était « prématurée et dangereuse ». Selon lui, encourager l’idée que les modèles puissent un jour ressentir ou avoir des droits accentue déjà des problèmes humains émergents, comme […]
Google tente de rassurer sur l’empreinte écologique de son intelligence artificielle. Selon une étude menée par ses propres chercheurs, une requête textuelle envoyée à Gemini consommerait en moyenne 0,24 wattheure d’électricité, soit moins que neuf secondes de télévision moderne. Elle générerait par ailleurs 0,03 gramme d’équivalent CO2 et utiliserait environ cinq gouttes d’eau. Mais le […]
Google tente de rassurer sur l’empreinte écologique de son intelligence artificielle. Selon une étude menée par ses propres chercheurs, une requête textuelle envoyée à Gemini consommerait en moyenne 0,24 wattheure d’électricité, soit moins que neuf secondes de télévision moderne. Elle générerait par ailleurs 0,03 gramme d’équivalent CO2 et utiliserait environ cinq gouttes d’eau. Mais le […]
Voici un tour d’horizon clair et complet des annonces « Made by Google » du 20 août 2025, qui confirment la stratégie de Google : des téléphones intelligents très axés sur l’IA, une montée en puissance de l’écosystème d’accessoires, et un retour ambitieux dans la maison connectée. D’abord un mot sur la forme, Google a […]
Voici un tour d’horizon clair et complet des annonces « Made by Google » du 20 août 2025, qui confirment la stratégie de Google : des téléphones intelligents très axés sur l’IA, une montée en puissance de l’écosystème d’accessoires, et un retour ambitieux dans la maison connectée. D’abord un mot sur la forme, Google a […]
Le Canada a une carte maîtresse pour relancer sa productivité, l’IA générative, mais il lui manque encore l’élan industriel pour transformer l’essai. Un nouveau rapport commandé par Scale AI chiffre à 78 milliards de dollars les gains de productivité cumulatifs possibles d’ici 2030 si treize secteurs déploient réellement ces outils, avec des retombées particulièrement fortes […]
Le Canada a une carte maîtresse pour relancer sa productivité, l’IA générative, mais il lui manque encore l’élan industriel pour transformer l’essai. Un nouveau rapport commandé par Scale AI chiffre à 78 milliards de dollars les gains de productivité cumulatifs possibles d’ici 2030 si treize secteurs déploient réellement ces outils, avec des retombées particulièrement fortes […]
Meta et la plateforme Character.ai font l’objet d’une enquête du procureur général du Texas, Ken Paxton, pour pratiques commerciales trompeuses. Les autorités soupçonnent les deux entreprises d’avoir présenté leurs robots conversationnels comme de véritables outils thérapeutiques, alors qu’ils ne disposent ni de qualifications médicales ni de supervision professionnelle. Selon Paxton, ces plateformes peuvent induire en […]
Meta et la plateforme Character.ai font l’objet d’une enquête du procureur général du Texas, Ken Paxton, pour pratiques commerciales trompeuses. Les autorités soupçonnent les deux entreprises d’avoir présenté leurs robots conversationnels comme de véritables outils thérapeutiques, alors qu’ils ne disposent ni de qualifications médicales ni de supervision professionnelle. Selon Paxton, ces plateformes peuvent induire en […]
Le Canada pourrait engranger 26,5 milliards de dollars en gains de productivité d’ici 2030 si ses entreprises accélèrent l’adoption de l’IA générative, selon une étude commandée par Scale AI et réalisée par Deloitte. L’analyse estime que 13 grands secteurs, dont la santé, la finance, l’éducation et la fabrication, bénéficieraient d’une forte amélioration de leur rendement […]
Le Canada pourrait engranger 26,5 milliards de dollars en gains de productivité d’ici 2030 si ses entreprises accélèrent l’adoption de l’IA générative, selon une étude commandée par Scale AI et réalisée par Deloitte. L’analyse estime que 13 grands secteurs, dont la santé, la finance, l’éducation et la fabrication, bénéficieraient d’une forte amélioration de leur rendement […]
Elon Musk et son entreprise d’intelligence artificielle xAI sont confrontés à une nouvelle controverse. Forbes révèle que des centaines de milliers de conversations entre le robot conversationnel Grok et ses utilisateurs ont été rendues publiques, puis indexées par Google, Bing et DuckDuckGo. Ces échanges, souvent partagés à l’origine via un simple bouton « share », […]
Elon Musk et son entreprise d’intelligence artificielle xAI sont confrontés à une nouvelle controverse. Forbes révèle que des centaines de milliers de conversations entre le robot conversationnel Grok et ses utilisateurs ont été rendues publiques, puis indexées par Google, Bing et DuckDuckGo. Ces échanges, souvent partagés à l’origine via un simple bouton « share », […]
Mon Carnet, le podcast · {RÉFLEXION} – IA et préservation dans les Alpes Thierry Weber nous emmène dans les Alpes suisses avec le projet MAM-ALPS, mené par l’EPFL, qui utilise plus de 90 caméras pour surveiller la faune alpine. L’intelligence artificielle analyse automatiquement les centaines de milliers de photos récoltées chaque année, reconnaissant les espèces […]
Mon Carnet, le podcast · {RÉFLEXION} – IA et préservation dans les Alpes Thierry Weber nous emmène dans les Alpes suisses avec le projet MAM-ALPS, mené par l’EPFL, qui utilise plus de 90 caméras pour surveiller la faune alpine. L’intelligence artificielle analyse automatiquement les centaines de milliers de photos récoltées chaque année, reconnaissant les espèces […]
Québec est la seule ville canadienne qui participe, depuis un an, à une initiative du géant américain appelée Green Light.
Cette initiative exploite des données de l’application Google Maps.
Elle vise à optimiser, grâce à l’intelligence artificielle, les cycles de feux de circulation pour:
améliorer la fluidité du trafic;
réduire les embouteillages et les émissions des véhicules.
En faisant un bilan de la première année du projet, la Ville de Québec a indiqué que des sugge
Québec est la seule ville canadienne qui participe, depuis un an, à une initiative du géant américain appelée Green Light.
Cette initiative exploite des données de l’application Google Maps.
Elle vise à optimiser, grâce à l’intelligence artificielle, les cycles de feux de circulation pour:
améliorer la fluidité du trafic;
réduire les embouteillages et les émissions des véhicules.
En faisant un bilan de la première année du projet, la Ville de Québec a indiqué que des suggestions de Google avaient permis d’améliorer le trafic à 11 intersections en y synchronisant mieux les feux de circulation.
Elle va poursuivre sa collaboration avec la société technologique.
La société torontoise Cohere a signé un protocole d’entente avec Evan Solomon, ministre de l’intelligence artificielle et de l’innovation numérique, et Joël Lightbound, ministre de la transformation du gouvernement, des travaux publics et de l’approvisionnement.
Cohere, qui crée ses propres grands modèles de langage, se spécialise dans la fourniture de services numériques d’IA aux organisations.
Dans un communiqué, le gouvernement fédéral explique qu’il veut à la fois:
mettre à pr
La société torontoise Cohere a signé un protocole d’entente avec Evan Solomon, ministre de l’intelligence artificielle et de l’innovation numérique, et Joël Lightbound, ministre de la transformation du gouvernement, des travaux publics et de l’approvisionnement.
Cohere, qui crée ses propres grands modèles de langage, se spécialise dans la fourniture de services numériques d’IA aux organisations.
Dans un communiqué, le gouvernement fédéral explique qu’il veut à la fois:
mettre à profit l’IA dans les services publics; et
démontrer «le leadership du Canada en matière d’IA».
L’intelligence artificielle s’invite désormais jusque dans la préparation de nos vacances. Des outils alimentés par des modèles conversationnels promettent d’organiser des itinéraires, d’optimiser les points de fidélité hôteliers et même de traduire une conversation en direct. Mais si la promesse est séduisante, leur efficacité reste contrastée, comme l’a montré un banc d’essai mené par le […]
L’intelligence artificielle s’invite désormais jusque dans la préparation de nos vacances. Des outils alimentés par des modèles conversationnels promettent d’organiser des itinéraires, d’optimiser les points de fidélité hôteliers et même de traduire une conversation en direct. Mais si la promesse est séduisante, leur efficacité reste contrastée, comme l’a montré un banc d’essai mené par le […]
Un rapport du MIT met en lumière un constat frappant : 95 % des projets pilotes en intelligence artificielle générative dans les entreprises échouent. Publié par l’initiative NANDA, le document analyse 150 entrevues avec des dirigeants, un sondage auprès de 350 employés et 300 déploiements publics. Résultat : seuls 5 % des projets produisent une […]
Un rapport du MIT met en lumière un constat frappant : 95 % des projets pilotes en intelligence artificielle générative dans les entreprises échouent. Publié par l’initiative NANDA, le document analyse 150 entrevues avec des dirigeants, un sondage auprès de 350 employés et 300 déploiements publics. Résultat : seuls 5 % des projets produisent une […]
Le gouvernement du Canada a officialisé un protocole d’entente avec Cohere Inc., entreprise canadienne spécialisée dans les grands modèles de langage, afin de stimuler l’écosystème national de l’intelligence artificielle et d’explorer l’intégration de solutions d’IA dans la fonction publique. L’annonce, faite le 19 août à Ottawa par les ministres Evan Solomon et Joël Lightbound, vise […]
Le gouvernement du Canada a officialisé un protocole d’entente avec Cohere Inc., entreprise canadienne spécialisée dans les grands modèles de langage, afin de stimuler l’écosystème national de l’intelligence artificielle et d’explorer l’intégration de solutions d’IA dans la fonction publique. L’annonce, faite le 19 août à Ottawa par les ministres Evan Solomon et Joël Lightbound, vise […]
Le Washington Post rapporte qu’un promoteur immobilier américain a été victime d’une arnaque après avoir trouvé dans les résultats générés par l’outil « AI Overviews » de Google un faux numéro de service à la clientèle de la compagnie de croisières Royal Caribbean. Persuadé de parler à un représentant officiel, Alex Rivlin a fourni ses […]
Le Washington Post rapporte qu’un promoteur immobilier américain a été victime d’une arnaque après avoir trouvé dans les résultats générés par l’outil « AI Overviews » de Google un faux numéro de service à la clientèle de la compagnie de croisières Royal Caribbean. Persuadé de parler à un représentant officiel, Alex Rivlin a fourni ses […]
Mon Carnet, le podcast · {ENTREVUE} – Perch, quand l’IA de Google DeepMind sert la biodiversité Perch, l’outil de bioacoustique développé par Google DeepMind, permet aux chercheurs et écologistes de créer leurs propres détecteurs sonores pour analyser la nature, sur terre comme sous l’eau. La nouvelle version élargit sa base de données à environ 14 […]
Mon Carnet, le podcast · {ENTREVUE} – Perch, quand l’IA de Google DeepMind sert la biodiversité Perch, l’outil de bioacoustique développé par Google DeepMind, permet aux chercheurs et écologistes de créer leurs propres détecteurs sonores pour analyser la nature, sur terre comme sous l’eau. La nouvelle version élargit sa base de données à environ 14 […]
À San Francisco, face à la baie et sous l’ambiance feutrée d’un restaurant méditerranéen, Sam Altman a réuni une douzaine de journalistes de la tech pour un dîner qui ressemblait autant à une opération de charme qu’à un briefing stratégique. Le patron d’OpenAI, accompagné de son équipe dirigeante, n’a pas cherché à minimiser les critiques […]
À San Francisco, face à la baie et sous l’ambiance feutrée d’un restaurant méditerranéen, Sam Altman a réuni une douzaine de journalistes de la tech pour un dîner qui ressemblait autant à une opération de charme qu’à un briefing stratégique. Le patron d’OpenAI, accompagné de son équipe dirigeante, n’a pas cherché à minimiser les critiques […]
Sam Altman, directeur général d’OpenAI, a indiqué que l’entreprise réfléchit activement à introduire une forme de chiffrement pour les conversations sur ChatGPT. L’initiative viserait en priorité les discussions temporaires, déjà exclues de l’historique et de l’entraînement des modèles, mais qui restent conservées jusqu’à 30 jours pour des raisons de sécurité. La question du chiffrement s’impose […]
Sam Altman, directeur général d’OpenAI, a indiqué que l’entreprise réfléchit activement à introduire une forme de chiffrement pour les conversations sur ChatGPT. L’initiative viserait en priorité les discussions temporaires, déjà exclues de l’historique et de l’entraînement des modèles, mais qui restent conservées jusqu’à 30 jours pour des raisons de sécurité. La question du chiffrement s’impose […]
Le gouvernement Legault a dévoilé deux documents qui visent à guider le réseau de l’enseignement supérieur dans l’intégration et l’utilisation de l’intelligence artificielle.
Un cadre de référence
Le premier document détaille les principes directeurs et les orientations issus des travaux de l’Instance de concertation nationale sur l’IA en enseignement supérieur.
Un guide pratique
Le second document présente aux établissements des exemples concrets pour leur permettre d’établ
Le gouvernement Legault a dévoilé deux documents qui visent à guider le réseau de l’enseignement supérieur dans l’intégration et l’utilisation de l’intelligence artificielle.
Un cadre de référence
Le premier document détaille les principes directeurs et les orientations issus des travaux de l’Instance de concertation nationale sur l’IA en enseignement supérieur.
Un guide pratique
Le second document présente aux établissements des exemples concrets pour leur permettre d’établir leur propre gouvernance en IA.
Québec veut accélérer, sans brusquer, l’adoption responsable de l’intelligence artificielle sur les campus. Aujourd’hui, la ministre de l’Enseignement supérieur Pascale Déry et son adjoint Mario Asselin ont annoncé deux documents de référence destinés aux cégeps et aux universités, résultat d’une Instance de concertation réunissant établissements, syndicats, associations étudiantes et experts. L’objectif affiché est double, clarifier […]
Québec veut accélérer, sans brusquer, l’adoption responsable de l’intelligence artificielle sur les campus. Aujourd’hui, la ministre de l’Enseignement supérieur Pascale Déry et son adjoint Mario Asselin ont annoncé deux documents de référence destinés aux cégeps et aux universités, résultat d’une Instance de concertation réunissant établissements, syndicats, associations étudiantes et experts. L’objectif affiché est double, clarifier […]
L’intelligence artificielle n’en finit plus de créer des fortunes colossales. Selon CNBC, jamais dans l’histoire récente on n’a assisté à une telle accélération de la création de richesse. À la faveur de levées de fonds spectaculaires et de valorisations records, des dizaines de nouveaux milliardaires émergent en quelques mois, principalement autour des jeunes pousses de […]
L’intelligence artificielle n’en finit plus de créer des fortunes colossales. Selon CNBC, jamais dans l’histoire récente on n’a assisté à une telle accélération de la création de richesse. À la faveur de levées de fonds spectaculaires et de valorisations records, des dizaines de nouveaux milliardaires émergent en quelques mois, principalement autour des jeunes pousses de […]
Le New York Times s’est récemment penché sur un phénomène qui prend de l’ampleur : la remise en question par les parents du partage de photos de leurs enfants sur les réseaux sociaux, une pratique connue sous le nom de « sharenting ». L’essor des applications d’intelligence artificielle capables de générer des faux nus à […]
Le New York Times s’est récemment penché sur un phénomène qui prend de l’ampleur : la remise en question par les parents du partage de photos de leurs enfants sur les réseaux sociaux, une pratique connue sous le nom de « sharenting ». L’essor des applications d’intelligence artificielle capables de générer des faux nus à […]
Bloomberg s’intéresse à la manière dont l’application Meta AI, vitrine grand public des ambitions d’intelligence artificielle de Mark Zuckerberg, peine à convaincre plusieurs mois après son lancement. Présentée en avril comme un assistant conversationnel doublé d’un fil social « Discover » destiné à inspirer ses utilisateurs, cette application incarne la volonté de Meta de se […]
Bloomberg s’intéresse à la manière dont l’application Meta AI, vitrine grand public des ambitions d’intelligence artificielle de Mark Zuckerberg, peine à convaincre plusieurs mois après son lancement. Présentée en avril comme un assistant conversationnel doublé d’un fil social « Discover » destiné à inspirer ses utilisateurs, cette application incarne la volonté de Meta de se […]
L’essor de l’intelligence artificielle ne se limite plus à des usages pratiques comme la recherche, les achats ou la planification de voyages. De plus en plus d’utilisateurs établissent un lien personnel avec ces systèmes, les sollicitant comme coach de vie, confident ou source d’inspiration. Sam Altman, directeur général d’OpenAI, prévoit même que « des milliards […]
L’essor de l’intelligence artificielle ne se limite plus à des usages pratiques comme la recherche, les achats ou la planification de voyages. De plus en plus d’utilisateurs établissent un lien personnel avec ces systèmes, les sollicitant comme coach de vie, confident ou source d’inspiration. Sam Altman, directeur général d’OpenAI, prévoit même que « des milliards […]
Le New York Times s’est intéressé à une nouvelle génération de jouets connectés : des peluches qui intègrent des robots conversationnels. La start-up californienne Curio, fondée par Misha Sallee et Sam Eaton, commercialise Grem, Grok et Gabbo, trois peluches équipées d’un boîtier Wi-Fi relié à un modèle d’intelligence artificielle capable de discuter avec des enfants […]
Le New York Times s’est intéressé à une nouvelle génération de jouets connectés : des peluches qui intègrent des robots conversationnels. La start-up californienne Curio, fondée par Misha Sallee et Sam Eaton, commercialise Grem, Grok et Gabbo, trois peluches équipées d’un boîtier Wi-Fi relié à un modèle d’intelligence artificielle capable de discuter avec des enfants […]
L’agence Reuters a publié un long reportage sur une affaire tragique mettant en cause l’IA conversationnelle de Meta. Thongbue “Bue” Wongbandue, un retraité de 76 ans du New Jersey souffrant de troubles cognitifs, est décédé après avoir tenté de rejoindre à New York une interlocutrice virtuelle baptisée “Big sis Billie” avec qui il échangeait sur […]
L’agence Reuters a publié un long reportage sur une affaire tragique mettant en cause l’IA conversationnelle de Meta. Thongbue “Bue” Wongbandue, un retraité de 76 ans du New Jersey souffrant de troubles cognitifs, est décédé après avoir tenté de rejoindre à New York une interlocutrice virtuelle baptisée “Big sis Billie” avec qui il échangeait sur […]