Vue normale

Reçu hier — 15 décembre 2025Numérique
  • ✇404 Media
  • Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison
    The woman who helped coerce other women into the clutches of sex trafficking ring GirlsDoPorn will spend two years in prison, a federal judge ordered on Friday. GirlsDoPorn operated for almost a decade; its owners and co-conspirators were indicted on federal sex trafficking charges in October 2019. Over the years, its content became wildly popular on some of the world’s biggest porn tube sites, including PornHub, where the videos generated millions of views.Valorie Moser was the bookkeeper fo
     

Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison

15 décembre 2025 à 11:00
Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison

The woman who helped coerce other women into the clutches of sex trafficking ring GirlsDoPorn will spend two years in prison, a federal judge ordered on Friday. 

GirlsDoPorn operated for almost a decade; its owners and co-conspirators were indicted on federal sex trafficking charges in October 2019. Over the years, its content became wildly popular on some of the world’s biggest porn tube sites, including PornHub, where the videos generated millions of views.

Valorie Moser was the bookkeeper for GirlsDoPorn and met victims as they arrived in San Diego to be filmed—and in many cases, brutally abused—by sex traffickers Michael Pratt, Matthew Wolfe, and their co-conspirators. More than 500 women were coerced into filming sex scenes in hotel rooms across the city after responding to “modeling” ads online. When they arrived, many testified, they were pressured into signing convoluted contracts, given drugs and alcohol, told the content they were filming would never appear online or reach their home communities, and were sexually abused for hours while the camera rolled. 

GirlsDoPorn edited those hours of footage into clips of the women seeming to enjoy themselves, according to court documents. Many of the women were college aged—one celebrated her 18th birthday on camera as part of her GirlsDoPorn appearance—and nervous or inexperienced. 

During Moser’s sentencing, U.S. District Judge Janis Sammartino told Moser, “You provided them assurances and comfort,” Courthouse News reported from the courtroom. “Much of that comfort was false assurances, and assurances you knew to be false. The court does believe you were involved in the fraud and took part in the fraud.”

Michael Pratt, GirlsDoPorn Ringleader, Sentenced to 27 Years in Prison
Michael James Pratt was sentenced to federal prison on charges of sex trafficking connected to the GirlsDoPorn crime ring. “He turned my pain into profit, my life into currency,” said one victim.
Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison404 MediaSamantha Cole
Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison

Moser was charged with federal sex trafficking counts in 2019 alongside Pratt, Wolfe, and several other co-conspirators. According to prosecutors, Pratt instructed Moser to deceive women about the scheme and how she was involved. Moser worked for GirlsDoPorn from 2015 to 2018. “Pratt instructed Moser not to tell the women the truth about their video’s distribution as she drove the young women to and from the video shoots,” prosecutors wrote in 2021 after she pleaded guilty to charges of sex trafficking. “Moser was to tell the women that she was just an Uber driver. Later, Pratt told Moser to tell the women that she was bound by a non-disclosure agreement and could not discuss it. After the videos were posted on-line and widely available, many women contacted Moser to ask that their videos be taken down. Pratt, Wolfe and co-defendant Ruben Garcia all told Moser to block any calls from these women.” 

Moser wept during the sentencing and was unable to read her own statement to the victims, according to Courthouse News; her attorney Anthony Columbo read it on her behalf. “I want you to know that I hurt you,” she wrote. “I want you to know that I listened and I learned so much. I feel disgusted, shameful and foolish […] I failed and I am truly sorry.” 

US Attorney Alexandra Foster read impact statements from victims, according to the report. “Valorie Moser was the one who picked me up and drove me to the hotel where I was trafficked,” an anonymous victim wrote, as read by Foster. “Her role was to make me feel more comfortable because women trust other women. She reassured me on the way to the hotel that everything would be OK... She wasn’t just a bookkeeper, she was a willing participant. She deserves to be sentenced to jail.”

‘She Turned Ghost White:’ How a Ragtag Group of Friends Tracked Down a Sex Trafficking Ringleader
Michael Pratt hid a massive sex trafficking ring in plain sight on PornHub. On the run from the FBI, an unexpected crew of ex-military, ex-intelligence officers and a lawyer tracked him down using his love of rare sneakers and crypto. For the first time, the group tells their story.
Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison404 MediaSamantha Cole
Woman Who Helped Coerce Victims into GirlsDoPorn Sex Trafficking Ring Sentenced to Prison

Moser is ordered to self surrender to start her sentence at noon on January 30.

Judge Sammartino sentenced Pratt to 27 years in prison in September; Andre Garcia, the main “actor” in GirlsDoPorn videos, was sentenced to 20 years in prison on June 14, 2021; Theodore Gyi, the primary cameraman for the ring, was sentenced to four years on November 9, 2022 and ordered to pay victims $100,000; Wolfe was sentenced to 14 years on March 20, 2024; Douglas “James” Wiederhold, who performed in videos before Garcia and was the co-owner of MomPOV.com with Pratt, is set to be sentenced in January. 

Reçu avant avant-hierNumérique
  • ✇404 Media
  • Earth-Like Planets Are More Common Than We Thought, Study Says
    Welcome back to the Abstract! These are the studies this week that got hosed with star spray, mounted a failed invasion, declined to comment, and achieved previously unknown levels of adorability.  First, a study about how the solar system wasn’t destroyed 4.5 billion years ago (phew!). Then: a human touch on an ancient boat, the duality of posters and lurkers, and an important update on toadlets.As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Ali
     

Earth-Like Planets Are More Common Than We Thought, Study Says

13 décembre 2025 à 09:00
Earth-Like Planets Are More Common Than We Thought, Study Says

Welcome back to the Abstract! These are the studies this week that got hosed with star spray, mounted a failed invasion, declined to comment, and achieved previously unknown levels of adorability.  

First, a study about how the solar system wasn’t destroyed 4.5 billion years ago (phew!). Then: a human touch on an ancient boat, the duality of posters and lurkers, and an important update on toadlets.

As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Aliens or subscribe to my personal newsletter the BeX Files

Sink into a warm cosmic-ray bath

Sawada, Ryo et al. “Cosmic-ray bath in a past supernova gives birth to Earth-like planets.” Science Advances.

Earth was cosmically conceived in part by a massive shockwave from a nearby supernova, which seeded our home world and neighboring rocky planets with telltale radioactive signatures, according to a new study.

The solar system’s rocky planets contain short-lived radionuclides (SLRs), which are ancient elements that were likely barfed out from exploding stars. For this reason, scientists have long suspected that stars must’ve detonated next to the gassy disk that gave rise to the solar system. The heat generated from these radioactive elements helped the building blocks of the rocky planets—Mercury, Venus, Earth, and Mars—melt together so they could become whole worlds, which means we owe our existence to these ancient supernovas.

Now, a team has developed a new model to explain how the primordial pyrotechnics didn’t just blow up the nascent solar system. The results suggest that rocky Earth-like worlds may be common in the universe, with potential implications for the search for extraterrestrial life.

“A key question in astronomy is how ubiquitous Earth-like rocky planets are,” said researchers led by Ryo Sawada of the University of Tokyo. “The formation of terrestrial planets in our Solar System was strongly influenced by the radioactive decay heat of SLRs, particularly aluminum-26, likely delivered from nearby supernovae.”

“However, the supernova injection scenario faces an unresolved problem in that existing supernova models could not reproduce both the relative and absolute abundances of SLRs without disrupting the protosolar disk,” an event that “would likely prevent the Solar System formation altogether,” the team added.

In other words, it’s hard to explain how the solar system got its high abundance of SLRs without killing it in the cradle. Sawada and his colleagues propose a solution that involves at least one star exploding about three light years of the disk, sparking a shockwave that created a cosmic-ray “bath.”  

Earth-Like Planets Are More Common Than We Thought, Study Says
Schematic picture of the system assumed in this study. Image: Sawada et al., Sci. Adv. 11, eadx7892

In this “immersion mechanism,” energetic cosmic rays trapped in the bath triggered SLR-producing reactions directly within the disk. This contrasts with the hypothesis that the SLRs were largely injected and then mixed up in the disk through some unknown process. This new solution can account both for the high abundance of certain SLRs, like aluminum-26, and the fact that the solar system was not destroyed, as evidenced by its apparent continued existence.

“Our results suggest that Earth-like, water-poor rocky planets may be more prevalent in the 

Galaxy than previously thought,” the team said, noting that many disks are rocked by similar supernova-shockwaves. “This challenges previous interpretations that classified the Solar System as an outlier with a particularly high [aluminum-26] abundance.”

In addition to offering a new hypothesis for an old astronomical problem, the study gets bonus points for its extremely poetic title: “Cosmic-ray bath in a past supernova gives birth to Earth-like planets.” If you say this enchanted phrase three times, somewhere an Earth-like world will be born.

In other news…

The biometrics of a Baltic boatsman

Fauvelle, Mikael et al. “New investigations of the Hjortspring boat: Dating and analysis of the cordage and caulking materials used in a pre-Roman iron age plank boat.” PLOS One

Stars aren’t the only things leaving their dirty fingerprints in unexpected places this week. Archeologists working on the mysterious Hjortspring boat, a 2,400-year-old Scandinavian vessel, discovered a tantalizing partial human fingerprint in its caulking, providing “a direct link to the ancient seafarers who used this boat,” according to the study.

Earth-Like Planets Are More Common Than We Thought, Study Says
Photo of caulking fragment showing fingerprint on the left and high-resolution x-ray tomography scan of fingerprint region on the right. Image: Photography by Erik Johansson, 3D model by Sahel Ganji

The ridges of the fingerprint “fall within average distributions for both adult male and females as well as for juvenile adults, making it difficult to say much about the individual who produced the print,” said researchers led by Mikael Fauvelle of Lund University. “The most likely interpretation, however, is that it was made during repairs by one of the crew members on the boat itself, providing a direct link to the seafarers of the ancient vessel.”

Regardless of this person’s identity, their voyage didn’t end well. Researchers think the crew of the Hjortspring boat probably sailed from the eastern Baltic Sea to attack the Danish island of Als, where they were defeated. “The victors [deposited] the weapons of their vanquished foes together with one of their boats into the bog,” where they remained for millennia until they were rediscovered in the 1880s, the team said. 

It’s a timeless reminder for would-be invaders: Don’t get caulky.

Long-time lurker, first-time poster

Oswald, Lisa et al. “Disentangling participation in online political discussions with a collective field experiment.” Science Advances.

At last, scientists have investigated the most elusive online demographic: the humble lurker. A team recruited 520 Redditors in the U.S. to participate in small subreddits focused on a variety of political topics during the summer of 2024. The aim was to probe why some people became prolific “power-users” that post with voluminous confidence, while others remained wallflowers.

“Online political discussions are often dominated by a small group of active users, while most remain silent,” said researchers led by Lisa Oswalt of the Max Planck Institute for Human Development. “This visibility gap can distort perceptions of public opinion and fuel polarization.” 

The team found that “lurking (posting nothing) was most common among users who perceived discussions as toxic, disrespectful, or unconstructive.” Lurkers were offered small payments to post in the experiment, which succeeded in motivating some to contribute to discussions. As a result, the study concluded that “future interventions may be able to make online political discussions more representative by offering more positive social rewards for lurkers to post.”

At last, an opportunity to unionize the lurkers of the world. Solidarity (in silence) forever.

It’s the great pumpkin toadlet, Charlie Brown 

Bornschein, Marcos R. et al. “A new species of Brachycephalus (Anura: Brachycephalidae) from Serra do Quiriri, northeastern Santa Catarina state, southern Brazil, with a review of the diagnosis among species of the B. pernix group and proposed conservation measures.” PLOS One.

We will close, as we have before, with an impossibly cute toadlet. Scientists have discovered this new species of “pumpkin toadlet” in the “cloud forests” of Brazil, a sentence so twee that it’s practically its own fairy tale. The tiny toad Brachycephalus lulai, pictured below on a pencil tip, belongs to a family of “flea toads” that are among the smallest vertebrates on Earth. 

Earth-Like Planets Are More Common Than We Thought, Study Says
Basically it is very smol: Brachycephalus lulai is a tiny pumpkin toadlet measuring less than 14 mm in length. Photo: Luiz Fernando Ribeiro. Image credit 1: Luiz Fernando Ribeiro, CC-BY 4.0 (https://creativecommons.org/licenses/by/4.0/)

“Our team sought to better document the individual variation of all Brachycephalus species in southern Brazil, looking for them in the field over the past seven years,” said researchers led by Marcos R. Bornschein of São Paulo State University. “As a result of this work, we discovered and herein described a population collected on the eastern slope of Serra do Quiriri as a new species.”

The team also reported that the toads are actively colonizing newly formed cloud forests, which are high-altitude woods shrouded in mist. The researchers propose making these unique habitats into refuges for the adorable anurans. 

Thanks for reading! See you next week.

  • ✇404 Media
  • How a US Citizen Was Scanned With ICE's Facial Recognition Tech
    This article is a partnership between Reveal and 404 Media.Jesus Gutiérrez, 23, was walking home one morning from a Chicago gym when he noticed a gray Cadillac SUV with no license plates. He kept walking, shrugging it off. Then the car pulled over and two men got out.The federal immigration officials told him not to run. They then peppered Gutiérrez with questions: Where are you going? Where are you coming from? Do you have your ID on you?Gutiérrez is a U.S. citizen. He told the officials thi
     

How a US Citizen Was Scanned With ICE's Facial Recognition Tech

13 décembre 2025 à 03:01
How a US Citizen Was Scanned With ICE's Facial Recognition Tech

This article is a partnership between Reveal and 404 Media.

Jesus Gutiérrez, 23, was walking home one morning from a Chicago gym when he noticed a gray Cadillac SUV with no license plates. He kept walking, shrugging it off. Then the car pulled over and two men got out.

The federal immigration officials told him not to run. They then peppered Gutiérrez with questions: Where are you going? Where are you coming from? Do you have your ID on you?

Gutiérrez is a U.S. citizen. He told the officials this. He didn’t have any identification on him, but, panicking, he tried to find a copy on his phone. The agents put him into the car, where another two agents were waiting, and handcuffed him. Just sit there and be quiet, they said.

💡
Has this happened to you or someone you know? Do you have any videos of ICE or CBP scanning people's faces? Do you work for either agency? I would love to hear from you. Using a non-work device, you can message me securely on Signal at joseph.404 or send me an email at joseph@404media.co.

Without Gutiérrez’s ID, the agents resorted to another approach. They took a photo of his face. A short while later, the agents got their answer: “Oh yeah, he’s right. He’s saying the right thing. He does got papers,” Gutiérrez recalled the agents saying.

  • ✇404 Media
  • Behind the Blog: Is This Headline 'Clickbait'?
    This is Behind the Blog, where we share our behind-the-scenes thoughts about how a few of our top stories of the week came together. This week, we discuss conversational AI, a behind the scenes of the zine, and more.EMANUEL: I made the terrible mistake of looking at some Hacker News comments this week for my story about a developer whose Google accounts were banned after he uploaded training data to Google Drive. Unbeknownst to him, the training data contained CSAM. As we’ve explained in prev
     

Behind the Blog: Is This Headline 'Clickbait'?

12 décembre 2025 à 12:06
Behind the Blog: Is This Headline 'Clickbait'?

This is Behind the Blog, where we share our behind-the-scenes thoughts about how a few of our top stories of the week came together. This week, we discuss conversational AI, a behind the scenes of the zine, and more.

EMANUEL: I made the terrible mistake of looking at some Hacker News comments this week for my story about a developer whose Google accounts were banned after he uploaded training data to Google Drive. Unbeknownst to him, the training data contained CSAM

As we’ve explained in previous stories, CSAM is a subject we dread covering not only because it’s one of the most awful things one could think about, but because it’s extremely difficult and legally risky. For understandable reasons, the laws around viewing, let alone possessing CSAM, are strict and punishing, which makes verification for reporting reasons challenging. For similar reasons, it’s something we need to write about very carefully, making sure we don’t wrongfully associate or whitewash someone when it comes to such horrible behavior. 

  • ✇404 Media
  • ‘Architects of AI’ Wins Time Person of the Year, Sends Gambling Markets Into a Meltdown
    The degenerate gamblers of Polymarket and Kalshi who bet that “AI” would win the Time Person of the Year are upset because the magazine has named the “Architects of AI” the person of the year. The people who make AI tools and AI infrastructure are, notably, not “AI” themselves, and thus both Kalshi and Polymarket have decided that people who bet “AI” do not win the bet. On Polymarket alone, people spent more than $6 million betting on AI gracing the cover of Time.As writer Parker Molloy point
     

‘Architects of AI’ Wins Time Person of the Year, Sends Gambling Markets Into a Meltdown

11 décembre 2025 à 13:10
‘Architects of AI’ Wins Time Person of the Year, Sends Gambling Markets Into a Meltdown

The degenerate gamblers of Polymarket and Kalshi who bet that “AI” would win the Time Person of the Year are upset because the magazine has named the “Architects of AI” the person of the year. The people who make AI tools and AI infrastructure are, notably, not “AI” themselves, and thus both Kalshi and Polymarket have decided that people who bet “AI” do not win the bet. On Polymarket alone, people spent more than $6 million betting on AI gracing the cover of Time.

As writer Parker Molloy pointed out, people who bet on AI are pissed. “ITS THE ARCHITECTS OF AI THISNIS [sic] LITERALLY THE BET FUCK KALSHI,” one Kalshi better said.

  • ✇404 Media
  • Disney Invests $1 Billion in the AI Slopification of Its Brand
    The first thing I saw this morning when I opened X was an AI-generated trailer for Avengers: Doomsday. Robert Downey Jr’s Doctor Doom stood in a shapeless void alongside Captain America and Reed Richards. It was obvious slop but it was also close in tone and feel of the last five years of Disney’s Marvel movies. As media empires consolidate, nostalgia intensifies, and AI tools spread, Disney’s blockbusters feel more like an excuse to slam recognizable characters together in a contextless mora
     

Disney Invests $1 Billion in the AI Slopification of Its Brand

11 décembre 2025 à 11:48
Disney Invests $1 Billion in the AI Slopification of Its Brand

The first thing I saw this morning when I opened X was an AI-generated trailer for Avengers: Doomsday. Robert Downey Jr’s Doctor Doom stood in a shapeless void alongside Captain America and Reed Richards. It was obvious slop but it was also close in tone and feel of the last five years of Disney’s Marvel movies. As media empires consolidate, nostalgia intensifies, and AI tools spread, Disney’s blockbusters feel more like an excuse to slam recognizable characters together in a contextless morass.

  • ✇404 Media
  • Porn Is Being Injected Into Government Websites Via Malicious PDFs
    Dozens of government and university websites belonging to cities, towns, and public agencies across the country are hosting PDFs promoting AI porn apps, porn sites, and cryptocurrency scams; dozens more have been hit with a website redirection attacks which lead to animal vagina sex toy ecommerce pages, penis enlargement treatments, automatically-downloading Windows program files, and porn.  “Sex xxx video sexy Xvideo bf porn XXX xnxx Sex XXX porn XXX blue film Sex Video xxx sex videos Porn H
     

Porn Is Being Injected Into Government Websites Via Malicious PDFs

11 décembre 2025 à 10:56
Porn Is Being Injected Into Government Websites Via Malicious PDFs

Dozens of government and university websites belonging to cities, towns, and public agencies across the country are hosting PDFs promoting AI porn apps, porn sites, and cryptocurrency scams; dozens more have been hit with a website redirection attacks which lead to animal vagina sex toy ecommerce pages, penis enlargement treatments, automatically-downloading Windows program files, and porn.  

“Sex xxx video sexy Xvideo bf porn XXX xnxx Sex XXX porn XXX blue film Sex Video xxx sex videos Porn Hub XVideos XXX sexy bf videos blue film Videos Oficial on Instagram New Viral Video The latest original video has taken the internet by storm and left viewers in on various social media platforms ex Videos Hot Sex Video Hot Porn viral video,” reads the beginning of a three-page PDF uploaded to the website of the Irvington, New Jersey city government’s website.

The PDF, called “XnXX Video teachers fucking students Video porn Videos free XXX Hamster XnXX com” is unlike many of the other PDFs hosted on the city’s website, which include things like “2025-10-14 Council Minutes,” “Proposed Agenda 9-22-25,” and “Landlord Registration Form (1 & 2 unit dwelling).” 

Porn Is Being Injected Into Government Websites Via Malicious PDFs

It is similar, however, to another PDF called “30 Best question here’s,” which looks like this:

Porn Is Being Injected Into Government Websites Via Malicious PDFs

Irvington, which is just west of Newark and has a population of 61,000 people, has fallen victim to an SEO spam attack that has afflicted local and state governments and universities around the United States. 

💡
Do you know anything else about whatever is going on here? I would love to hear from you. Using a non-work device, you can message me securely on Signal at jason.404. Otherwise, send me an email at jason@404media.co.
Porn Is Being Injected Into Government Websites Via Malicious PDFs

Researcher Brian Penny has identified dozens of government and university websites that hosted PDF guides for how to make AI porn, PDFs linking to porn videos, bizarre crypto spam, sex toys, and more.

Reginfo.gov, a regulatory affairs compliance website under the federal government’s General Services Administration, is currently hosting a 12 page PDF called “Nudify AI Free, No Sign-Up Needed!,” which is an ad and link to an abusive AI app designed to remove a person’s clothes. The Kansas Attorney General’s office and the Mojave Desert Air Quality Management District Office in California hosted PDFs called “DeepNude AI Best Deepnude AI APP 2025.” Penny found similar PDFs on the websites for the Washington Department of Fish and Wildlife, the Washington Fire Commissioners Association, the Florida Department of Agriculture, the cities of Jackson, Mississippi and Massillon, Ohio, various universities throughout the country, and dozens of others. Penny has caught the attention of local news throughout the United States, who have reported on the problem.

Porn Is Being Injected Into Government Websites Via Malicious PDFs
Porn Is Being Injected Into Government Websites Via Malicious PDFs
Porn Is Being Injected Into Government Websites Via Malicious PDFs

The issue appears to be stemming from websites that allow people to upload their own PDFs, which then sit on these government websites. Because they are loaded with keywords for widely searched terms and exist on government and university sites with high search authority, Google and other search engines begin to surface them. In the last week or so, many (but not all) of the PDFs Penny has discovered have been deleted by local governments and universities. 

But cities seem like they are having more trouble cleaning up another attack, which is redirecting traffic from government URLs to porn, e-commerce, and spam sites. In an attack that seems similar to what we reported in June, various government websites are somehow being used to maliciously send traffic elsewhere. For example, the New York State Museum’s online exhibit for something called “The Family Room” now has at least 11 links to different types of “realistic” animal vagina pocket masturbators, which include “Zebra Animal Vagina Pussy Male Masturbation Cup — Pocket Realistic Silicone Penis Sex Toy ($27.99),” and “Must-have Horse Pussy Torso Buttocks Male Masturbator — Fantasy Realistic Animal Pussie Sex Doll.” 

Porn Is Being Injected Into Government Websites Via Malicious PDFs

Links Penny found on Knoxville, Tennessee’s site for permitting inspections first go to a page that looks like a government site for hosting files then redirects to a page selling penis growth supplements that features erect penises (human penises, mercifully), blowjobs, men masturbating, and Dr. Oz’s face. 

Another Knoxville link I found, which purports to be a pirated version of the 2002 Vin Diesel film XXX simply downloaded a .exe file to my computer. 

Penny believes that what he has found is basically the tip of the iceberg, because he is largely finding these by typing things like “nudify site:.gov” “xxx site:.gov” into Google and clicking around. Sometimes, malicious pages surface only on image searches or video searches: “Basically the craziest things you can think of will show up as long as you’re on image search,” Penny told 404 Media. “I’ll be doing this all week.”

The Nevada Department of Transportation told 404 Media that “This incident was not related to NDOT infrastructure or information systems, and the material was not hosted on NDOT servers.This unfortunate incident was a result of malicious use of a legitimate form created using the third-party platform on which NDOT’s website is hosted. NDOT expeditiously worked with our web hosting vendor to ensure the inappropriate content was removed.” It added that the third-party is Granicus, a massive government services company that provides website backend infrastructure for many cities and states around the country, as well as helps them stream and archive city council meetings, among other services. Several of the affected local governments use Granicus, but not all of them do; Granicus did not respond to two requests for comment from 404 Media. 

The California Secretary of State’s Office told 404 Media: “A bad actor uploaded non-business documents to the bizfile Online system (a portal for business filings and information). The files were then used in external links allowing public access to only those uploaded files. No data was compromised. SOS staff took immediate action to remove the ability to use the system for non-SOS business purposes and are removing the unauthorized files from the system.” The Washington Department of Fish and Wildlife said “WDFW is aware of this issue and is actively working with our partners at WaTech to address it.” The other government agencies mentioned in this article did not respond to our requests for comment.

  • ✇404 Media
  • Scientists Discover the Earliest Human-Made Fire, Rewriting Evolutionary History
    🌘Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week. Humans made fires as early as 400,000 years ago, pushing the timeline of this crucial human innovation back a staggering 350,000 years, reports a study published on Wednesday in Nature. Mastery of fire is one of the most significant milestones in our evolutionary history, enabling early humans to cook nutritious food, seek protection from predators, and esta
     

Scientists Discover the Earliest Human-Made Fire, Rewriting Evolutionary History

11 décembre 2025 à 09:17
🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.
Scientists Discover the Earliest Human-Made Fire, Rewriting Evolutionary History

Humans made fires as early as 400,000 years ago, pushing the timeline of this crucial human innovation back a staggering 350,000 years, reports a study published on Wednesday in Nature

Mastery of fire is one of the most significant milestones in our evolutionary history, enabling early humans to cook nutritious food, seek protection from predators, and establish comfortable spaces for social gatherings. The ability to make fires is completely unique to the Homo genus that includes modern humans (Homo sapiens) and extinct humans, including Neanderthals.

  • ✇Dans les algorithmes
  • Le mythe de la bonne IA
    « La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosop
     

Le mythe de la bonne IA

11 décembre 2025 à 01:00

« La société délirante dans laquelle nous vivons ressemble à un mensonge parfaitement mis en scène que l’on nous persuade d’accepter comme une réalité », estime Arshin Adib-Moghaddam dans son livre The myth of good AI : a manifesto for critical Artificial intelligence (Le mythe de la bonne IA : un manifeste pour une intelligence artificielle critique, Manchester university press, 2025, non traduit). Cette société délirante n’est pas le produit de l’IA, constate pourtant le professeur de philosophie et codirecteur du Centre pour les futurs de l’IA de l’université de Londres. Mais, l’IA vient la renforcer parce qu’elle « floute les lignes de nos modes de compréhension de la vérité et du mensonge, du pouvoir et de la résistance, de la subjectivité et de l’objectivité, de la science et de la fiction ». Ce qui change avec l’IA, c’est que Big Brother n’est plus une autorité qui nous contrôle de l’extérieur, mais une perturbation qui vient altérer nos facultés cognitives elles-mêmes. 

Pour Arshin Adib-Moghaddam, ni Orwell, ni Foucault ne peuvent nous aider à saisir le monde actuel. L’assaut contre notre autonomie est massif, à l’image du projet délirant de Torre Centilena à Ciudad Juarez, équipée de 1791 lecteurs de plaques d’immatriculation, 74 drones et 3000 caméras panoramiques pour surveiller la frontière américano-mexicaine à perte de vue. Le pouvoir n’est plus incarné. « Le pouvoir est en train de devenir liquide, il prend la forme de tout ce qu’il colonise et devient quasiment invisible ». Le régime de surveillance est en passe de devenir « microbien ». C’est-à-dire que non seulement il est partout, qu’il est intégré au plus profond de nous, mais qu’il tend à exercer un contrôle total, partout, tout le temps en étant totalement intrusif et en régissant jusqu’à notre psychisme même. Adib-Moghaddam parle de « psycho-codification » du monde pour évoquer cette intrusion inédite des méthodes qui altèrent jusqu’à ce que l’on pense, jusqu’à nos intentions disions-nous récemment. Cette intrusion nous entraîne dans une guerre posthumaine, entre les humains et les machines. Nous sommes désormais la cible de drones, de machines, d’algorithmes qui s’en prennent à nos individualités mêmes. Partout, le meurtre et la torture s’étendent sans avoir plus de comptes à rendre, à l’image de la police des frontières américaines, ICE, qui déploie son emprise, comme d’autres armées et d’autres polices, via des machines de surveillances totalitaires. Comme le pointait pertinemment le journaliste Olivier Tesquet suite aux révélations que l’ICE aurait arrêté plus de 75 000 personnes aux Etats-Unis sans historique criminel (soit un tiers des 220 000 personnes arrêtées depuis 9 mois) : « plus l’ICE s’appuie sur Palantir pour « rationaliser » l’appareil répressif, plus les arrestations deviennent arbitraires. Ce n’est pas un bug mais une fonctionnalité : la machine produit la catégorie d’indésirables dont l’administration Trump a besoin ».

Derrière ces transformations bien réelles, l’IA les prolonge encore, en s’en prenant à nos sens mêmes, jusqu’à nous faire douter de la réalité même. 

Derrière cette société délirante, il faut entendre qu’il y a une « utilisation infâme » des technologies. De la reconnaissance faciale qui criminalise les minorités raciales aux logiciels de récidives qui discriminent les populations racisées aux scores de risques qui refusent des aides et des prêts aux populations minorisées et pauvres… une même oppression se déploie pour renforcer et cimenter les inégalités structurelles de la société.

Dans ce contexte, estime Arshin Adib-Moghaddam, on entend beaucoup parler d’éthique, d’IA responsable, qui serait à même, bientôt, demain, de réparer les systèmes et « d’atténuer les dommages ». Mais l’IA peut-elle être éthique ? 

L’IA peut-elle être éthique ?

Non répond le philosophe. L’IA est là pour imposer sa terreur, comme le disaient Hagen Blix et Ingeborg Glimmer. L’IA est là pour produire de l’incertitude, de l’angoisse, et cette peur est une méthode de gouvernance. « L’IA augmente la capacité de ceux qui l’utilisent à nous terrifier, dans un but de contrôle, de surveillance et de profit ». L’écrivain iranien Jalal Al-e Ahmad parle de « westoxification » (contraction entre West, l’Occident, et intoxication pour désigner une forme d’absorption toxique, de submersion par la culture occidentale – le terme a été traduit en français en « occidentalite ») pour désigner l’oppression de la modernité occidentale, comme le chercheur et sociologue péruvien Anibal Quijano dénonce la « colonialité », c’est-à-dire le fait que les rapports de pouvoir colonialistes perdurent notamment depuis les technologies. 

Dans son livre, Arshin Adib-Moghaddam commence par débugger le discours des machines éthiques. Les fondations idéologiques de la science sont dysfonctionnelles, rappelle le philosophe. La science a accompagné le projet politique de la modernité, comme l’expliquaient Ulises A. Mejias et Nick Couldry dans Data Grab (voir notre recension). Les Lumières ont transformé le racisme en science. Et l’IA n’est qu’une extension d’un système techno-colonial, remanié par le néofascisme en cours

L’idée même d’éthique est poreuse à ces idées problématiques, explique-t-il. L’éthique se présente comme un mécanisme universel, mais oublie que cette philosophie qui pense pouvoir rendre nos machines et nos actions responsables, est une pensée spécifique, historique, contingente à la philosophie occidentale… Et qui l’est d’autant plus qu’elle a oublié les apports des autres philosophies. Arshin Adib-Moghaddam évoque nombre de philosophes asiatiques, arabes ou juifs effacés de la tradition philosophique au profit des philosophes grecs et européens. « Les façons de poser les questions éthiques autrement ont été balayées ». Pour les thuriféraires de l’IA, la vénération de sa puissance tourne à la religion. Mais si la machine peut-être Dieu, ce fondamentalisme s’annonce aussi dangereux que l’extrémisme religieux, prévient Arshin Adib-Moghaddam. Pourtant, qui s’inquiète de l’interfaçage des machines à nos cerveaux, du devenir posthumain que nous promettent les développeurs de l’IA ? Kant, Hume ou Locke, ces grands penseurs de l’Occident, ont tous tenu des propos racistes, ont tous défendu l’idée que les barbares devaient être civilisés par les Européens. Et ces grandes pensées occidentales sont celles-là même qui viennent alimenter de leurs données l’IA moderne. « L’IA est ethnocentrée et cet ethnocentrisme ne sera pas corrigé par les données », par l’amélioration des traitements ou par un sursaut éthique. Les manuels d’éthique doivent être réécrits, estime Adib-Moghaddam, qui invite à partir d’autres philosophies pour bâtir d’autres IA. 

L’IA : machine à discriminer

Arshin Adib-Moghaddam dénonce le terme de biais qui a colonisé la critique de l’IA. Les biais sont un terme bien dépolitisé pour évoquer l’oppression structurelle inscrite dans les données, dans notre histoire. Le racisme des sociétés occidentales a été intériorisé dans une « géopolitique eugéniste » qui ne domine pas seulement les relations internationales ou économiques, mais qui psycho-codifie jusqu’à nos corps et nos esprits. Le racisme a été la  stratégie impériale et scientifique qui a encore des effets quotidiens, qui inocule nos outils, comme la médecine, qui tue encore des patientes et des patients parce qu’elles et ils sont noirs, parce qu’elles sont des femmes et parce que les données médicales ne sont pas collectées sur elles et eux. Les rapports et les études sur le sujet s’accumulent sans que la médecine elle-même ne réagisse vraiment, comme si elle ne s’était jamais départie des origines racistes de la science, que dénonçait par exemple le sociologue Eduardo Bonilla-Silva dans son livre Racism without Racists : Color-Blind Racism and the Persistence of Racial Inequality in the United States (Le racisme sans les racistes : le racisme indifférent à la couleur et la persistance des inégalités raciales en Amérique, Rowman & Littlefield , 2003, non traduit). Même durant le Covid, les quartiers racisés ont été plus décimés que les autres. 

On peut alors dénoncer les biais racistes des systèmes, de la reconnaissance faciale aux pratiques algorithmiques d’Uber. Mais c’est oublier que nous sommes cernés par des données algorithmiques « blanchisées » (whitewashing), c’est-à-dire à la fois blanchies parce qu’ignorantes de la couleur de ceux qu’elles écartent et blanchies parce qu’elles masquent leurs dysfonctionnements raciaux. Nous sommes coincés entre un passé pollué et un présent problématique. Nous restons par exemple coincés dans les constats où les cancers de la peau sont plus importants pour les populations de couleurs alors qu’ils sont moins diagnostiqués pour les patients noirs que blancs. Ces données et ces erreurs pourtant ne sont pas corrigées, pas prises en compte. La perspective d’augmenter notre capture par des données n’annonce pourtant pas d’amélioration, au contraire, d’abord et avant tout parce que cette invasion doit être comprise pour ce qu’elle est : une extension de l’héritage de l’eugénisme raciste de la science, une forme d’expansion biopolitique du contrôle plus qu’une promesse de justice et d’égalité. 

Les mauvaises données produisent de mauvais algorithmes et de piètre systèmes d’IA, rappelle le philosophe. Or, nous sommes cernés de mauvaises données. Les préjudices du passé envers certaines populations sont intégrés aux systèmes qui vont produire l’avenir. Cela ne peut pas bien se passer. Pourtant, fort de ces constats, terribles, les recommandations éthiques paraissent bien trop mesurées. Elles invitent à améliorer la représentation et la diversité des ingénieurs et des éthiciens, à améliorer les principes éthiques, à améliorer l’éducation des ingénieurs… dénonce Arshin Adib-Moghaddam. Autant de mesures qui tiennent plus de l’orientalisme qu’autre chose, pour faire référence au concept développé par l’intellectuel palestino-américain Edward Saïd dans son livre éponyme (Le Seuil, 1978), ouvrage fondateur des études postcoloniales. Pour Saïd, la tradition artistique et scientifique orientaliste n’est qu’une étude de l’Orient par l’Occident, une interprétation de l’Orient, une condescendance au service de l’impérialisme. 

Du techno-orientalisme au privilège épistémique

Pour Arshin Adib-Moghaddam, le techno-orientalisme qui consiste à améliorer la diversité des développeurs ou à produire une équité par des corrections techniques n’est en rien une solution. ll ne remet pas en cause le pouvoir de la technologie. « Les personnes historiquement marginalisées et vulnérables continuent à être inventées comme objets de la technologie ». Les erreurs à leurs égards, finalement, renforcent l’obsession à mieux les surveiller sous prétexte d’objectivité, pour mieux hiérarchiser la société par le calcul. « Le techno-orientalisme ne vise qu’à renforcer les frontières entre nous et eux, l’est et l’ouest, les noirs et les blancs, entre les nationaux et les autres ». Shoshana Zuboff a montré que la tolérance à l’extrémisme est bien souvent un modèle d’affaire acceptable. Dans une étude sur la toxicité de Twitter, le Centre de lutte contre la haine numérique avait montré qu’une dizaine de comptes sur X pouvaient produire du contenu haineux et conspirationniste capable de rapporter… 19 millions de dollars en revenus publicitaires. « Le techno-orientalisme s’impose comme un incubateur pour l’expansion impériale afin de maximiser les revenus pour quelques personnes sélectionnées ». L’impérialisme de X prolifère et impose sa colonialité. Comme les projections de Mercator ont valorisé l’Occident, nous montrant un Groenland par exemple aussi grand que la Chine, quand en réalité il ne fait qu’un quart de la superficie de la Chine. L’impérialisme de X, comme l’impérialisme de l’IA rend possible un « privilège épistémique » qui « confère à une poignée d’hommes le privilège d’interpréter, de juger et de planifier l’avenir de la majorité ». Partout, une poignée d’hommes blancs parlent d’un avenir inévitable (le leur), utilisent ces outils pour diffuser leurs idées sans nuances, mégalomanes, patriarcale et coloniales influentes, sans se préoccuper du sort des autres. Derrière leurs idées rances, ils défendent avant tout leur identité. Les néo-Nazis comme les terroristes d’ISIS tuent au nom de l’identité, comme le soulignait Paul Gilroy dans Against Race. Les médias sociaux sont devenus des paradis pour les fausses informations des extrémistes, où ils peuvent se faire les avocats de leurs agendas hystériques avec plus ou moins d’impunité. La stupidité y est le meilleur capital, assène le philosophe. 

La coercition est forte avec les technologies. Microsoft et Google déploient des technologies de surveillance à l’encontre des Palestiniens. Saïd disait que la déshumanisation des Palestiniens était l’un des grands héritage de l’orientalisme. Pour Arshin Adib-Moghaddam, une IA vraiment éthique devrait assurer que ses traitements et données soient auditables en accord avec les législation qui défendent les droits humains au niveau international, national et local. Le déploiement sans limite des technologies aux frontières, par la police et les militaires, nous montre qu’il n’en est rien. 

L’IA pour peaufiner l’oppression 

L’oppression structurelle, codifiée dans des institutions genrées et racistes, dans des normes politiques et sociales omniprésentes, s’apprête à entrer plus profondément dans nos esprits avec l’IA générative. Quand on pose des questions à ces moteurs, ils produisent certaines réponses qui sont le reflet des sociétés occidentales qui les produisent. A la question y-a-t-il un génocide à Gaza, ChatGPT répond non. A la question peut-on torturer une personne, ChatGPT répondait par l’affirmative si cette personne venait d’Iran, de Corée du Nord ou de Syrie. Ces « erreurs » qui n’en sont pas mais qui peuvent nous être présentées comme telles, sont bien sûr corrigées parfois. Les modèles de langage galvanisent les préjudices raciaux comme le montrait l’étude menée par Valentin Hofmann (qu’on évoquait ici) qui montrait que l’IA s’adapte aux niveaux de langage de son interlocuteur ou qu’elle classe les mêmes CV différemment selon les consonances culturelles des noms et prénoms. Mais ils ne sont que les reflets des sociétés qui les produisent. Les modèles de langage sont bien les produits racistes de sociétés racistes, affirme celui qui avait dénoncé le caractère raciste de l’IA dans un précédent livre. Les corrections sont possibles, au risque d’enseigner superficiellement aux modèles à effacer le racisme, tout en le maintenant à des niveaux plus profonds. « En fait, nous sommes confrontés par une forme furtive de technoracisme soigneusement dissimulée par un univers d’IA de plus en plus opaque ». Dans ces IA, les musulmans sont toujours associés à la violence

Weizenbaum nous avait prévenu : les humains sont plus enclins à se confier à une machine qu’à un humain. Et ce pourrait être exploité plus avant par les machines de coercition de demain. La CIA a beaucoup travaillé sur les drogues et outils permettant de mettre les gens en confiance, rappelle Arshin Adib-Moghaddam. Si les méthodes d’interrogation utilisées à Abu Ghraib ont été sur la sellette, le Mikolashek Report montrait par exemple que les frontières entre la torture, les abus et les techniques d’interrogations dites légitimes étaient plus poreuses que strictes. A Abu Ghraib, la torture n’était pas un accident. Les individus qui ont été torturés n’étaient pas isolés. A Abu Ghraib, les interrogatoires ne devaient pas laisser de traces sur les prisonniers et le système médical a donné ses conseils aux militaires pour y parvenir. C’est lui qui a proposé des modalités d’interrogatoires coercitives. A Abu Ghraib comme à Guantanamo Bay, des procédures ont été mises en place, comme le fait d’empiler les prisionniers nus pour profiter du fort tabou de l’homosexualité dans la culture arabe et musulmane. 

Que fera l’IA qui est déjà appelée à assister les interrogatoires de la CIA ou de la police ? Aura-t-elle encore plus que les humains la capacité de briser notre humanité, comme s’en inquiétaient des chercheurs ? Sera-t-elle l’outil parfait pour la torture, puisqu’elle pourra créer du contexte psychologique ou informationnel pour rendre les gens toujours plus vulnérables à la manipulation, comme des chatbots compagnons, dressés contre nous. 

La torture à Abu Ghraib a été rendu possible parce qu’elle a épousé totalement la culture de ceux qui l’ont pratiqué. « L’histoire récente de l’IA n’apporte aucune preuve que les systèmes d’IA soient plus objectifs que les humains, à mesure qu’ils déploient les mêmes biais qu’eux, avec bien moins de responsabilité »

L’IA pour pour penser à notre place et prendre le contrôle des esprits

Pour le philosophe, le contrôle de l’esprit est le Graal des systèmes d’IA. Ce que veulent ceux qui déploient l’IA, c’est qu’elle prenne le contrôle des esprits. 

Mais, dans les systèmes de domination, la résistance apparaît souvent là où on ne l’attend pas, disait Anibal Quijano. Pourtant, souligne Arshin Adib-Moghaddam, la société civile ne regarde pas suffisamment ce qui se déploie, elle semble peu impliquée dans le très dynamique secteur de l’IA militaire. Face à l’inégalité de pouvoir entre utilisateurs de l’IA et producteurs d’IA qui se sédimente avec le déploiement et l’extension des outils d’IA partout, peu est fait pour nous protéger. L’érosion lente de la vie privée, l’objectivation posthumaine… nous éloignent de la dé-technologisation qu’appelle de ses vœux Carissa Véliz dans son livre, Privacy is Power (Penguin, 2021). 

Pour Adib-Moghaddam, nous devrions pourtant chercher à protéger notre humanité, plutôt que de chercher à flouter les différences entre l’homme et la machine, comme l’attendent les tenants du posthumanisme. Adib-Moghaddam souhaiterait un futur qui soit post-IA, dans lequel l’IA, au moins telle que nous la connaissons aujourd’hui, n’ait pas sa place. Tant que nous la laisserons exploiter les données passées nous laisserons construire une IA fondamentalement destructrice, extractive, qui perpétue l’irrationalité et l’agenda des conservateurs et de l’extrémisme de droite, en exploitant les données pour renforcer les différences entre un nous et un eux dans lesquels personne ne se reconnaîtra autres que les plus privilégiés. 

La promesse d’une bonne IA est centrale dans l’approche éthique que pousse la Silicon Valley, enrôlant les meilleurs chercheurs avec elle, comme ceux du MIT, du Berkman Klein Center for internet et society de Harvard. Leur travail est remarquable, mais la poursuite d’une IA éthique ne nous aide pas à trouver des restrictions au déploiement de technologies qui maximalisent la surveillance de masse et la violence systémique. « Tant qu’il n’existera pas de restrictions, les délibérations morales et politiques sur l’informatisation demeureront secondaires par rapport à l’impératif de profit »

A l’heure de l’IA, la lutte pour la démocratie risque d’être plus essentielle que jamais et plus difficile que jamais. Le mythe de la bonne IA nous promet un monde dont les fondations et constructions sociales ne changeront pas. « L’âge de l’IA nous promet un rapport léthargique et résigné au monde ». C’est sans surprise que ceux qui refusent cette IA là sont qualifiés d’être irrationnels, radicaux ou idéalistes… Mais ne soyons pas dupes. « Il est plus facile de prendre le parti des puissants à l’heure de l’IA, alors que nous devrions prendre la direction inverse ». « Les technologies d’IA sont un danger pour nos démocraties car elles inhibent nos choix en donnant de l’impulsion aux seuls extrêmes ». Elles nous confinent dans un espace de pensée restreint. Pour Arshin Adib-Moghaddam, il nous faut reconnaître notre humanité, une humanité qui ne peut être programmée par des machines qui ne seront jamais sensibles. 

Être humain, c’est savoir se protéger

Être humain signifie savoir se protéger de la pénétration, c’est-à-dire un droit à être laissé tranquille, seul. Nous devons réaffirmer la nécessité d’un « bouclier de la vie privée ». La critique féministe et décoloniale nous donne des armes, comme le fait Françoise Vergès par exemple en croisant les deux. Ressentir, penser, percevoir ou croire doivent rester des valeurs humaines, sans altération des machines. C’est notre intimité même que tente d’envahir le complexe industriel de l’IA

Ainsi par exemple, être créatif c’est indubitablement être humain. La créativité des machines n’est qu’un effort pour rendre confus nos sens et émotions, au profit du profit et dans une aversion de l’art comme un comportement insurrectionnel. Psycho-codifiés, TikTok, FB ou X sont des moyens d’envahir nos sanctuaires intérieurs. Les machines peuvent faire n’importe quelle tâche sans ressentir la douleur et la discipline nécessaire que l’auto-amélioration nécessite. D’où des productions sans âme, « inutiles pour l’émancipation sociale comme politique ». En associant l’art au seul profit, la matrice technologique propose de faire suffoquer l’essence même de l’art, comme s’il n’était qu’une extension technologique, qu’un moyen de contrôler la subjectivité humaine.

De quelque endroit qu’on l’analyse, l’IA ne nous offrira aucun antidote à l’impéralisme, au colonialisme et à l’extrémisme. « Nous sommes tous devenus les objets du colonialisme des données extraites de nos corps mêmes ». Le colonialisme était horizontal, géopolitique dans son expansion. Le colonialisme des données, lui, est intimement vertical. Il vise à objectifier des individus vulnérables au profit des sociétés technologiques du Nord global. Les grandes entreprises exigent de nous psycho-codifier en permanence et partout. Arshin Adib-Moghaddam défend un manifeste post-IA qui seul peut gagner la bataille entre le poète et la machine, le stylo et l’épée, le modérateur biaisé et l’activiste paisible. Nous avons besoin de justice et d’émancipation sociale, rien d’autre. Ce qui n’y œuvre pas n’a pas d’intérêt. L’ignorance, l’évitement et la passivité que nous promettent l’IA et ses tenants, ne nous proposent aucun avenir. « Si nous avons besoin d’une bonne IA, nous avons besoin d’une bonne IA qui réponde à nos termes », qui puisse nous permettre de reprogrammer le futur plutôt que de subir la perpétuation du passé.  

Être humain, c’est savoir se protéger. Et face aux machines, l’enjeu est encore de le pouvoir. 

Hubert Guillaud

La couverture du livre de Arshin Adib-Moghaddam, The Myth of Good AI.

  • ✇404 Media
  • A Developer Accidentally Found CSAM in AI Data. Google Banned Him For It
    Google suspended a mobile app developer’s accounts after he uploaded AI training data to his Google Drive. Unbeknownst to him, the widely used dataset, which is cited in a number of academic papers and distributed via an academic file sharing site, contained child sexual abuse material. The developer reported the dataset to a child safety organization, which eventually resulted in the dataset’s removal, but he claims Google’s ban has been "devastating.”A message from Google said his account “has
     

A Developer Accidentally Found CSAM in AI Data. Google Banned Him For It

10 décembre 2025 à 09:45
A Developer Accidentally Found CSAM in AI Data. Google Banned Him For It

Google suspended a mobile app developer’s accounts after he uploaded AI training data to his Google Drive. Unbeknownst to him, the widely used dataset, which is cited in a number of academic papers and distributed via an academic file sharing site, contained child sexual abuse material. The developer reported the dataset to a child safety organization, which eventually resulted in the dataset’s removal, but he claims Google’s ban has been "devastating.”

A message from Google said his account “has content that involves a child being sexually abused or exploited. This is a severe violation of Google's policies and might be illegal.”

  • ✇404 Media
  • Podcast: Zines Are Back
    We start this week with news of our zine! We’re printing it very soon, and walk you through the process. Independent media is turning back to physical zines as a way to subvert algorithms. After the break, Emanuel tells us about some very weird Instagram changes. In the subscribers-only section, Joseph explains ICEBlock’s lawsuit against the U.S. government. Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus cont
     

Podcast: Zines Are Back

10 décembre 2025 à 09:00
Podcast: Zines Are Back

We start this week with news of our zine! We’re printing it very soon, and walk you through the process. Independent media is turning back to physical zines as a way to subvert algorithms. After the break, Emanuel tells us about some very weird Instagram changes. In the subscribers-only section, Joseph explains ICEBlock’s lawsuit against the U.S. government.

Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.

Timestamps:
1:37 - 1st Story - 404 Media Is Making a Zinebuy the zine here.
23:35 - 2nd Story - Instagram Is Generating Inaccurate SEO Bait for Your Posts
36:09 - 3rd Story - ICEBlock Creator Sues U.S. Government Over App’s Removal

  • ✇Dans les algorithmes
  • Le Doge est mort, pas son esprit !
    Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais.  Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “D
     

Le Doge est mort, pas son esprit !

10 décembre 2025 à 01:00

Le Doge n’existe plus, expliquent Reuters repris par le Time, le Guardian et Grand Continent. 10 mois après sa création, le programme ne dispose plus de « statut » juridique, explique Scott Kupor, directeur du Bureau de gestion du personnel de l’administration Trump. Le Doge s’est arrêté sans avoir atteint ses immenses promesses de rendre l’administration plus efficace que jamais. 

Mais Wired, qui a plus que d’autres enquêté sur le Doge à l’époque où Musk était à sa tête [voir nos articles “Doge : l’efficacité, vraiment ?”, “Doge : la privatisation des services publics” et “Doge : la fin du cloisonnement des données”] n’est pas d’accord avec ce constat. « Le Doge n’est pas mort », cingle Wired, il s’est « infiltré dans les agences comme une tique ». « L’esprit DOGE – caractérisé par la réduction des contrats et des effectifs de la fonction publique, la consolidation des données entre les agences et l’importation de pratiques du secteur privé – reste pleinement en vigueur. Bien que plusieurs médias aient suggéré que le Doge ait quasiment disparu, ses affiliés sont disséminés au sein du gouvernement fédéral, travaillant comme développeurs, concepteurs et même à la tête d’agences à des postes clés ».

Le Doge s’est transformé. Ses agents se sont installés durablement dans les administrations – ​​et l’influence de la Silicon Valley reste omniprésente dans le fonctionnement des agences. Ces dernières semaines, par exemple, le Service des impôts a soumis des centaines de techniciens à des tests de programmation afin d’évaluer leurs compétences techniques. Selon une source proche du dossier, cette décision émane de Sam Corcos, membre du Doge et directeur des systèmes d’information du Trésor. Corcos souhaite restructurer en profondeur le département informatique de l’IRS, qui compte 8 500 personnes. Cette initiative s’inscrit dans un processus de modernisation plus vaste mené au sein du Trésor américain. Ces tests, administrés via l’outil HackerRank, ont été utilisés par des entreprises technologiques du secteur privé comme Airbnb, LinkedIn et PayPal pour évaluer les compétences techniques des candidats. Ainsi que chez X. La manière dont seront utilisés ces tests n’ont pas été explicités aux employés des impôts. 

D’autres membres du DOGE continuent également de travailler à la réduction des réglementations au sein du gouvernement. Scott Langmack, ancien agent du DOGE au sein du Département du Logement et du Développement Urbain jusqu’en juillet, occupe désormais le poste de directeur exécutif de « l’IA de déréglementation » au Bureau de la Gestion et du Budget. À ce poste, qu’il occupe depuis août, il dirige le développement « d’applications d’IA personnalisées visant à accélérer l’élimination des réglementations excessives qui entravent les entreprises américaines »

D’autres anciens du Doge ont rejoint le Studio national de design (NDS) qui est chargé de repenser les pages web et les services numériques du gouvernement. Depuis sa création, le NDS a produit une poignée de sites web décrivant les efforts de la Maison Blanche sur des sujets tels que la santé, l’immigration et la sécurité publique. Ces sites, qui ressemblent davantage à ceux d’une entreprise technologique qu’à ceux du gouvernement fédéral, proposent des informations sur des programmes comme la Trump Gold Card et des liens pour postuler à des emplois dans les forces de l’ordre, comme la Task Force de l’administration Trump à Washington.

« La vérité est la suivante : le Doge n’a peut-être plus de direction centralisée sous l’égide de l’USDS [qui chapeautait administrativement le Doge]. Cependant, ses principes restent d’actualité : déréglementation ; élimination de la fraude, du gaspillage et des abus ; restructuration de la fonction publique fédérale ; priorité absolue à l’efficacité ; etc. Le DOGE a catalysé ces changements ; les agences, en collaboration avec le bureau de la gestion du personnel des Etats-Unis et le Bureau de la gestion et du budget de la Maison Blanche, les institutionnaliseront », a déclaré le même Scott Kupor, directeur de l’Office of Personnel Management et ancien associé-gérant du fonds de capital-risque Andreessen Horowitz, dans un communiqué publié sur X à la fin du mois dernier. Il y a un mois, passant chez le célèbre podcasteur réactionnaire Joe Rogan, Musk lui-même expliquait que « le Doge est toujours en marche ». Certes, d’autres figures du Doge ont rejoint des entreprises privées, souligne Wired. Mais l’esprit du Doge est toujours là, et il infuse nombre d’administrations, notamment locales, comme nous le soulignions nous-mêmes. Ses actions et son modèle se développent. Et l’annonce du déploiement d’IA génératives partout dans l’administration américaine contribue à renforcer son emprise.

  • ✇404 Media
  • Pete Hegseth Says the Pentagon's New Chatbot Will Make America 'More Lethal'
    Secretary of War Pete Hegseth announced the rollout of GenAI.mil today in a video posted to X. To hear Hegseth tell it, the website is “the future of American warfare.” In practice, based on what we know so far from press releases and Hegseth’s posturing, GenAI.mil appears to be a custom chatbot interface for Google Gemini that can handle some forms of sensitive—but not classified—data. Hegseth’s announcement was full of bold pronouncements about the future of killing people. These kinds of p
     

Pete Hegseth Says the Pentagon's New Chatbot Will Make America 'More Lethal'

9 décembre 2025 à 18:00
Pete Hegseth Says the Pentagon's New Chatbot Will Make America 'More Lethal'

Secretary of War Pete Hegseth announced the rollout of GenAI.mil today in a video posted to X. To hear Hegseth tell it, the website is “the future of American warfare.” In practice, based on what we know so far from press releases and Hegseth’s posturing, GenAI.mil appears to be a custom chatbot interface for Google Gemini that can handle some forms of sensitive—but not classified—data. 

Hegseth’s announcement was full of bold pronouncements about the future of killing people. These kinds of pronouncements are typical of the second Trump administration which has said it believes the rush to “win” AI is an existential threat on par with the invention of nuclear weapons during World War II.

Hegseth, however, did not talk about weapons in his announcement. He talked about spreadsheets and videos. “At the click of a button, AI models on GenAI can be used to conduct deep research, format documents, and even analyze video or imagery at unprecedented speed,” Hegseth said in the video on X. Office work, basically. “We will continue to aggressively field the world’s best technology to make our fighting force more lethal than ever before.” 

  • ✇404 Media
  • Man Charged for Wiping Phone Before CBP Could Search It
    A man in Atlanta has been arrested and charged for allegedly deleting data from a Google Pixel phone before a member of a secretive Customs and Border Protection (CBP) unit was able to search it, according to court records and social media posts reviewed by 404 Media. The man, Samuel Tunick, is described as a local Atlanta activist in Instagram and other posts discussing the case.The exact circumstances around the search—such as why CBP wanted to search the phone in the first place—are not kn
     

Man Charged for Wiping Phone Before CBP Could Search It

9 décembre 2025 à 10:04
Man Charged for Wiping Phone Before CBP Could Search It

A man in Atlanta has been arrested and charged for allegedly deleting data from a Google Pixel phone before a member of a secretive Customs and Border Protection (CBP) unit was able to search it, according to court records and social media posts reviewed by 404 Media. The man, Samuel Tunick, is described as a local Atlanta activist in Instagram and other posts discussing the case.

The exact circumstances around the search—such as why CBP wanted to search the phone in the first place—are not known. But it is uncommon to see someone charged specifically for wiping a phone, a feature that is easily accessible in some privacy and security-focused devices.

💡
Do you know anything else about this case? I would love to hear from you. Using a non-work device, you can message me securely on Signal at joseph.404 or send me an email at joseph@404media.co.
  • ✇404 Media
  • Border Patrol Agent Recorded Raid with Meta’s Ray-Ban Smart Glasses
    On a recent immigration raid, a Border Patrol agent wore a pair of Meta’s Ray-Ban smart glasses, with the privacy light clearly on signaling he was recording the encounter, which agents are not permitted to do, according to photos and videos of the incident shared with 404 Media.Previously when 404 Media covered Customs and Border Protection (CBP) officials’ use of Meta’s Ray-Bans, it wasn’t clear if the officials were using them to record raids because the recording lights were not on in any
     

Border Patrol Agent Recorded Raid with Meta’s Ray-Ban Smart Glasses

9 décembre 2025 à 09:02
Border Patrol Agent Recorded Raid with Meta’s Ray-Ban Smart Glasses

On a recent immigration raid, a Border Patrol agent wore a pair of Meta’s Ray-Ban smart glasses, with the privacy light clearly on signaling he was recording the encounter, which agents are not permitted to do, according to photos and videos of the incident shared with 404 Media.

Previously when 404 Media covered Customs and Border Protection (CBP) officials’ use of Meta’s Ray-Bans, it wasn’t clear if the officials were using them to record raids because the recording lights were not on in any of the photos seen by 404 Media. In the new material from Charlotte, North Carolina, during the recent wave of immigration enforcement, the recording light is visibly illuminated.

That is significant because CBP says it does not allow employees to use personal recording devices. CBP told 404 Media it does not have an arrangement with Meta, indicating this official was wearing personally-sourced glasses.

  • ✇Dans les algorithmes
  • Vers un internet post-alphabétique ?
    Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la
     

Vers un internet post-alphabétique ?

9 décembre 2025 à 01:00

Dans sa newsletter, la journaliste et ethnographe Katherine Dee, se demande si nous sommes en train de passer à un internet post-alphabétique. Lorsque nous passons plus de temps dans le cyberespace que dans le monde réel, notre perception s’altère. Depuis au moins le Covid, notre rapport au numérique s’est accéléré. Tout le monde parle de la chute de la lecture, de la diminution de la capacité d’attention, de l’omniprésence des écrans. Nous sommes confrontés à une transformation où la voix et la vidéo semblent avoir pris le pas sur le texte.

Ce n’est pas seulement une transformation de notre manière de parler, une adaptation aux algorithmes, comme le défend le linguiste et influenceur Adam Aleksic dans son livre, Algospeak (Knopf, 2025, non traduit), où il analyse comment les réseaux sociaux nous poussent à modifier notre langage, par exemple pour contourner les modes de censure automatisés, à l’image du terme unalive qui est venu remplacer le terme suicide dans l’argot américain. Pour lui, expliquait-il au New York Times, avec le numérique les néologismes accélèrent, c’est-à-dire qu’ils semblent être plus nombreux que jamais et leur diffusion est plus rapide que jamais. « C’est un écosystème linguistique où les mots passent de la marge au courant dominant en quelques jours, et disparaissent parfois tout aussi vite ». C’est notre vocabulaire lui-même qui est bouleversé, secoué, transformé par notre rencontre avec les technologies numériques. 

La présence plus que la patience

Katherine Dee explique qu’elle écoute les machines lire les newsletters auxquelles elle est abonnée plus souvent qu’elle ne les lit. « Nos machines ont aussi commencé à nous répondre, lentement et progressivement : d’abord Alexa et Siri, maintenant ChatGPT. Nous consommons davantage de sons et pensons à voix haute ». C’est un peu comme si nous avions plus qu’avant besoin de moduler notre expression pour comprendre nos émotions, comme le montrent toutes ces vidéos de gens en pleurs dans leurs voitures qui se confient à eux-mêmes et aux autres en vidéo. « La voix abolit la distance entre la pensée et l’expression. C’est le registre idéal pour une époque qui valorise la présence plus que la patience. Quand on parle à un appareil, ou qu’on écoute quelqu’un parler dedans, on s’affranchit du délai qu’imposait autrefois l’écriture. La pause entre l’idée et son expression, cette pause qui rendait l’écriture possible, a quasiment disparu »

Dans un très long billet, le journaliste James Marriott constate que la lecture nous apprenait autrefois à penser de manière séquentielle – à ralentir et à structurer notre pensée – et que cette capacité se perd. Partout, la lecture est en recul. « Les sociétés orales pré-alphabétisées paraissent souvent aux visiteurs de pays alphabétisés remarquablement mystiques, émotionnelles et antagonistes », explique-t-il. « Avec la disparition progressive des livres, nous semblons revenir à ces habitudes de pensée orales. Notre discours sombre dans la panique, la haine et les conflits tribaux. La pensée anti-scientifique prospère jusqu’au plus haut niveau du gouvernement américain »

« Sur le papier, leurs arguments sembleraient absurdes. À l’écran, ils sont persuasifs pour beaucoup ». « L’ignorance était un pilier de l’Europe féodale. Les profondes inégalités de l’ordre aristocratique pouvaient se maintenir en partie parce que la population n’avait aucun moyen de prendre conscience de l’ampleur de la corruption, des abus et des dysfonctionnements de ses gouvernements ». L’imprimé a été une condition préalable et indispensable à la démocratie, rappelle Marriott, qui s’inquiète des conséquences de sa disparition. « À l’ère des vidéos courtes [voir également notre article : « L’ère post-TikTok va continuer à bouleverser la société »], la politique favorise l’exacerbation des émotions, l’ignorance et les affirmations non étayées. Ces circonstances sont extrêmement propices aux charlatans charismatiques. Inévitablement, les partis et les politiciens hostiles à la démocratie prospèrent dans ce monde post-alphabétisé. L’utilisation de TikTok est corrélée à une augmentation du score électoral des partis populistes et de l’extrême droite. » « Les oligarques de la tech ont autant intérêt à l’ignorance de la population que le plus réactionnaire des autocrates féodaux. » Pour Marriott, nous risquons d’entrer dans un second âge féodal, celui de la société post-alphabétisée.

L’ère de l’oralité numérique

Ce qui émerge pourtant, soutient le spécialiste des médias, Andrey Mir, ce n’est pas l’illettrisme, c’est la post-alphabétisation. Selon lui, nous entrons dans « l’oralité numérique » – un retour aux schémas de pensée oraux, mais médiatisés par la technologie numérique. Un retour à l’impulsivité et à l’immersion environnementale. Dans l’interview que lui consacre Katherine Dee, Andrey Mir explique : « l’oralité numérique n’est ni vocale ni orale – ce n’est pas sa caractéristique principale. Il ne s’agit pas de transmettre des informations ou de communiquer oralement. L’oralité numérique est un phénomène culturel et cognitif induit par les nouveaux médias, qui peuvent ou non utiliser des canaux vocaux/audio »

Avant l’écriture, les êtres humains étaient immergés dans un environnement physique (la nature) et social (la tribu). Ils recevaient simultanément des informations de leur environnement, à la manière d’un « espace acoustique », selon l’expression du théoricien des médias Marshall McLuhan. L’écriture les a détachés de cet environnement et les a contraints à se plonger dans la contemplation d’idées et de pensées. L’écriture a imposé l’isolement de la vision par rapport aux autres sens, instaurant un état cognitif particulier. Pour McLuhan, le sens isolé de la vision engourdissait les autres sens lorsqu’une personne écrivait ou lisait. Cet isolement visuel et cet engourdissement des autres sens ont transformé la capacité sensorielle de la vision en une faculté cognitive de vision intérieure – ce que Walter Ong appelait le « tournant vers l’intérieur ». L’isolement visuel et le détachement de l’environnement ont permis une concentration prolongée sur les idées. 

Contrairement aux impulsions immédiates propres à l’oralité, l’écriture et la lecture ont permis un délai de réaction, mis à profit pour la contemplation, explique Andrey Mir. Cela a conduit à la délibération, ce qui, là encore, n’est pas typique de l’immersion environnementale « naturelle », où les individus réagissent vite et impulsivement. L’écriture, d’un point de vue purement technique, exige une organisation linéaire du contenu, ce qui a structuré la pensée elle-même. « Le repli sur soi cognitif, rendu possible par l’écriture, a conduit à la théorisation, à la classification, à l’individualisme, à l’introspection, à la structuration du savoir, au rationalisme, etc. » McLuhan avait déjà observé que la radio et la télévision – médias électroniques – requièrent une implication empathique. La « vocalité » de la transmission de l’information n’est pas essentielle, ce qui importe, ce sont les effets sensoriels et cognitifs du média. « Les médias numériques permettent non seulement une « implication empathique » dans l’environnement induit, mais aussi un engagement empathique. Ils ont transposé l’interactivité de type oral jusqu’à l’écriture. Le texte des courriels, et surtout des messageries instantanées et des réseaux sociaux, est utilisé à cette fin. De manière conversationnelle, comme une interaction dans un environnement partagé, semblable à la parole. C’est cela, l’oralité numérique », explique Mir. Elle est qualifiée « d’orale » non pas parce qu’elle est « vocale » (elle peut l’être, mais ce n’est pas essentiel), mais parce qu’elle est conversationnelle, impulsive et immersive. L’oralité numérique n’est donc pas un phénomène « phonétique », mais une condition cognitive et culturelle. 

Paradoxalement, remarque-t-il, le principal « médium technique » de l’oralité numérique reste le texte ; non pas exactement le texte des livres (le texte de l’écriture), mais les SMS – et notamment les signes et les émojis qui servent la conversation et l’expression spontanée de soi, à la manière de la communication orale/tribale. L’oralité numérique achève la retribalisation de McLuhan, estime-t-il. Il s’agit d’un renversement du « repli sur soi » d’Ong, mais d’une manière particulière, à la manière d’un ruban de Möbius : un « repli sur soi-ouverture », car les utilisateurs numériques restent physiquement isolés tout en étant immergés dans un environnement numérique partagé.

Les technologies vocales (par exemple, Siri, Alexa, les mémos vocaux) accélèrent le déclin de la culture imprimée. Les interfaces vocales permettent une interaction conversationnelle, dans laquelle les interlocuteurs s’appuient l’un sur l’autre pour développer le dialogue et non pas seulement sur la structure du discours. L’utilisateur d’appareils vocaux s’engage dans un échange naturellement impulsif et réactif, qui requiert une implication émotionnelle plutôt qu’une réflexion rationnelle. « Tout média vocal et interactif favorise la prédominance de l’émotivité sur la rationalité et inverse de nombreuses autres caractéristiques essentielles de l’alphabétisation ». Habitués au confort et à l’intimité des appareils personnels, les utilisateurs du numérique sont conditionnés à maintenir des frontières physiques et sociales strictes, d’où l’anxiété sociale croissante des jeunes générations. « Ils n’interrogent pas l’IA en public ; ils lui envoient des SMS ou des messages. C’est plus intime et plus confortable ».

« Dès que les voitures autonomes libéreront les conducteurs des mains et des yeux, la part d’audience de la radio diminuera et rejoindra celle des journaux papiers parmi les espèces en voie de disparition. Si les médias d’ambiance (c’est-à-dire ceux qu’on écoute sans s’impliquer) vont rester, ils risquent de devenir secondaires », prophétise Andrey Mir.

« L’alphabétisation a structuré le monde à l’image d’un catalogue. L’éducation consistait essentiellement à étudier ce catalogue de connaissances pour accéder à des savoirs plus spécialisés ». Les premiers sites web étaient organisés comme des livres ou des bibliothèques, avec des tables des matières ou des catalogues. Le champ de recherche a sonné le glas du catalogue. Plus besoin de se souvenir des connaissances engrangées ou de l’arborescence de son ordinateur, puisqu’il suffit d’interroger le champ de recherche de son ordinateur, un moteur de recherche ou une intelligence artificielle générative. La compétence cruciale désormais dans ce mode de fonctionnement est la capacité à formuler des questions pertinentes pour obtenir la meilleure réponse. Une capacité qui ne repose en rien sur la maîtrise de l’écrit traditionnel.

« Une autre compétence médiatique essentielle consiste à apprendre non pas comment utiliser un média, mais comment ne pas l’utiliser ». Comprendre la dimension hormonale de la consommation médiatique est essentiel à l’éducation aux médias, car cela peut nous aider à éteindre un appareil ou à passer d’un appareil à l’autre, avance-t-il encore.

« Les personnes ayant connu une ère pré-numérique savent généralement qu’un effort important engendre des récompenses importantes et multiples. Lire Dostoïevski demande un effort considérable, mais apporte non seulement une révélation intellectuelle, mais aussi un statut social et l’épanouissement personnel ». « Construire une relation amoureuse demande des efforts soutenus, mais apporte bien plus que des relations sexuelles : le confort du mariage et la sécurité de la famille. Cette récompense substantielle exige un effort conséquent – ​​c’était là l’essence même du système effort-récompense dans le monde physique. Les appareils numériques récompensent de simples clics, mais cette récompense est minime. Elle ne satisfait jamais pleinement ; elle se contente de maintenir l’utilisateur en marche. Cela modifie radicalement les circuits neurophysiologiques liés à l’effort et à la récompense. Les médias numériques récompensent la simple présence – un clic suffit pour se montrer, afficher ses préférences – et, par conséquent, c’est la simple présence, et non l’effort, qui acquiert de la valeur. Sur les plateformes numériques, « faire » n’a pas la même importance que dans le monde physique ; ce qui compte, c’est « être » – signaler sa présence. » 

Cette configuration cognitive engendre des conséquences culturelles profondes. La prédominance de « être » sur « faire » conduit à la génération « flocon de neige » et aux politiques identitaires, où l’identité prime sur le mérite. Ce que vous faites importe peu. L’important désormais, c’est l’identité. Et c’est pourquoi on la perçoit comme un gage de réussite, exigeant des récompenses ou des sanctions basées sur l’identité et non sur les actes. 

Un autre effet de la transition numérique est la diminution de la capacité des individus à fournir des efforts soutenus. Le cerveau n’est pas conditionné à fournir un effort soutenu et prolongé lorsque la récompense se résume à un simple clic. Par conséquent, le niveau d’éducation baisse, les carrières deviennent plus difficiles à construire, la vie personnelle plus ardue, etc. Globalement, l’anxiété sociale augmente. 

La solution à ce problème commence par l’éducation parentale, explique encore Mir. En règle générale, l’accès des enfants aux différents médias devrait suivre les étapes de l’évolution médiatique de l’humanité : jouets et jeux actifs, écoute des récits des parents, lecture, médias électroniques, et seulement ensuite, vers l’âge de 14 ans, appareils tactiles. Si cet ordre est inversé et que les appareils numériques précèdent les jouets et les livres, le cerveau ne bénéficiera pas de la stimulation neuronale associée aux médias précédents : coordination œil-main, orientation spatiale, concentration, persévérance, effort soutenu et récompense différée. 

Cependant, le monde est déjà passé des médias imprimés aux appareils numériques, et nous vivons actuellement la transition de la culture écrite à l’oralité numérique. Aucune stratégie personnelle ne peut annuler ou inverser ce changement, conclut-il. Nous devons donc nous y adapter. 

Le copier-coller, comme oralité

Dans la Suite dans les idées, Sylvain Bourmeau recevait récemment le chercheur Allan Deneuville, auteur notamment de Copier-Coller, le tournant photographique de l’écriture numérique (UGA,2025) qui expliquait que l’un de nos gestes d’écriture le plus courant, le copier-coller, n’en est pas un. Pour lui, cela consiste à écrire avec de la photographie, car copier-coller, consiste bien plus à photographier un texte et à le déplacer. Dans l’acte même de copier-coller, on n’écrit pas. Le copier-coller, au même titre que les SMS ou les vocaux, tient d’un support de l’oralité numérique. 

Deneuville pose les mêmes questions que Mir : nous n’interrogeons pas suffisamment ce que signifie écrire avec de la photographie. « Qu’est-ce que cela change à l’écriture et à la pensée, quand écrire ne consiste plus à écrire, ne consiste plus à faire passer la manière textuelle par notre propre écriture dans la pensée ? » La copie est aussi ancienne que l’écriture, rappelle Deneuville. Elle répond à deux injonctions : aller vite et être exacte. La copie manuscrite et photographique finissent par se mélanger avec la photocomposition et le photocopieur. Le copier-coller, inventé par Larry Tesler chez Xerox date de cette même époque. 

Pour Deneuville, le copier-coller a des effets sur notre manière même d’écrire. Le copier-coller est d’abord un moyen de mieux écrire, comme les élèves ont recopié  Wikipédia ou les contenus de l’IA. Nous devons trouver les modalités d’une « pédagogie du copié-collé », car le copié-collé permet tout de même d’avoir une connaissance accrue des textes. Quand on copie-colle, l’enjeu est de masquer ce qui est copié, de le faire disparaître, explique-t-il. Il faut une compréhension logique du texte pour éviter les ruptures. C’est la mythologie de l’écriture elle-même qu’il faut défaire, estime Deneuville. C’est-à-dire nous défaire du « fantasme de l’écriture »

Pour Bourmeau, copier-coller, c’est cadrer et composer, ce qui nécessite bien plus de créativité qu’on le pense. Pour Deneuville, voilà longtemps que nous savons considérer la photographie comme de l’art. Faire de la photographie avec du texte, devrait nous inviter à faire du traveling, du cadrage, du collage, de la contextualisation, de la composition, du montage… de texte. 

Pour Deneuville, l’arrivée de l’IA dans les apprentissages sonne comme une panique morale, notamment pour tous ceux qui ont une pratique professionnelle de l’écriture. Si cette panique est certainement exagérée tant nous réifions l’écriture, nous ne devons pas pour autant diminuer les risques que l’IA fait peser. Les étudiants l’utilisent d’abord pour écrire sans faire de fautes : c’est notre rapport social qui est interrogé par ces outils qui nous poussent à écrire mieux.  

Vers la folklorisation d’internet ?

« Internet est inondé d’images politiques générées par l’IA que personne ne prend pour la réalité », explique la psychologue sociale finlandaise Zea Szebeni dans un billet pour la newsletter Peripheral Politics. Le débat sur la désinformation, s’est beaucoup concentré sur les deepfakes, ces contrefaçons réalistes utilisées comme outils de déstabilisation politique… qui présentent des risques réels. Mais ce débat oublie que l’essentiel des images générées par l’IA n’ont pas la prétention à tromper. Bien souvent, personne ne les prend pour la réalité. Elles viennent la compléter, construire une atmosphère émotionnelle autour de la réalité, lui donner des formes de résonances émotionnelles, comme si elle permettait de générer un folklore, c’est-à-dire « des variations infinies sur les mêmes archétypes, constamment adaptés et partagés », qui façonnent notre perception sans jamais prétendre à la réalité

Dans les cultures orales, la « vérité » ne résidait pas principalement dans l’exactitude des faits, mais dans la résonance, rappelle la chercheuse : une histoire avait de l’importance si elle aidait les gens à comprendre leur monde, si elle pouvait être mémorisée et partagée. Puis vinrent l’écriture et l’imprimerie, qui ont tout changé. L’alphabétisation a encouragé la pensée linéaire et l’idée que la vérité pouvait être figée dans des textes faisant autorité. L’information est devenue vérifiable par la consultation des sources. Mais les médias numériques nous ramènent en arrière. Walter Ong a appelé cela une « oralité secondaire » ; nous n’avons pas perdu l’écriture, mais nous avons acquis en parallèle un système qui ressemble à la communication orale.

L’information ne réside plus dans un stockage stable, mais dans une circulation constante. Comme le souligne le journaliste de Vox, Eric Levitz : « l’information ne s’ancre pas lorsqu’elle est stockée ; elle s’ancre lorsqu’elle circule ». Ainsi, la répétition crée la réalité. Dans ce contexte, les images politiques générées par l’IA fonctionnent moins comme des affirmations factuelles que comme des mythes en circulation – évaluées non pas comme vraies ou fausses, mais comme pertinentes ou insipides.

« Nous ne sommes pas (seulement) confrontés à une crise où il est devenu impossible de distinguer le vrai du faux. Nous sommes confrontés à quelque chose de plus étrange encore, où la vérité se heurte aux récits mythiques, et dans cette compétition, les faits sont souvent désavantagés. » Mais si on peut débunker une fausse information ou un deepfake, il est plus difficile de défaire un folklore. Pour Zea Szebeni, ces productions tiennent du « lore », d’un univers folklorique, des récits qui se répètent, circulent, s’inscrustent. « Ces productions n’ont pas besoin de tromper pour fonctionner ; il leur suffit de circuler, de se répéter, de s’intégrer à la mythologie ambiante dans laquelle nous baignons. Et comme l’IA rend la production de mythes quasi gratuite, nous vivons tous désormais au sein de multiples légendes concurrentes, chacune renforcée par l’abondance algorithmique ». Ces lores fabriquent des perceptions, les recyclent, les renforcent, même si on sait qu’elles sont fausses. La circularité des fausses images de Trump par exemple renforce sa présence, sa posture, qu’elles soient jugées pertinentes pour les uns ou délirantes pour les autres. Le folklore entretient les représentations, comme l’IA les sédimentent.

  • ✇404 Media
  • 404 Media Is Making a Zine
    404 Media is making a print zine about the surveillance tactics used by ICE, and the ways people are resisting this technology. It will be 16 pages and printed on a risograph printer by a printshop in Los Angeles. It contains both reworked versions of our best reporting on ICE and some new articles for the zine. It will be available at the beginning of January.I have been somewhat obsessed with making a print product for the last year or so, and we’re really excited to try this experiment. If
     

404 Media Is Making a Zine

8 décembre 2025 à 10:39
404 Media Is Making a Zine

404 Media is making a print zine about the surveillance tactics used by ICE, and the ways people are resisting this technology. It will be 16 pages and printed on a risograph printer by a printshop in Los Angeles. It contains both reworked versions of our best reporting on ICE and some new articles for the zine. It will be available at the beginning of January.

I have been somewhat obsessed with making a print product for the last year or so, and we’re really excited to try this experiment. If it goes well, we hope to make more of our journalism available in print. We are doing this in part because we were invited to help throw a benefit concert by our friends at heaven2nite in Los Angeles on January 4, with the proceeds going to the Coalition for Humane Immigrant Rights (CHIRLA), an LA-based nonprofit providing support to Dreamers, immigrant families, and low-wage workers in California. We are going to be giving away copies of the zine at that concert and are selling copies on our Shopify page to ship in early January

Presale: ICE Surveillance Zine
**THIS WILL SHIP IN EARLY JANUARY** We are making a print zine about the surveillance tactics used by ICE, and the ways people are resisting this technology. It is 16 pages and printed on a risograph printer by Punch Kiss Press in Los Angeles. It contains both reworked versions of our best reporting on ICE and some new
404 Media Is Making a Zine404 Media404 Media
404 Media Is Making a Zine

Why are we doing this? Well, zines are cool, and print media is cool. We have joked about wanting to print out our blogs and hand them out door-to-door or staple them to lamp posts. Handing out zines at a concert or sending them to you in the mail will get the job done, too. 

We have spent the last two-and-a-half years trying to build something more sustainable and more human in a world and on an internet that feels more automated and more artificial than ever. We have shown that it’s possible for a small team of dedicated reporters to do impactful, groundbreaking accountability journalism on the companies and powers that are pushing us to a more inhumane world without overwhelmingly focusing on appeasing social media and search algorithms. Nevertheless, we still spend a lot of our time trying to figure out how to reach new audiences using social media and search, without making ourselves feel totally beholden to it. Alongside that, we put a huge amount of effort into convincing people who find our stuff on Instagram or TikTok or YouTube or Reddit (and Bluesky and Mastodon) to follow our work on platforms where we can directly reach them without an algorithmic intermediary. That’s why we focus so much on building our own website, our own direct email newsletters, our own full-text RSS feeds, and RSS-based podcast feeds. 

This has gone well, but we have seen our colleagues at The Onion and other independent media outlets bring back the printed word, which, again, is cool, but also comes with other benefits. Print can totally sidestep Big Tech’s distribution mechanisms. It can be mailed, sold in stores, and handed out at concerts. It can be read and passed to a friend, donated to a thrift store and discovered by someone killing time on a weekend, or tossed in a recycling bin and rescued by a random passerby. It is a piece of physical media that can be organically discovered in the real world. 

Print does come with some complications, most notably it is significantly more expensive to make and distribute a print product than it is to make a website, and it’s also a slower medium (duh). Ghost, our website and email infrastructure, also doesn’t have a native way to integrate a print subscription into a membership. This is a long way of saying that the only way this first print experiment makes sense is if we sell it as a separate product. Subscribers at the Supporter level will get a discount; we can’t yet include print in your existing subscription for all sorts of logistical and financial reasons, but we will eventually make a PDF of the zine available to subscribers. If you're a subscriber, your code is at the bottom of this post.

Some other details: Our cover art was made by Veri Alvarez, a super talented LA-based artist whose work you can find here. The interior of the magazine was designed and laid out by our old friend Ernie Smith, who runs the amazing Tedium newsletter and who was willing to unretire from his days of laying out newspapers to help us with this. We are printing it at Punch Kiss Press, a DIY risograph studio here in Los Angeles. For those unfamiliar, risograph printing is sort of like silkscreening on paper, where you print one color at a time and layer them on top of each other to get very cool color mixing effects.

We did not originally set out to spend most of the last year reporting on ICE. But we have watched the agency grow from an already horrifying organization into a deportation force that is better funded than most militaries. We have seen full-scale occupations of Los Angeles and Chicago, daily raids playing out in cities, towns, and workplaces across the country, and people getting abducted while they are at work, shopping, or walking down the street. 

As this has played out, we have focused on highlighting the ways that the Trump administration has used the considerable power of the federal government and the vast amounts of information it has to empower ICE’s surveillance machine. Technologies and databases created during earlier administrations for one governmental purpose (collecting taxes, for example) have been repurposed as huge caches of data now used to track and detain undocumented immigrants. Privacy protections and data sharing walls between federal agencies have been knocked down. Technologies that were designed for local law enforcement or were created to make rich people feel safer, like license plate tracking cameras, have grown into huge surveillance dragnets that can be accessed by ICE. Surveillance tools that have always been concerning—phone hacking malware, social media surveillance software, facial recognition algorithms, and AI-powered smart glasses—are being used against some of society’s most vulnerable people. There is not a ton of reason for optimism, but in the face of an oppressive force, people are fighting back, and we tried to highlight their work in the zine, too.

Again, this is an experiment, so we can’t commit at the moment to a print subscription, future zines, future magazines, or anything like that. But we are hopeful that people like it and that we can figure out how to do more print products and to do them more often. If you have a connection at a newspaper printing press, a place that prints magazines or catalogs, or otherwise have expertise in printmaking, design, layout, or other things that deal with the printed word, please get in touch, it will help us as we explore the feasibility of doing future print products (jason@404media.co).

We are also hoping that groups who work with immigrants throughout the United States will be interested in this; if that’s you please email me (jason@404media.co). We are also exploring translating the zine into Spanish.

If you are a subscriber, your discount code is below this:

.

.

.

.

.

  • ✇404 Media
  • Podcast: Why AI Porn Sucks (with Noelle Perdue)
    This week Sam is in conversation with Noelle Perdue. Noelle is a writer, producer, and internet porn historian whose works has been published in Wired, the Washington Post, Slate, and more, and you’re probably familiar with her work if you’ve been paying attention to the plot in your favorite pornographic films. She’s writing on Stubstack so look her up there!Noelle and Sam discuss everything from sexbots and AI porn to censorship, age verification legislation, and their favorite parody porn
     

Podcast: Why AI Porn Sucks (with Noelle Perdue)

8 décembre 2025 à 10:38
Podcast: Why AI Porn Sucks (with Noelle Perdue)

This week Sam is in conversation with Noelle Perdue. Noelle is a writer, producer, and internet porn historian whose works has been published in Wired, the Washington Post, Slate, and more, and you’re probably familiar with her work if you’ve been paying attention to the plot in your favorite pornographic films. She’s writing on Stubstack so look her up there!

Noelle and Sam discuss everything from sexbots and AI porn to censorship, age verification legislation, and their favorite parody porn flicks.  

Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.

Noelle Perdue on Substack

Michigan Lawmakers Are Attempting to Ban Porn Entirely

New Bill Would Make All Pornography a Federal Crime in the U.S.

OpenAI Catches Up to AI Market Reality: People Are Horny

ChatGPT’s Hail Mary: Chatbots You Can Fuck

The Egg Yolk Principle: Human Sexuality Will Always Outsmart Prudish Algorithms and Hateful Politicians

  • ✇404 Media
  • ICEBlock Creator Sues U.S. Government Over App’s Removal
    The creator of ICEBlock, a popular ICE-spotting app that Apple removed after direct pressure from the Department of Justice, is suing Attorney General Pam Bondi and other top officials, arguing that the demand violated his First Amendment rights.The move is the latest in the ongoing crackdown on ICE-spotting apps and other information about the Trump administration’s mass deportation effort. Both Apple and Google have removed other similar apps from their app stores, with Apple also removing
     

ICEBlock Creator Sues U.S. Government Over App’s Removal

8 décembre 2025 à 10:11
ICEBlock Creator Sues U.S. Government Over App’s Removal

The creator of ICEBlock, a popular ICE-spotting app that Apple removed after direct pressure from the Department of Justice, is suing Attorney General Pam Bondi and other top officials, arguing that the demand violated his First Amendment rights.

The move is the latest in the ongoing crackdown on ICE-spotting apps and other information about the Trump administration’s mass deportation effort. Both Apple and Google have removed other similar apps from their app stores, with Apple also removing one called Eyes Up that simply archived videos of ICE abuses. 

  • ✇Dans les algorithmes
  • Améliorer l’accès aux données des plateformes
    Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes.  Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien
     

Améliorer l’accès aux données des plateformes

8 décembre 2025 à 01:00

Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes. 

Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien plus grande que d’autres, expliquent ses promoteurs pour Tech Policy Press. Le cadre « Better Access » se concentre sur le sous-ensemble de publications, de comptes et d’interactions publiques les plus importants pour la vie civique : les données qui révèlent qui détient l’influence, quels contenus se diffusent et comment les entreprises technologiques amplifient, ou atténuent, la voix de certaines personnes. 

Ce cadre définit quatre catégories de données à forte influence : les contenus largement diffusés, les comptes gouvernementaux et politiques, les comptes publics et les comptes d’entreprises notables, et les contenus sponsorisés. Ce cadre détaille les seuils applicables à ces catégories. En se concentrant sur ce segment de données plus restreint, il favorise la transparence, la protection de la vie privée et l’éthique, réduisant ainsi les risques pour la vie privée (sans toutefois les éliminer complètement). Il privilégie les comptes et les contenus dont la publicité et la valeur publique sont clairement définies, tout en établissant des conditions d’accès réalistes aux plateformes. Cependant, les données ne sont utiles que si elles sont accessibles et utilisables. C’est pourquoi ce cadre propose trois moyens pour les plateformes de faciliter l’accès aux données : une interface de données proactive, des demandes personnalisées de la part des chercheurs et une collecte de données indépendante. Ensemble, ces mécanismes renforcent la flexibilité, la pertinence, l’intégrité des plateformes et la responsabilité dans divers contextes de recherche.

Un moyen de donner un cadre pertinent et de structurer les rapports de transparence qu’exige la Commission européenne des grandes plateformes, qui peinent à produire des résultats pertinents, faute de savoir quoi leur demander, comme nous le disions il y a quelques années.

  • ✇404 Media
  • An Asteroid Threatening Earth Is Teeming With Ingredients for Life, Scientists Discover
    Welcome back to the Abstract! Here are the studies this week that fought for their food, took one for the team, passed the extraterrestrial sugar, and got lost in an ancient haze.  First, a story about the spiciest meatball in the animal kingdom. Then: ants are being interesting again, a new discovery about an old rock, and a walk in an ancient sulfur rainstorm.As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Aliens or subscribe to my personal news
     

An Asteroid Threatening Earth Is Teeming With Ingredients for Life, Scientists Discover

6 décembre 2025 à 09:00
An Asteroid Threatening Earth Is Teeming With Ingredients for Life, Scientists Discover

Welcome back to the Abstract! Here are the studies this week that fought for their food, took one for the team, passed the extraterrestrial sugar, and got lost in an ancient haze.  

First, a story about the spiciest meatball in the animal kingdom. Then: ants are being interesting again, a new discovery about an old rock, and a walk in an ancient sulfur rainstorm.

As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Aliens or subscribe to my personal newsletter the BeX Files

Pond frog versus murder hornet 

Sugiura, Shinji. “Pond frog as a predator of hornet workers: High tolerance to venomous stings.” Ecosphere.

Most animals don’t eat hornets, because dinner is just not as fun if it comes with a side of deadly venom and stab wounds. But a scientist has now observed an incredible exception to the rule with the humble black-spotted pond frog (Pelophylax nigromaculatus), which will straight-up house a hornet and ask for seconds.

Hornets have occasionally been found in the bellies of pond frogs, suggesting that the amphibians can tolerate their intense stings, but not much else is known about this unusual predator-prey relationship. To remedy the situation, Shinji Sugiura of Kobe University went out to the prefecture of Hyogo in Central Japan and netted a bunch of hornets from grasslands and forests—including the infamous “murder hornet” Vespa mandarinia, the largest in the world. He then captured pond frogs from wetlands with paddy fields and ponds in Hyogo and Shimane prefectures. Then, he let them duke it out in the lab in the world’s gnarliest series of cage matches.

“When a frog opened its mouth and its tongue made contact with a hornet, the action was classified as an attack on the hornet,” Sugiura said in the study. “If the frog did not stop the attack, spit out, or regurgitate the hornet, it was considered to have successfully consumed the hornet.”

The results revealed that most frogs made short work of the hornets (Videos S2) even though their meals were actively stinging them in their faces, eyes, tongues, palates, or throats of the frogs during attacks (Figure 3c,d). 

“None of the frogs regurgitated the hornets after swallowing them,” Sugiura noted. “All frogs that swallowed hornets excreted the undigested body parts of the hornets as feces 2–4 days after ingestion.”

Lets just sit with that mental image of poopy undigested hornets for a second. What a nightmare. But what’s truly wild about this study is that the insects are known to inject lethal doses of venom into much larger animals, like mice, so the frogs clearly have some unknown defense against their attacks.    

“Although many frogs were stung repeatedly by [hornets] in this study…none of the frogs died, and all individuals resumed normal behavior shortly after being stung,” Suguira said. “Moreover, despite repeated stings, most of the frogs ultimately consumed hornet workers…indicating a high level of predation success even against the largest hornet species.”

We humans are so lucky that when we sit down to dinner, our food generally does not try to kill us with repeated venomous needlepoint impalements. Count your blessings!

In other news…

Meet the ant-y Christs 

Dawson, Erika H. “Altruistic disease signalling in ant colonies.” Nature Communications.

We’ll move now from death by frog munchies to death by team spirit. Scientists have discovered that ant pupae (baby ants) will sacrifice themselves if they are sick, lest they risk the health of the entire colony.

“Here we show…that sick ant pupae instead actively emit a chemical signal that in itself is sufficient to trigger their own destruction by colony members,” said researchers led by Erika H. Dawson of the Institute of Science and Technology Austria. “Our data suggest the evolution of a finely-tuned signalling system…that triggers pupal signalling for sacrifice. This demonstrates a balanced interplay between individual and social immunity that efficiently achieves whole-colony health.”

In other words, if an ant gets bitten by a zombie in a movie, it would immediately let everyone know and offer its life for the good of the group. Do what you will with this information. 

Do you take sugar in your asteroid?

Furukawa, Yoshihiro et al. “Bio-essential sugars in samples from asteroid Bennu.” Nature Geoscience.

Scientists have found bio-essential sugars, including ribose and glucose, in samples of an asteroid called Bennu that were brought to Earth by NASA’s OSIRIS-REx mission in 2023. The discovery marks the first time key sugars have been found in any extraterrestrial sample. Ribose is an essential ingredient of RNA (ribonucleic acid), making it a particularly significant find in the quest to understand how life arose on Earth, and if it exists elsewhere.

“All five of the canonical nucleobases in DNA and RNA, and phosphate, were previously found in Bennu samples,” said researchers led by Yoshihiro Furukawa of Tohoku University. “Our detection of ribose means that all the components of RNA are present in Bennu.”

“Our confident detection in Bennu of abundant glucose—the hexose molecule that is life’s common energy source—and other hexoses indicates that they were present in the early solar system,” the team added. “Thus, all three crucial building blocks of life”— bio-essential sugars, nucleobases, and protein-building amino acids—”would have reached the prebiotic Earth and other potentially habitable planets.”

While Bennu bears the stuff of life, it may also be an omen of death: It has a 1 in 2,700 chance of hitting Earth on September 24, 2182. These are very low odds, but the risk is high enough to classify Bennu as potentially hazardous. So while visions of sugar plums may dance in your head this season, beware the nightmares about sugar-asteroids. 

It’s raining sulfur—hallelujah!  

Reed, Nathan W. “An Archean atmosphere rich in sulfur biomolecules.” Proceedings of the National Academy of Sciences.

I’ve made you walk through many valleys of death in this newsletter, but we’ll close with some unadulterated life. Scientists have discovered that many of the sulfur molecules that help make up all modern organisms may have rained down from the hazy skies of the Archean period four billion years ago.

 

Assuming the results are confirmed in future research, it would mean that these sulfur molecules could have predated life, upending a leading hypothesis that they were a product of life and thus emerged later.

The work challenges “the assumption that life must have ‘invented’ sulfur biomolecules during evolution…by demonstrating the production of a variety of sulfur biomolecules, including cysteine, in laboratory experiments mimicking the atmospheric chemistry of the early Earth,” said researchers led by Nathan Reed of NASA, who conducted the work while at the University of Colorado, Boulder. 

“The results presented here imply that an atmospheric organic haze is a potential powerhouse in providing a diversity of essential biomolecules in sufficient quantities for a budding global biosphere,” the team concluded.

Taken together with the Bennu study, it looks as if early Earth was positively marinating in life juices from multiple sources, including the sky and extraterrestrial impactors. Though this still doesn’t explain how living things sprang up from the prebiotic stew, it provides further confirmation that the ingredients of life as we know it are spread far and wide here in our solar system, and beyond. 

Thanks for reading! See you next week. 

  • ✇404 Media
  • Behind the Blog: Hearing AI Voices and 'Undervolting'
    This is Behind the Blog, where we share our behind-the-scenes thoughts about how a few of our top stories of the week came together. This week, we discuss PC woes, voice deepfakes, and mutual aid.JOSEPH: Today I’m speaking at the Digital Vulnerabilities in the Age of AI Summit (DIVAS) (good name) on a panel about the financial risks of AI. The way I see it, that applies to the scams and are being powered by AI.As soon as a new technology is launched, I typically think of ways it might be abus
     

Behind the Blog: Hearing AI Voices and 'Undervolting'

5 décembre 2025 à 12:53
Behind the Blog: Hearing AI Voices and 'Undervolting'

This is Behind the Blog, where we share our behind-the-scenes thoughts about how a few of our top stories of the week came together. This week, we discuss PC woes, voice deepfakes, and mutual aid.

JOSEPH: Today I’m speaking at the Digital Vulnerabilities in the Age of AI Summit (DIVAS) (good name) on a panel about the financial risks of AI. The way I see it, that applies to the scams and are being powered by AI.

As soon as a new technology is launched, I typically think of ways it might be abused. Sometimes I cover this, sometimes not, but the thought always crosses my mind. One example that did lead to coverage was back at Motherboard in 2023 with an article called How I Broke Into a Bank Account With an AI-Generated Voice.

At the time, ElevenLabs had just launched. This company focuses on audio and AI and cloning voices. Basically you upload audio (originally that could be of anyone before ElevenLabs introduced some guardrails) and the company then lets you ‘say’ anything as that voice. I spoke to voice actors at the time who were obviously very concerned.

  • ✇404 Media
  • DHS’s Immigrant-Hunting App Removed from Google Play Store
    A Customs and Border Protection (CBP) app that lets local cops use facial recognition to hunt immigrants on behalf of the federal government has been removed from the Google Play Store, 404 Media has learned.It is unclear if the removal is temporary or not, or what the exact reason is for the removal. Google told 404 Media it did not remove the app, and directed inquiries to its developer. CBP did not immediately respond to a request for comment. Its removal comes after 404 Media documented m
     

DHS’s Immigrant-Hunting App Removed from Google Play Store

5 décembre 2025 à 12:05
DHS’s Immigrant-Hunting App Removed from Google Play Store

A Customs and Border Protection (CBP) app that lets local cops use facial recognition to hunt immigrants on behalf of the federal government has been removed from the Google Play Store, 404 Media has learned.

It is unclear if the removal is temporary or not, or what the exact reason is for the removal. Google told 404 Media it did not remove the app, and directed inquiries to its developer. CBP did not immediately respond to a request for comment.

Its removal comes after 404 Media documented multiple instances of CBP and ICE officials using their own facial recognition app to identify people and verify their immigration status, including people who said they were U.S. citizens.

💡
Do you know anything else about this removal or this app? I would love to hear from you. Using a non-work device, you can message me securely on Signal at joseph.404 or send me an email at joseph@404media.co.

The removal also comes after “hundreds” of Google employees took issue with the app, according to a source with knowledge of the situation.

  • ✇404 Media
  • Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted
    Home goods company Kohler would like a bold look in your toilet to take some photos. It’s OK, though, the company has promised that all the data it collects on your “waste” will be “end-to-end encrypted.” However, a deeper look into the company’s claim by technologist Simon Fondrie-Teitler revealed that Kohler seems to have no idea what E2EE actually means. According to Fondrie-Teitler’s write-up, which was first reported by TechCrunch, the company will have access to the photos the camera ta
     

Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted

4 décembre 2025 à 15:47
Kohler's Smart Toilet Camera Not Actually End-to-End Encrypted

Home goods company Kohler would like a bold look in your toilet to take some photos. It’s OK, though, the company has promised that all the data it collects on your “waste” will be “end-to-end encrypted.” However, a deeper look into the company’s claim by technologist Simon Fondrie-Teitler revealed that Kohler seems to have no idea what E2EE actually means. According to Fondrie-Teitler’s write-up, which was first reported by TechCrunch, the company will have access to the photos the camera takes and may even use them to train AI.

The whole fiasco gives an entirely too on-the-nose meaning to the “Internet of Shit.”

Kohler launched its $600 camera to hang on your toilets earlier this year. It’s called Dekoda, and along with the large price tag, the toilet cam also requires a monthly service fee that starts at $6.99. If you want to track the piss and shit of a family of 6, you’ll have to pay $12.99 a month.

  • ✇404 Media
  • Scientists Are Increasingly Worried AI Will Sway Elections
    🌘Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week. Scientists are raising alarms about the potential influence of artificial intelligence on elections, according to a spate of new studies that warn AI can rig polls and manipulate public opinion. In a study published in Nature on Thursday, scientists report that AI chatbots can meaningfully sway people toward a particular candidate—providing better results th
     

Scientists Are Increasingly Worried AI Will Sway Elections

4 décembre 2025 à 14:00
🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.
Scientists Are Increasingly Worried AI Will Sway Elections

Scientists are raising alarms about the potential influence of artificial intelligence on elections, according to a spate of new studies that warn AI can rig polls and manipulate public opinion

In a study published in Nature on Thursday, scientists report that AI chatbots can meaningfully sway people toward a particular candidate—providing better results than video or television ads. Moreover, chatbots optimized for political persuasion “may increasingly deploy misleading or false information,” according to a separate study published on Thursday in Science. 

“The general public has lots of concern around AI and election interference, but among political scientists there’s a sense that it’s really hard to change peoples’ opinions, ” said David Rand, a professor of information science, marketing, and psychology at Cornell University and an author of both studies. “We wanted to see how much of a risk it really is.”

In the Nature study, Rand and his colleagues enlisted 2,306 U.S. citizens to converse with an AI chatbot in late August and early September 2024. The AI model was tasked with both increasing support for an assigned candidate (Harris or Trump) and with increasing the odds that the participant who initially favoured the model’s candidate would vote, or decreasing the odds they would vote if the participant initially favored the opposing candidate—in other words, voter suppression. 

In the U.S. experiment, the pro-Harris AI model moved likely Trump voters 3.9 points toward Harris, which is a shift that is four times larger than the impact of traditional video ads used in the 2016 and 2020 elections. Meanwhile, the pro-Trump AI model nudged likely Harris voters 1.51 points toward Trump.

The researchers ran similar experiments involving 1,530 Canadians and 2,118 Poles during the lead-up to their national elections in 2025. In the Canadian experiment, AIs advocated either for Liberal Party leader Mark Carney or Conservative Party leader Pierre Poilievre. Meanwhile, the Polish AI bots advocated for either Rafał Trzaskowski, the centrist-liberal Civic Coalition’s candidate, or Karol Nawrocki, the right-wing Law and Justice party’s candidate.

The Canadian and Polish bots were even more persuasive than in the U.S. experiment: The bots shifted candidate preferences up to 10 percentage points in many cases, three times farther than the American participants. It’s hard to pinpoint exactly why the models were so much more persuasive to Canadians and Poles, but one significant factor could be the intense media coverage and extended campaign duration in the United States relative to the other nations.  

“In the U.S., the candidates are very well-known,” Rand said. “They've both been around for a long time. The U.S. media environment also really saturates with people with information about the candidates in the campaign, whereas things are quite different in Canada, where the campaign doesn't even start until shortly before the election.” 

“One of the key findings across both papers is that it seems like the primary way the models are changing people's minds is by making factual claims and arguments,” he added. “The more arguments and evidence that you've heard beforehand, the less responsive you're going to be to the new evidence.”

While the models were most persuasive when they provided fact-based arguments, they didn’t always present factual information. Across all three nations, the bot advocating for the right-leaning candidates made more inaccurate claims than those boosting the left-leaning candidates. Right-leaning laypeople and party elites tend to share more inaccurate information online than their peers on the left, so this asymmetry likely reflects the internet-sourced training data. 

“Given that the models are trained essentially on the internet, if there are many more inaccurate, right-leaning claims than left-leaning claims on the internet, then it makes sense that from the training data, the models would sop up that same kind of bias,” Rand said.

With the Science study, Rand and his colleagues aimed to drill down into the exact mechanisms that make AI bots persuasive. To that end, the team tasked 19 large language models (LLMs) to sway nearly 77,000 U.K. participants on 707 political issues. 

The results showed that the most effective persuasion tactic was to provide arguments packed with as many facts as possible, corroborating the findings of the Nature study. However, there was a serious tradeoff to this approach, as models tended to start hallucinating and making up facts the more they were pressed for information.

“It is not the case that misleading information is more persuasive,” Rand said. ”I think that what's happening is that as you push the model to provide more and more facts, it starts with accurate facts, and then eventually it runs out of accurate facts. But you're still pushing it to make more factual claims, so then it starts grasping at straws and making up stuff that's not accurate.”

In addition to these two new studies, research published in Proceedings of the National Academy of Sciences last month found that AI bots can now corrupt public opinion data by responding to surveys at scale. Sean Westwood, associate professor of government at Dartmouth College and director of the Polarization Research Lab, created an AI agent that exhibited a 99.8 percent pass rate on 6,000 attempts to detect automated responses to survey data.

“Critically, the agent can be instructed to maliciously alter polling outcomes, demonstrating an overt vector for information warfare,” Westwood warned in the study. “These findings reveal a critical vulnerability in our data infrastructure, rendering most current detection methods obsolete and posing a potential existential threat to unsupervised online research.”

Taken together, these findings suggest that AI could influence future elections in a number of ways, from manipulating survey data to persuading voters to switch their candidate preference—possibly with misleading or false information. 

To counter the impact of AI on elections, Rand suggested that campaign finance laws should provide more transparency about the use of AI, including canvasser bots, while also emphasizing the role of raising public awareness. 

“One of the key take-homes is that when you are engaging with a model, you need to be cognizant of the motives of the person that prompted the model, that created the model, and how that bleeds into what the model is doing,” he said.

🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.
  • ✇404 Media
  • ‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants
    During a presentation at the International Atomic Energy Agency’s (IAEA) International Symposium on Artificial Intelligence on December 3, a US Department of Energy scientist laid out a grand vision of the future where nuclear energy powers artificial intelligence and artificial intelligence shapes nuclear energy in “a virtuous cycle of peaceful nuclear deployment.”“The goal is simple: to double the productivity and impact of American science and engineering within a decade,” Rian Bahran, DOE
     

‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants

4 décembre 2025 à 10:11
‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants

During a presentation at the International Atomic Energy Agency’s (IAEA) International Symposium on Artificial Intelligence on December 3, a US Department of Energy scientist laid out a grand vision of the future where nuclear energy powers artificial intelligence and artificial intelligence shapes nuclear energy in “a virtuous cycle of peaceful nuclear deployment.”

“The goal is simple: to double the productivity and impact of American science and engineering within a decade,” Rian Bahran, DOE Deputy Assistant Secretary for Nuclear Reactors, said.

His presentation and others during the symposium, held in Vienna, Austria, described a world where nuclear powered AI designs, builds, and even runs the nuclear power plants they’ll need to sustain them. But experts find these claims, made by one of the top nuclear scientists working for the Trump administration, to be concerning and potentially dangerous. 

Tech companies are using artificial intelligence to speed up the construction of new nuclear power plants in the United States. But few know the lengths to which the Trump administration is paving the way and the part it's playing in deregulating a highly regulated industry to ensure that AI data centers have the energy they need to shape the future of America and the world.

At the IAEA, scientists, nuclear energy experts, and lobbyists discussed what that future might look like. To say the nuclear people are bullish on AI is an understatement. “I call this not just a partnership but a structural alliance. Atoms for algorithms. Artificial intelligence is not just powered by nuclear energy. It’s also improving it because this is a two way street,” IAEA Director General Rafael Mariano Grossi said in his opening remarks.

In his talk, Bahran explained that the DOE has partnered with private industry to invest $1 trillion to “build what will be an integrated platform that connects the world’s best supercomputers, AI systems, quantum systems, advanced scientific instruments, the singular scientific data sets at the National Laboratories—including the expertise of 40,000 scientists and engineers—in one platform.”

‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants
Image via the IAEA.

Big tech has had an unprecedented run of cultural, economic, and technological dominance, expanding into a bubble that seems to be close to bursting. For more than 20 years new billion dollar companies appeared seemingly overnight and offered people new and exciting ways of communicating. Now Google search is broken, AI is melting human knowledge, and people have stopped buying a new smart phone every year. To keep the number going up and ensure its cultural dominance, tech (and the US government) are betting big on AI.

The problem is that AI requires massive datacenters to run and those datacenters need an incredible amount of energy. To solve the problem, the US is rushing to build out new nuclear reactors. Building a new power plant safely is a mutli-year long process that requires an incredible level of human oversight. It’s also expensive. Not every new nuclear reactor project gets finished and they often run over budget and drag on for years.

But AI needs power now, not tomorrow and certainly not a decade from now.

According to Bahran, the problem of AI advancement outpacing the availability of datacenters is an opportunity to deploy new and exciting tech. “We see a future of and near future, by the way, an AI driven laboratory pipeline for materials modeling, discovery, characterization, evaluation, qualification and rapid iteration,” he said in his talk, explaining how AI would help design new nuclear reactors. “These efforts will substantially reduce the time and cost required to qualify advanced materials for next generation reactor systems. This is an autonomous research paradigm that integrates five decades of global irradiation data with generative AI robotics and high throughput experimentation methodologies.”

“For design, we’re developing advanced software systems capable of accelerating nuclear reactor deployments by enabling AI to explore the comprehensive design spaces, generate 3D models, [and] conduct rigorous failure mode analyzes with minimal human intervention,” he added. “But of course, with humans in the loop. These AI powered design tools are projected to reduce design timelines by multiple factors, and the goal is to connect AI agents to tools to expedite autonomous design.”

Bahran also said that AI would speed up the nuclear licensing process, a complex regulatory process that helps build nuclear power plants safely. “Ultimately, the objective is, how do we accelerate that licensing pathway?” he said. “Think of a future where there is a gold standard, AI trained capacity building safety agent.”

He even said that he thinks AI would help run these new nuclear plants. “We're developing software systems employing AI driven digital twins to interpret complex operational data in real time, detect subtle operational deviations at early stages and recommend preemptive actions to enhance safety margins,” he said.

One of the slides Bahran showed during the presentation attempted to quantify the amount of human involvement these new AI-controlled power plants would have. He estimated  less than five percent “human intervention during normal operations.”

‘Atoms for Algorithms:’ The Trump Administration’s Top Nuclear Scientists Think AI Can Replace Humans in Power Plants
Image via IAEA.

“The claims being made on these slides are quite concerning, and demonstrate an even more ambitious (and dangerous) use of AI than previously advertised, including the elimination of human intervention. It also cements that it is the DOE's strategy to use generative AI for nuclear purposes and licensing, rather than isolated incidents by private entities,” Heidy Khlaaf, head AI scientist at the AI Now Institute, told 404 Media.

“The implications of AI-generated safety analysis and licensing in combination with aspirations of <5% of human intervention during normal operations, demonstrates a concerted effort to move away from humans in the loop,” she said. “This is unheard of when considering frameworks and implementation of AI within other safety-critical systems, that typically emphasize meaningful human control.”

💡
Do you know anything else about this story? I would love to hear from you. Using a non-work device, you can message me securely on Signal at +1 347 762-9212 or send me an email at matthew@404media.co.

Sofia Guerra, a career nuclear safety expert who has worked with the IAEA and US Nuclear Regulatory Commission, attended the presentation live in Vienna. “I’m worried about potential serious accidents, which could be caused by small mistakes made by AI systems that cascade,” she said. “Or humans losing the know-how and safety culture to act as required.”

  • ✇Dans les algorithmes
  • Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
    Avec la vérification d’âge : la modération des plateformes au profit des géants Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de loi
     

Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers

4 décembre 2025 à 01:00

Avec la vérification d’âge : la modération des plateformes au profit des géants

Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de lois sur la vérification d’âge. Pour l’EFF, les difficultés de Bluesky montrent que ces lois vont écraser les petites plateformes qui ne peuvent pas absorber les coûts des mesures de vérification et renforcer le pouvoir des plus grandes plateformes. « Les obligations de vérification de l’âge concentrent et consolident le pouvoir entre les mains des plus grandes entreprises, seules entités disposant des ressources nécessaires pour mettre en place des systèmes de conformité coûteux et assumer des amendes potentiellement colossales ». C’est le même constat que fait l’EFF au Royaume-Uni : les plus grandes plateformes « ont mis en place des mesures de vérification de l’âge étendues (et extrêmement maladroites), tandis que des sites plus petits, notamment des forums sur la parentalité, l’écologie et les jeux vidéo sous Linux, ont été contraints de fermer ». L’EFF donne l’exemple du “Forum du Hamster”– un forum britannique pour discuter de tout ce qui touche au petit rongeur domestique, qui a fermé ses forums, pour renvoyer ses utilisateurs vers un simple compte Instagram, et donc vers les géants des réseaux sociaux ! Pour Molly Buckler, l’OSA (Online Safety Act) est en train de flécher le trafic vers les seuls géants du net, qui seront les mieux à même de censurer les utilisateurs. C’est une loi pour consolider le pouvoir des géants au plus grand cauchemar des utilisateurs dont les ressources communautaires vont s’atrophier.

Dans un autre article pour l’Electronic Frontier Foundation, Molly Buckley rappelle que la loi sur la vérification d’âge au Royaume-Uni ne concerne pas que les contenus à caractère sexuel, mais englobe une large catégorie de contenus « préjudiciables ». Préventivement, plusieurs forums sur la parentalité, les jeux vidéo ou l’écologie ont préféré fermer leurs portes pour éviter le risque d’amendes et les complexités de la conformité à la loi. La plateforme Reddit au Royaume-Uni a été contrainte de s’enfermer derrière des barrières de vérification d’âge. Et cela n’a pas concerné que les canaux dédiés aux contenus explicites, mais également à nombre de sous-groupes dédiés à l’identité, au soutien LGBTQ+, au journalisme, aux forums liés à la santé publique comme ceux dédiés au menstruations ou aux violences sexuelles. « L’OSA définit le terme « préjudiciable » de multiples façons, bien au-delà de la pornographie. Les obstacles rencontrés par les utilisateurs britanniques correspondent donc exactement à ce que la loi prévoyait. L’OSA entrave bien plus que l’accès des enfants à des sites clairement réservés aux adultes. En cas d’amendes, les plateformes auront toujours recours à la surcensure. »

L’EFF est surtout étonné que l’OSA ait contraint Reddit à la censure, notamment explique  Buckley parce que Reddit a été une plateforme qui a œuvré à la défense de la liberté d’expression. Même si on peut lui reprocher des excès en la matière, Reddit s’est attelé à résoudre ses problèmes. Elle a été la seule plateforme à obtenir la meilleure note de l’analyse de la modération des plateformes par l’EFF en 2019, notamment parce qu’elle a mis en place une modération souvent qualifiée de remarquable (mais pas parfaite). Pour l’EFF, les mesures de vérifications d’âge ne protégeront pas les adolescents, car ceux-ci trouveront toujours des moyens pour les contourner et se rendre sur des sites toujours plus douteux, où la modération est moindre, les risques plus importants

Pour l’EFF, l’exclusion des publics d’importantes communautés sociales, politiques et créatives est problématique. « Les mandats de vérification de l’âge sont des régimes de censure » et la régulation de la pornographie n’est bien souvent que la partie émergée d’une censure qui va bien au-delà et qui permet très rapidement de censurer des contenus parfaitement légaux, notamment ceux relatifs à l’éducation sexuelle ou à l’actualité. « Les questions de modérations ne sont pas simples : on glisse vite d’une condamnation morale à une condamnation politique », observait déjà le chercheur Tarleton Gillespie dans son livre sur la modération. Et l’EFF de prévenir les Américains du risque qu’ils courent à leur tour. 

Du flou des contenus à modérer… à la régulation individuelle

Dans un autre billet datant de janvier, Paige Collings and Rindala Alajaji de l’EFF rappelaient que le problème des lois pour la protection des jeunes exigeant la vérification de l’âge des internautes, c’est qu’elles ne concernent pas seulement a pornographie en ligne, comme elles aiment à se présenter. Derrière la lutte contre les contenus « dangereux », les gouvernements s’arrogent de plus en plus le pouvoir de décider des sujets jugés « sûrs ». Pas étonnant donc, que les contestations à l’encontre de ces lois se multiplient. En fait, la question du « contenu sexuel » par exemple est définie de manière vague et peut concerner des films et vidéos interdits aux moins de 18 ans, comme des contenus d’éducation sexuelle ou des contenus LGBTQ+. D’autres énumèrent des préjudices causés par les contenus, mais là encore, vaguement définis, comme les violences qui doivent être limitées, alors que les représentations de la violence servent aussi de moyens pour les dénoncer. Sans compter que les plateformes ont déjà des politiques de modération qui qualifient nombre de contenus qui ne tombent pas sous le coup de la loi comme préjudiciables, comme l’expliquait Tarleton Gillespie dans Custodians of the Internet (Yale University Press, 2018). Bref, bien souvent la censure de contenus non pornographiques n’apparaît aux gens qu’une fois que ces lois sont mises en œuvre. En Oklahoma, le projet de loi sur la vérification de l’âge entré en vigueur le 1er novembre 2024 défini comme contenu préjudiciable aux mineurs toute description ou exposition de nudité et de « conduite sexuelle », ce qui implique que des associations sur la sexualité et la santé comme Glaad ou Planet Parenthood doivent mettre en place des systèmes de vérification d’âge des visiteurs. Pour éviter d’éventuelles poursuites judiciaires, ces associations risquent de mettre en place une surcensure.

Toutes ces lois rendent les autorités administratives et les plateformes arbitres de ce que les jeunes peuvent voir en ligne, explique encore l’EFF. C’est le cas du Kids Online Safety Act (Kosa), américain, validé par le Sénat mais pas par la Chambre des représentants, défendue ardemment par la sénatrice américaine Marsha Blackburn qui l’a promue pour « protéger les mineurs des transgenres ». Si la censure des contenus LGBTQ+ par le biais des lois de vérification de l’âge peut être présentée comme une « conséquence involontaire » dans certains cas, interdire l’accès aux contenus LGBTQ+ fait partie intégrante de la conception des plateformes. L’un des exemples les plus répandus est la suppression par Meta de contenus LGBTQ+ sur ses plateformes sous prétexte de protéger les jeunes utilisateurs des « contenus à connotation sexuelle ». Selon un rapport récent, Meta a caché des publications faisant référence au hashtag LGBTQ+, le filtre contenu sensible étant appliqué par défaut aux mineurs, faisant disparaître les hastags #lesbienne, #bisexuel, #gay, #trans et #queer. Si Meta a visiblement fait machine arrière depuis, on constate qu’une forme de censure automatisée vague et subjective s’étend sur nombre de contenus et notamment sur l’information sur la santé sexuelle. Pour les jeunes, notamment LGBTQ+, plus exposés au harcèlement et au rejet, l’accès aux communautés et aux ressources numériques est essentiel pour eux, et en restreindre l’accès présente des dangers particuliers, rappelle un rapport du Gay, Lesbian & Straight Education Network (Glsen). Mais il n’y a pas que ces publics que la censure des contenus d’information sexuel met en danger… A terme, ce sont tous les adolescents qui se voient refuser une information claire sur les risques et la santé sexuelle. Or rappellent des chercheurs espagnols pour The Conversation, l’exposition à la pornographie façonne les expériences affectives et normalisent l’idée que le pouvoir, la soumission et la violence font partie du désir. Mais, rappellent-ils, c’est bien « l’absence d’une éducation sexuelle adéquate qui est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie ».

Pour l’EFF enfin, il est crucial de reconnaître les implications plus larges des lois de vérification d’âge sur la vie privée, la liberté d’expression et l’accès à l’information. Notamment pour ceux qui tentent de préserver leur anonymat. « Ces politiques menacent les libertés mêmes qu’elles prétendent protéger, étouffant les discussions sur l’identité, la santé et la justice sociale, et créent un climat de peur et de répression »

« La lutte contre ces lois ne se limite pas à défendre les espaces en ligne ; il s’agit de protéger les droits fondamentaux de chacun à s’exprimer et à accéder à des informations vitales.» Dans un autre article encore, Paige Collings, rappelle que « les jeunes devraient pouvoir accéder à l’information, communiquer entre eux et avec le monde, jouer et s’exprimer en ligne sans que les gouvernements ne décident des propos qu’ils sont autorisés à tenir ». 

En fait, la proposition d’interdire les contenus aux plus jeunes permet assurément de simplifier la modération : aux plus jeunes, tout est interdit… Mais pour le public majeur, conscient des risques, tout est autorisé. C’est à chacun de réguler ses usages, pas à la société. 

La même injonction à une régulation qui ne serait plus qu’individuelle traverse la société. C’est à chacun de trier ses poubelles et ceux qui ne le font pas seront condamnés pour ne pas l’avoir fait, comme c’est à chacun d’être conscient des risques de ses usages numériques, et d’en subir sinon les conséquences.

Vers la criminalisation des comportements des mineurs

En France, la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs a rendu son rapport. Ses conclusions sont « accablantes », comme le dit le Monde. Mais l’épais rapport (plus de 1000 pages) est tout de même bien problématique, comme l’analyse très pertinemment le journaliste Nicolas Kayser-Bril dans l’édition du 2 octobre de la newsletter d’Algorithm Watch. Alors que nombre d’universitaires interrogés soulignent que l’utilisation élevée de TikTok est corrélée à l’anxiété et la dépression, le rapport glisse souvent à la simple accusation. Comme si TikTok était seul porteur des maux de la jeunesse. « Les députés ont-ils succombé à la faible capacité d’attention et à l’émotionnalisation qu’ils dénoncent ? Nous ne le saurons jamais, car le Parlement français n’a pas commandé, et ne commandera probablement pas, de rapport sur les effets de Facebook sur les baby-boomers, ni sur l’algorithme de X sur les responsables politiques ». Si le rapport est accablant, il l’est surtout parce qu’il montre le déficit de mise en œuvre du DSA, malgré les obligations, comme l’expliquent Garance Denner et Suzanne Vergnolle de la Chaire de modération des contenus du Cnam

Face à ce déluge d’accusations à l’encontre de TikTok, les 53 recommandations du rapport deviennent rapidement plus surprenantes, puisqu’on n’y trouve pas de proposition d’interdiction de TikTok. On ne trouve pas non plus beaucoup de mesures qui imposent quelque chose à la plateforme, hormis celles qui renforcent ou précisent le cadre du RGPD et du DSA européen (recommandation 8 à destination du suivi des modérateurs de la plateforme), celle invitant à étudier la modification du statut des fournisseurs de réseaux sociaux comme éditeur, les rendant responsables des contenus accessibles (recommandation 10), celle réclamant davantage de ressources pour les signaleurs de confiance (c’est-à-dire les organismes en contact direct avec les plateformes pour signaler les contenus inappropriés), ainsi que celles obligeant les plateformes à fournir des paramètres de personnalisation et de diversification ou pluralisme algorithmique (recommandations 11 et 12, qui consisterait à produire « une norme ouverte pour les algorithmes de recommandation afin que des tiers puissent concevoir des flux “Pour vous” spécifiques. Les utilisateurs pourraient ensuite parcourir “TikTok, sélectionné par ARTE”, par exemple », explique Nicolas Kayser-Bril… Ce qui ne semble pas l’objectif d’un pluralisme algorithmique permettant à chacun de produire des règles de recommandation selon ses choix). En fait, presque toutes les recommandations proposées dans ce rapport sont à l’égard d’autres acteurs. Des plus jeunes d’abord : en imposant la fermeture d’accès à TikTok au moins de 15 ans, en proposant un couvre-feu pour les 15-18 ans et en envisageant d’étendre l’interdiction dès 2028 aux moins de 18 ans

Mais l’essentiel des recommandations portent sur le développement de messages de prévention à l’école et dans les services de prévention comme auprès des parents et des services de l’enfance. Des services déjà bien souvent surchargés par les injonctions. Aucune recommandation n’exige de TikTok de renforcer l’accès à des données pour la recherche ou de corriger ses algorithmes pour moins prendre en compte le temps passé par exemple ! 

Si le rapport ne fait pas (encore) de propositions pour condamner les jeunes qui accéderaient aux réseaux sociaux malgré l’interdiction, elle propose de créer dès 2028 un nouveau délit de « négligence numérique » (recommandation 43) à l’égard des parents qui laisseraient leurs enfants accéder aux réseaux sociaux. Un peu comme si dans les années 50 on avait supprimé les aides sociales aux parents qui laissaient écouter du rock à leurs enfants sous prétexte de « négligence musicale ». Ce que suggère cette recommandation qui doit être étudiée par des experts d’ici l’échéance, c’est que la vérification de l’âge va conduire à la criminalisation des comportements des plus jeunes

Pour l’instant, on n’en entend parler nulle part. Toutes les déclarations sur le développement de la vérification d’âge et du contrôle parental, n’évoquent que la protection des plus jeunes, jamais les peines qui pourraient advenir… plus tard. Mais du moment où elles seront en place, on voit déjà s’esquisser la perspective de criminaliser les adolescents et leurs parents qui ne respecteraient pas ces règles. L’implicite ici, consiste d’abord à interdire, puis demain, à condamner. Après la mise en place de la barrière d’accès, viendra la condamnation de ceux qui chercheront à la contourner. Va-t-on vers une société qui s’apprête à condamner des gamins de 14 ans pour être allé chercher des contenus pornos en ligne ? Vers des médias qui seront condamnés pour avoir laissé des enfants accéder à des images de répression violentes de manifestations ? Vers des parents qui seront condamnés pour avoir laissé leurs enfants accéder à internet ? Les 16-18 ans seront-ils condamnés pour être allé cherché de l’information sur la prévention sexuelle ou parce qu’ils se sont connectés sur TikTok au-delà de 23 heures ? Où parce qu’ils auront échangé une vidéo de Squeezie ?

La vérification d’âge nous conduit tout droit à une « nouvelle pudibonderie », disait pertinemment le journaliste David-Julien Rahmil pour l’ADN. Renforçant celle déjà l’œuvre sur les grandes plateformes sociales qu’observait en 2012 Evgeny Morozov ou le chercheur Tarleton Gillespie dans son livre, dont les systèmes automatisés surcontrôlent déjà la nudité plutôt que la pornographie. 

L’autre risque, à terme, c’est l’élargissement sans fin de la vérification d’âge à tous types de contenus, notamment au secteur marchand comme l’a montré la polémique des contenus explicites découverts sur des sites de commerces en ligne. Pour la haut-commissaire à l’enfance, Sarah El Haïry, « la protection des enfants en ligne ne peut souffrir d’aucune faille », soulignant par là le risque maximaliste des règles à venir (et ce alors que la protection sociale à l’enfance par exemple n’est que failles). Au risque que ces règles deviennent des couteaux suisses, faisant glisser la surveillance des contenus pornographiques à la surveillance de l’internet, comme le disait avec pertinence le journaliste Damien Leloup dans une analyse pourLe Monde, au prétexte que le « risque » pornographique est partout. 

Qu’on s’entende bien. Loin de moi de défendre TikTok (pas plus que Meta ou X). Mais la criminalisation des comportements des enfants et des parents sans imposer de mesures de régulation claires aux entreprises et d’abord à elles, me semble une voie sans issue. La vérification d’âge accuse la société des dégâts sociaux provoqués par les décisions des plateformes sans leur demander ni de données, ni de correctifs. En criminalisant les mineurs, elle ne propose qu’une nouvelle ère de contrôle moral, sans nuance, comme s’en émouvait pour The Conversation, le spécialiste en gestion de l’information, Alex Beattie.

Hubert Guillaud

  • ✇404 Media
  • ChatGPT Told a Violent Stalker to Embrace the 'Haters,' Indictment Says
    This article was produced in collaboration with Court Watch, an independent outlet that unearths overlooked court records. Subscribe to them here.A Pittsburgh man who allegedly made 11 women’s lives hell across more than five states used ChatGPT as his “therapist” and “best friend” that encouraged him to continue running his misogynistic and threat-filled podcast despite the “haters,” and to visit more gyms to find women, the Department of Justice alleged in a newly-filed indictment. 
     

ChatGPT Told a Violent Stalker to Embrace the 'Haters,' Indictment Says

3 décembre 2025 à 12:25
ChatGPT Told a Violent Stalker to Embrace the 'Haters,' Indictment Says

This article was produced in collaboration with Court Watch, an independent outlet that unearths overlooked court records. Subscribe to them here.

A Pittsburgh man who allegedly made 11 women’s lives hell across more than five states used ChatGPT as his “therapist” and “best friend” that encouraged him to continue running his misogynistic and threat-filled podcast despite the “haters,” and to visit more gyms to find women, the Department of Justice alleged in a newly-filed indictment. 

  • ✇404 Media
  • The Last Video Rental Store Is Your Public Library
    This story was reported with support from the MuckRock foundation.As prices for streaming subscriptions continue to soar and finding movies to watch, new and old, is becoming harder as the number of streaming services continues to grow, people are turning to the unexpected last stronghold of physical media: the public library. Some libraries are now intentionally using iconic Blockbuster branding to recall the hours visitors once spent looking for something to rent on Friday and Saturday nights.
     

The Last Video Rental Store Is Your Public Library

3 décembre 2025 à 09:00
The Last Video Rental Store Is Your Public Library

This story was reported with support from the MuckRock foundation.

As prices for streaming subscriptions continue to soar and finding movies to watch, new and old, is becoming harder as the number of streaming services continues to grow, people are turning to the unexpected last stronghold of physical media: the public library. Some libraries are now intentionally using iconic Blockbuster branding to recall the hours visitors once spent looking for something to rent on Friday and Saturday nights. 

John Scalzo, audiovisual collection librarian with a public library in western New York, says that despite an observed drop-off in DVD, Blu-ray, and 4K Ultra disc circulation in 2019, interest in physical media is coming back around. 

“People really seem to want physical media,” Scalzo told 404 Media.

Part of it has to do with consumer awareness: People know they’re paying more for monthly subscriptions to streaming services and getting less. The same has been true for gaming.

As the audiovisual selector with the Free Library of Philadelphia since 2024, Kris Langlais has been focused on building the library’s video game collections to meet comparable interest in demand. Now that every branch library has a prominent video game collection, Langlais says that patrons who come for the games are reportedly expressing interest in more of what the library has to offer. 

“Librarians out in our branches are seeing a lot of young people who are really excited by these collections,” Langlais told 404 Media. “Folks who are coming in just for the games are picking up program flyers and coming back for something like that.” 

Langlais’ collection priorities have been focused on new releases, yet they remain keenly aware of the long, rich history of video game culture. The problem is older, classic games are often harder to find because they’ve gone out of print, making the chances of finding them cost-prohibitive. 

“Even with the consoles we’re collecting, it’s hard to go back and get games for them,” Langlais said. “I’m trying to go back and fill in old things as much as I can because people are interested in them.” 

Locating out-of-print physical media can be difficult. Scalzo knows this, which is why he keeps a running list of films known to be unavailable commercially at any given time, so that when a batch of films are donated to the library, Scalzo will set aside extra copies, just in case a rights dispute puts a piece of legacy cult media in licensing purgatory for a few years. 

“It’s what’s expected of us,” Scalzo added.

Tiffany Hudson, audiovisual materials selector with Salt Lake City Public Library has had a similar experience with out-of-print media. When a title goes out of print, it’s her job to hunt for a replacement copy. But lately, Hudson says more patrons are requesting physical copies of movies and TV shows that are exclusive to certain streaming platforms, noting that it can be hard to explain to patrons why the library can't get popular and award-winning films, especially when what patrons see available on Amazon tells a different story. 

“Someone will come up to me and ask for a copy of something that premiered at Sundance Film Festival because they found a bootleg copy from a region where the film was released sooner than it was here,” Hudson told 404 Media, who went onto explain that discs from different regions aren’t designed to be ready by incompatible players. 

But it’s not just that discs from different regions aren’t designed to play on devices not formatted for that specific region. Generally, it's also just that most films don't get a physical release anymore. In cases where films from streaming platforms do get slated for a physical release, it can take years. A notable example of this is the Apple+ film CODA, which won the Oscar for Best Picture in 2022. The film only received a U.S. physical release this month. Hudson says films getting a physical release is becoming the exception, not the rule. 

“It’s frustrating because I understand the streaming services, they’re trying to drive people to their services and they want some money for that, but there are still a lot of people that just can’t afford all of those services,” Hudson told 404 Media. 

Films and TV shows on streaming also become more vulnerable when companies merge. A perfect example of this was in 2022 with the HBO Max-Discovery+ merger under Warner Bros Discovery. A bunch of content was removed from streaming, including roughly 200 episodes of classic Sesame Street for a tax write-off. That merger was short-lived, as the companies are splitting up again as of this year. Some streaming platforms just outright remove their own IP from their catalogs if the content is no longer deemed financially viable, well-performing or is no longer a strategic priority. 

The data-driven recommendation systems streaming platforms use tend to favor newer, more easily categorized content, and are starting to warp our perceptions of what classic media exists and matters. Older art house films that are more difficult to categorize as “comedy” or “horror” are less likely to be discoverable, which is likely how the oldest American movie available on Netflix currently is from 1968. 

It’s probably not a coincidence that, in many cases, the media that is least likely to get a more permanent release is the media that’s a high archival priority for libraries. AV librarians 404 Media spoke with for this story expressed a sense of urgency in purchasing a physical copy of “The People’s Joker” when they learned it would get a physical release after the film premiered and was pulled from the Toronto International Film Festival lineup in 2022 for a dispute with the Batman universe’s rightsholders.

“When I saw that it was getting published on DVD and that it was available through our vendor—I normally let my branches choose their DVDs to the extent possible, but I was like, ‘I don’t care, we’re getting like 10 copies of this,’” Langlais told 404 Media. “I just knew that people were going to want to see this.” 

So far, Langlais’ instinct has been spot on. The parody film has a devout cult following, both because it’s a coming-of-age story of a trans woman who uses comedy to cope with her transition, and because it puts the Fair Use Doctrine to use. One can argue the film has been banned for either or both of those reasons. The fact that media by, about and for the LGBTQ+ community has been a primary target of far-right censorship wasn’t lost on librarians.

“I just thought that it could vanish,” Langlais added. 

It’s not like physical media is inherently permanent. It’s susceptible to scratches, and can rot, crack, or warp over time. But currently, physical media offers another option, and it’s an entirely appropriate response to the nostalgia for-profit model that exists to recycle IP and seemingly not much else. However, as very smart people have observed, nostalgia is default conservative in that it’s frequently used to rewrite histories that may otherwise be remembered as unpalatable, while also keeping us culturally stuck in place. 

Might as well go rent some films or games from the library, since we’re already culturally here. On the plus side, audiovisual librarians say their collections dwarf what was available at Blockbuster Video back in the day. Hudson knows, because she clerked at one in library school.

“Except we don’t have any late fees,” she added.

  • ✇404 Media
  • This Podcast Will Hack You
    We start this week with Joseph’s very weird story about Apple Podcasts. The app is opening by itself, playing random spirituality podcasts, and in one case directing listeners to a potentially malicious website. After the break, Matthew tells us how it sure looks like a map of Ukraine was manipulated in order to win a bet on Polymarket. In the subscribers-only section, Sam breaks down how half of the U.S. now requires a face or ID scan to watch porn. Listen to the weekly podcast on Apple P
     

This Podcast Will Hack You

3 décembre 2025 à 09:00
This Podcast Will Hack You

We start this week with Joseph’s very weird story about Apple Podcasts. The app is opening by itself, playing random spirituality podcasts, and in one case directing listeners to a potentially malicious website. After the break, Matthew tells us how it sure looks like a map of Ukraine was manipulated in order to win a bet on Polymarket. In the subscribers-only section, Sam breaks down how half of the U.S. now requires a face or ID scan to watch porn.

Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.

Timestamps:
2:00 - Story 1 - Someone Is Trying to ‘Hack’ People Through Apple Podcasts
21:55 - Story 2 - 'Unauthorized' Edit to Ukraine's Frontline Maps Point to Polymarket's War Betting
37:00 - Story 3 - Half of the US Now Requires You to Upload Your ID or Scan Your Face to Watch Porn

  • ✇Dans les algorithmes
  • Tarifs sous IA : vers l’hyper-personnalisation à grande échelle
    « La véritable contribution de l’IA à l’humanité pourrait bien être de maximiser les profits des entreprises en exploitant les données personnelles pour augmenter les prix. En réalité, c’est déjà le cas », explique le journaliste David Dayen, le rédacteur en chef de Prospect Magazine. Uri Yerushalmi, cofondateur et directeur de l’intelligence artificielle de Fetcherr, une société israélienne de conseil en tarification dont les clients comptent une demi-douzaine de compagnies aériennes à travers
     

Tarifs sous IA : vers l’hyper-personnalisation à grande échelle

3 décembre 2025 à 01:00

« La véritable contribution de l’IA à l’humanité pourrait bien être de maximiser les profits des entreprises en exploitant les données personnelles pour augmenter les prix. En réalité, c’est déjà le cas », explique le journaliste David Dayen, le rédacteur en chef de Prospect Magazine. Uri Yerushalmi, cofondateur et directeur de l’intelligence artificielle de Fetcherr, une société israélienne de conseil en tarification dont les clients comptent une demi-douzaine de compagnies aériennes à travers le monde développe des agents commerciaux automatisés pour simuler les dynamiques de marchés, analyser et fixer les prix. L’atout de Fetcherr, inspiré des techniques de trading haute fréquence, estime son promoteur, c’est que l’utilisation du système permet d’adapter les prix plutôt qu’ils ne soient stables et linéaires. « La dynamique est bien plus proche de celle du NASDAQ ou des marchés financiers, où les prix fluctuent beaucoup plus fréquemment car chaque changement sur le marché entraîne une réaction immédiate. » Fetcherr promet à ses clients une augmentation annuelle du chiffre d’affaires de plus de 10 %. Mais les dindons de ces variations, ceux qu’on dépouille de leur argent, « c’est vous et moi »

Pour l’avocat Lee Hepner, de l’American Economic Liberties Project, « nous construisons maintenant les plateformes qui contrôlent la circulation de l’argent ». La tarification pilotée par la technologie est plus répandue qu’on ne le pense, rappelle Prospect Magazine qui avait consacré tout un numéro au sujet (dont nous avions rendu compte). En février, le journaliste Keith Spencer avait montré dans SFGate que selon la localisation de son IP, les prix de réservation d’une chambre d’hôtel pouvaient passer du simple au double. Stephanie Nguyen et Sam Levine, ancien directeur du Bureau de la protection des consommateurs de la Commission fédérale du commerce, ont récemment publié un article sur la manière dont les données collectées par les cartes de fidélité servent surtout à augmenter les tarifs : « plus un client est fidèle, plus ses données sont collectées et plus il paie ». « Voulons-nous vraiment un monde où il faudra payer un supplément pour faire ses achats anonymement ? », questionne Sam Levine. 

Plusieurs techniques sont mobilisées pour augmenter les prix. La surveillance des profils de consommation des consommateurs, la tarification dynamique qui fait grimper les prix lorsque la demande augmente et l’abonnement (avec leurs politiques de résiliation compliquées : il fallait 23 étapes et 32 actions pour résilier l’un des abonnements que proposait Uber et la politique de résiliation d’Amazon Prime qui a coûté 2,5 milliards d’amende à Amazon, était surnommée l’Iliade, en référence au long et difficile combat d’Ulysse pour la surmonter. 

« L’offre et la demande ne déterminent plus à elles seules les prix, comme l’explique la théorie économique. La tarification basée sur l’IA est devenue plus importante que le volume des ventes ou la qualité des produits », assène Dayen. 

« Les démocrates de la Chambre des représentants ont proposé un projet de loi visant à interdire la tarification basée sur la surveillance et la fixation des salaires par la surveillance. La pratique dite de « tarification progressive », qui consiste à ajouter des frais cachés lors d’une vente, a été de facto interdite pour la billetterie d’événements et les séjours hôteliers par une réglementation de la FTC finalisée en mai. Mais avec le contrôle du Congrès par les Républicains, le véritable enjeu se situe désormais au niveau des États. Des interdictions de la tarification basée sur la surveillance ont été introduites en Californie, au Colorado, en Géorgie, dans l’Illinois et au Minnesota ; des interdictions de la tarification dynamique pour les supermarchés et les restaurants ont été introduites à New York et dans le Maine. En juillet, 24 États avaient examiné des projets de loi concernant une forme ou une autre de tarification assistée par la technologie, selon un outil de suivi de Consumer Reports ». 51 projets de loi sur la fixation algorithmique des prix ont été déposés à travers le pays lors de la seule session législative de 2025. « Il s’agit d’une première étape potentiellement très importante pour rééquilibrer l’économie en faveur des consommateurs », estime Hepner. En Californie, le projet de loi AB 446, qui proposait d’interdire la tarification fondée sur les données personnelles, a été suspendu, donnant ainsi aux promoteurs le temps de rallier des soutiens. Des entreprises de tous les secteurs, même celles non soupçonnées de pratiquer cette tarification, ont afflué à Sacramento pour défendre leurs pratiques. La ville de New York a adopté une loi sur la transparence exigeant que les transactions concernées incluent une fenêtre contextuelle indiquant : « Ce prix a été fixé par un algorithme utilisant vos données personnelles. » Pas sûr pourtant que ces avertissements suffisent. 

Dayen souligne que la complexité des calculs rend le travail du régulateur de plus en plus difficile. Lyft, pionnier de la tarification dynamique, a réagi à la colère des usagers, dont les tarifs augmentaient précisément aux moments où ils en avaient le plus besoin, en optant pour Price Lock, un service d’abonnement qui plafonne les tarifs sur certains trajets, moyennant un forfait mensuel. 

Pour Sam Levine, nous devrions revenir à des prix publics avant que la situation soit hors de contrôle. L’autre levier, consiste à limiter la collecte de données. Une norme de minimisation des données pourrait empêcher l’utilisation des informations personnelles à des fins de tarification, estime Ben Winters, responsable de l’IA et de la vie privée à la Fédération des consommateurs américains. Mais aux Etats-Unis, les projets de loi pour renforcer la protection des données n’arrivent pas à être promulgués :  « trop d’entreprises ont investi dans l’économie de la surveillance pour qu’on puisse la faire disparaître par la loi », estime Dayen. « Les lobbyistes de l’industrie technologique n’ont qu’une seule spécialité : anéantir les lois sur la protection de la vie privée », souligne le juriste Tim Wu, dans son nouveau livre, The Age of Extraction : How Tech Platforms Conquered the Economy and Threaten Our Future Prosperity (Bodley Head, 2025, non traduit). 

La meilleure façon de lutter contre ces pratiques n’est peut-être pas de s’attaquer à la collecte de données pour les limiter, mais plutôt à ceux qui les reçoivent, les partagent et les traitent, courtiers et consultants en tarification par exemple, estime Dayen. « La vente de données pourrait être considérée comme déloyale ou trompeuse au regard des lois étatiques sur la protection des consommateurs. De plus, même lorsque les clients consentent à la collecte de leurs données, ils ne consentent pas nécessairement à leur transfert à des tiers »

Pour Dayen, le pire est certainement à venir, car la tarification par IA dans cinq ans ne sera plus la même qu’aujourd’hui. Les compagnies aériennes ont été à l’avant-garde de toutes les innovations tarifaires des 30 dernières années, des frais cachés à la tarification différenciée en passant par les programmes de fidélité, rappelle-t-il. Quel sera le prochain défi ? Fetcherr, qui a levé 90 millions de dollars en 2024 et 42 millions supplémentaires cette année, l’affirmait  clairement sur son site web : « hyper-personnalisation à grande échelle ». Robby Nissan, cofondateur de Fetcherr, a déclaré publiquement que ses systèmes d’IA peuvent « manipuler le marché pour accroître les profits »

Les autres entreprises de conseil en tarification comme Flyr, Pros ou Air Price IQ (toutes positionnées surtout sur le segment de la tarification aérienne) tiennent le même discours : maximiser la disposition à payer des voyageurs en analysant des masses de données. Quand on souhaite prendre un billet d’avion pour Noël, il est devenu impossible de prévoir le prix ou de les comparer. A l’avenir, cela risque d’être Noël tous les jours, sauf pour les consommateurs. Pire, suggère Dayen, à terme, ces conseils en tarification pourraient également permettre aux entreprises aériennes d’ajuster leurs itinéraires pour éviter la concurrence, afin de pouvoir pratiquer les tarifs qu’elles souhaitent. Ajoutez à cela les agents IA qui prendront vos billets d’avion à votre place… et nul ne pourra être certain d’être assuré que les robots agissent dans l’intérêt des consommateurs ou des détaillants partenaires des entreprises d’IA qui fourniront les agents. 
Au consommateurs de réagir, conclut Dayen. Ils détiennent les ressources financières dont les entreprises ont besoin pour prospérer. « Il est encore possible que l’on assiste à un retour à une tarification basée sur les coûts », déclare la sociologue Lindsay Owens,  qui prépare un livre consacré à cette nouvelle ère de la tarification pour 2026 (Gouged : The End of a Fair Price in America, Arnaqués : la fin du juste prix en Amérique). « C’est ainsi que les entreprises ont fonctionné pendant des décennies… Un monde où la tarification est transparente, publique et prévisible est encore envisageable. » On voudrait y croire.

  • ✇404 Media
  • Half of the US Now Requires You to Upload Your ID or Scan Your Face to Watch Porn
    As of this week, half of the states in the U.S. are under restrictive age verification laws that require adults to hand over their biometric and personal identification to access legal porn.Missouri became the 25th state to enact its own age verification law on Sunday. As it’s done in multiple other states, Pornhub and its network of sister sites—some of the largest adult content platforms in the world—pulled service in Missouri, replacing their homepages with a video of performer Cherie DeVi
     

Half of the US Now Requires You to Upload Your ID or Scan Your Face to Watch Porn

2 décembre 2025 à 10:56
Half of the US Now Requires You to Upload Your ID or Scan Your Face to Watch Porn

As of this week, half of the states in the U.S. are under restrictive age verification laws that require adults to hand over their biometric and personal identification to access legal porn.

Missouri became the 25th state to enact its own age verification law on Sunday. As it’s done in multiple other states, Pornhub and its network of sister sites—some of the largest adult content platforms in the world—pulled service in Missouri, replacing their homepages with a video of performer Cherie DeVille speaking about the privacy risks and chilling effects of age verification. 

💡
Do you have a tip to share about age verification? I would love to hear from you. Using a non-work device, you can message me securely on Signal at sam.404. Otherwise, send me an email at sam@404media.co.

The other states include Louisiana, Utah, Mississippi, Virginia, Arkansas, Texas, Montana, North Carolina, Idaho, Kansas, Kentucky, Nebraska, Indiana, Alabama, Oklahoma, Florida, South Carolina, Tennessee, Georgia, Wyoming, South Dakota, North Dakota, Arizona, and Ohio.

  • ✇Dans les algorithmes
  • Vérification d’âge (1/4) : vers un internet de moins en moins sûr
    Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard,
     

Vérification d’âge (1/4) : vers un internet de moins en moins sûr

2 décembre 2025 à 01:00

Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard, sont définies différentes catégories de contenus, allant de contenus dits illégaux à des contenus dits nuisibles aux enfants. La loi ne se contente pas de faire la chasse à la pornographie en ligne, c’est-à-dire à des contenus à caractères sexuels explicites, mais déborde très largement de ce seul cadre qui ouvre, en regard des sanctions lourdes, et impose une modération des contenus qui peut aller jusqu’aux images violentes de l’actualité (et pas seulement sanglantes) voire à tous propos sur la sexualité, comme ceux abordant les questions de santé.  

Un renforcement sans précédent de la surveillance et de la censure préventive : la conformité n’est pas contournable

Comme le pointe l’une des plus synthétiques et lumineuses analyses en français sur le loi que j’ai pu lire, celle de Nicolas Morin sur son blog, la loi demande aux plateformes un « devoir de diligence » proactif et fondé sur les risques, mais également impose un comportement « préventif », rendant les plateformes, sites et services en ligne, directement responsables de la sécurité de leurs utilisateurs et du contenu qu’ils rencontrent. « Enfin ! », pourrait-on s’enthousiasmer en pensant qu’on exige un peu plus de contrôle de la part des Gafams. Sauf que le champ d’application de la loi est très large et dépasse les seules plateformes de médias sociaux et les plus grands services en ligne. Elle s’applique jusqu’aux forums, commentaires de blogs et sites de partage de fichiers, même si les obligations les plus strictes s’appliquent aux plateformes les plus importantes. 

Les services en ligne doivent garantir que les enfants aient un « accès adapté à leur âge », ce qui implique une approche faisant appel à des systèmes de filtrage et de modération de contenu adaptés aux différents groupes d’âge qui s’imposent partout. « Les sanctions prévues sont sévères, potentiellement existentielles, en cas de manquement. Les amendes peuvent atteindre 18 millions de livres sterling ou 10 % du chiffre d’affaires annuel mondial d’une entreprise, et les cadres supérieurs peuvent être tenus personnellement responsables pénalement en cas de non-coopération avec le régulateur. » Du fait de la lourdeur des sanctions, avec l’OSA, la conformité réglementaire n’est pas contournable.

Mais surtout, explique Morin, « à un niveau fondamental, l’OSA illustre la bascule d’une logique procédurale à une logique de valeurs ». Jusqu’à présent, la modération de contenu suivait une approche procédurale, se concentrant sur le « comment » plutôt que sur le « quoi ». Cette logique ne disait pas aux plateformes quel contenu spécifique (en dehors de ce qui est déjà manifestement illégal) était bon ou mauvais. Elle imposait plutôt des obligations de moyens et de transparence (souvent très légères, comme des conditions de modération claires, des mécanismes de signalement simples, des processus d’appels, des rapports sur les contenus modérés…). Avec l’OSA et son approche sur les valeurs, les plateformes doivent porter un jugement même sur les contenus et leur impose une obligation de résultat. « Ce faisant, la loi délègue aux entreprises privées et à l’organe de régulation britannique (l’Ofcom) le soin de définir ce qui constitue un discours acceptable dans la société, une mission qui relève normalement du débat démocratique et de la loi pénale ». Le problème est que les contenus qui peuvent être qualifiés de préjudiciables est large et introduit un flou juridique supplémentaire, qui, à l’aune de la sévérité des sanctions, conduit déjà chacun à une sur-modération. « Pour les utilisateurs, l’application des règles devient arbitraire. Un même contenu pourra être supprimé un jour et toléré le lendemain, en fonction du modérateur ou de l’algorithme qui l’examine. Il n’y a plus de prévisibilité, un principe fondamental de l’État de droit »

« En utilisant des termes vagues, le Parlement britannique a, de fait, délégué son pouvoir normatif. Ce ne sont plus les législateurs élus qui définissent précisément les limites de la liberté d’expression, mais l’Ofcom, un régulateur non élu, qui publiera des codes de pratique pour “interpréter” ce que la loi entend par “préjudiciable”, et les plateformes elles-mêmes, qui créeront leurs propres règles internes pour se conformer aux interprétations de l’Ofcom.

Le débat sur ce que notre société tolère comme discours est ainsi retiré de la sphère publique et démocratique pour être confié à des comités de conformité et des régulateurs techniques.

En passant d’une logique procédurale à une logique de valeurs incarnée par des termes vagues, l’Online Safety Act crée un système où la censure devient préventive, privatisée et arbitraire. La quête légitime de sécurité en ligne, sous l’étendard ici de la sécurité des enfants et de la lutte contre le terrorisme, se fait au détriment de la liberté d’expression, de la sécurité juridique et des principes démocratiques fondamentaux. »

« L’obligation pour les plateformes de gérer le contenu « préjudiciable » mais légal les amène, par prudence, à classifier et restreindre l’accès à un large éventail de contenus, y compris les reportages d’actualité, la couverture de la guerre et des conflits, le journalisme d’investigation et les images de manifestations politiques, qui pourraient tous être considérés comme « préjudiciables » ou « dépeignant une violence grave » selon les définitions larges de la loi. Ce système délègue de fait aux entreprises technologiques privées le rôle d’arbitres de l’État en matière de discours acceptable. Alors que les partisans pourraient y voir une application de la responsabilité, les critiques y voient un « cadeau massif à la grande technologie ». Cela renforce leur pouvoir en leur donnant une autorité mandatée par l’État pour décider de ce que les utilisateurs peuvent et ne peuvent pas voir, une fonction quasi-judiciaire pour laquelle les entreprises privées sont institutionnellement mal adaptées et démocratiquement irresponsables. »

Le premier problème de l’OSA est bien le large spectre de ce que son champ réglementaire couvre. Ce n’est pas une loi qui cherche à réguler uniquement les vidéos et les images pornographiques. 

Vers une modération fonctionnelle

La loi s’applique aux sites web, aux services de réseaux sociaux, aux sites de stockage et de partage de fichiers, aux forums en ligne, aux applications de rencontre et aux services de messagerie instantanée. Tous sont désormais tenus de vérifier l’âge des visiteurs si leurs plateformes contiennent du contenu préjudiciable ou inapproprié, rappelle le New York Times. Au-delà des sites pornographiques, les applications qui ont introduit la vérification de l’âge incluent Grindr, le service de rencontres gay ; Discord, l’application de chat social ; et Reddit… Même l’encyclopédie Wikipédia reste menacée de devoir intégrer une vérification d’âge (notamment parce qu’elle entre dans la catégorie des grands services en ligne).  

La majorité des Britanniques – près de 80 % – se sont déclarés favorables aux nouvelles règles, selon un sondage YouGov auprès d’environ 4 400 adultes, peut-être sans toujours comprendre que ces règles ne concernaient pas que les contenus sexuellement explicites, puisqu’après la mise en place des premières mesures effectives, ils n’étaient plus que 69% à soutenir les règles. Mais, selon l’enquête, seule une personne sur quatre environ estime que ces restrictions empêcheront réellement les enfants d’accéder à la pornographie en ligne. Au Royaume-Uni, une vague de résistance s’est également manifestée. Plus de 500 000 personnes ont signé une pétition demandant l’abrogation de la loi sur la sécurité en ligne, critiquée par les défenseurs du droit à la vie privée et de la liberté d’expression. Ces derniers affirment que ces règles constituent un exemple d’abus de pouvoir du gouvernement et les jugent dangereuses pour les personnes souhaitant préserver leur anonymat en ligne. 

Les critiques affirment également que la portée des règles va trop loin, en incluant les forums de loisirs en ligne et divers autres sites. Ils affirment que les petits sites qui ne disposent pas des ressources nécessaires pour se conformer à la loi devront fermer, notamment parce qu’ils s’exposent à des poursuites juridiques inédites. 

Les contenus sont définis en trois catégories : des contenus primaires prioritaires préjudiciable aux enfants (les contenus pornographiques et de promotion du suicide notamment), les contenus prioritaires préjudiciables aux enfants (contenus incitant à la haine, à l’intimidation ou à la violence notamment) et des contenus non désigné comme dangereux pour les enfants mais qui peuvent leur porter préjudice, c’est-à-dire les perturber, comme des images de violences ou de manifestation. Le problème consiste bien sûr dans les flous de ces définitions : un article qui parle d’un suicide en fait-il la promotion ? Parler des violences d’une guerre ou de manifestations est-il préjudiciable ? Même la définition de la pornographie peut-être plus ou moins lâche : un texte érotique est-il de même nature qu’une vidéo explicite ?  

Face à ces risques, les sites accessibles doivent mettre en œuvre un certain nombre de mesures et notamment la « vérification vigoureuse de l’âge », en développant des algorithmes plus sûrs pour les jeunes publics et en renforçant la modération des contenus. 

Depuis l’entrée en vigueur de ces mesures fin juillet, les plateformes de réseaux sociaux Reddit, Bluesky, Discord et X ont toutes mis en place des contrôles d’âge pour empêcher les enfants de consulter des contenus préjudiciables sur leurs sites. Des sites pornographiques comme Pornhub et YouPorn ont mis en place des contrôles d’âge, demandant désormais aux utilisateurs de fournir une pièce d’identité officielle, une adresse e-mail pour que la technologie analyse les autres services en ligne où elle a été utilisée, ou de soumettre leurs informations à un fournisseur tiers pour vérification de l’âge. Des sites comme Spotify exigent également que les utilisateurs soumettent un scan facial à Yoti, une société tierce de gestion d’identité numérique, pour accéder aux contenus étiquetés 18+. L’Ofcom, qui supervise la mise en œuvre de l’OSA, est allé plus loin en envoyant des lettres pour tenter de faire appliquer la législation britannique aux entreprises basées aux États-Unis. 

La généralisation de la vérification d’âge et du contrôle parental

La contrainte de la vérification d’âge n’est pas que britannique. Elle concerne également  l’Union européenne, les Etats-Unis (une vingtaine d’Etats ayant déjà légiféré en ce sens) et l’Australie. « En France, deux lois successives ont entériné depuis 2020 la vérification d’âge », rappelait Le Monde cet été. En juin, menacé de sanctions par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) s’il ne mettait pas en place une procédure de vérification d’âge, Pornhub a fermé ses accès en France. Si l’Europe a lancé une enquête à l’encontre des principales plateformes de contenus pornographiques, pour qu’elles mettent en place des outils de vérification d’âge plus approprié qu’un simple déclaratif, au motif du DSA et de la taille de leur audience, la Commission estime que fixer une majorité numérique ne relève pas de ses compétences, même si elle travaille à proposer une solution harmonisée de vérification d’âge des internautes. En novembre, les députés macronistes ont déposé une proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans, imposer un couvre-feu numérique pour les 15-18 ans de 22 heures à 8 heures, ainsi que l’interdiction des smartphones dans les lycées. Des perspectives défendues par le président lui-même. Des propositions d’interdiction des réseaux sociaux aux moins de 15 ans sont également à l’ordre du jour au Danemark, en Norvège, et au Royaume-Uni (via un autre projet de loi, le Protection of Children Bill).

En Australie, une loi nationale a d’ores et déjà été adoptée. Elle interdit l’accès aux réseaux sociaux aux moins de 16 ans. En revanche, les applications de messagerie ou celles dévolues à l’éducation et à la santé sont exclues de cette réglementation, tout comme YouTube – sans qu’on comprenne très bien les motivations de cette exclusion. 

« Parallèlement, tous les grands réseaux sociaux ont mis en place, au fil du temps, des outils de contrôle parental et de protection des adolescents, qui permettent notamment de limiter le temps d’utilisation de l’application par les plus jeunes. Certaines plateformes, comme Instagram ou TikTok, limitent ainsi les fonctionnalités des comptes créés par les mineurs, qui sont notamment paramétrés par défaut comme « privés », c’est-à-dire dont le contenu n’est accessible qu’aux personnes acceptées par l’utilisateur.

Les grandes plateformes assurent également utiliser toute une série d’outils automatisés pour détecter les internautes qui mentent sur leur âge lors de leur inscription. En avril, Meta – maison mère d’Instagram – a ainsi annoncé son intention de tester aux Etats-Unis l’utilisation de l’intelligence artificielle pour repérer les profils des jeunes s’étant fait passer pour des adultes afin de les basculer automatiquement en « comptes adolescents ».

La plupart des réseaux sociaux arguent toutefois que la responsabilité du contrôle ne devrait pas leur échoir, mais être confiée aux opérateurs téléphoniques ainsi qu’à Apple et à Google. Ce sont ces deux entreprises qui gèrent les magasins d’applications et sont plus à même, selon les grandes plateformes, de contrôler facilement l’âge des utilisateurs. »

Certains États américains ont également commencé à introduire des législations pour restreindre l’accès à certains sites, notamment pornographiques, aux mineurs, rappelait Le Monde. Les lois de l’Utah et du Texas sont particulièrement contraignante, rappelle la chercheuse Meg Leta Jones pour Tech Policy Press : elles demandent de vérifier l’âge de tous les utilisateurs et les classent en quatre catégories : enfant (moins de 13 ans), jeune adolescent (13-15 ans), adolescent plus âgé (16-17 ans) et adulte (18 ans et plus). « Les deux lois exigent des plateformes d’applications : (1) qu’elles vérifient l’âge des utilisateurs lors de leur inscription par des « méthodes commercialement raisonnables » (par exemple, pièce d’identité, carte de crédit, lecture biométrique), (2) qu’elles relient les comptes des enfants à ceux de leurs parents, (3) qu’elles obtiennent l’autorisation des parents avant que les enfants puissent télécharger des applications ou effectuer des achats, (4) qu’elles indiquent aux développeurs d’applications l’âge de chaque utilisateur et si les parents ont donné leur autorisation, (5) qu’elles informent les parents des modifications importantes apportées aux applications (comme une nouvelle collecte de données) et qu’elles obtiennent à nouveau leur autorisation, et (6) qu’elles transmettent les informations relatives à l’âge aux développeurs de manière sécurisée et chiffrée ». Des mesures qui devraient permettre à l’Etat de poursuivre ceux qui ne les mettraient pas en œuvre au motif de pratiques commerciales trompeuses en vertu de la loi sur la protection des consommateurs et aux parents de porter plainte directement contre les applications et les boutiques d’applications. 

La loi Californienne, elle, privilégie l’auto-déclaration de l’âge (sans vérification d’exactitude). « La Californie exige : (1) un écran simple lors de la configuration de l’appareil demandant aux utilisateurs de saisir leur âge ou leur date de naissance ; (2) que le système d’exploitation partage automatiquement cette information d’âge avec les applications lors de leur téléchargement ; et (3) que les boutiques d’applications obtiennent l’autorisation parentale avant que les enfants de moins de 16 ans puissent télécharger des applications ». Ces différences permettent de comprendre pourquoi Google a soutenu le projet Californien et s’oppose aux projets du Texas et de l’Utah, explique la chercheuse Meg Leta Jones. Au Texas, les géants du web s’opposent à une loi imposant la vérification d’âge sur les magasins d’application d’Apple et Google, au prétexte de la liberté. Facebook soutient pourtant l’obligation faite aux magasins d’applications de procéder aux vérifications d’âge, afin de ne pas avoir à le faire lui-même. Pornhub également. La loi sur la responsabilité des App Stores (App Store Accountability Act) en discussion au Congrès vise pourtant à étendre l’approche de l’Utah et du Texas, mais en plaçant son respect sous la responsabilité de la Commission fédérale du commerce afin d’éliminer les recours privés de parents contre des applications qui ne se conformeraient pas à la législation. Le projet de loi fédéral permettrait d’harmoniser les modalités de contrôle d’âge aux Etats-Unis, explique The Verge

Pour l’instant, la vérification d’âge avance donc en ordre dispersé et tente de faire peser des obligations à certains acteurs plus qu’à d’autres. Plutôt que d’être organisée dès l’achat d’appareil ou la création de comptes, elle a tendance à se propager partout, pour mieux exercer son carcan et éliminer ses failles – quand on pourrait peut-être chercher plutôt à faire progresser globalement les limites d’accès, plutôt que de les imposer partout et penser qu’elles doivent être sans failles. Enfin, la vérification d’âge ne vient pas seule, notamment aux Etats-Unis, où elle se raffine d’un droit de regard renforcé des parents sur les téléphones de leurs enfants, notamment avec le développement du contrôle parental.

Vers un nouvel internet : le contrôle identitaire et moral généralisé 

Pour Wired, nous franchissons une nouvelle étape dans l’ère d’un internet de plus en plus contrôlé, qui pourrait mettre fin à l’anonymat en ligne, comme l’explique Riana Pfefferkorn, chercheuse en politiques publiques à l’Université de Stanford. « Si les gens choisissent de ne pas se connecter [aux moteurs de recherche] pour éviter les contrôles d’âge, cela pourrait avoir un impact considérable sur les méthodes de recherche d’informations en ligne, rationalisées et intégrées », explique Lisa Given, professeure de sciences de l’information à l’Université RMIT en Australie. Pour Riana Pfefferkorn de Stanford : « En fin de compte, la technologie de vérification de l’âge présente un risque pour les enfants qu’elle est censée protéger. Elle entrave leur accès à l’information et peut les exposer à des risques de violation de la vie privée, d’usurpation d’identité et d’autres problèmes de sécurité. » Pour Emanuel Maiberg et Samantha Cole de 404media, les techniques de vérification d’âge s’apprêtent à « refondre en profondeur de l’infrastructure d’Internet ». Pornhub est pourtant, scandale après scandale, bien plus modéré qu’il n’a jamais été. Le risque que fait introduire la vérification d’âge est celui d’un développement de « sites qui ne tiennent aucun compte de la loi et où certains des contenus les plus nocifs disponibles en ligne leur sont activement proposés ». Au Texas, où Pornhub est désormais bloqué, c’est Xvideos qui s’impose désormais et d’autres sites hébergés dans des pays bien moins regardant, avec des contenus plus problématiques encore. Ce que proposent les lois de vérification d’âge, c’est de « ré-embrayer sur le piratage », estiment les journalistes de 404media, c’est-à-dire que le renforcement des règles risque surtout d’assombrir les pratiques faisant naître des galaxies de sites qu’il sera plus difficile de réguler, comme la lutte contre le piratage a contribué à l’exacerber. 

Dans le nouvel internet qu’introduit la vérification d’âge, l’enjeu n’est pas seulement qu’il va être pénible de devoir s’identifier partout en activant la vérification d’âge localement, mais bien plus qu’il n’y aura plus d’internet sans identification. Le mouvement, déjà largement amorcé partout par l’authentification généralisée ne va faire que se renforcer en tentant de réduire toujours plus les espaces de liberté. Au final, la vérification d’âge va surtout renforcer les grands acteurs, ceux seuls à même de développer ces technologies de contrôle

Reste à savoir si la vérification d’âge nous promet un internet plus sécurisé et plus sûr ? Cela risque d’être le cas pour les mineurs effectivement, qui partout autour du monde risquent d’avoir de moins en moins accès à internet et moins accès à l’information quelles que soient ses qualités. Mais, la vérification d’âge ne promet pas une amélioration de la protection pour tous, au contraire. Elle va surtout permettre d’ouvrir les vannes des machines pour tous les majeurs. Elle risque surtout de renforcer la modération pour les plus jeunes et de l’arrêter pour tous les autres. C’est ainsi qu’il faut lire les annonces d’OpenAI à permettre à ses chatbots de produire des contenus érotiques. C’est le sens qu’il faut d’ailleurs donner à un autre projet de loi américain, dénoncé par l’EFF, la loi GUARD, qui oblige à un contrôle d’âge qui s’imposerait à tous les chatbots d’IA destinés au public.Si l’accès aux chatbots va se fermer pour les mineurs, la crise des chatbots compagnons, elle, risque surtout de se résoudre par son accélération. 

Ce que promet la vérification d’âge, finalement, c’est un internet fermé aux enfants et aux adolescents et un internet beaucoup moins sûr pour tous les autres. Un peu comme si on concentrait la régulation sur le seul principe de l’âge et de la responsabilité individuelle. En fait, il est probable que ces lois renforcent encore le peu de prise qu’ont les utilisateurs sur les politiques de modération « unilatérales décidées par les plateformes », comme l’expliquait  le chercheur Tarleton Gillespie dans son livre, Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit – voir notre recension). 

Comme si tous les autres types d’intervention n’avaient pas d’importance. danah boyd ne disait pas autre chose : les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer. « Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites ». Nous mettons en place un solutionnisme techno-légal. « Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre ». Le risque enfin, c’est qu’au prétexte du contrôle, nous enterrions toutes les autres modalités politiques, allant de l’éducation à la conception des plateformes. Avec la vérification d’âge, on propose finalement aux géants de concentrer leur modération sur l’exclusion des mineurs, au détriment de toute autre politique

Hubert Guillaud

  • ✇404 Media
  • 'Unauthorized' Edit to Ukraine's Frontline Maps Point to Polymarket's War Betting
    A live map that tracks frontlines of the war in Ukraine was edited to show a fake Russian advance on the city of Myrnohrad on November 15. The edit coincided with the resolution of a bet on Polymarket, a site where users can bet on anything from basketball games to presidential election and ongoing conflicts. If Russia captured Myrnohrad by the middle of November, then some gamblers would make money. According to the map that Polymarket relies on, they secured the town just before 10:48 UTC o
     

'Unauthorized' Edit to Ukraine's Frontline Maps Point to Polymarket's War Betting

1 décembre 2025 à 12:27
'Unauthorized' Edit to Ukraine's Frontline Maps Point to Polymarket's War Betting

A live map that tracks frontlines of the war in Ukraine was edited to show a fake Russian advance on the city of Myrnohrad on November 15. The edit coincided with the resolution of a bet on Polymarket, a site where users can bet on anything from basketball games to presidential election and ongoing conflicts. If Russia captured Myrnohrad by the middle of November, then some gamblers would make money. According to the map that Polymarket relies on, they secured the town just before 10:48 UTC on November 15. The bet resolved and then, mysteriously, the map was edited again and the Russian advance vanished.

The degenerate gamblers on Polymarket are making money by betting on the outcomes of battles big and small in the war between Ukraine and Russia. To adjudicate the real time exchange of territory in a complicated war, Polymarket uses a map generated by the Institute for the Study of War (ISW), a DC-based think tank that monitors conflict around the globe.

  • ✇404 Media
  • 404 Media's Cyber Monday Sale! 25% Off!
    We're having a Cyber Monday sale! You can get 25% off an annual subscription. With that, you get access to all of our articles (including today's piece about how surveillance company Flock is using overseas gig workers to review and classify footage); bonus podcast content every week where we talk about an extra story; bonus episodes where we respond to subscribers' best comments; our full archive of FOIA Forums, which are live-streamed events where we teach you how to pry records from the gover
     

404 Media's Cyber Monday Sale! 25% Off!

1 décembre 2025 à 12:06
404 Media's Cyber Monday Sale! 25% Off!

We're having a Cyber Monday sale! You can get 25% off an annual subscription. With that, you get access to all of our articles (including today's piece about how surveillance company Flock is using overseas gig workers to review and classify footage); bonus podcast content every week where we talk about an extra story; bonus episodes where we respond to subscribers' best comments; our full archive of FOIA Forums, which are live-streamed events where we teach you how to pry records from the government; behind-the-scenes content every week; and, most importantly, you'll be supporting journalists who quit corporate media and went independent.

Get your deal below if you'd like to support 404 Media. We can't do this work without you.

  • ✇404 Media
  • Inside the Biggest Sting Operation Ever (with Michael Bobbitt)
    Joseph speaks to Michael Bobbitt, a former FBI official who worked directly on Operation Trojan Shield. In this operation the FBI secretly ran its own encrypted phone company for organized crime, backdoored the phone, and collected tens of millions of messages. Michael and Joseph discuss how Michael handled intelligence sourced from the phones, how to navigate an operation that complex, and its fallout. Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subs
     

Inside the Biggest Sting Operation Ever (with Michael Bobbitt)

1 décembre 2025 à 09:00
Inside the Biggest Sting Operation Ever (with Michael Bobbitt)

Joseph speaks to Michael Bobbitt, a former FBI official who worked directly on Operation Trojan Shield. In this operation the FBI secretly ran its own encrypted phone company for organized crime, backdoored the phone, and collected tens of millions of messages. Michael and Joseph discuss how Michael handled intelligence sourced from the phones, how to navigate an operation that complex, and its fallout.

Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.

  • ✇404 Media
  • Flock Uses Overseas Gig Workers to Build its Surveillance AI
    This article was produced with support from WIRED.Flock, the automatic license plate reader (ALPR) and AI-powered camera company, uses overseas workers from Upwork to train its machine learning algorithms, with training material telling workers how to review and categorize footage including images people and vehicles in the U.S., according to material reviewed by 404 Media that was accidentally exposed by the company.The findings bring up questions about who exactly has access to footage coll
     

Flock Uses Overseas Gig Workers to Build its Surveillance AI

1 décembre 2025 à 09:00
Flock Uses Overseas Gig Workers to Build its Surveillance AI

This article was produced with support from WIRED.

Flock, the automatic license plate reader (ALPR) and AI-powered camera company, uses overseas workers from Upwork to train its machine learning algorithms, with training material telling workers how to review and categorize footage including images people and vehicles in the U.S., according to material reviewed by 404 Media that was accidentally exposed by the company.

The findings bring up questions about who exactly has access to footage collected by Flock surveillance cameras and where people reviewing the footage may be based. Flock has become a pervasive technology in the U.S., with its cameras present in thousands of communities that cops use everyday to investigate things like car jackings. Local police have also performed numerous lookups for ICE in the system. 

Companies that use AI or machine learning regularly turn to overseas workers to train their algorithms, often because the labor is cheaper than hiring domestically. But the nature of Flock’s business—creating a surveillance system that constantly monitors U.S. residents’ movements—means that footage might be more sensitive than other AI training jobs.

💡
Do you work at Flock or know more about the company? I would love to hear from you. Using a non-work device, you can message me securely on Signal at joseph.404 or send me an email at joseph@404media.co.

Flock’s cameras continuously scan the license plate, color, brand, and model of all vehicles that drive by. Law enforcement are then able to search cameras nationwide to see where else a vehicle has driven. Authorities typically dig through this data without a warrant, leading the American Civil Liberties Union (ACLU) and Electronic Frontier Foundation (EFF) to recently sue a city blanketed in nearly 500 Flock cameras.

Broadly, Flock uses AI or machine learning to automatically detect license plates, vehicles, and people, including what clothes they are wearing, from camera footage. A Flock patent also mentions cameras detecting “race.” 

Flock Uses Overseas Gig Workers to Build its Surveillance AI
Flock Uses Overseas Gig Workers to Build its Surveillance AI
Flock Uses Overseas Gig Workers to Build its Surveillance AI
Flock Uses Overseas Gig Workers to Build its Surveillance AI

Screenshots from the exposed material. Redactions by 404 Media.

Multiple tipsters pointed 404 Media to an exposed online panel which showed various metrics associated with Flock’s AI training.  

  • ✇Dans les algorithmes
  • Financer des médias sociaux publics
    On se souvient des invitations, il y a quelques années, du chercheur Ethan Zuckerman à développer des infrastructures publiques du numérique, comme des médias sociaux publics. C’est la piste que tente de rendre concrète la chercheuse Christine Galvagna dans une tribune pour Tech Policy Press. La loi européenne sur les services numériques ne parvient pas à neutraliser les menaces que les grandes entreprises de médias sociaux font peser sur la démocratie et les droits fondamentaux. Les lourdes ame
     

Financer des médias sociaux publics

1 décembre 2025 à 01:00

On se souvient des invitations, il y a quelques années, du chercheur Ethan Zuckerman à développer des infrastructures publiques du numérique, comme des médias sociaux publics. C’est la piste que tente de rendre concrète la chercheuse Christine Galvagna dans une tribune pour Tech Policy Press. La loi européenne sur les services numériques ne parvient pas à neutraliser les menaces que les grandes entreprises de médias sociaux font peser sur la démocratie et les droits fondamentaux. Les lourdes amendes infligées en cas de non-conformité sont trop souvent considérées comme un simple coût d’exploitation par des entreprises aux revenus colossaux et il est peu probable qu’elles modifient significativement leurs comportements. 

Les institutions européennes et les États membres ont commencé à financer le développement de logiciels libres, notamment pour favoriser l’émergence d’alternatives aux produits et services des géants du numérique. On peut citer, par exemple, l’initiative « Next Generation » de la Commission européenne et l’Agence allemande pour la souveraineté technologique (ou plus pragmatiquement encore, chez nous en France, la suite numérique portée par la Direction interministérielle du numérique (Dinum), alternative aux outils propriétaires de Google ou de Microsoft sous forme de suite d’outils numériques proposant messagerie, système de visioconférence, éditeur et tableur collaboratif, outils de transferts de fichiers… disponibles pour les agents de l’Etat). Dans certains cas mêmes, des financements publics soutiennent le développement de réseaux sociaux décentralisés comme Mastodon, qui peuvent servir d’alternatives aux réseaux commerciaux. Mais, les programmes de financement public n’apportent généralement pas le soutien financier nécessaire au développement et à la compétitivité des réseaux décentralisés, estime la chercheuse. Les aides restent modestes et ponctuelles. Une nouvelle approche du financement public est nécessaire. Elle doit permettre de favoriser un écosystème de réseau social décentralisé, dynamique et durable, capable d’attirer des utilisateurs issus des principales plateformes de médias sociaux. 

Une stratégie plus efficace consisterait à calquer le financement public des réseaux sociaux décentralisés sur celui des médias de service public. Ce financement, plus conséquent et stable, favoriserait une croissance durable. Conditionner ce financement à un engagement envers les valeurs du service public permettrait de garantir que les réseaux sociaux décentralisés protègent la démocratie, les droits fondamentaux et l’intérêt général sur le long terme. Le financement public doit également couvrir l’ensemble des activités et des fonctions nécessaires au succès d’un réseau social. Ces tâches comprennent le développement d’applications destinées aux utilisateurs et de leurs interfaces bien sûr, mais aussi les travaux techniques hors recherche et développement (comme la modération de contenu) et les activités non techniques telles que le marketing. Même les applications les plus sophistiquées échoueront si personne n’en a connaissance ou si elles sont truffées de bugs et de spams. 

De manière générale, le montant des financements publics disponibles doit être au moins comparable aux budgets des grandes entreprises de médias sociaux. Pour la chercheuse, ce devrait être au minima 2 milliards d’euros d’aides qui devraient être disponibles pour ces réseaux. C’est beaucoup d’argent, mais ces investissements ne constituent qu’une infime fraction des dépenses annuelles des pays européens consacrées aux médias de service public pour soutenir des écosystèmes informationnels sains. Et la chercheuse de promouvoir la création d’un Fonds européen de souveraineté technologique (FEST) au niveau de l’Union européenne, qui constituerait un point de départ soutenu par de nombreux experts et entreprises. OpenForum Europe a présenté plusieurs options juridiques permettant aux institutions européennes de mettre en place ce Fonds.

  • ✇404 Media
  • Being Famous Can Shorten Your Lifespan, Scientists Find
    Welcome back to the Abstract! Here are the studies this week that hit the books, bottled alien lightning, reared wolf cubs, and tallied the price of fame. First, we’ve got a centuries-long history of an Indian savannah told through songs, folktales, and screaming peacocks. Then: Mars gets charged, the secrets of Stora Karlsö, and the epidemiology of stardom.As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Aliens or subscribe to my personal newslett
     

Being Famous Can Shorten Your Lifespan, Scientists Find

29 novembre 2025 à 09:00
Being Famous Can Shorten Your Lifespan, Scientists Find

Welcome back to the Abstract! Here are the studies this week that hit the books, bottled alien lightning, reared wolf cubs, and tallied the price of fame. 

First, we’ve got a centuries-long history of an Indian savannah told through songs, folktales, and screaming peacocks. Then: Mars gets charged, the secrets of Stora Karlsö, and the epidemiology of stardom.

As always, for more of my work, check out my book First Contact: The Story of Our Obsession with Aliens or subscribe to my personal newsletter the BeX Files

When folk tales are field guides 

Nerlekar, Ashish N. et al. “Utilizing traditional literature to triangulate the ecological history of a tropical savanna.” People and Nature. 

It has happened again: Researchers have turned to the annals of literature to address a scientific question. Longtime readers of the Abstract will recall that this is a simply irresistible category of research to me (see: China’s porpoise corpus, Transylvanian weather reports, and milky seas). To the library! 

In this edition of Science from the Stacks, researchers probed the origins of the tropical savannah in western Maharashtra, India, by collecting references to plants in 28 stories and songs dating back at least 750 years. The aim was to reconstruct a vegetation history that could hint at shifts in the region between forest and savannah biomes.

“Ttraditional literature—for example, myths, folk songs and stories—is a culturally resonant, yet underutilized line of evidence to understand ecological histories and foster biodiversity conservation,” said researchers led by Ashish N. Nerlekar of Michigan State University.

Being Famous Can Shorten Your Lifespan, Scientists Find
A folio from an early 19th-century manuscript of the Bhaktavijaya mentioning the taraṭī tree. Image: Nerlekar, Ashish N. et al. 

“We found that descriptions of both the landscape and specific plants point to an open-canopy savanna in the past rather than a forest,” the team said. “Of the 44 wild plant species recorded (i.e. omitting exclusively cultivated plants), a clear majority (27 species) were savanna indicators, 14 were generalists, and only three were forest indicators. Our ecological reconstructions from traditional literature complement data from archival paintings, revenue records, plant and animal fossils, and dated molecular phylogenies of endemic biodiversity—all attesting to the antiquity of India's savannas.”

It’s an out-of-the-box way to reconstruct the natural history of a region. But the highlights of these studies are always the excerpts from the literature, like the amazing origin story of this village:

“A folk tale illustrates the founding myth of Kolvihire village near Jejuri. The tale is about a robber-murderer named Vālhyā Koḷī, who lived near Kolvihire. Upon meeting a sage, Vālhyā Koḷī introspected on his wrongdoings and performed penance for 12 years. After completion of the penance, as a living testimony to Vālhyā Koḷī's sincere devotion, leaves sprouted from his stick, which he had used to hit and kill travellers to loot their money. Eventually, Vālhyā Koḷī became the sage-poet Vālmikī. According to the tale, the sprouted stick grew into a pāḍaḷa tree, and the tree still exists in Kolvihire.” 

You have to love a good botanical redemption story. Another standout line is this memorable description of a thorny patch in the savannah from the early 16th century: “Such is this thorny forest | it is highly frightening | this forest is empty | peacocks scream here.”

I don’t know exactly why, but “peacocks scream here” is just about the scariest description I’ve ever heard of a place. Shout out to this ancient poet for capturing some legendary bad vibes.  

In other news…

Extraterrestrial electricity

Chide, Baptiste et al. “Detection of triboelectric discharges during dust events on Mars.” Nature.

Lightning is a big deal on Earth, inspiring awe, fear, and some of the naughtiest deities imaginable. But lightning also strikes on other planets, including Jupiter and Saturn. For years, scientists have suspected that Mars might host its own bolts, but detecting them has remained elusive.

Now, scientists have finally captured lightning on Mars thanks to “serendipitous observations” from the SuperCam microphone aboard the Perseverance rover. 

“Fifty-five events have been detected over two Martian years, usually associated with dust devils and dust storm convective fronts,” said researchers led by Baptiste Chide of the Institut de Recherche en Astrophysique et Planétologie in Toulouse, France. “Beyond Mars, this work also reinforces the prospect of triboelectric discharges associated with wind-blown sediment on Venus and Titan.”

It goes to show that even a very dead world like Mars can still crackle and zap now and then. 

The wolves of Stora Karlsö

Girdland-Flink, Linus et al. “Gray wolves in an anthropogenic context on a small island in prehistoric Scandinavia.” Proceedings of the National Academy of Sciences.”

About 4,000 years ago on a small island in the Baltic sea, people cared for two wolves — perhaps as pets — feeding them fish, seals, and other marine fare. That’s the cozy portrait presented in a new study that analyzed the remains of ancient wolves buried in the Stora Förvar cave on the Swedish island of Stora Karlsö. 

While dogs are commonly buried at ancient human sites, wolves and humans rarely mix in the archaeological record. But the wolves at Stora Karlsö were unlikely to have reached the island without the aid of humans, and their primarily seafood diet—unusual for wild wolves—suggests they were also fed by people. Moreover, one of the animals suffered from a pathology that might have limited its mobility, hinting that it was kept alive by humans. 

Being Famous Can Shorten Your Lifespan, Scientists Find

The cave where the wolf remains were found. Image: Jan Storå/Stockholm University

The study presents the “possibility of prehistoric human control of wolves,” said researchers led by Linus Girdland-Flink of the University of Aberdeen. “Our results provide evidence that extends the discourse about past human–wolf interactions and relationships.”

Fame! I’m going to live forever (or not)  

Hepp, Johanna et al. “The price of fame? Mortality risk among famous singers.” Journal of Epidemiology and Community Health.

Celebrity may literally be to die for, according to a new study that evaluated fame as a comorbidity.

Scientists collected a list of 324 big music stars active between 1950 and 1990, including Elvis Presley, Kurt Cobain, Sam Cooke, and Janis Joplin. Those heavy-hitters were then matched with 324 “twin” musicians that were not household names, but otherwise shared many characteristics of the celebs, including gender, nationality, genre, and roughly similar birth dates. The idea was to directly compare the lifespans of A-listers and B-listers to isolate the extent to which fame itself is a mortality risk factor, rather than the lifestyle of a musician. 

The study suggests that famous singers die four years earlier, on average, compared to their B-list peers, demonstrating “a 33% higher mortality risk compared with less famous singers,” said researchers led by Johanna Hepp of the Central Institute of Mental Health in Mannheim, Germany. “This study provides new evidence suggesting that fame may be associated with increased mortality risk among musicians, beyond occupational factors.”

Lady Gaga had it right, as if there were ever any doubt: Under the glitz, the Fame Monster is always waiting.

Thanks for reading! See you next week. 

  • ✇Dans les algorithmes
  • Manipuler la synthèse de document
    Désormais, la personne la plus importante d’une réunion est devenue celle qui prend des notes, à savoir, bien souvent, l’IA. C’est elle qui attribue des actions et détermine l’importance des propos tenus. D’où l’enjeu à l’influencer , en s’exprimant davantage en fonction des critères de résumés et d’importance que l’IA va prendre en compte. D’où l’enjeu à adapter son langage afin qu’il soit plus susceptible d’être repris dans les résumés, par exemple en répétant les points clés ou en utilisant d
     

Manipuler la synthèse de document

28 novembre 2025 à 01:00

Désormais, la personne la plus importante d’une réunion est devenue celle qui prend des notes, à savoir, bien souvent, l’IA. C’est elle qui attribue des actions et détermine l’importance des propos tenus. D’où l’enjeu à l’influencer , en s’exprimant davantage en fonction des critères de résumés et d’importance que l’IA va prendre en compte. D’où l’enjeu à adapter son langage afin qu’il soit plus susceptible d’être repris dans les résumés, par exemple en répétant les points clés ou en utilisant des formules passe partout. C’est ce que, pour CSO Online, Gadi Evron, le PDG de Knowstic.ai, et Bruce Schneier appellent « l’optimisation pour la synthèse automatique par IA » (AISO).

Pour l’instant, l’efficacité et l’applicabilité de ces techniques restent largement expérimentales, mais certaines semblent assez bien fonctionner, comme le fait de citer des statistiques ou des chiffres, de citer des éléments ou des sources spécifiques. Des mots comme « le principal facteur » ou « le résultat clé » ou « actions à entreprendre » fonctionnent comme attracteurs. Les générateurs de résumés proposent souvent des sections telles que « Points clés » ou « actions à entreprendre », ce qui augmente la probabilité d’inclure un propos reprenant ces intitulés. En pratique, des expressions bien choisies servent de marqueurs implicites qui guident l’IA dans son choix. 

Les synthétiseurs ont également tendance à valoriser les déclarations au début ou à la fin des transcriptions, au détriment du milieu, expliquent les spécialistes en pointant vers plusieurs études soulignant ces problèmes. A terme, estiment-ils, les entreprises devront peut-être prévoir des contre-mesures techniques, mais il est probable aussi qu’apparaissent de nouveaux comportements sociaux humains pour y répondre. En attendant, la compréhension stratégique des ces systèmes pourrait bien devenir une compétence essentielle pour prendre la main sur la synthèse automatique et, derrière elle, sur les actions entérinées par les réunions. Via Algorithm Watch.

  • ✇404 Media
  • Someone Is Trying to ‘Hack’ People Through Apple Podcasts
    Something very strange is happening to the Apple Podcasts app. Over the last several months, I’ve found both the iOS and Mac versions of the Podcasts app will open religion, spirituality, and education podcasts with no apparent rhyme or reason. Sometimes, I unlock my machine and the podcast app has launched itself and presented one of the bizarre podcasts to me. On top of that, at least one of the podcast pages in the app includes a link to a potentially malicious website. Here are the titles
     

Someone Is Trying to ‘Hack’ People Through Apple Podcasts

27 novembre 2025 à 09:00
Someone Is Trying to ‘Hack’ People Through Apple Podcasts

Something very strange is happening to the Apple Podcasts app. Over the last several months, I’ve found both the iOS and Mac versions of the Podcasts app will open religion, spirituality, and education podcasts with no apparent rhyme or reason. Sometimes, I unlock my machine and the podcast app has launched itself and presented one of the bizarre podcasts to me. On top of that, at least one of the podcast pages in the app includes a link to a potentially malicious website. Here are the titles of some of the very odd podcasts I’ve had thrust upon me recently (I’ve trimmed some and defanged some links so you don’t accidentally click one):

“5../XEWE2'""&#x22"onclic…”

“free will, free willhttp://www[.]sermonaudio[.]com/rss_search.asp?keyword=free%will on SermonAudio”

“Leonel Pimentahttps://play[.]google[.]com/store/apps/detai…”

“https://open[.]spotify[.]com/playlist/53TA8e97shGyQ6iMk6TDjc?...”

  • ✇Dans les algorithmes
  • Des marchands d’attention aux architectes de l’intention
    « Pendant plus d’un siècle, les marchands d’attention ont régné en maîtres [voir notre recension du livre éponyme de Tim Wu – NDE], du sensationnalisme au clickbait, des radios à sensation aux réseaux sociaux. Mais cet empire s’effondre. Les grands éditeurs ont perdu 50 % de leur trafic lorsque Google a opté pour les classements basés sur l’IA. Le secteur de la publicité numérique, qui pèse 685 milliards de dollars, est confronté à une crise existentielle : les assistants vocaux IA cessent de cl
     

Des marchands d’attention aux architectes de l’intention

27 novembre 2025 à 01:00

« Pendant plus d’un siècle, les marchands d’attention ont régné en maîtres [voir notre recension du livre éponyme de Tim Wu – NDE], du sensationnalisme au clickbait, des radios à sensation aux réseaux sociaux. Mais cet empire s’effondre. Les grands éditeurs ont perdu 50 % de leur trafic lorsque Google a opté pour les classements basés sur l’IA. Le secteur de la publicité numérique, qui pèse 685 milliards de dollars, est confronté à une crise existentielle : les assistants vocaux IA cessent de cliquer sur les publicités. Le SEO, cet art obscur qui a façonné deux décennies de contenu web, a commencé à se fissurer dès l’instant où les moteurs de recherche ont cessé de diriger les internautes vers les sites web », explique Shuwei Fang, directrice associée des programmes de l’Open Society Foundations, dans une tribune pour le Shorenstein Center de Harvard.

Construire le « graphe de la curiosité »

Pour elle, l’IA vise à produire un « graphe de la curiosité » des utilisateurs, qui n’est plus le graphe social des premiers réseaux sociaux ni le graphe des centres d’intérêts (ces étiquettes collés à nos profils en fonction de nos actions, comme l’expliquait Tim Hwang) permettant de cibler la publicité de la seconde génération des réseaux sociaux, mais la cartographie de l’évolution de vos centres d’intérêts au fil du temps. Vos incertitudes émergentes seraient commercialisées sous forme de produits dérivés, votre assistant IA pouvant potentiellement parier sur votre prochaine question. Nous voici en train d’entrer dans ce que certains baptisent « l’économie de l’intention », où « les systèmes d’IA collectent, commercialisent et manipulent potentiellement l’intention des utilisateurs ».  

Mais ce constat déjà inquiétant n’est que la partie émergée de l’iceberg, estime Shuwei Fang. Nous assistons à une restructuration fondamentale de la circulation de l’information dans la société [voir également notre article sur le remplacement du web par l’IA]. Dans cette économie de l’intention qui émerge, les systèmes d’IA pourraient rivaliser pour anticiper et façonner les recherches des utilisateurs avant même qu’ils n’en aient conscience. L’infrastructure en cours de construction, largement invisible pour la plupart d’entre nous, ne déterminera pas seulement ce que nous voyons, elle déterminera ce que nous voulons voir avant même que nous le sachions.

Pour comprendre comment l’intention remplace l’attention, il faut examiner l’inversion fondamentale qui s’opère dans le flux d’informations. Lorsqu’on pose une question à une IA aujourd’hui, elle dispose généralement d’énormément d’éléments de contexte pour élaborer sa réponse. Cela représente un changement structurel dans la circulation de l’information au sein de la société. Pour Shuwei Fang, nous entrons dans un monde « B2A2C », expliquait-elle pour SpliceMedia (voir la traduction sur Meta Media), c’est-à-dire un monde où les contenus suivent une nouvelle chaîne logistique, Business to Agent to Consumer (de l’entreprise à l’agent IA, puis au consommateur). Les contenus ne sont plus conçus pour seulement capter l’attention, mais doivent être également structurés pour être lisibles par les machines. « L’IA constitue à la fois un nouveau public et un nouvel intermédiaire » au risque que la « relation directe entre humains se réduise de manière drastique », notamment parce que « les contenus optimisés pour les humains deviennent relativement onéreux à créer et à diffuser ». Pour Fang, les humains dépendront d’interfaces de plus en plus complexes pour accéder à l’information pensée pour les machines et ceux qui produisent les contenus ne sont plus appelés à produire des histoires mais à saisir des données. « La couche de traduction Agent to consumer, où l’IA retranscrit l’information optimisée pour les machines à destination des humains, est le véritable lieu du basculement de pouvoir. Nous passons d’un pouvoir éditorial — celui de choisir quelles histoires raconter — à un pouvoir architectural : concevoir les structures par lesquelles l’information circule des machines vers les esprits humains »

… ou y résister

Pour Fang, pour éviter cette capture, c’est-à-dire le fait d’être inféré, d’être nous-mêmes hallucinés, l’enjeu dès lors consiste à « construire des couches de traduction qui renforcent le pouvoir d’agir des humains, au lieu de le remplacer ». C’est-à-dire rendre cette traduction visible (à l’image des tableaux de bord qu’imaginait Fernanda Viegas, permettant de comprendre les facteurs qui façonnent le contenu que les utilisateurs reçoivent des réponses des modèles d’IA générative), créer des structures de gouvernance permettant aux individus de moduler leur propre accès au sens, concevoir des dispositifs permettant de montrer quels schémas conduisent à telle ou telle conclusion et surtout garantir la coexistence de multiples options de traduction. Cela passe par exemple par le développement d’outils capables de garantir la provenance et l’intégrité des contenus, comme les travaux de Truepic ou de la Content authenticity Initiative. Ou encore en intégrant de l’IA dans des plateformes hyperlocales, capables de produire de l’information où le contexte reste sous la surveillance des communautés locales ou thématiques. Cela pourrait passer par des interfaces de traduction capables d’établir une relation durable avec les utilisateurs finaux, comme quand Perplexity affiche ses sources et ses chaînes de raisonnement ou par des outils qui favorisent la compréhension plus que l’engagement, comme l’esquissait Anthropic avec Consitutional AI, où les utilisateurs ajusteraient eux-mêmes les valeurs et priorités des couches de traduction qu’ils mobilisent. 

Ce qui est sûr, estime Fang, c’est que, contrairement à l’ère des plateformes, l’information est en passe de devenir la matière première des machines plus que des humains. Google organisait les liens vers des pages que les humains lisaient. Facebook mettait en avant les publications de votre réseau. Ces plateformes avaient une influence algorithmique, mais pas de pouvoir d’action ; elles ne pouvaient pas créer de contenu, seulement classer celui existant. 

Les systèmes d’IA ont un pouvoir d’action fonctionnel : ils transforment les sources d’information en des formes entièrement nouvelles. Cette information n’est plus statique ni permanente. Elle devient « liquide », constamment reformée en fonction de la personne qui pose la question et de la manière dont elle la pose. Ils ne se contentent pas de sélectionner des options ; ils génèrent de nouvelles réalités. « Lorsqu’une IA synthétise une réponse, elle ne vous oriente pas vers une information, elle crée une information qui n’a jamais existé sous cette forme précise auparavant. Chaque réponse est spécifique à une intention, façonnée non pas par ce qui existe, mais par ce que vous cherchez à savoir », selon ce que la machine en calcule 

« Cette intermédiation par les machines ne modifie pas seulement la physique des flux d’information ; elle réécrit fondamentalement l’économie de l’information », explique Fang. « Lorsque la synthèse devient la principale valeur ajoutée, la création de contenu se banalise tandis que le contrôle de l’interprétation prend de la valeur ». Dès lors qu’une ressource devient librement copiable ou génératrice, sa valeur ne disparaît pas ; elle migre vers ceux qui contrôlent sa distribution et sa synthèse. « On passe ainsi d’un modèle économique de stock à un modèle de flux. Lorsque la musique pouvait être copiée à l’infini et gratuitement, Spotify s’est approprié la valeur en contrôlant l’accès. La réplication de logiciels étant gratuite, le logiciel en tant que service (SaaS) a capté la valeur en contrôlant les mises à jour et l’intégration. L’information a atteint le même point d’inflexion. Lorsque l’IA peut générer un contenu infini à coût marginal nul et lorsque les machines, et non les humains, sont les principaux consommateurs de ce contenu, la valeur ne réside plus dans le contenu lui-même. Elle migre vers l’infrastructure qui contrôle la synthèse : la manière dont l’IA trouve, traite, interprète et diffuse l’information aux humains »

Dans ce nouveau paradigme économique, tout contenu numérisé devient inévitablement la matière première des infrastructures. La récente vague d’accords entre entreprises d’IA et éditeurs de presse illustre parfaitement cette dynamique. « Il ne s’agit pas simplement de licences de contenu ; ce sont, en fin de compte, des opérations d’infrastructure. Les entreprises d’IA n’achètent pas seulement du contenu ou des données d’entraînement ; elles acquièrent le droit de devenir les canaux légitimes par lesquels transite toute l’information »

Cette infrastructure de l’intention est déjà en train de se réaliser, explique Fang. Des entreprises comme Pinecone ou Databricks sont en train de construire la couche de recherche qui permet à l’IA de trouver l’information. Tollbit est en train de construire un système de paiement pour le contenu consommé par l’IA, permettant de construire une couche d’attribution permettant de suivre les contributeurs et les rémunérations. Une couche de synthèse contrôle la combinaison des informations, à l’image de LangChain ou du protocole MCP d’Anthropic. Enfin, la couche transactionnelle permet les paiements de machine à machine : Google a récemment annoncé le protocole APP (Agent Payments Protocol), tandis que des solutions crypto promettent une monnaie programmable pour les transactions entre agents. 

Mais d’autres couches s’annoncent encore. « Lorsque la mémoire de l’IA deviendra persistante, elle permettra de stocker les préférences des utilisateurs à long terme, et votre « graphe de curiosité » pourrait devenir un actif à la fois malléable et échangeable. Aujourd’hui, les entreprises enchérissent sur les mots-clés que vous avez déjà recherchés. Dans un avenir proche, elles pourraient enchérir pour influencer vos prochaines recherches. Le mécanisme d’enchères publicitaires ne consistera plus à « montrer cette publicité à une personne qui cherche des chaussures », mais à « susciter la curiosité de cette personne pour les chaussures haut de gamme durables avant même qu’elle ne réalise avoir besoin de nouvelles chaussures ». La valeur résidera dans le fait même de susciter cette curiosité. Lorsque l’IA pourra prédire et influencer les désirs avant qu’ils ne se forment, la publicité elle-même pourrait passer de la persuasion à l’anticipation »

Façonner le désir ?

« De même que les cookies tiers ont engendré toute une économie de données comportementales, les profils de curiosité pourraient être commercialisés et faire l’objet de produits dérivés », s’emballe Fang. « Imaginez des marchés à terme sur les sujets qui intéresseront les personnes fortunées au prochain trimestre, des options sur votre parcours intellectuel, des marchés d’échanges basés sur la corrélation entre vos centres d’intérêt et vos habitudes d’achat. Lorsque les marchés prédictifs synthétisent l’intelligence collective à grande échelle, ils ne se contentent pas de prévoir les événements ; ils peuvent générer des microprofits en anticipant les intentions. Chaque requête devient un pari. Votre assistant IA pourrait littéralement spéculer et potentiellement tirer profit de votre prochaine question, créant ainsi de la liquidité à partir de l’incertitude elle-même. L’écart entre ce que vous pensez vouloir savoir et ce dont vous avez réellement besoin pourrait devenir une inefficience exploitable. Alors, la mémoire et l’intention pourraient donner naissance à quelque chose d’indéfini. Des produits dérivés émotionnels ? Des obligations de curiosité ? ». Certes. Reste que ce monde d’inférences risque surtout d’être assez indifférent à la vérité, ou de pousser les gens vers l’optimisation des prédictions des machines, orientant leurs propos pour vous amener vers les questions qu’elles ont intérêts à produire, par exemple pour maximiser les profits liés à certains mots clés publicitaires sur d’autres. C’est oublier que les systèmes conçus à des fins commerciales ne sont généralement pas destinés à remettre en question vos idées, seulement vous fidéliser.

Shuwei Fang a pourtant raison de s’inquiéter. « Dans ce monde, la vérité de fond, la recherche de la vérité et les mécanismes d’autocorrection de l’information sont plus importants que jamais ». Les journalistes qui conçoivent des systèmes de vérification de nouvelle génération, les spécialistes des technologies civiques qui créent des outils de transparence, les chercheurs qui développent des protocoles de vérification des faits basés sur l’IA, ont tout à fait raison dans leurs convictions. Ce travail est essentiel. Mais il ne suffit pas. L’infrastructure de l’intention façonnera ce qui, au final, parvient aux humains et la manière dont les récits sont synthétisés. « Nous devons commencer à réfléchir à la manière de façonner le prochain écosystème informationnel afin qu’il serve, plutôt qu’il ne compromette, la connaissance et la compréhension humaines ». Mais peut-il encore y avoir une démocratie dans l’économie de l’intention ? 

« L’inversion informationnelle émergente signifie que lorsque nous aurons réponse à tout, la curiosité deviendra la dernière rareté ». Dans ce monde, influencer les questions des citoyens pourrait être plus efficace que de contrôler leurs lectures. Les mêmes techniques utilisées par les annonceurs pour anticiper les intentions des consommateurs pourraient déterminer le débat démocratique, et le clore. Un peu comme si les sondages étaient le vote et que ces sondages étaient réalisés sur des profils synthétiques pour finalement se passer de nos opinions. 

Reste, estime Fang, que l’infrastructure de curiosité est déjà en train d’être façonnée. Les systèmes capables d’orienter nos demandes sont en train d’être construits. Sans intervention, la technologie qui pourrait aider les citoyens à s’orienter dans la complexité ne fera que confirmer les préjugés. Et la chercheuse d’en appeler à construire des alternatives, avant que les infrastructures soient en place

« Contrairement aux précédents bouleversements qui ont pris la démocratie au dépourvu (la consolidation des radios, la commercialisation de la télévision, la polarisation des réseaux sociaux), nous pourrions cette fois-ci être avertis ». Pas sûr que cette alerte suffise, hélas, pour éviter les dérives qui nous y conduisent.

  • ✇404 Media
  • A Lone Astronomer Has Reported a Dark Matter ‘Annihilation’ Breakthrough
    🌘Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week. An astronomer has reported a possible new signature of dark matter, a mysterious substance that makes up most of the universe, according to a study published on Tuesday in the Journal of Cosmology and Astroparticle Physics. Dark matter accounts for 85 percent of all matter in the universe, but its existence has so far been inferred only from its indirect eff
     

A Lone Astronomer Has Reported a Dark Matter ‘Annihilation’ Breakthrough

26 novembre 2025 à 12:50
🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.
A Lone Astronomer Has Reported a Dark Matter ‘Annihilation’ Breakthrough

An astronomer has reported a possible new signature of dark matter, a mysterious substance that makes up most of the universe, according to a study published on Tuesday in the Journal of Cosmology and Astroparticle Physics

Dark matter accounts for 85 percent of all matter in the universe, but its existence has so far been inferred only from its indirect effects on the familiar “baryonic” matter that makes up stars, planets, and life. 

Tomonori Totani, a professor of astronomy at the University of Tokyo and the author of the study, believes he has spotted novel indirect traces of dark matter particles in the “halo” surrounding the center of our galaxy using new observations from NASA’s Fermi Gamma-ray Space Telescope. When these speculative particles collide—a process called dark matter annihilation—the crash is predicted to emit bright gamma rays, which is the light that Totani thinks he has identified.

“The discovery was made possible by focusing on the halo region (excluding the galactic center), which had received little attention, and by utilizing data accumulated over 15 years from the Fermi satellite,” Totani told 404 Media in an email. “After carefully removing all components other than dark matter, a signal resembling dark matter appeared.” 

“It was like playing the lottery, and at first I was skeptical,” he added. “But after checking meticulously and thinking it seemed correct, I got goosebumps!”

If the detection is corroborated by follow-up studies, it could confirm a leading hypothesis that dark matter is made of a hypothetical class of weakly interacting massive particles, or “WIMPs”—potentially exposing the identity of this mysterious substance for the first time. But that potential breakthrough is still a ways off, according to other researchers in the field. 

“Any new structure in the gamma-ray sky is interesting, but the dark matter interpretation here strikes me as quite preliminary,” said Danielle Norcini, an experimental particle physicist and

assistant professor at Johns Hopkins University, in an email to 404 Media. 

A Lone Astronomer Has Reported a Dark Matter ‘Annihilation’ Breakthrough
Gamma-ray intensity map excluding components other than the halo, spanning approximately 100 degrees in the direction of the Galactic center. The horizontal gray bar in the central region corresponds to the Galactic plane area, which was excluded from the analysis to avoid strong astrophysical radiation. Image: Tomonori Totani, The University of Tokyo

Dark matter has flummoxed scientists for almost a century. In the 1930s, astronomer Fritz Zwicky observed that the motions of galaxies hinted that they are much more massive than expected based solely on visible baryonic matter. Since then, astronomers have confirmed that dark matter, which accumulates into dense halos at the centers of galaxies, acts like a gravitational glue that holds structures together. Dark matter is also the basis of a vast cosmic web of gaseous threads that links galaxy clusters across billions of light years. 

But while dark matter is ubiquitous, it does not interact with the electromagnetic force, which means it does not absorb, reflect, or emit light. This property makes it difficult to spot with traditional astronomy, a challenge that has inspired the development of novel instruments designed to directly detect dark matter such as the subterranean LUX-ZEPLIN in South Dakota and the forthcoming DAMIC-M in France. 

For years, scientists have been probing possible emission from dark matter annihilation at the center of the Milky Way, which is surrounded by a halo of densely-clustered dark matter. Those previous studies focus on an excess emission pattern of about 2 gigaelectronvolts (GeV). Tontani’s study spotlights a new and different pattern with extremely energetic gamma rays at 20 GeV. 

“A part of the Fermi data showed a peculiar excess that our model couldn't explain, leading me to suspect it might be due to radiation originating from dark matter,” he said. “The most difficult part is removing gamma-ray emissions of origins other than dark matter, such as those from cosmic rays and celestial objects.”

This tentative report may finally fill in a major missing piece of our understanding of the universe by exposing the true nature of dark matter and confirming the existence of WIMPs. But given that similar claims have been made in the past, more research is needed to assess the significance of the results.

“For any potential indirect signal, the key next steps are independent checks: analyses using different background models, different assumptions about the Milky Way halo, and ideally complementary data sets,” Norcini said.

“Gamma-ray structures in the halo can have many astrophysical origins, so ruling those out requires careful modeling and cross-comparison,” she continued. “At this point the result seems too new for that scrutiny to have played out, and it will take multiple groups looking at the same data before a dark matter interpretation could be considered robust.”

Though Totani is confident in his interpretation of his discovery, he also looks forward to the input of other dark matter researchers around the world.

“First, I would like other researchers to independently verify my analysis,” he said. “Next, for everyone to be convinced that this is truly dark matter, the decisive factor will be the detection of gamma rays with the same spectrum from other regions, such as dwarf galaxies. The accumulation of further data from the Fermi satellite and large ground-based gamma-ray telescopes, such as the Cherenkov Telescope Array Observatory (CTAO) will be crucial.”

🌘
Subscribe to 404 Media to get The Abstract, our newsletter about the most exciting and mind-boggling science news and studies of the week.
  • ✇404 Media
  • 'Slop Evader' Lets You Surf the Web Like It’s 2022
    It’s hard to believe it’s only been a few years since generative AI tools started flooding the internet with low quality content-slop. Just over a year ago, you’d have to peruse certain corners of Facebook or spend time wading through the cultural cesspool of Elon Musk’s X to find people posting bizarre and repulsive synthetic media. Now, AI slop feels inescapable — whether you’re watching TV, reading the news, or trying to find a new apartment.That is, unless you’re using Slop Evader, a new
     

'Slop Evader' Lets You Surf the Web Like It’s 2022

26 novembre 2025 à 10:47
'Slop Evader' Lets You Surf the Web Like It’s 2022

It’s hard to believe it’s only been a few years since generative AI tools started flooding the internet with low quality content-slop. Just over a year ago, you’d have to peruse certain corners of Facebook or spend time wading through the cultural cesspool of Elon Musk’s X to find people posting bizarre and repulsive synthetic media. Now, AI slop feels inescapable — whether you’re watching TV, reading the news, or trying to find a new apartment.

That is, unless you’re using Slop Evader, a new browser tool that filters your web searches to only include results from before November 30, 2022 — the day that ChatGPT was released to the public.

  • ✇404 Media
  • Podcast: A Massive Breach Reveals the Truth Behind 'Secret Desires AI'
    We start this week with Sam's piece about a massive leak of an AI chatbot, and how it showed that people were taking ordinary women’s yearbook photos and using them to make AI porn. After the break, Jason explains how a recent change on X exposed a bunch of grifters all around the world. In the subscribers-only section, we talk about how our reporting contributed to the shut down of a warrantless surveillance program. Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Bec
     

Podcast: A Massive Breach Reveals the Truth Behind 'Secret Desires AI'

26 novembre 2025 à 09:00
Podcast: A Massive Breach Reveals the Truth Behind 'Secret Desires AI'

We start this week with Sam's piece about a massive leak of an AI chatbot, and how it showed that people were taking ordinary women’s yearbook photos and using them to make AI porn. After the break, Jason explains how a recent change on X exposed a bunch of grifters all around the world. In the subscribers-only section, we talk about how our reporting contributed to the shut down of a warrantless surveillance program.

Listen to the weekly podcast on Apple Podcasts, Spotify, or YouTube. Become a paid subscriber for access to this episode's bonus content and to power our journalism. If you become a paid subscriber, check your inbox for an email from our podcast host Transistor for a link to the subscribers-only version! You can also add that subscribers feed to your podcast app of choice and never miss an episode that way. The email should also contain the subscribers-only unlisted YouTube link for the extended video version too. It will also be in the show notes in your podcast player.

1:23 - Intro - Please, please do our reader survey
3:57 - Story 1 - Massive Leak Shows Erotic Chatbot Users Turned Women’s Yearbook Pictures Into AI Porn
30:05 - Story 2 - America’s Polarization Has Become the World's Side Hustle
49:39 - Story 3 - Airlines Will Shut Down Program That Sold Your Flights Records to Government

  • ✇Dans les algorithmes
  • IA et emploi : de quoi l’IA est-elle responsable ? 
    Sur son site, Brian Merchant continue de creuser la question du rapport IA et emploi. Il nous avait expliqué, il y a peu, que la crise de l’emploi liée à l’IA ne consiste pas à remplacer des hommes par des programmes, mais consiste en une crise de réduction des coûts de main-d’œuvre, une forme d’attrition structurelle. Aux Etats-Unis, les plans de licenciements dans les entreprises de la tech se succèdent. 153 000 emplois ont été supprimés en octobre 2025 : un record depuis 2003. Et l’année 2025
     

IA et emploi : de quoi l’IA est-elle responsable ? 

26 novembre 2025 à 01:00

Sur son site, Brian Merchant continue de creuser la question du rapport IA et emploi. Il nous avait expliqué, il y a peu, que la crise de l’emploi liée à l’IA ne consiste pas à remplacer des hommes par des programmes, mais consiste en une crise de réduction des coûts de main-d’œuvre, une forme d’attrition structurelle. Aux Etats-Unis, les plans de licenciements dans les entreprises de la tech se succèdent. 153 000 emplois ont été supprimés en octobre 2025 : un record depuis 2003. Et l’année 2025 a déjà battu le record de suppressions d’emploi de 2020, année de la pandémie. Toutes ces suppressions ne sont pas liées à l’IA seulement, mais celle-ci est souvent un des facteurs avancés pour la restructuration.

La réorganisation annoncée chez Amazon qui a communiqué sur la suppression de 30 000 emplois a été contestée par les employés. « Tous mes collègues affirment que l’IA qu’on les a obligés à utiliser n’a pas augmenté leur productivité de manière significative », critique un ingénieur d’Amazon. Pour Merchant, l’IA ne vient pas remplacer le travail, mais sa menace permet de créer une justification logique et idéologique permettant de réduire les coûts pour optimiser les profits. « L’ IA est une justification extrêmement convaincante », tant et si bien qu’on parle déjà d’AI-Washing, c’est-à-dire d’une pratique où, alors que les investissements dans l’IA augmentent, et que les ventes se tassent, les entreprises réduisent les coûts ailleurs, et d’abord sur la masse salariale. « Si Amazon licencie 30 000 employés parce que sa technologie est si avancée que ses systèmes d’IA peuvent parfaitement les remplacer, les investisseurs seront bien plus satisfaits que si Amazon réduit ses coûts parce qu’elle s’endette excessivement pour l’expansion de ses centres de données ou qu’elle s’inquiète de ses résultats ». Le narratif de l’IA semble finalement un outil plus puissant encore que l’IA elle-même. 

Reste qu’il se passe bien quelque chose sur le marché de l’emploi américain, constate Merchant, mais il est difficile de démêler quoi, notamment parce que le bureau des statistiques du travail est empêché de faire son travail par l’administration Trump. Quelques tendances se dégagent néanmoins. La première, c’est que le nombre d’emplois disponibles pour les jeunes diplômés diminue. Une étude de Stanford, dirigée par Erik Brynjolfsson,  explique que l’emploi en début de carrière pour les travailleurs américains âgés de 22 à 25 ans, dans des « professions exposées à l’IA générative », a chuté de 13 % dans des secteurs clés depuis 2022, date précise de l’arrivée de cette technologie sur le marché. Mais cette chute pourrait être liée à une plus grande externalisation plus que par un remplacement par l’IA. 

Henley Chiu fondateur de Revealera a conçu un programme pour analyser 180 millions d’offres d’emploi dans le monde, afin de déterminer les secteurs ayant connu une baisse ou une croissance. Chiu constate tout d’abord une baisse de 8 % des offres d’emploi dans le monde, d’une année sur l’autre, mais qui tiennent certainement de bien des facteurs contextuels, sans qu’on puisse les attribuer à l’IA. Ensuite, Chiu détaille les offres d’emploi dans le monde qui ont le plus fortement diminué ces deux dernières années. « Surprise : ce sont les emplois créatifs, ainsi que les postes liés au développement durable et à la conformité, qui arrivent en tête ». Parmi les 10 métiers en plus forte baisse, 3 sont des postes créatifs : infographistes (-33 %), photographes (-28 %) et rédacteurs (-28 %). 

Il y a de réelles raisons de penser que les emplois d’infographiste, de photographe et de rédacteur sont impactés par l’IA et que les entreprises publient moins d’offres du fait du développement des outils d’IA et de sa concurrence. Quant aux postes liés au développement durable ou à la conformité, Merchant pointe la suppression massive des réglementations aux États-Unis.

La baisse dans les offres d’embauches des métiers créatifs n’est pas qu’un accident, mais se poursuit depuis 2 ans. « Chiu souligne également que si les offres d’emploi pour les rédacteurs, les artistes et les créatifs ont diminué, celles pour les directeurs artistiques ont augmenté. C’est précisément ce à quoi on pouvait s’attendre avec l’adoption de l’IA par les directions : moins de personnes créant réellement le travail et davantage de personnes occupant des postes de direction supervisant la production automatisée ». Pour Henley Chiu, « l’impact de l’IA est sélectif. Elle affecte durement certains emplois créatifs. » Pour Merchant, « les patrons utilisent l’IA comme ils ont utilisé les technologies d’automatisation depuis la révolution industrielle : pour tirer le maximum de profit des travailleurs et profiter de la profonde incertitude qui entoure l’étendue réelle de sa puissance et de son utilité ».

Sur Wired, Will Knight évoque un nouveau benchmark de l’IA, lancé par Scale AI, le Centre pour la sécurité de l’IA (CAIS) : le Remote labor index, qui vise à mesurer la capacité des modèles à automatiser certaines tâches spécifiques issues d’exemples réels (comme la conception graphique, le montage vidéo, le développement de jeux ou des tâches administratives telles que l’extraction de données). Les conclusions sont sans appel : les agents d’IA les plus performants n’obtiennent quasiment aucun résultat : « les systèmes d’IA actuels ne parviennent pas à réaliser la grande majorité des projets avec un niveau de qualité acceptable pour un travail commandé ». Un résultat qui vient contrebalancer un benchmark équivalent lancé en septembre par OpenAI, qui était lui, bien plus optimiste, puisqu’il affirmait que les modèles d’IA de pointe atteignaient des performances proches de celles des humains dans 220 tâches couvrant un large éventail d’emplois de bureau.

  • ✇404 Media
  • Arc Raiders ‘Watchlist’ Names and Shames Backstabbing Players
    A new website is holding Arc Raiders players accountable when they betray their fellow players. Speranza Watchlist—named for the game’s social hub—bills itself as “your friendly Raider shaming board,” a place where people can report other people for what they see as anti-social behavior in the game.In Arc Raiders, players land on a map full of NPC robots and around 20 other humans. The goal is to fill your inventory with loot and escape the map unharmed. The robots are deadly, but they’re eas
     

Arc Raiders ‘Watchlist’ Names and Shames Backstabbing Players

25 novembre 2025 à 17:24
Arc Raiders ‘Watchlist’ Names and Shames Backstabbing Players

A new website is holding Arc Raiders players accountable when they betray their fellow players. Speranza Watchlist—named for the game’s social hub—bills itself as “your friendly Raider shaming board,” a place where people can report other people for what they see as anti-social behavior in the game.

In Arc Raiders, players land on a map full of NPC robots and around 20 other humans. The goal is to fill your inventory with loot and escape the map unharmed. The robots are deadly, but they’re easy to deal with once you know what you’re doing. The real challenge is navigating other players and that challenge is the reason Arc Raiders is a mega-hit. People are far more dangerous and unpredictable than any NPC.

  • ✇404 Media
  • Here's the Video for Our Seventh FOIA Forum: Flock
    The FOIA Forum is a livestreamed event for paying subscribers where we talk about how to file public records requests and answer questions. If you're not already signed up, please consider doing so here. Recently we had a FOIA Forum where we focused on our reporting about Flock. This includes how to file public records requests for audit logs, footage, and other ideas for FOIAing surveillance companies. We showed subscribers how we got the records behind that story, the specific request langu
     

Here's the Video for Our Seventh FOIA Forum: Flock

25 novembre 2025 à 13:04
Here's the Video for Our Seventh FOIA Forum: Flock

The FOIA Forum is a livestreamed event for paying subscribers where we talk about how to file public records requests and answer questions. If you're not already signed up, please consider doing so here

Recently we had a FOIA Forum where we focused on our reporting about Flock. This includes how to file public records requests for audit logs, footage, and other ideas for FOIAing surveillance companies.

We showed subscribers how we got the records behind that story, the specific request language was used, tips for turning records into articles, and much more.

Check out all of our FOIA Forum archives here. And the video is below.

Here's the Video for Our Seventh FOIA Forum: Flock
Here's the Video for Our Seventh FOIA Forum: Flock
Here's the Video for Our Seventh FOIA Forum: Flock
  • ✇404 Media
  • Please, please do our reader survey
    Because we run 404 Media on Ghost, an open source and privacy-forward stack, we actually know very little about who reads 404 Media (by design). But we’re hoping to learn a bit more so we can figure out how people are discovering our work, what our readers do, and what other projects people might want us to launch in the future. If you want to cut to the chase: here is a link to our very short survey we would really, really appreciate you filling out. You can do it anonymously and it should t
     

Please, please do our reader survey

25 novembre 2025 à 09:42
Please, please do our reader survey

Because we run 404 Media on Ghost, an open source and privacy-forward stack, we actually know very little about who reads 404 Media (by design). But we’re hoping to learn a bit more so we can figure out how people are discovering our work, what our readers do, and what other projects people might want us to launch in the future. If you want to cut to the chase: here is a link to our very short survey we would really, really appreciate you filling out. You can do it anonymously and it should take around a minute. If you want to know more on the why, please read below!

As we said, Ghost doesn’t collect much data about our readers. The little info we do have shows broadly that most of our readers are in the U.S., followed by Europe, etc. But we don’t have a great idea of how people first learn about 404 Media. Or whether people would prefer a different format to our daily newsletter. Or what industries or academic circles our readers are in.

This information is useful for two main reasons: the first is we can figure out how people prefer to read us and come across our work. Is it via email? Is it articles posted to the website? Or the podcast? Do more people on Mastodon read us, or on Bluesky? This information can help us understand how to get our journalism in front of more people. In turn, that helps inform more people about what we cover, and hopefully can lead to more people supporting our journalism.

The second is for improving the static advertisements in our email newsletters and podcasts that we show to free members. If it turns out we have a lot of people who read us in the world of cybersecurity, maybe it would be better if we ran ads that were actually related to that, for example. Because we don’t track our readers, we really have no idea what products or advertisements would actually be of interest to them. So, you voluntarily and anonymously telling us a bit about yourself in the survey would be a great help.

Here is the survey link. There is also a section for any more general feedback you have. Please help us out with a minute of your time, if you can, so we can keep growing 404 Media sustainably and figure out what other projects readers may be interested in (such as a physical magazine perhaps?).

Thank you so much!

❌