Vue normale

Reçu avant avant-hier
  • ✇Euromaidan Press
  • Russia escalates spying on German army over Ukraine support, Berlin’s counterintelligence report finds
    Germany’s military faces mounting pressure from Russian intelligence services, which have intensified their efforts in response to Berlin’s continued support for Ukraine, according to the German Military Counterintelligence Service (Militärischer Abschirmdienst, MAD). This comes as Russia continues its invasion of Ukraine. Beyond its full-scale war, Russia also targets Ukraine’s allies with hybrid operations — including sabotage, espionage, and propaganda — aimed at weakeni
     

Russia escalates spying on German army over Ukraine support, Berlin’s counterintelligence report finds

11 décembre 2025 à 09:07

russia escalates spying german army over ukraine support counterintelligence report finds · post mad people photographing bundeswehr soldiers news ukrainian reports

Germany’s military faces mounting pressure from Russian intelligence services, which have intensified their efforts in response to Berlin’s continued support for Ukraine, according to the German Military Counterintelligence Service (Militärischer Abschirmdienst, MAD).

This comes as Russia continues its invasion of Ukraine. Beyond its full-scale war, Russia also targets Ukraine’s allies with hybrid operations — including sabotage, espionage, and propaganda — aimed at weakening their support for Kyiv. Some of these efforts have paid off: Slovakia elected a pro-Russian prime minister in 2023 who cut aid to Ukraine. In the US, President Donald Trump ended US assistance, switching to selling weapons after assuming office this January. Germany’s pro-Russian AfD party surged to second place, while Poland and Czechia saw electoral outcomes that brought less pro-Ukrainian leadership to power.

Russia escalates covert operations against German army

The MAD’s 2024 annual report, released on 9 December 2025, warns that the Bundeswehr—the German Army—has become a declared reconnaissance target of foreign intelligence services — with Russia identified as a key threat. As Germany continues to arm, train, and support Ukraine, Russian agencies have increasingly focused on obtaining information about the Bundeswehr’s troop strength, weapons systems, command structures, and stationing decisions.

merz says dictated peace—germany stand ukraine german chancellor friedrich addressing bundestag 14 2025 addressed first time euronews reports emphasized need full western unity thanked president donald trump backing 30-day ceasefire
Explore further

With Ukraine’s reserves running low, Merz presses Belgium to unlock €165 billion loan

The report highlights a surge in attempts to obtain classified military information, including direct outreach to Bundeswehr personnel. Russian operatives have used drones to fly over military sites and have allegedly committed acts of sabotage, including multiple incidents involving naval vessels and suspected tampering with drinking water infrastructure.

The report cites the March 2024 leak of a phone call between German Air Force officers by Russian media as a notable case. MAD cites this episode as an example of Moscow’s broader hybrid campaign aimed at undermining Germany’s credibility and exposing sensitive military communications.

Disinformation and sabotage as tools of espionage

The MAD report also details ongoing disinformation efforts and influence operations targeting Germany’s internal and external security policy. These include attempts to erode public trust in German security institutions and to destabilize public perception through coordinated narratives and information warfare.

According to the report, espionage against the Bundeswehr is no longer limited to traditional intelligence collection. It increasingly involves cyber threats, electromagnetic spectrum exploitation, and AI-driven surveillance technologies. Russia’s interest extends beyond battlefield-related intelligence to areas like logistics, operational readiness, and Germany’s evolving NATO posture.

1time-us-army-garrison-hohenfels-bg.jpeg
Explore further

October sees record drone activity over German military sites — Reuters

The deployment of a German brigade to Lithuania, as part of NATO’s eastern defense commitments, has further heightened Russia’s espionage focus. MAD warns that this stationing has made the Bundeswehr a direct surveillance target.

Expanded countermeasures

In response to these threats, MAD conducted over 60,000 personnel security checks in 2024, covering new recruits as well as long-serving military staff. These measures are designed to ensure individual reliability and prevent internal vulnerabilities. Each case, the report emphasizes, represents a decision about whether a person can be trusted with security-sensitive duties.

Despite criticism over the duration of these checks, MAD stresses that thoroughness is critical given the rising level of threat. The agency also notes that ongoing improvements in staffing, legal powers, and funding are essential to maintain effective counterintelligence operations.

German army Leopard 2 main battle tanks at Rose Barracks, Vilseck, Germany, 29 January 2019.
Explore further

Germany has a 1,200-page plan if Russia attacks. Recent drills show it may not work.

MAD President Martina Rosenberg urged vigilance, stating that the best protection against espionage is to take the threat seriously, remain alert to signs of infiltration, and report them promptly to authorities.

Broader context and structural reforms

The report links the current surge in espionage to broader geopolitical changes since Russia’s February 2022 war of aggression against Ukraine. It underscores that hybrid warfare — combining digital manipulation, sabotage, and covert operations — has become a defining threat model.

MAD has launched an internal restructuring process aimed at adapting to this reality. The reforms are intended to enhance strategic flexibility and ensure the agency can fulfill its legal mandate both in peacetime and under crisis conditions, without needing continual structural overhauls.

  • ✇Coda Story
  • Comrades in arms: Putin and Modi meet in Delhi
    Indian prime minister Narendra Modi was at the airport on Thursday. In a move heavily trailed by the Indian media (thus defeating the purpose somewhat), Modi intended to surprise his good friend, the Russian president Vladimir Putin. Back in September, at a summit in China, Modi had been photographed with Putin as they rode chummily together towards the venue, where they would meet and share an equally chummy rapport with Chinese leader Xi Jinping. At the time, the overt friendliness was read as
     

Comrades in arms: Putin and Modi meet in Delhi

5 décembre 2025 à 08:51

Indian prime minister Narendra Modi was at the airport on Thursday. In a move heavily trailed by the Indian media (thus defeating the purpose somewhat), Modi intended to surprise his good friend, the Russian president Vladimir Putin. Back in September, at a summit in China, Modi had been photographed with Putin as they rode chummily together towards the venue, where they would meet and share an equally chummy rapport with Chinese leader Xi Jinping. At the time, the overt friendliness was read as a rebuke of U.S. president Donald Trump, who had announced a 25% penalty tariff on Indian exports as a punishment for India buying Russian oil in unprecedented quantities, thus helping to finance the continued war in Ukraine. 

Similarly, Putin’s two-day visit—his 10th trip to India but his first since the full-scale invasion of Ukraine—is less about a bilateral relationship than it is a message to the world. Russia retains support, Putin is saying, even as it is being accused of stalling and derailing any meaningful peace negotiations. Just before Putin arrived in Delhi, the Times of India published an op-ed by the ambassadors to India of France, Germany and the U.K. that accused Putin of having a “total disregard for human life.” It embarrassed India’s Ministry of External Affairs which said the article was “unacceptable and unusual” and accused the ambassadors of trying to interfere in India’s sovereign right to conduct foreign policy as it sees fit.

For Modi too, Putin’s visit is an opportunity to send a message to the U.S. that India will not be bullied by tariffs, even as the value of its trade with Washington dwarfs that of its trade with Moscow. Keeping Russia close is also vital to India to balance out Russia’s growing reliance on China. India shares a long, volatile border with China, and the growing power disparity between the two countries means Delhi needs all the support (from Moscow and Washington) that it can get.

Despite their need for mutual support, India and Russia’s relationship is not without its tensions. At a demonstration in Delhi, ahead of Putin’s visit, the families of Indians stranded in Russia held up placards that read "Our Sons Are Not Soldiers of Russia." At least 12 Indians have died while fighting in the war and 127 have joined the Russian army. And India remains, despite Modi’s authoritarian tendencies, a democracy, with an influential civil society and a public that believes in its right to change governments at the ballot box.

It might explain both why Modi increasingly borrows from Putin’s playbook as he seeks to build India into a surveillance state and why he remains vulnerable to being stymied by committed opposition. A recent controversy over a cybersecurity app that the Modi government tried to mandate be pre-installed on every new smartphone sold in India – a country with a billion smartphone users – exemplified this tension.

Modi and Putin’s parallel surveillance states

“Today, your phone is like your house in your pocket,” says Apar Gupta, a lawyer and founder of the Delhi-based advocacy group Internet Freedom Foundation. He was responding to news this week that the Indian government had directed companies such as Apple, Samsung and Xiaomi to pre-install Sanchar Saathi (literally, Communication Partner), a state-owned cybersecurity app on all new smartphones. Effectively, Gupta said, the “government is putting its own lock on your house.” And it gets to keep the key. The Indian government’s directive is very similar to one from the Kremlin in August to pre-install its Max messenger app on all smartphones. Max, the Kremlin said, was a necessary anti-fraud measure to protect vulnerable Russian citizens. On September 1, it became mandatory for the Kremlin's Max messenger app to be pre-installed on all smartphones. Now officials warn they might ban WhatsApp altogether for failing to prevent "crime and fraud." 

Just as Max gives Russia the tools to effectively spy on all of the people all of the time, opposition politician Priyanka Gandhi described the Modi government’s Sanchar Saathi as a “snooping” app. “It’s ridiculous,” she said. “Citizens have a right to privacy.” Criticism has focused on the mandatory nature of the app and a secretive process in which no prior public discussion was had before companies were ordered to install the app. The government has rejected the idea that Sanchar Saathi can be used for surveillance purposes. In 2024, it pointed out, Indians lost over $2.5 billion to cyber scams that take advantage of the widespread adoption of digital services in India and the abundance of data available online. Internet freedom advocate Nikhil Pahwa says that the Indian government has been notoriously lax about protecting citizens’ data and is responsible in large part for creating the problems it claims to be fixing with the mandatory state-owned cybersecurity app. 

Even as it gave itself carte blanche to access citizens’ data, the Indian authorities this month also implemented stricter rules governing data privacy. The rules demand more accountability from Big Tech, for companies to minimize the collection of personal data and to give users a clearly-marked option to not share data. Its language about consent and individual privacy borrows heavily from Europe’s General Data Protection Regulation. The GDPR is the basis for much of the regulation around the world, from Brazil to South Korea and Canada. Currently, some 144 countries have national data privacy and protection guidelines in place. 

Among the few holdouts is the U.S., where individual states have been setting up rules that sometimes clash with federal priorities. One of those priorities is to weaken GDPR. Last week, in Brussels, Howard Lutnick, the U.S. Secretary of Commerce, said that if the EU “take their foot off this regulatory framework” it might lead to increased investment. “Let’s settle the outstanding cases against Google, and against Microsoft, and against Amazon. Let’s put them behind us,” Lutnick said as he also dangled the carrot of reduced tariffs. The EU has already proposed a ‘Digital Omnibus’ package that waters down the GDPR’s rules on individual data privacy and freezes AI regulation. 

An argument the Indian government’s supporters, including many in the media, used to defend the mandatory pre-installation of a state cybersecurity app was Big Tech’s vast, revenue-generating data crawls. It is an argument that strikes at the heart of digital sovereignty, an increasingly popular phrase in the Global South, where countries are now insisting that tech giants store local data locally and share some of the profits. In May, Meta said it might have to cut Nigerian users off from their Facebook and Instagram accounts after the government fined parent company Meta nearly $300 million for violating data protection laws. It’s the kind of action that is now leading the U.S. government to negotiate trade deals with countries—most recently with Malaysia and Indonesia—that require them to refrain from taxing Silicon Valley profits or requiring them to invest in the local digital ecosystem. 

Defending the need for digital sovereignty, the Indian politician Shashi Tharoor wrote recently that “self-respecting and self-reliant” countries must insist on “unhindered rights to regulate the national digital space” or risk “cementing digital vassalage.” In October, the California governor Gavin Newsom signed a bill that requires companies to make it easy for Californians to opt out of data sharing, a right that Californians retain even when traveling thus forcing tech companies to consider making it a national option in order to comply with the law. But, as digital rights campaigner Nikhil Pahwa says, while India’s Data Protection Law “will make private companies more accountable, it makes the Indian government less accountable.” 

India is the first country to attempt to follow the Russian lead in having a state-run app pre-installed on all smartphones. The next steps, the Russian example suggests, are significantly more alarming. In Russia, schoolchildren will now have their faces scanned as they enter school buildings. Their data will be added to the national 'Unified Biometric System,' which already holds the details of over 50 million Russians. The project, which authorities have said is "voluntary," is expected to cost over $600 million. And by 2030, the Ministry of Digital Development estimates that there will be five million government-run surveillance cameras across the country, all hooked up to an AI system with facial recognition capabilities. By 2021, some reports already ranked Delhi as the most surveilled city in the world. And the Indian government has a history of using spyware to keep tabs on opposition politicians, civil society organizations and journalists.

So even as the Indian government backpedals on Sanchar Saathi, its very existence was a warning that digital privacy and sovereignty doesn’t necessarily mean more rights for people. It could just mean a power grab by a national government, particularly one that takes its cues from Putin’s Russia.

A version of this story was published in this week’s Coda Currents newsletter. Sign up here.

Related Articles

The post Comrades in arms: Putin and Modi meet in Delhi appeared first on Coda Story.

  • ✇Dans les algorithmes
  • Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
    Avec la vérification d’âge : la modération des plateformes au profit des géants Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de loi
     

Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers

4 décembre 2025 à 01:00

Avec la vérification d’âge : la modération des plateformes au profit des géants

Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de lois sur la vérification d’âge. Pour l’EFF, les difficultés de Bluesky montrent que ces lois vont écraser les petites plateformes qui ne peuvent pas absorber les coûts des mesures de vérification et renforcer le pouvoir des plus grandes plateformes. « Les obligations de vérification de l’âge concentrent et consolident le pouvoir entre les mains des plus grandes entreprises, seules entités disposant des ressources nécessaires pour mettre en place des systèmes de conformité coûteux et assumer des amendes potentiellement colossales ». C’est le même constat que fait l’EFF au Royaume-Uni : les plus grandes plateformes « ont mis en place des mesures de vérification de l’âge étendues (et extrêmement maladroites), tandis que des sites plus petits, notamment des forums sur la parentalité, l’écologie et les jeux vidéo sous Linux, ont été contraints de fermer ». L’EFF donne l’exemple du “Forum du Hamster”– un forum britannique pour discuter de tout ce qui touche au petit rongeur domestique, qui a fermé ses forums, pour renvoyer ses utilisateurs vers un simple compte Instagram, et donc vers les géants des réseaux sociaux ! Pour Molly Buckler, l’OSA (Online Safety Act) est en train de flécher le trafic vers les seuls géants du net, qui seront les mieux à même de censurer les utilisateurs. C’est une loi pour consolider le pouvoir des géants au plus grand cauchemar des utilisateurs dont les ressources communautaires vont s’atrophier.

Dans un autre article pour l’Electronic Frontier Foundation, Molly Buckley rappelle que la loi sur la vérification d’âge au Royaume-Uni ne concerne pas que les contenus à caractère sexuel, mais englobe une large catégorie de contenus « préjudiciables ». Préventivement, plusieurs forums sur la parentalité, les jeux vidéo ou l’écologie ont préféré fermer leurs portes pour éviter le risque d’amendes et les complexités de la conformité à la loi. La plateforme Reddit au Royaume-Uni a été contrainte de s’enfermer derrière des barrières de vérification d’âge. Et cela n’a pas concerné que les canaux dédiés aux contenus explicites, mais également à nombre de sous-groupes dédiés à l’identité, au soutien LGBTQ+, au journalisme, aux forums liés à la santé publique comme ceux dédiés au menstruations ou aux violences sexuelles. « L’OSA définit le terme « préjudiciable » de multiples façons, bien au-delà de la pornographie. Les obstacles rencontrés par les utilisateurs britanniques correspondent donc exactement à ce que la loi prévoyait. L’OSA entrave bien plus que l’accès des enfants à des sites clairement réservés aux adultes. En cas d’amendes, les plateformes auront toujours recours à la surcensure. »

L’EFF est surtout étonné que l’OSA ait contraint Reddit à la censure, notamment explique  Buckley parce que Reddit a été une plateforme qui a œuvré à la défense de la liberté d’expression. Même si on peut lui reprocher des excès en la matière, Reddit s’est attelé à résoudre ses problèmes. Elle a été la seule plateforme à obtenir la meilleure note de l’analyse de la modération des plateformes par l’EFF en 2019, notamment parce qu’elle a mis en place une modération souvent qualifiée de remarquable (mais pas parfaite). Pour l’EFF, les mesures de vérifications d’âge ne protégeront pas les adolescents, car ceux-ci trouveront toujours des moyens pour les contourner et se rendre sur des sites toujours plus douteux, où la modération est moindre, les risques plus importants

Pour l’EFF, l’exclusion des publics d’importantes communautés sociales, politiques et créatives est problématique. « Les mandats de vérification de l’âge sont des régimes de censure » et la régulation de la pornographie n’est bien souvent que la partie émergée d’une censure qui va bien au-delà et qui permet très rapidement de censurer des contenus parfaitement légaux, notamment ceux relatifs à l’éducation sexuelle ou à l’actualité. « Les questions de modérations ne sont pas simples : on glisse vite d’une condamnation morale à une condamnation politique », observait déjà le chercheur Tarleton Gillespie dans son livre sur la modération. Et l’EFF de prévenir les Américains du risque qu’ils courent à leur tour. 

Du flou des contenus à modérer… à la régulation individuelle

Dans un autre billet datant de janvier, Paige Collings and Rindala Alajaji de l’EFF rappelaient que le problème des lois pour la protection des jeunes exigeant la vérification de l’âge des internautes, c’est qu’elles ne concernent pas seulement a pornographie en ligne, comme elles aiment à se présenter. Derrière la lutte contre les contenus « dangereux », les gouvernements s’arrogent de plus en plus le pouvoir de décider des sujets jugés « sûrs ». Pas étonnant donc, que les contestations à l’encontre de ces lois se multiplient. En fait, la question du « contenu sexuel » par exemple est définie de manière vague et peut concerner des films et vidéos interdits aux moins de 18 ans, comme des contenus d’éducation sexuelle ou des contenus LGBTQ+. D’autres énumèrent des préjudices causés par les contenus, mais là encore, vaguement définis, comme les violences qui doivent être limitées, alors que les représentations de la violence servent aussi de moyens pour les dénoncer. Sans compter que les plateformes ont déjà des politiques de modération qui qualifient nombre de contenus qui ne tombent pas sous le coup de la loi comme préjudiciables, comme l’expliquait Tarleton Gillespie dans Custodians of the Internet (Yale University Press, 2018). Bref, bien souvent la censure de contenus non pornographiques n’apparaît aux gens qu’une fois que ces lois sont mises en œuvre. En Oklahoma, le projet de loi sur la vérification de l’âge entré en vigueur le 1er novembre 2024 défini comme contenu préjudiciable aux mineurs toute description ou exposition de nudité et de « conduite sexuelle », ce qui implique que des associations sur la sexualité et la santé comme Glaad ou Planet Parenthood doivent mettre en place des systèmes de vérification d’âge des visiteurs. Pour éviter d’éventuelles poursuites judiciaires, ces associations risquent de mettre en place une surcensure.

Toutes ces lois rendent les autorités administratives et les plateformes arbitres de ce que les jeunes peuvent voir en ligne, explique encore l’EFF. C’est le cas du Kids Online Safety Act (Kosa), américain, validé par le Sénat mais pas par la Chambre des représentants, défendue ardemment par la sénatrice américaine Marsha Blackburn qui l’a promue pour « protéger les mineurs des transgenres ». Si la censure des contenus LGBTQ+ par le biais des lois de vérification de l’âge peut être présentée comme une « conséquence involontaire » dans certains cas, interdire l’accès aux contenus LGBTQ+ fait partie intégrante de la conception des plateformes. L’un des exemples les plus répandus est la suppression par Meta de contenus LGBTQ+ sur ses plateformes sous prétexte de protéger les jeunes utilisateurs des « contenus à connotation sexuelle ». Selon un rapport récent, Meta a caché des publications faisant référence au hashtag LGBTQ+, le filtre contenu sensible étant appliqué par défaut aux mineurs, faisant disparaître les hastags #lesbienne, #bisexuel, #gay, #trans et #queer. Si Meta a visiblement fait machine arrière depuis, on constate qu’une forme de censure automatisée vague et subjective s’étend sur nombre de contenus et notamment sur l’information sur la santé sexuelle. Pour les jeunes, notamment LGBTQ+, plus exposés au harcèlement et au rejet, l’accès aux communautés et aux ressources numériques est essentiel pour eux, et en restreindre l’accès présente des dangers particuliers, rappelle un rapport du Gay, Lesbian & Straight Education Network (Glsen). Mais il n’y a pas que ces publics que la censure des contenus d’information sexuel met en danger… A terme, ce sont tous les adolescents qui se voient refuser une information claire sur les risques et la santé sexuelle. Or rappellent des chercheurs espagnols pour The Conversation, l’exposition à la pornographie façonne les expériences affectives et normalisent l’idée que le pouvoir, la soumission et la violence font partie du désir. Mais, rappellent-ils, c’est bien « l’absence d’une éducation sexuelle adéquate qui est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie ».

Pour l’EFF enfin, il est crucial de reconnaître les implications plus larges des lois de vérification d’âge sur la vie privée, la liberté d’expression et l’accès à l’information. Notamment pour ceux qui tentent de préserver leur anonymat. « Ces politiques menacent les libertés mêmes qu’elles prétendent protéger, étouffant les discussions sur l’identité, la santé et la justice sociale, et créent un climat de peur et de répression »

« La lutte contre ces lois ne se limite pas à défendre les espaces en ligne ; il s’agit de protéger les droits fondamentaux de chacun à s’exprimer et à accéder à des informations vitales.» Dans un autre article encore, Paige Collings, rappelle que « les jeunes devraient pouvoir accéder à l’information, communiquer entre eux et avec le monde, jouer et s’exprimer en ligne sans que les gouvernements ne décident des propos qu’ils sont autorisés à tenir ». 

En fait, la proposition d’interdire les contenus aux plus jeunes permet assurément de simplifier la modération : aux plus jeunes, tout est interdit… Mais pour le public majeur, conscient des risques, tout est autorisé. C’est à chacun de réguler ses usages, pas à la société. 

La même injonction à une régulation qui ne serait plus qu’individuelle traverse la société. C’est à chacun de trier ses poubelles et ceux qui ne le font pas seront condamnés pour ne pas l’avoir fait, comme c’est à chacun d’être conscient des risques de ses usages numériques, et d’en subir sinon les conséquences.

Vers la criminalisation des comportements des mineurs

En France, la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs a rendu son rapport. Ses conclusions sont « accablantes », comme le dit le Monde. Mais l’épais rapport (plus de 1000 pages) est tout de même bien problématique, comme l’analyse très pertinemment le journaliste Nicolas Kayser-Bril dans l’édition du 2 octobre de la newsletter d’Algorithm Watch. Alors que nombre d’universitaires interrogés soulignent que l’utilisation élevée de TikTok est corrélée à l’anxiété et la dépression, le rapport glisse souvent à la simple accusation. Comme si TikTok était seul porteur des maux de la jeunesse. « Les députés ont-ils succombé à la faible capacité d’attention et à l’émotionnalisation qu’ils dénoncent ? Nous ne le saurons jamais, car le Parlement français n’a pas commandé, et ne commandera probablement pas, de rapport sur les effets de Facebook sur les baby-boomers, ni sur l’algorithme de X sur les responsables politiques ». Si le rapport est accablant, il l’est surtout parce qu’il montre le déficit de mise en œuvre du DSA, malgré les obligations, comme l’expliquent Garance Denner et Suzanne Vergnolle de la Chaire de modération des contenus du Cnam

Face à ce déluge d’accusations à l’encontre de TikTok, les 53 recommandations du rapport deviennent rapidement plus surprenantes, puisqu’on n’y trouve pas de proposition d’interdiction de TikTok. On ne trouve pas non plus beaucoup de mesures qui imposent quelque chose à la plateforme, hormis celles qui renforcent ou précisent le cadre du RGPD et du DSA européen (recommandation 8 à destination du suivi des modérateurs de la plateforme), celle invitant à étudier la modification du statut des fournisseurs de réseaux sociaux comme éditeur, les rendant responsables des contenus accessibles (recommandation 10), celle réclamant davantage de ressources pour les signaleurs de confiance (c’est-à-dire les organismes en contact direct avec les plateformes pour signaler les contenus inappropriés), ainsi que celles obligeant les plateformes à fournir des paramètres de personnalisation et de diversification ou pluralisme algorithmique (recommandations 11 et 12, qui consisterait à produire « une norme ouverte pour les algorithmes de recommandation afin que des tiers puissent concevoir des flux “Pour vous” spécifiques. Les utilisateurs pourraient ensuite parcourir “TikTok, sélectionné par ARTE”, par exemple », explique Nicolas Kayser-Bril… Ce qui ne semble pas l’objectif d’un pluralisme algorithmique permettant à chacun de produire des règles de recommandation selon ses choix). En fait, presque toutes les recommandations proposées dans ce rapport sont à l’égard d’autres acteurs. Des plus jeunes d’abord : en imposant la fermeture d’accès à TikTok au moins de 15 ans, en proposant un couvre-feu pour les 15-18 ans et en envisageant d’étendre l’interdiction dès 2028 aux moins de 18 ans

Mais l’essentiel des recommandations portent sur le développement de messages de prévention à l’école et dans les services de prévention comme auprès des parents et des services de l’enfance. Des services déjà bien souvent surchargés par les injonctions. Aucune recommandation n’exige de TikTok de renforcer l’accès à des données pour la recherche ou de corriger ses algorithmes pour moins prendre en compte le temps passé par exemple ! 

Si le rapport ne fait pas (encore) de propositions pour condamner les jeunes qui accéderaient aux réseaux sociaux malgré l’interdiction, elle propose de créer dès 2028 un nouveau délit de « négligence numérique » (recommandation 43) à l’égard des parents qui laisseraient leurs enfants accéder aux réseaux sociaux. Un peu comme si dans les années 50 on avait supprimé les aides sociales aux parents qui laissaient écouter du rock à leurs enfants sous prétexte de « négligence musicale ». Ce que suggère cette recommandation qui doit être étudiée par des experts d’ici l’échéance, c’est que la vérification de l’âge va conduire à la criminalisation des comportements des plus jeunes

Pour l’instant, on n’en entend parler nulle part. Toutes les déclarations sur le développement de la vérification d’âge et du contrôle parental, n’évoquent que la protection des plus jeunes, jamais les peines qui pourraient advenir… plus tard. Mais du moment où elles seront en place, on voit déjà s’esquisser la perspective de criminaliser les adolescents et leurs parents qui ne respecteraient pas ces règles. L’implicite ici, consiste d’abord à interdire, puis demain, à condamner. Après la mise en place de la barrière d’accès, viendra la condamnation de ceux qui chercheront à la contourner. Va-t-on vers une société qui s’apprête à condamner des gamins de 14 ans pour être allé chercher des contenus pornos en ligne ? Vers des médias qui seront condamnés pour avoir laissé des enfants accéder à des images de répression violentes de manifestations ? Vers des parents qui seront condamnés pour avoir laissé leurs enfants accéder à internet ? Les 16-18 ans seront-ils condamnés pour être allé cherché de l’information sur la prévention sexuelle ou parce qu’ils se sont connectés sur TikTok au-delà de 23 heures ? Où parce qu’ils auront échangé une vidéo de Squeezie ?

La vérification d’âge nous conduit tout droit à une « nouvelle pudibonderie », disait pertinemment le journaliste David-Julien Rahmil pour l’ADN. Renforçant celle déjà l’œuvre sur les grandes plateformes sociales qu’observait en 2012 Evgeny Morozov ou le chercheur Tarleton Gillespie dans son livre, dont les systèmes automatisés surcontrôlent déjà la nudité plutôt que la pornographie. 

L’autre risque, à terme, c’est l’élargissement sans fin de la vérification d’âge à tous types de contenus, notamment au secteur marchand comme l’a montré la polémique des contenus explicites découverts sur des sites de commerces en ligne. Pour la haut-commissaire à l’enfance, Sarah El Haïry, « la protection des enfants en ligne ne peut souffrir d’aucune faille », soulignant par là le risque maximaliste des règles à venir (et ce alors que la protection sociale à l’enfance par exemple n’est que failles). Au risque que ces règles deviennent des couteaux suisses, faisant glisser la surveillance des contenus pornographiques à la surveillance de l’internet, comme le disait avec pertinence le journaliste Damien Leloup dans une analyse pourLe Monde, au prétexte que le « risque » pornographique est partout. 

Qu’on s’entende bien. Loin de moi de défendre TikTok (pas plus que Meta ou X). Mais la criminalisation des comportements des enfants et des parents sans imposer de mesures de régulation claires aux entreprises et d’abord à elles, me semble une voie sans issue. La vérification d’âge accuse la société des dégâts sociaux provoqués par les décisions des plateformes sans leur demander ni de données, ni de correctifs. En criminalisant les mineurs, elle ne propose qu’une nouvelle ère de contrôle moral, sans nuance, comme s’en émouvait pour The Conversation, le spécialiste en gestion de l’information, Alex Beattie.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
    Avec la vérification d’âge : la modération des plateformes au profit des géants Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de loi
     

Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers

4 décembre 2025 à 01:00

Avec la vérification d’âge : la modération des plateformes au profit des géants

Pour Molly Buckley de l’Electronic Frontier Foundation (EFF), principale organisation non gouvernementale américaine de défense des libertés numériques, la vérification d’âge est une aubaine pour les géants du numérique. Aux Etats-Unis, bluesky a mis en place des mesures de vérifications d’âge dans le Wyoming, dans le Dakota du Sud et a fermé ses accès dans le Mississippi suite à la promulgation, là encore, de lois sur la vérification d’âge. Pour l’EFF, les difficultés de Bluesky montrent que ces lois vont écraser les petites plateformes qui ne peuvent pas absorber les coûts des mesures de vérification et renforcer le pouvoir des plus grandes plateformes. « Les obligations de vérification de l’âge concentrent et consolident le pouvoir entre les mains des plus grandes entreprises, seules entités disposant des ressources nécessaires pour mettre en place des systèmes de conformité coûteux et assumer des amendes potentiellement colossales ». C’est le même constat que fait l’EFF au Royaume-Uni : les plus grandes plateformes « ont mis en place des mesures de vérification de l’âge étendues (et extrêmement maladroites), tandis que des sites plus petits, notamment des forums sur la parentalité, l’écologie et les jeux vidéo sous Linux, ont été contraints de fermer ». L’EFF donne l’exemple du “Forum du Hamster”– un forum britannique pour discuter de tout ce qui touche au petit rongeur domestique, qui a fermé ses forums, pour renvoyer ses utilisateurs vers un simple compte Instagram, et donc vers les géants des réseaux sociaux ! Pour Molly Buckler, l’OSA (Online Safety Act) est en train de flécher le trafic vers les seuls géants du net, qui seront les mieux à même de censurer les utilisateurs. C’est une loi pour consolider le pouvoir des géants au plus grand cauchemar des utilisateurs dont les ressources communautaires vont s’atrophier.

Dans un autre article pour l’Electronic Frontier Foundation, Molly Buckley rappelle que la loi sur la vérification d’âge au Royaume-Uni ne concerne pas que les contenus à caractère sexuel, mais englobe une large catégorie de contenus « préjudiciables ». Préventivement, plusieurs forums sur la parentalité, les jeux vidéo ou l’écologie ont préféré fermer leurs portes pour éviter le risque d’amendes et les complexités de la conformité à la loi. La plateforme Reddit au Royaume-Uni a été contrainte de s’enfermer derrière des barrières de vérification d’âge. Et cela n’a pas concerné que les canaux dédiés aux contenus explicites, mais également à nombre de sous-groupes dédiés à l’identité, au soutien LGBTQ+, au journalisme, aux forums liés à la santé publique comme ceux dédiés au menstruations ou aux violences sexuelles. « L’OSA définit le terme « préjudiciable » de multiples façons, bien au-delà de la pornographie. Les obstacles rencontrés par les utilisateurs britanniques correspondent donc exactement à ce que la loi prévoyait. L’OSA entrave bien plus que l’accès des enfants à des sites clairement réservés aux adultes. En cas d’amendes, les plateformes auront toujours recours à la surcensure. »

L’EFF est surtout étonné que l’OSA ait contraint Reddit à la censure, notamment explique  Buckley parce que Reddit a été une plateforme qui a œuvré à la défense de la liberté d’expression. Même si on peut lui reprocher des excès en la matière, Reddit s’est attelé à résoudre ses problèmes. Elle a été la seule plateforme à obtenir la meilleure note de l’analyse de la modération des plateformes par l’EFF en 2019, notamment parce qu’elle a mis en place une modération souvent qualifiée de remarquable (mais pas parfaite). Pour l’EFF, les mesures de vérifications d’âge ne protégeront pas les adolescents, car ceux-ci trouveront toujours des moyens pour les contourner et se rendre sur des sites toujours plus douteux, où la modération est moindre, les risques plus importants

Pour l’EFF, l’exclusion des publics d’importantes communautés sociales, politiques et créatives est problématique. « Les mandats de vérification de l’âge sont des régimes de censure » et la régulation de la pornographie n’est bien souvent que la partie émergée d’une censure qui va bien au-delà et qui permet très rapidement de censurer des contenus parfaitement légaux, notamment ceux relatifs à l’éducation sexuelle ou à l’actualité. « Les questions de modérations ne sont pas simples : on glisse vite d’une condamnation morale à une condamnation politique », observait déjà le chercheur Tarleton Gillespie dans son livre sur la modération. Et l’EFF de prévenir les Américains du risque qu’ils courent à leur tour. 

Du flou des contenus à modérer… à la régulation individuelle

Dans un autre billet datant de janvier, Paige Collings and Rindala Alajaji de l’EFF rappelaient que le problème des lois pour la protection des jeunes exigeant la vérification de l’âge des internautes, c’est qu’elles ne concernent pas seulement a pornographie en ligne, comme elles aiment à se présenter. Derrière la lutte contre les contenus « dangereux », les gouvernements s’arrogent de plus en plus le pouvoir de décider des sujets jugés « sûrs ». Pas étonnant donc, que les contestations à l’encontre de ces lois se multiplient. En fait, la question du « contenu sexuel » par exemple est définie de manière vague et peut concerner des films et vidéos interdits aux moins de 18 ans, comme des contenus d’éducation sexuelle ou des contenus LGBTQ+. D’autres énumèrent des préjudices causés par les contenus, mais là encore, vaguement définis, comme les violences qui doivent être limitées, alors que les représentations de la violence servent aussi de moyens pour les dénoncer. Sans compter que les plateformes ont déjà des politiques de modération qui qualifient nombre de contenus qui ne tombent pas sous le coup de la loi comme préjudiciables, comme l’expliquait Tarleton Gillespie dans Custodians of the Internet (Yale University Press, 2018). Bref, bien souvent la censure de contenus non pornographiques n’apparaît aux gens qu’une fois que ces lois sont mises en œuvre. En Oklahoma, le projet de loi sur la vérification de l’âge entré en vigueur le 1er novembre 2024 défini comme contenu préjudiciable aux mineurs toute description ou exposition de nudité et de « conduite sexuelle », ce qui implique que des associations sur la sexualité et la santé comme Glaad ou Planet Parenthood doivent mettre en place des systèmes de vérification d’âge des visiteurs. Pour éviter d’éventuelles poursuites judiciaires, ces associations risquent de mettre en place une surcensure.

Toutes ces lois rendent les autorités administratives et les plateformes arbitres de ce que les jeunes peuvent voir en ligne, explique encore l’EFF. C’est le cas du Kids Online Safety Act (Kosa), américain, validé par le Sénat mais pas par la Chambre des représentants, défendue ardemment par la sénatrice américaine Marsha Blackburn qui l’a promue pour « protéger les mineurs des transgenres ». Si la censure des contenus LGBTQ+ par le biais des lois de vérification de l’âge peut être présentée comme une « conséquence involontaire » dans certains cas, interdire l’accès aux contenus LGBTQ+ fait partie intégrante de la conception des plateformes. L’un des exemples les plus répandus est la suppression par Meta de contenus LGBTQ+ sur ses plateformes sous prétexte de protéger les jeunes utilisateurs des « contenus à connotation sexuelle ». Selon un rapport récent, Meta a caché des publications faisant référence au hashtag LGBTQ+, le filtre contenu sensible étant appliqué par défaut aux mineurs, faisant disparaître les hastags #lesbienne, #bisexuel, #gay, #trans et #queer. Si Meta a visiblement fait machine arrière depuis, on constate qu’une forme de censure automatisée vague et subjective s’étend sur nombre de contenus et notamment sur l’information sur la santé sexuelle. Pour les jeunes, notamment LGBTQ+, plus exposés au harcèlement et au rejet, l’accès aux communautés et aux ressources numériques est essentiel pour eux, et en restreindre l’accès présente des dangers particuliers, rappelle un rapport du Gay, Lesbian & Straight Education Network (Glsen). Mais il n’y a pas que ces publics que la censure des contenus d’information sexuel met en danger… A terme, ce sont tous les adolescents qui se voient refuser une information claire sur les risques et la santé sexuelle. Or rappellent des chercheurs espagnols pour The Conversation, l’exposition à la pornographie façonne les expériences affectives et normalisent l’idée que le pouvoir, la soumission et la violence font partie du désir. Mais, rappellent-ils, c’est bien « l’absence d’une éducation sexuelle adéquate qui est l’un des facteurs qui contribuent le plus à la consommation précoce de pornographie ».

Pour l’EFF enfin, il est crucial de reconnaître les implications plus larges des lois de vérification d’âge sur la vie privée, la liberté d’expression et l’accès à l’information. Notamment pour ceux qui tentent de préserver leur anonymat. « Ces politiques menacent les libertés mêmes qu’elles prétendent protéger, étouffant les discussions sur l’identité, la santé et la justice sociale, et créent un climat de peur et de répression »

« La lutte contre ces lois ne se limite pas à défendre les espaces en ligne ; il s’agit de protéger les droits fondamentaux de chacun à s’exprimer et à accéder à des informations vitales.» Dans un autre article encore, Paige Collings, rappelle que « les jeunes devraient pouvoir accéder à l’information, communiquer entre eux et avec le monde, jouer et s’exprimer en ligne sans que les gouvernements ne décident des propos qu’ils sont autorisés à tenir ». 

En fait, la proposition d’interdire les contenus aux plus jeunes permet assurément de simplifier la modération : aux plus jeunes, tout est interdit… Mais pour le public majeur, conscient des risques, tout est autorisé. C’est à chacun de réguler ses usages, pas à la société. 

La même injonction à une régulation qui ne serait plus qu’individuelle traverse la société. C’est à chacun de trier ses poubelles et ceux qui ne le font pas seront condamnés pour ne pas l’avoir fait, comme c’est à chacun d’être conscient des risques de ses usages numériques, et d’en subir sinon les conséquences.

Vers la criminalisation des comportements des mineurs

En France, la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs a rendu son rapport. Ses conclusions sont « accablantes », comme le dit le Monde. Mais l’épais rapport (plus de 1000 pages) est tout de même bien problématique, comme l’analyse très pertinemment le journaliste Nicolas Kayser-Bril dans l’édition du 2 octobre de la newsletter d’Algorithm Watch. Alors que nombre d’universitaires interrogés soulignent que l’utilisation élevée de TikTok est corrélée à l’anxiété et la dépression, le rapport glisse souvent à la simple accusation. Comme si TikTok était seul porteur des maux de la jeunesse. « Les députés ont-ils succombé à la faible capacité d’attention et à l’émotionnalisation qu’ils dénoncent ? Nous ne le saurons jamais, car le Parlement français n’a pas commandé, et ne commandera probablement pas, de rapport sur les effets de Facebook sur les baby-boomers, ni sur l’algorithme de X sur les responsables politiques ». Si le rapport est accablant, il l’est surtout parce qu’il montre le déficit de mise en œuvre du DSA, malgré les obligations, comme l’expliquent Garance Denner et Suzanne Vergnolle de la Chaire de modération des contenus du Cnam

Face à ce déluge d’accusations à l’encontre de TikTok, les 53 recommandations du rapport deviennent rapidement plus surprenantes, puisqu’on n’y trouve pas de proposition d’interdiction de TikTok. On ne trouve pas non plus beaucoup de mesures qui imposent quelque chose à la plateforme, hormis celles qui renforcent ou précisent le cadre du RGPD et du DSA européen (recommandation 8 à destination du suivi des modérateurs de la plateforme), celle invitant à étudier la modification du statut des fournisseurs de réseaux sociaux comme éditeur, les rendant responsables des contenus accessibles (recommandation 10), celle réclamant davantage de ressources pour les signaleurs de confiance (c’est-à-dire les organismes en contact direct avec les plateformes pour signaler les contenus inappropriés), ainsi que celles obligeant les plateformes à fournir des paramètres de personnalisation et de diversification ou pluralisme algorithmique (recommandations 11 et 12, qui consisterait à produire « une norme ouverte pour les algorithmes de recommandation afin que des tiers puissent concevoir des flux “Pour vous” spécifiques. Les utilisateurs pourraient ensuite parcourir “TikTok, sélectionné par ARTE”, par exemple », explique Nicolas Kayser-Bril… Ce qui ne semble pas l’objectif d’un pluralisme algorithmique permettant à chacun de produire des règles de recommandation selon ses choix). En fait, presque toutes les recommandations proposées dans ce rapport sont à l’égard d’autres acteurs. Des plus jeunes d’abord : en imposant la fermeture d’accès à TikTok au moins de 15 ans, en proposant un couvre-feu pour les 15-18 ans et en envisageant d’étendre l’interdiction dès 2028 aux moins de 18 ans

Mais l’essentiel des recommandations portent sur le développement de messages de prévention à l’école et dans les services de prévention comme auprès des parents et des services de l’enfance. Des services déjà bien souvent surchargés par les injonctions. Aucune recommandation n’exige de TikTok de renforcer l’accès à des données pour la recherche ou de corriger ses algorithmes pour moins prendre en compte le temps passé par exemple ! 

Si le rapport ne fait pas (encore) de propositions pour condamner les jeunes qui accéderaient aux réseaux sociaux malgré l’interdiction, elle propose de créer dès 2028 un nouveau délit de « négligence numérique » (recommandation 43) à l’égard des parents qui laisseraient leurs enfants accéder aux réseaux sociaux. Un peu comme si dans les années 50 on avait supprimé les aides sociales aux parents qui laissaient écouter du rock à leurs enfants sous prétexte de « négligence musicale ». Ce que suggère cette recommandation qui doit être étudiée par des experts d’ici l’échéance, c’est que la vérification de l’âge va conduire à la criminalisation des comportements des plus jeunes

Pour l’instant, on n’en entend parler nulle part. Toutes les déclarations sur le développement de la vérification d’âge et du contrôle parental, n’évoquent que la protection des plus jeunes, jamais les peines qui pourraient advenir… plus tard. Mais du moment où elles seront en place, on voit déjà s’esquisser la perspective de criminaliser les adolescents et leurs parents qui ne respecteraient pas ces règles. L’implicite ici, consiste d’abord à interdire, puis demain, à condamner. Après la mise en place de la barrière d’accès, viendra la condamnation de ceux qui chercheront à la contourner. Va-t-on vers une société qui s’apprête à condamner des gamins de 14 ans pour être allé chercher des contenus pornos en ligne ? Vers des médias qui seront condamnés pour avoir laissé des enfants accéder à des images de répression violentes de manifestations ? Vers des parents qui seront condamnés pour avoir laissé leurs enfants accéder à internet ? Les 16-18 ans seront-ils condamnés pour être allé cherché de l’information sur la prévention sexuelle ou parce qu’ils se sont connectés sur TikTok au-delà de 23 heures ? Où parce qu’ils auront échangé une vidéo de Squeezie ?

La vérification d’âge nous conduit tout droit à une « nouvelle pudibonderie », disait pertinemment le journaliste David-Julien Rahmil pour l’ADN. Renforçant celle déjà l’œuvre sur les grandes plateformes sociales qu’observait en 2012 Evgeny Morozov ou le chercheur Tarleton Gillespie dans son livre, dont les systèmes automatisés surcontrôlent déjà la nudité plutôt que la pornographie. 

L’autre risque, à terme, c’est l’élargissement sans fin de la vérification d’âge à tous types de contenus, notamment au secteur marchand comme l’a montré la polémique des contenus explicites découverts sur des sites de commerces en ligne. Pour la haut-commissaire à l’enfance, Sarah El Haïry, « la protection des enfants en ligne ne peut souffrir d’aucune faille », soulignant par là le risque maximaliste des règles à venir (et ce alors que la protection sociale à l’enfance par exemple n’est que failles). Au risque que ces règles deviennent des couteaux suisses, faisant glisser la surveillance des contenus pornographiques à la surveillance de l’internet, comme le disait avec pertinence le journaliste Damien Leloup dans une analyse pourLe Monde, au prétexte que le « risque » pornographique est partout. 

Qu’on s’entende bien. Loin de moi de défendre TikTok (pas plus que Meta ou X). Mais la criminalisation des comportements des enfants et des parents sans imposer de mesures de régulation claires aux entreprises et d’abord à elles, me semble une voie sans issue. La vérification d’âge accuse la société des dégâts sociaux provoqués par les décisions des plateformes sans leur demander ni de données, ni de correctifs. En criminalisant les mineurs, elle ne propose qu’une nouvelle ère de contrôle moral, sans nuance, comme s’en émouvait pour The Conversation, le spécialiste en gestion de l’information, Alex Beattie.

Hubert Guillaud

  • ✇Dans les algorithmes
  • Vérification d’âge (1/4) : vers un internet de moins en moins sûr
    Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard,
     

Vérification d’âge (1/4) : vers un internet de moins en moins sûr

2 décembre 2025 à 01:00

Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard, sont définies différentes catégories de contenus, allant de contenus dits illégaux à des contenus dits nuisibles aux enfants. La loi ne se contente pas de faire la chasse à la pornographie en ligne, c’est-à-dire à des contenus à caractères sexuels explicites, mais déborde très largement de ce seul cadre qui ouvre, en regard des sanctions lourdes, et impose une modération des contenus qui peut aller jusqu’aux images violentes de l’actualité (et pas seulement sanglantes) voire à tous propos sur la sexualité, comme ceux abordant les questions de santé.  

Un renforcement sans précédent de la surveillance et de la censure préventive : la conformité n’est pas contournable

Comme le pointe l’une des plus synthétiques et lumineuses analyses en français sur le loi que j’ai pu lire, celle de Nicolas Morin sur son blog, la loi demande aux plateformes un « devoir de diligence » proactif et fondé sur les risques, mais également impose un comportement « préventif », rendant les plateformes, sites et services en ligne, directement responsables de la sécurité de leurs utilisateurs et du contenu qu’ils rencontrent. « Enfin ! », pourrait-on s’enthousiasmer en pensant qu’on exige un peu plus de contrôle de la part des Gafams. Sauf que le champ d’application de la loi est très large et dépasse les seules plateformes de médias sociaux et les plus grands services en ligne. Elle s’applique jusqu’aux forums, commentaires de blogs et sites de partage de fichiers, même si les obligations les plus strictes s’appliquent aux plateformes les plus importantes. 

Les services en ligne doivent garantir que les enfants aient un « accès adapté à leur âge », ce qui implique une approche faisant appel à des systèmes de filtrage et de modération de contenu adaptés aux différents groupes d’âge qui s’imposent partout. « Les sanctions prévues sont sévères, potentiellement existentielles, en cas de manquement. Les amendes peuvent atteindre 18 millions de livres sterling ou 10 % du chiffre d’affaires annuel mondial d’une entreprise, et les cadres supérieurs peuvent être tenus personnellement responsables pénalement en cas de non-coopération avec le régulateur. » Du fait de la lourdeur des sanctions, avec l’OSA, la conformité réglementaire n’est pas contournable.

Mais surtout, explique Morin, « à un niveau fondamental, l’OSA illustre la bascule d’une logique procédurale à une logique de valeurs ». Jusqu’à présent, la modération de contenu suivait une approche procédurale, se concentrant sur le « comment » plutôt que sur le « quoi ». Cette logique ne disait pas aux plateformes quel contenu spécifique (en dehors de ce qui est déjà manifestement illégal) était bon ou mauvais. Elle imposait plutôt des obligations de moyens et de transparence (souvent très légères, comme des conditions de modération claires, des mécanismes de signalement simples, des processus d’appels, des rapports sur les contenus modérés…). Avec l’OSA et son approche sur les valeurs, les plateformes doivent porter un jugement même sur les contenus et leur impose une obligation de résultat. « Ce faisant, la loi délègue aux entreprises privées et à l’organe de régulation britannique (l’Ofcom) le soin de définir ce qui constitue un discours acceptable dans la société, une mission qui relève normalement du débat démocratique et de la loi pénale ». Le problème est que les contenus qui peuvent être qualifiés de préjudiciables est large et introduit un flou juridique supplémentaire, qui, à l’aune de la sévérité des sanctions, conduit déjà chacun à une sur-modération. « Pour les utilisateurs, l’application des règles devient arbitraire. Un même contenu pourra être supprimé un jour et toléré le lendemain, en fonction du modérateur ou de l’algorithme qui l’examine. Il n’y a plus de prévisibilité, un principe fondamental de l’État de droit »

« En utilisant des termes vagues, le Parlement britannique a, de fait, délégué son pouvoir normatif. Ce ne sont plus les législateurs élus qui définissent précisément les limites de la liberté d’expression, mais l’Ofcom, un régulateur non élu, qui publiera des codes de pratique pour “interpréter” ce que la loi entend par “préjudiciable”, et les plateformes elles-mêmes, qui créeront leurs propres règles internes pour se conformer aux interprétations de l’Ofcom.

Le débat sur ce que notre société tolère comme discours est ainsi retiré de la sphère publique et démocratique pour être confié à des comités de conformité et des régulateurs techniques.

En passant d’une logique procédurale à une logique de valeurs incarnée par des termes vagues, l’Online Safety Act crée un système où la censure devient préventive, privatisée et arbitraire. La quête légitime de sécurité en ligne, sous l’étendard ici de la sécurité des enfants et de la lutte contre le terrorisme, se fait au détriment de la liberté d’expression, de la sécurité juridique et des principes démocratiques fondamentaux. »

« L’obligation pour les plateformes de gérer le contenu « préjudiciable » mais légal les amène, par prudence, à classifier et restreindre l’accès à un large éventail de contenus, y compris les reportages d’actualité, la couverture de la guerre et des conflits, le journalisme d’investigation et les images de manifestations politiques, qui pourraient tous être considérés comme « préjudiciables » ou « dépeignant une violence grave » selon les définitions larges de la loi. Ce système délègue de fait aux entreprises technologiques privées le rôle d’arbitres de l’État en matière de discours acceptable. Alors que les partisans pourraient y voir une application de la responsabilité, les critiques y voient un « cadeau massif à la grande technologie ». Cela renforce leur pouvoir en leur donnant une autorité mandatée par l’État pour décider de ce que les utilisateurs peuvent et ne peuvent pas voir, une fonction quasi-judiciaire pour laquelle les entreprises privées sont institutionnellement mal adaptées et démocratiquement irresponsables. »

Le premier problème de l’OSA est bien le large spectre de ce que son champ réglementaire couvre. Ce n’est pas une loi qui cherche à réguler uniquement les vidéos et les images pornographiques. 

Vers une modération fonctionnelle

La loi s’applique aux sites web, aux services de réseaux sociaux, aux sites de stockage et de partage de fichiers, aux forums en ligne, aux applications de rencontre et aux services de messagerie instantanée. Tous sont désormais tenus de vérifier l’âge des visiteurs si leurs plateformes contiennent du contenu préjudiciable ou inapproprié, rappelle le New York Times. Au-delà des sites pornographiques, les applications qui ont introduit la vérification de l’âge incluent Grindr, le service de rencontres gay ; Discord, l’application de chat social ; et Reddit… Même l’encyclopédie Wikipédia reste menacée de devoir intégrer une vérification d’âge (notamment parce qu’elle entre dans la catégorie des grands services en ligne).  

La majorité des Britanniques – près de 80 % – se sont déclarés favorables aux nouvelles règles, selon un sondage YouGov auprès d’environ 4 400 adultes, peut-être sans toujours comprendre que ces règles ne concernaient pas que les contenus sexuellement explicites, puisqu’après la mise en place des premières mesures effectives, ils n’étaient plus que 69% à soutenir les règles. Mais, selon l’enquête, seule une personne sur quatre environ estime que ces restrictions empêcheront réellement les enfants d’accéder à la pornographie en ligne. Au Royaume-Uni, une vague de résistance s’est également manifestée. Plus de 500 000 personnes ont signé une pétition demandant l’abrogation de la loi sur la sécurité en ligne, critiquée par les défenseurs du droit à la vie privée et de la liberté d’expression. Ces derniers affirment que ces règles constituent un exemple d’abus de pouvoir du gouvernement et les jugent dangereuses pour les personnes souhaitant préserver leur anonymat en ligne. 

Les critiques affirment également que la portée des règles va trop loin, en incluant les forums de loisirs en ligne et divers autres sites. Ils affirment que les petits sites qui ne disposent pas des ressources nécessaires pour se conformer à la loi devront fermer, notamment parce qu’ils s’exposent à des poursuites juridiques inédites. 

Les contenus sont définis en trois catégories : des contenus primaires prioritaires préjudiciable aux enfants (les contenus pornographiques et de promotion du suicide notamment), les contenus prioritaires préjudiciables aux enfants (contenus incitant à la haine, à l’intimidation ou à la violence notamment) et des contenus non désigné comme dangereux pour les enfants mais qui peuvent leur porter préjudice, c’est-à-dire les perturber, comme des images de violences ou de manifestation. Le problème consiste bien sûr dans les flous de ces définitions : un article qui parle d’un suicide en fait-il la promotion ? Parler des violences d’une guerre ou de manifestations est-il préjudiciable ? Même la définition de la pornographie peut-être plus ou moins lâche : un texte érotique est-il de même nature qu’une vidéo explicite ?  

Face à ces risques, les sites accessibles doivent mettre en œuvre un certain nombre de mesures et notamment la « vérification vigoureuse de l’âge », en développant des algorithmes plus sûrs pour les jeunes publics et en renforçant la modération des contenus. 

Depuis l’entrée en vigueur de ces mesures fin juillet, les plateformes de réseaux sociaux Reddit, Bluesky, Discord et X ont toutes mis en place des contrôles d’âge pour empêcher les enfants de consulter des contenus préjudiciables sur leurs sites. Des sites pornographiques comme Pornhub et YouPorn ont mis en place des contrôles d’âge, demandant désormais aux utilisateurs de fournir une pièce d’identité officielle, une adresse e-mail pour que la technologie analyse les autres services en ligne où elle a été utilisée, ou de soumettre leurs informations à un fournisseur tiers pour vérification de l’âge. Des sites comme Spotify exigent également que les utilisateurs soumettent un scan facial à Yoti, une société tierce de gestion d’identité numérique, pour accéder aux contenus étiquetés 18+. L’Ofcom, qui supervise la mise en œuvre de l’OSA, est allé plus loin en envoyant des lettres pour tenter de faire appliquer la législation britannique aux entreprises basées aux États-Unis. 

La généralisation de la vérification d’âge et du contrôle parental

La contrainte de la vérification d’âge n’est pas que britannique. Elle concerne également  l’Union européenne, les Etats-Unis (une vingtaine d’Etats ayant déjà légiféré en ce sens) et l’Australie. « En France, deux lois successives ont entériné depuis 2020 la vérification d’âge », rappelait Le Monde cet été. En juin, menacé de sanctions par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) s’il ne mettait pas en place une procédure de vérification d’âge, Pornhub a fermé ses accès en France. Si l’Europe a lancé une enquête à l’encontre des principales plateformes de contenus pornographiques, pour qu’elles mettent en place des outils de vérification d’âge plus approprié qu’un simple déclaratif, au motif du DSA et de la taille de leur audience, la Commission estime que fixer une majorité numérique ne relève pas de ses compétences, même si elle travaille à proposer une solution harmonisée de vérification d’âge des internautes. En novembre, les députés macronistes ont déposé une proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans, imposer un couvre-feu numérique pour les 15-18 ans de 22 heures à 8 heures, ainsi que l’interdiction des smartphones dans les lycées. Des perspectives défendues par le président lui-même. Des propositions d’interdiction des réseaux sociaux aux moins de 15 ans sont également à l’ordre du jour au Danemark, en Norvège, et au Royaume-Uni (via un autre projet de loi, le Protection of Children Bill).

En Australie, une loi nationale a d’ores et déjà été adoptée. Elle interdit l’accès aux réseaux sociaux aux moins de 16 ans. En revanche, les applications de messagerie ou celles dévolues à l’éducation et à la santé sont exclues de cette réglementation, tout comme YouTube – sans qu’on comprenne très bien les motivations de cette exclusion. 

« Parallèlement, tous les grands réseaux sociaux ont mis en place, au fil du temps, des outils de contrôle parental et de protection des adolescents, qui permettent notamment de limiter le temps d’utilisation de l’application par les plus jeunes. Certaines plateformes, comme Instagram ou TikTok, limitent ainsi les fonctionnalités des comptes créés par les mineurs, qui sont notamment paramétrés par défaut comme « privés », c’est-à-dire dont le contenu n’est accessible qu’aux personnes acceptées par l’utilisateur.

Les grandes plateformes assurent également utiliser toute une série d’outils automatisés pour détecter les internautes qui mentent sur leur âge lors de leur inscription. En avril, Meta – maison mère d’Instagram – a ainsi annoncé son intention de tester aux Etats-Unis l’utilisation de l’intelligence artificielle pour repérer les profils des jeunes s’étant fait passer pour des adultes afin de les basculer automatiquement en « comptes adolescents ».

La plupart des réseaux sociaux arguent toutefois que la responsabilité du contrôle ne devrait pas leur échoir, mais être confiée aux opérateurs téléphoniques ainsi qu’à Apple et à Google. Ce sont ces deux entreprises qui gèrent les magasins d’applications et sont plus à même, selon les grandes plateformes, de contrôler facilement l’âge des utilisateurs. »

Certains États américains ont également commencé à introduire des législations pour restreindre l’accès à certains sites, notamment pornographiques, aux mineurs, rappelait Le Monde. Les lois de l’Utah et du Texas sont particulièrement contraignante, rappelle la chercheuse Meg Leta Jones pour Tech Policy Press : elles demandent de vérifier l’âge de tous les utilisateurs et les classent en quatre catégories : enfant (moins de 13 ans), jeune adolescent (13-15 ans), adolescent plus âgé (16-17 ans) et adulte (18 ans et plus). « Les deux lois exigent des plateformes d’applications : (1) qu’elles vérifient l’âge des utilisateurs lors de leur inscription par des « méthodes commercialement raisonnables » (par exemple, pièce d’identité, carte de crédit, lecture biométrique), (2) qu’elles relient les comptes des enfants à ceux de leurs parents, (3) qu’elles obtiennent l’autorisation des parents avant que les enfants puissent télécharger des applications ou effectuer des achats, (4) qu’elles indiquent aux développeurs d’applications l’âge de chaque utilisateur et si les parents ont donné leur autorisation, (5) qu’elles informent les parents des modifications importantes apportées aux applications (comme une nouvelle collecte de données) et qu’elles obtiennent à nouveau leur autorisation, et (6) qu’elles transmettent les informations relatives à l’âge aux développeurs de manière sécurisée et chiffrée ». Des mesures qui devraient permettre à l’Etat de poursuivre ceux qui ne les mettraient pas en œuvre au motif de pratiques commerciales trompeuses en vertu de la loi sur la protection des consommateurs et aux parents de porter plainte directement contre les applications et les boutiques d’applications. 

La loi Californienne, elle, privilégie l’auto-déclaration de l’âge (sans vérification d’exactitude). « La Californie exige : (1) un écran simple lors de la configuration de l’appareil demandant aux utilisateurs de saisir leur âge ou leur date de naissance ; (2) que le système d’exploitation partage automatiquement cette information d’âge avec les applications lors de leur téléchargement ; et (3) que les boutiques d’applications obtiennent l’autorisation parentale avant que les enfants de moins de 16 ans puissent télécharger des applications ». Ces différences permettent de comprendre pourquoi Google a soutenu le projet Californien et s’oppose aux projets du Texas et de l’Utah, explique la chercheuse Meg Leta Jones. Au Texas, les géants du web s’opposent à une loi imposant la vérification d’âge sur les magasins d’application d’Apple et Google, au prétexte de la liberté. Facebook soutient pourtant l’obligation faite aux magasins d’applications de procéder aux vérifications d’âge, afin de ne pas avoir à le faire lui-même. Pornhub également. La loi sur la responsabilité des App Stores (App Store Accountability Act) en discussion au Congrès vise pourtant à étendre l’approche de l’Utah et du Texas, mais en plaçant son respect sous la responsabilité de la Commission fédérale du commerce afin d’éliminer les recours privés de parents contre des applications qui ne se conformeraient pas à la législation. Le projet de loi fédéral permettrait d’harmoniser les modalités de contrôle d’âge aux Etats-Unis, explique The Verge

Pour l’instant, la vérification d’âge avance donc en ordre dispersé et tente de faire peser des obligations à certains acteurs plus qu’à d’autres. Plutôt que d’être organisée dès l’achat d’appareil ou la création de comptes, elle a tendance à se propager partout, pour mieux exercer son carcan et éliminer ses failles – quand on pourrait peut-être chercher plutôt à faire progresser globalement les limites d’accès, plutôt que de les imposer partout et penser qu’elles doivent être sans failles. Enfin, la vérification d’âge ne vient pas seule, notamment aux Etats-Unis, où elle se raffine d’un droit de regard renforcé des parents sur les téléphones de leurs enfants, notamment avec le développement du contrôle parental.

Vers un nouvel internet : le contrôle identitaire et moral généralisé 

Pour Wired, nous franchissons une nouvelle étape dans l’ère d’un internet de plus en plus contrôlé, qui pourrait mettre fin à l’anonymat en ligne, comme l’explique Riana Pfefferkorn, chercheuse en politiques publiques à l’Université de Stanford. « Si les gens choisissent de ne pas se connecter [aux moteurs de recherche] pour éviter les contrôles d’âge, cela pourrait avoir un impact considérable sur les méthodes de recherche d’informations en ligne, rationalisées et intégrées », explique Lisa Given, professeure de sciences de l’information à l’Université RMIT en Australie. Pour Riana Pfefferkorn de Stanford : « En fin de compte, la technologie de vérification de l’âge présente un risque pour les enfants qu’elle est censée protéger. Elle entrave leur accès à l’information et peut les exposer à des risques de violation de la vie privée, d’usurpation d’identité et d’autres problèmes de sécurité. » Pour Emanuel Maiberg et Samantha Cole de 404media, les techniques de vérification d’âge s’apprêtent à « refondre en profondeur de l’infrastructure d’Internet ». Pornhub est pourtant, scandale après scandale, bien plus modéré qu’il n’a jamais été. Le risque que fait introduire la vérification d’âge est celui d’un développement de « sites qui ne tiennent aucun compte de la loi et où certains des contenus les plus nocifs disponibles en ligne leur sont activement proposés ». Au Texas, où Pornhub est désormais bloqué, c’est Xvideos qui s’impose désormais et d’autres sites hébergés dans des pays bien moins regardant, avec des contenus plus problématiques encore. Ce que proposent les lois de vérification d’âge, c’est de « ré-embrayer sur le piratage », estiment les journalistes de 404media, c’est-à-dire que le renforcement des règles risque surtout d’assombrir les pratiques faisant naître des galaxies de sites qu’il sera plus difficile de réguler, comme la lutte contre le piratage a contribué à l’exacerber. 

Dans le nouvel internet qu’introduit la vérification d’âge, l’enjeu n’est pas seulement qu’il va être pénible de devoir s’identifier partout en activant la vérification d’âge localement, mais bien plus qu’il n’y aura plus d’internet sans identification. Le mouvement, déjà largement amorcé partout par l’authentification généralisée ne va faire que se renforcer en tentant de réduire toujours plus les espaces de liberté. Au final, la vérification d’âge va surtout renforcer les grands acteurs, ceux seuls à même de développer ces technologies de contrôle

Reste à savoir si la vérification d’âge nous promet un internet plus sécurisé et plus sûr ? Cela risque d’être le cas pour les mineurs effectivement, qui partout autour du monde risquent d’avoir de moins en moins accès à internet et moins accès à l’information quelles que soient ses qualités. Mais, la vérification d’âge ne promet pas une amélioration de la protection pour tous, au contraire. Elle va surtout permettre d’ouvrir les vannes des machines pour tous les majeurs. Elle risque surtout de renforcer la modération pour les plus jeunes et de l’arrêter pour tous les autres. C’est ainsi qu’il faut lire les annonces d’OpenAI à permettre à ses chatbots de produire des contenus érotiques. C’est le sens qu’il faut d’ailleurs donner à un autre projet de loi américain, dénoncé par l’EFF, la loi GUARD, qui oblige à un contrôle d’âge qui s’imposerait à tous les chatbots d’IA destinés au public.Si l’accès aux chatbots va se fermer pour les mineurs, la crise des chatbots compagnons, elle, risque surtout de se résoudre par son accélération. 

Ce que promet la vérification d’âge, finalement, c’est un internet fermé aux enfants et aux adolescents et un internet beaucoup moins sûr pour tous les autres. Un peu comme si on concentrait la régulation sur le seul principe de l’âge et de la responsabilité individuelle. En fait, il est probable que ces lois renforcent encore le peu de prise qu’ont les utilisateurs sur les politiques de modération « unilatérales décidées par les plateformes », comme l’expliquait  le chercheur Tarleton Gillespie dans son livre, Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit – voir notre recension). 

Comme si tous les autres types d’intervention n’avaient pas d’importance. danah boyd ne disait pas autre chose : les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer. « Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites ». Nous mettons en place un solutionnisme techno-légal. « Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre ». Le risque enfin, c’est qu’au prétexte du contrôle, nous enterrions toutes les autres modalités politiques, allant de l’éducation à la conception des plateformes. Avec la vérification d’âge, on propose finalement aux géants de concentrer leur modération sur l’exclusion des mineurs, au détriment de toute autre politique

Hubert Guillaud

  • ✇Dans les algorithmes
  • Vérification d’âge (1/4) : vers un internet de moins en moins sûr
    Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard,
     

Vérification d’âge (1/4) : vers un internet de moins en moins sûr

2 décembre 2025 à 01:00

Le 25 juillet 2025, dans le cadre de la loi sur la sécurité en ligne (Online Safety Act, OSA) adoptée en 2023, les nouvelles règles de vérification de l’âge sont entrées en vigueur au Royaume-Uni, pour les sites proposant du contenu qualifié de « dangereux », notamment pornographique (mais pas seulement). La loi britannique définit des catégories pour les services en ligne auxquels elle s’applique, en fonction de leurs fonctionnalités et de leur nombre d’utilisateurs actifs par mois. En regard, sont définies différentes catégories de contenus, allant de contenus dits illégaux à des contenus dits nuisibles aux enfants. La loi ne se contente pas de faire la chasse à la pornographie en ligne, c’est-à-dire à des contenus à caractères sexuels explicites, mais déborde très largement de ce seul cadre qui ouvre, en regard des sanctions lourdes, et impose une modération des contenus qui peut aller jusqu’aux images violentes de l’actualité (et pas seulement sanglantes) voire à tous propos sur la sexualité, comme ceux abordant les questions de santé.  

Un renforcement sans précédent de la surveillance et de la censure préventive : la conformité n’est pas contournable

Comme le pointe l’une des plus synthétiques et lumineuses analyses en français sur le loi que j’ai pu lire, celle de Nicolas Morin sur son blog, la loi demande aux plateformes un « devoir de diligence » proactif et fondé sur les risques, mais également impose un comportement « préventif », rendant les plateformes, sites et services en ligne, directement responsables de la sécurité de leurs utilisateurs et du contenu qu’ils rencontrent. « Enfin ! », pourrait-on s’enthousiasmer en pensant qu’on exige un peu plus de contrôle de la part des Gafams. Sauf que le champ d’application de la loi est très large et dépasse les seules plateformes de médias sociaux et les plus grands services en ligne. Elle s’applique jusqu’aux forums, commentaires de blogs et sites de partage de fichiers, même si les obligations les plus strictes s’appliquent aux plateformes les plus importantes. 

Les services en ligne doivent garantir que les enfants aient un « accès adapté à leur âge », ce qui implique une approche faisant appel à des systèmes de filtrage et de modération de contenu adaptés aux différents groupes d’âge qui s’imposent partout. « Les sanctions prévues sont sévères, potentiellement existentielles, en cas de manquement. Les amendes peuvent atteindre 18 millions de livres sterling ou 10 % du chiffre d’affaires annuel mondial d’une entreprise, et les cadres supérieurs peuvent être tenus personnellement responsables pénalement en cas de non-coopération avec le régulateur. » Du fait de la lourdeur des sanctions, avec l’OSA, la conformité réglementaire n’est pas contournable.

Mais surtout, explique Morin, « à un niveau fondamental, l’OSA illustre la bascule d’une logique procédurale à une logique de valeurs ». Jusqu’à présent, la modération de contenu suivait une approche procédurale, se concentrant sur le « comment » plutôt que sur le « quoi ». Cette logique ne disait pas aux plateformes quel contenu spécifique (en dehors de ce qui est déjà manifestement illégal) était bon ou mauvais. Elle imposait plutôt des obligations de moyens et de transparence (souvent très légères, comme des conditions de modération claires, des mécanismes de signalement simples, des processus d’appels, des rapports sur les contenus modérés…). Avec l’OSA et son approche sur les valeurs, les plateformes doivent porter un jugement même sur les contenus et leur impose une obligation de résultat. « Ce faisant, la loi délègue aux entreprises privées et à l’organe de régulation britannique (l’Ofcom) le soin de définir ce qui constitue un discours acceptable dans la société, une mission qui relève normalement du débat démocratique et de la loi pénale ». Le problème est que les contenus qui peuvent être qualifiés de préjudiciables est large et introduit un flou juridique supplémentaire, qui, à l’aune de la sévérité des sanctions, conduit déjà chacun à une sur-modération. « Pour les utilisateurs, l’application des règles devient arbitraire. Un même contenu pourra être supprimé un jour et toléré le lendemain, en fonction du modérateur ou de l’algorithme qui l’examine. Il n’y a plus de prévisibilité, un principe fondamental de l’État de droit »

« En utilisant des termes vagues, le Parlement britannique a, de fait, délégué son pouvoir normatif. Ce ne sont plus les législateurs élus qui définissent précisément les limites de la liberté d’expression, mais l’Ofcom, un régulateur non élu, qui publiera des codes de pratique pour “interpréter” ce que la loi entend par “préjudiciable”, et les plateformes elles-mêmes, qui créeront leurs propres règles internes pour se conformer aux interprétations de l’Ofcom.

Le débat sur ce que notre société tolère comme discours est ainsi retiré de la sphère publique et démocratique pour être confié à des comités de conformité et des régulateurs techniques.

En passant d’une logique procédurale à une logique de valeurs incarnée par des termes vagues, l’Online Safety Act crée un système où la censure devient préventive, privatisée et arbitraire. La quête légitime de sécurité en ligne, sous l’étendard ici de la sécurité des enfants et de la lutte contre le terrorisme, se fait au détriment de la liberté d’expression, de la sécurité juridique et des principes démocratiques fondamentaux. »

« L’obligation pour les plateformes de gérer le contenu « préjudiciable » mais légal les amène, par prudence, à classifier et restreindre l’accès à un large éventail de contenus, y compris les reportages d’actualité, la couverture de la guerre et des conflits, le journalisme d’investigation et les images de manifestations politiques, qui pourraient tous être considérés comme « préjudiciables » ou « dépeignant une violence grave » selon les définitions larges de la loi. Ce système délègue de fait aux entreprises technologiques privées le rôle d’arbitres de l’État en matière de discours acceptable. Alors que les partisans pourraient y voir une application de la responsabilité, les critiques y voient un « cadeau massif à la grande technologie ». Cela renforce leur pouvoir en leur donnant une autorité mandatée par l’État pour décider de ce que les utilisateurs peuvent et ne peuvent pas voir, une fonction quasi-judiciaire pour laquelle les entreprises privées sont institutionnellement mal adaptées et démocratiquement irresponsables. »

Le premier problème de l’OSA est bien le large spectre de ce que son champ réglementaire couvre. Ce n’est pas une loi qui cherche à réguler uniquement les vidéos et les images pornographiques. 

Vers une modération fonctionnelle

La loi s’applique aux sites web, aux services de réseaux sociaux, aux sites de stockage et de partage de fichiers, aux forums en ligne, aux applications de rencontre et aux services de messagerie instantanée. Tous sont désormais tenus de vérifier l’âge des visiteurs si leurs plateformes contiennent du contenu préjudiciable ou inapproprié, rappelle le New York Times. Au-delà des sites pornographiques, les applications qui ont introduit la vérification de l’âge incluent Grindr, le service de rencontres gay ; Discord, l’application de chat social ; et Reddit… Même l’encyclopédie Wikipédia reste menacée de devoir intégrer une vérification d’âge (notamment parce qu’elle entre dans la catégorie des grands services en ligne).  

La majorité des Britanniques – près de 80 % – se sont déclarés favorables aux nouvelles règles, selon un sondage YouGov auprès d’environ 4 400 adultes, peut-être sans toujours comprendre que ces règles ne concernaient pas que les contenus sexuellement explicites, puisqu’après la mise en place des premières mesures effectives, ils n’étaient plus que 69% à soutenir les règles. Mais, selon l’enquête, seule une personne sur quatre environ estime que ces restrictions empêcheront réellement les enfants d’accéder à la pornographie en ligne. Au Royaume-Uni, une vague de résistance s’est également manifestée. Plus de 500 000 personnes ont signé une pétition demandant l’abrogation de la loi sur la sécurité en ligne, critiquée par les défenseurs du droit à la vie privée et de la liberté d’expression. Ces derniers affirment que ces règles constituent un exemple d’abus de pouvoir du gouvernement et les jugent dangereuses pour les personnes souhaitant préserver leur anonymat en ligne. 

Les critiques affirment également que la portée des règles va trop loin, en incluant les forums de loisirs en ligne et divers autres sites. Ils affirment que les petits sites qui ne disposent pas des ressources nécessaires pour se conformer à la loi devront fermer, notamment parce qu’ils s’exposent à des poursuites juridiques inédites. 

Les contenus sont définis en trois catégories : des contenus primaires prioritaires préjudiciable aux enfants (les contenus pornographiques et de promotion du suicide notamment), les contenus prioritaires préjudiciables aux enfants (contenus incitant à la haine, à l’intimidation ou à la violence notamment) et des contenus non désigné comme dangereux pour les enfants mais qui peuvent leur porter préjudice, c’est-à-dire les perturber, comme des images de violences ou de manifestation. Le problème consiste bien sûr dans les flous de ces définitions : un article qui parle d’un suicide en fait-il la promotion ? Parler des violences d’une guerre ou de manifestations est-il préjudiciable ? Même la définition de la pornographie peut-être plus ou moins lâche : un texte érotique est-il de même nature qu’une vidéo explicite ?  

Face à ces risques, les sites accessibles doivent mettre en œuvre un certain nombre de mesures et notamment la « vérification vigoureuse de l’âge », en développant des algorithmes plus sûrs pour les jeunes publics et en renforçant la modération des contenus. 

Depuis l’entrée en vigueur de ces mesures fin juillet, les plateformes de réseaux sociaux Reddit, Bluesky, Discord et X ont toutes mis en place des contrôles d’âge pour empêcher les enfants de consulter des contenus préjudiciables sur leurs sites. Des sites pornographiques comme Pornhub et YouPorn ont mis en place des contrôles d’âge, demandant désormais aux utilisateurs de fournir une pièce d’identité officielle, une adresse e-mail pour que la technologie analyse les autres services en ligne où elle a été utilisée, ou de soumettre leurs informations à un fournisseur tiers pour vérification de l’âge. Des sites comme Spotify exigent également que les utilisateurs soumettent un scan facial à Yoti, une société tierce de gestion d’identité numérique, pour accéder aux contenus étiquetés 18+. L’Ofcom, qui supervise la mise en œuvre de l’OSA, est allé plus loin en envoyant des lettres pour tenter de faire appliquer la législation britannique aux entreprises basées aux États-Unis. 

La généralisation de la vérification d’âge et du contrôle parental

La contrainte de la vérification d’âge n’est pas que britannique. Elle concerne également  l’Union européenne, les Etats-Unis (une vingtaine d’Etats ayant déjà légiféré en ce sens) et l’Australie. « En France, deux lois successives ont entériné depuis 2020 la vérification d’âge », rappelait Le Monde cet été. En juin, menacé de sanctions par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) s’il ne mettait pas en place une procédure de vérification d’âge, Pornhub a fermé ses accès en France. Si l’Europe a lancé une enquête à l’encontre des principales plateformes de contenus pornographiques, pour qu’elles mettent en place des outils de vérification d’âge plus approprié qu’un simple déclaratif, au motif du DSA et de la taille de leur audience, la Commission estime que fixer une majorité numérique ne relève pas de ses compétences, même si elle travaille à proposer une solution harmonisée de vérification d’âge des internautes. En novembre, les députés macronistes ont déposé une proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans, imposer un couvre-feu numérique pour les 15-18 ans de 22 heures à 8 heures, ainsi que l’interdiction des smartphones dans les lycées. Des perspectives défendues par le président lui-même. Des propositions d’interdiction des réseaux sociaux aux moins de 15 ans sont également à l’ordre du jour au Danemark, en Norvège, et au Royaume-Uni (via un autre projet de loi, le Protection of Children Bill).

En Australie, une loi nationale a d’ores et déjà été adoptée. Elle interdit l’accès aux réseaux sociaux aux moins de 16 ans. En revanche, les applications de messagerie ou celles dévolues à l’éducation et à la santé sont exclues de cette réglementation, tout comme YouTube – sans qu’on comprenne très bien les motivations de cette exclusion. 

« Parallèlement, tous les grands réseaux sociaux ont mis en place, au fil du temps, des outils de contrôle parental et de protection des adolescents, qui permettent notamment de limiter le temps d’utilisation de l’application par les plus jeunes. Certaines plateformes, comme Instagram ou TikTok, limitent ainsi les fonctionnalités des comptes créés par les mineurs, qui sont notamment paramétrés par défaut comme « privés », c’est-à-dire dont le contenu n’est accessible qu’aux personnes acceptées par l’utilisateur.

Les grandes plateformes assurent également utiliser toute une série d’outils automatisés pour détecter les internautes qui mentent sur leur âge lors de leur inscription. En avril, Meta – maison mère d’Instagram – a ainsi annoncé son intention de tester aux Etats-Unis l’utilisation de l’intelligence artificielle pour repérer les profils des jeunes s’étant fait passer pour des adultes afin de les basculer automatiquement en « comptes adolescents ».

La plupart des réseaux sociaux arguent toutefois que la responsabilité du contrôle ne devrait pas leur échoir, mais être confiée aux opérateurs téléphoniques ainsi qu’à Apple et à Google. Ce sont ces deux entreprises qui gèrent les magasins d’applications et sont plus à même, selon les grandes plateformes, de contrôler facilement l’âge des utilisateurs. »

Certains États américains ont également commencé à introduire des législations pour restreindre l’accès à certains sites, notamment pornographiques, aux mineurs, rappelait Le Monde. Les lois de l’Utah et du Texas sont particulièrement contraignante, rappelle la chercheuse Meg Leta Jones pour Tech Policy Press : elles demandent de vérifier l’âge de tous les utilisateurs et les classent en quatre catégories : enfant (moins de 13 ans), jeune adolescent (13-15 ans), adolescent plus âgé (16-17 ans) et adulte (18 ans et plus). « Les deux lois exigent des plateformes d’applications : (1) qu’elles vérifient l’âge des utilisateurs lors de leur inscription par des « méthodes commercialement raisonnables » (par exemple, pièce d’identité, carte de crédit, lecture biométrique), (2) qu’elles relient les comptes des enfants à ceux de leurs parents, (3) qu’elles obtiennent l’autorisation des parents avant que les enfants puissent télécharger des applications ou effectuer des achats, (4) qu’elles indiquent aux développeurs d’applications l’âge de chaque utilisateur et si les parents ont donné leur autorisation, (5) qu’elles informent les parents des modifications importantes apportées aux applications (comme une nouvelle collecte de données) et qu’elles obtiennent à nouveau leur autorisation, et (6) qu’elles transmettent les informations relatives à l’âge aux développeurs de manière sécurisée et chiffrée ». Des mesures qui devraient permettre à l’Etat de poursuivre ceux qui ne les mettraient pas en œuvre au motif de pratiques commerciales trompeuses en vertu de la loi sur la protection des consommateurs et aux parents de porter plainte directement contre les applications et les boutiques d’applications. 

La loi Californienne, elle, privilégie l’auto-déclaration de l’âge (sans vérification d’exactitude). « La Californie exige : (1) un écran simple lors de la configuration de l’appareil demandant aux utilisateurs de saisir leur âge ou leur date de naissance ; (2) que le système d’exploitation partage automatiquement cette information d’âge avec les applications lors de leur téléchargement ; et (3) que les boutiques d’applications obtiennent l’autorisation parentale avant que les enfants de moins de 16 ans puissent télécharger des applications ». Ces différences permettent de comprendre pourquoi Google a soutenu le projet Californien et s’oppose aux projets du Texas et de l’Utah, explique la chercheuse Meg Leta Jones. Au Texas, les géants du web s’opposent à une loi imposant la vérification d’âge sur les magasins d’application d’Apple et Google, au prétexte de la liberté. Facebook soutient pourtant l’obligation faite aux magasins d’applications de procéder aux vérifications d’âge, afin de ne pas avoir à le faire lui-même. Pornhub également. La loi sur la responsabilité des App Stores (App Store Accountability Act) en discussion au Congrès vise pourtant à étendre l’approche de l’Utah et du Texas, mais en plaçant son respect sous la responsabilité de la Commission fédérale du commerce afin d’éliminer les recours privés de parents contre des applications qui ne se conformeraient pas à la législation. Le projet de loi fédéral permettrait d’harmoniser les modalités de contrôle d’âge aux Etats-Unis, explique The Verge

Pour l’instant, la vérification d’âge avance donc en ordre dispersé et tente de faire peser des obligations à certains acteurs plus qu’à d’autres. Plutôt que d’être organisée dès l’achat d’appareil ou la création de comptes, elle a tendance à se propager partout, pour mieux exercer son carcan et éliminer ses failles – quand on pourrait peut-être chercher plutôt à faire progresser globalement les limites d’accès, plutôt que de les imposer partout et penser qu’elles doivent être sans failles. Enfin, la vérification d’âge ne vient pas seule, notamment aux Etats-Unis, où elle se raffine d’un droit de regard renforcé des parents sur les téléphones de leurs enfants, notamment avec le développement du contrôle parental.

Vers un nouvel internet : le contrôle identitaire et moral généralisé 

Pour Wired, nous franchissons une nouvelle étape dans l’ère d’un internet de plus en plus contrôlé, qui pourrait mettre fin à l’anonymat en ligne, comme l’explique Riana Pfefferkorn, chercheuse en politiques publiques à l’Université de Stanford. « Si les gens choisissent de ne pas se connecter [aux moteurs de recherche] pour éviter les contrôles d’âge, cela pourrait avoir un impact considérable sur les méthodes de recherche d’informations en ligne, rationalisées et intégrées », explique Lisa Given, professeure de sciences de l’information à l’Université RMIT en Australie. Pour Riana Pfefferkorn de Stanford : « En fin de compte, la technologie de vérification de l’âge présente un risque pour les enfants qu’elle est censée protéger. Elle entrave leur accès à l’information et peut les exposer à des risques de violation de la vie privée, d’usurpation d’identité et d’autres problèmes de sécurité. » Pour Emanuel Maiberg et Samantha Cole de 404media, les techniques de vérification d’âge s’apprêtent à « refondre en profondeur de l’infrastructure d’Internet ». Pornhub est pourtant, scandale après scandale, bien plus modéré qu’il n’a jamais été. Le risque que fait introduire la vérification d’âge est celui d’un développement de « sites qui ne tiennent aucun compte de la loi et où certains des contenus les plus nocifs disponibles en ligne leur sont activement proposés ». Au Texas, où Pornhub est désormais bloqué, c’est Xvideos qui s’impose désormais et d’autres sites hébergés dans des pays bien moins regardant, avec des contenus plus problématiques encore. Ce que proposent les lois de vérification d’âge, c’est de « ré-embrayer sur le piratage », estiment les journalistes de 404media, c’est-à-dire que le renforcement des règles risque surtout d’assombrir les pratiques faisant naître des galaxies de sites qu’il sera plus difficile de réguler, comme la lutte contre le piratage a contribué à l’exacerber. 

Dans le nouvel internet qu’introduit la vérification d’âge, l’enjeu n’est pas seulement qu’il va être pénible de devoir s’identifier partout en activant la vérification d’âge localement, mais bien plus qu’il n’y aura plus d’internet sans identification. Le mouvement, déjà largement amorcé partout par l’authentification généralisée ne va faire que se renforcer en tentant de réduire toujours plus les espaces de liberté. Au final, la vérification d’âge va surtout renforcer les grands acteurs, ceux seuls à même de développer ces technologies de contrôle

Reste à savoir si la vérification d’âge nous promet un internet plus sécurisé et plus sûr ? Cela risque d’être le cas pour les mineurs effectivement, qui partout autour du monde risquent d’avoir de moins en moins accès à internet et moins accès à l’information quelles que soient ses qualités. Mais, la vérification d’âge ne promet pas une amélioration de la protection pour tous, au contraire. Elle va surtout permettre d’ouvrir les vannes des machines pour tous les majeurs. Elle risque surtout de renforcer la modération pour les plus jeunes et de l’arrêter pour tous les autres. C’est ainsi qu’il faut lire les annonces d’OpenAI à permettre à ses chatbots de produire des contenus érotiques. C’est le sens qu’il faut d’ailleurs donner à un autre projet de loi américain, dénoncé par l’EFF, la loi GUARD, qui oblige à un contrôle d’âge qui s’imposerait à tous les chatbots d’IA destinés au public.Si l’accès aux chatbots va se fermer pour les mineurs, la crise des chatbots compagnons, elle, risque surtout de se résoudre par son accélération. 

Ce que promet la vérification d’âge, finalement, c’est un internet fermé aux enfants et aux adolescents et un internet beaucoup moins sûr pour tous les autres. Un peu comme si on concentrait la régulation sur le seul principe de l’âge et de la responsabilité individuelle. En fait, il est probable que ces lois renforcent encore le peu de prise qu’ont les utilisateurs sur les politiques de modération « unilatérales décidées par les plateformes », comme l’expliquait  le chercheur Tarleton Gillespie dans son livre, Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit – voir notre recension). 

Comme si tous les autres types d’intervention n’avaient pas d’importance. danah boyd ne disait pas autre chose : les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer. « Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites ». Nous mettons en place un solutionnisme techno-légal. « Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre ». Le risque enfin, c’est qu’au prétexte du contrôle, nous enterrions toutes les autres modalités politiques, allant de l’éducation à la conception des plateformes. Avec la vérification d’âge, on propose finalement aux géants de concentrer leur modération sur l’exclusion des mineurs, au détriment de toute autre politique

Hubert Guillaud

  • ✇Euromaidan Press
  • Frontline report: Ukrainian marines ambush Russian infiltrators in ruins of Myrnohrad — capture them alive
    Today, the biggest news comes from the Pokrovsk direction, Donetsk Oblast.   Screenshot from Reporting From Ukraine's video. Here, under relentless bombardment, Russian forces launched a high-risk assault aimed at slicing through Myrnohrad to trap Ukrainian defenders in the southern sector. But as fog descended on the ruins, Ukrainian marines moved in silently, and encircled the isolated assault unit—turning Russia’s bold gamble into a humiliating loss. Russians try to
     

Frontline report: Ukrainian marines ambush Russian infiltrators in ruins of Myrnohrad — capture them alive

1 décembre 2025 à 14:22

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video drg eliminated myrhohrad today biggest news comes pokrovsk direction donetsk oblast

Today, the biggest news comes from the Pokrovsk direction, Donetsk Oblast. 

 Screenshot from Reporting From Ukraine's video.

Here, under relentless bombardment, Russian forces launched a high-risk assault aimed at slicing through Myrnohrad to trap Ukrainian defenders in the southern sector. But as fog descended on the ruins, Ukrainian marines moved in silently, and encircled the isolated assault unit—turning Russia’s bold gamble into a humiliating loss.

Russians try to trap Ukrainian troops but end up encircled

The moment Ukrainian forces completed their withdrawal from the southern part of Myrnohrad, Russian troops escalated their assaults along the flanks, making a last attempt to achieve the encirclement they had already publicly claimed was accomplished.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video myrhohrad today biggest news comes pokrovsk direction donetsk oblast ukraine reports
 Screenshot from Reporting From Ukraine's video.

The tactical objective of Russian forces was to push into northern Myrnohrad and cut off the Ukrainian units positioned in the high-rises, as doing so would let them bypass the most dangerous district and isolate the Ukrainian defenders to a tightly restricted area. This would leave the Ukrainians inside without a ground line of communication, meaning only drones would be able to supply them. If the Russian forces cannot encircle the high-rise buildings, they will need to attack them directly, which will lead to heavy casualties.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video 2 today biggest news comes pokrovsk direction donetsk oblast ukraine reports
 Screenshot from Reporting From Ukraine's video.

Russians are conducting attacks from both the east and west, but without full control over the northern part of Pokvorsk, they cannot employ it as an effective springboard and lack the resources to leverage its advantages fully. Bad weather conditions, such as fog, continue to help the attackers to conceal their movement and advance undetected, because of the low visibility, but it also helps the Ukrainians to organize ambushes. The level of successful Ukrainian countermeasures shows that the Russian drones are affected as well, with enemy operators not able to provide sufficient drone surveillance.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video 3 today biggest news comes pokrovsk direction donetsk oblast ukraine reports
 Screenshot from Reporting From Ukraine's video.

Devastation in Myrnohrad helps Ukrainian ambush

In order to support ground operations and break the Ukrainian defense, the Russians are relentlessly bombarding Myrnohrad and Pokrovsk with approximately 15,000 shells per day, with all assaults being preceded by intense preparatory barrages.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video myrhohrad damage today biggest news comes pokrovsk direction donetsk oblast ukraine
 Screenshot from Reporting From Ukraine's video.

Russians are also dropping, on average, 150 glide bombs per day, and as you can remember from a previous report, they are even using 3 ton Fab 3,000 bombs to completely level every structure. As a result, there is not a single building that remains intact in Myrnohrad, a town with a pre-war population of just 48,000. High-rise buildings are still standing, despite the continuous strikes, but all have already suffered damage, which compromises their ability to be used effectively as defense strongholds.

Fog and destruction help Ukraine ambush Russian troops in central Myrnohrad

This level of the devastation has opened gaps in the Ukrainian defensive lines, which Russian units quickly exploited in their newest push to penetrate further into the heart of the town. Russi

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video russians infiltrators today biggest news comes pokrovsk direction donetsk oblast ukraine
 Screenshot from Reporting From Ukraine's video.

an forces further capitalized on their foothold in the northeastern part of the town, treating it as a launchpad for fresh assaults and slipping out of their shelters the moment fog settled over the streets. 80 percent of these infiltrators are typically detected on the outskirts due to the heavy presence of Ukrainian drones overhead, but amid the relentless tempo of assaults, one Russian unit managed to slip past unnoticed.

Geolocated footage reveals four Russian soldiers attempting to set up a position inside a roofless, shattered building located in central Myrnohrad. The sheer level of destruction ultimately worked against the Russians, enabling a Ukrainian drone to detect their movements and transmit the house’s coordinates to Ukrainian infantry units on the ground. Ukrainian marines also took advantage of the fog, moving to encircle the unsuspecting Russian team, which was clearly operating blind without any aerial drone support.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video drg eliminated myrhohrad today biggest news comes pokrovsk direction donetsk oblast
 Screenshot from Reporting From Ukraine's video.

The entire Russian unit was ambushed and compelled to surrender on the spot, offering no resistance when confronted with an overwhelming disadvantage that would have otherwise meant certain death. Recognizing the hopelessness of their situation, the soldiers stepped out of their shelter with their hands raised, yielding themselves to the Ukrainian troops. Despite the difficulties of urban combat, the Ukrainians were able to capture the enemies and interrogate them to gather intel and use them later as part of the exchange fund for prisoners of war.

frontline report ukrainian marines ambush russian assault team ruins myrnohrad — all captured alive · post reporting ukraine's video pokrovsk today biggest news comes direction donetsk oblast ukraine reports
 Screenshot from Reporting From Ukraine's video.

Russian failures in Myrnohrad show limits of firepower in urban combat

Overall, the collapse of Russia’s latest assault on northern Myrnohrad highlights the limits of its offensive strategy, even when backed by massive bombardment. Ukrainian marines continue to demonstrate tactical discipline, using terrain, weather, and superior coordination to outmaneuver and dismantle Russian advances.

This engagement further exposes the widening gap between Russia's battlefield claims and its actual capacity to deliver breakthroughs, particularly in complex urban environments like Myrnohrad.

In our regular frontline report, we pair up with the military blogger Reporting from Ukraine to keep you informed about what is happening on the battlefield in the Russo-Ukrainian war.

  • ✇Coda Story
  • On the edge of home: A Syrian photographer’s story of exile
    Syria’s nearly 14-year-long civil war has changed shape. Though there is still fighting and instability, the political transition means many who fled are beginning to return home. Yet for Sara Kontar, a Syrian photographer who has lived in France for nearly a decade, return remains impossible. European asylum law has transformed her exile into a cage: to visit Syria is to lose her residency and the life she’s made for herself. But to stay means giving up a part of who she is. Her story reveals a
     

On the edge of home: A Syrian photographer’s story of exile

21 novembre 2025 à 06:08

Syria’s nearly 14-year-long civil war has changed shape. Though there is still fighting and instability, the political transition means many who fled are beginning to return home. Yet for Sara Kontar, a Syrian photographer who has lived in France for nearly a decade, return remains impossible. European asylum law has transformed her exile into a cage: to visit Syria is to lose her residency and the life she’s made for herself. But to stay means giving up a part of who she is. Her story reveals a paradox of modern displacement, how safety itself becomes a trap, how being among “the lucky ones” can feel like abandonment, and how proximity to home, when legally unreachable, becomes its own form of suffering. Through her lens, Kontar materializes the unmappable geography of exile, where borders function not as crossings but as walls that seal rather than separate.

Sara’s story: 

I became an exile in 2015 when I had to leave Syria. I'm originally from the South, but I was studying in Damascus at the time. By 2015, things had become really complicated. Bombs were falling every day. I love my homeland. But there was something I noticed—people didn't see the future anymore. And that was much scarier. People were in survival mode. There was no more looking forward to anything. I just needed to build a better future, but I never expected to become an exile.

When I was a child, I didn’t have any notion of borders. Back then, we had family in Lebanon because my grandfather was born there before the Sykes-Picot agreement [the 1916 treaty that carved up the Ottoman empire between Britain and France], and as kids we travelled easily between the two countries. My Lebanese aunt and cousins visited us often, and we visited them. These borders existed, but to me they felt light, almost invisible, there was always this connection, and I never questioned it. After 2011, everything changed. My father was on his way to Lebanon for my cousin’s funeral when someone warned him to go into hiding because the Assad regime was after him. That moment marked the first time we felt the border as a wall, the first time we were cut off from part of our family.

The moment I left, in my head it was simple: I'm leaving for a few years, I'll study, things will get better, and I'll come back. I never imagined it would be this difficult. I didn't have much knowledge about exile beforehand. In those first years in France, I was just adapting.

Children from Jaber as-Sirhan, a village on the border, jumped into the back of our car asking for a quick ride around the neighborhood. Northern Jordan, 2024.
In the village of Jaber as-Sirhan, right on the border, children play, jump, and dance—some Syrian, others Jordanian. Behind them, the border wall stands, with Syrian land visible just beyond. Northern Jordan, 2024.
A child from Jaber as-Sirhan runs through the dry fields near the Syrian border, holding up two fingers — a gesture linked to resistance. Northern Jordan, 2024.
Children from Jaber as-Sirhan run through the dry fields near the Syrian border. Northern Jordan, 2024.

When I had to leave Syria in 2015, each border became an obstacle to cross, each one a huge ordeal—two months spent trying to cross them to reach my mother in France. The situations were often dangerous, sometimes requiring long walks. I developed this very physical connection to borders. We would wait in camps for days. You see the border, a gate that opens and closes controlled by others and they decide when you can pass. You just sit and wait, sometimes for hours, and then when it opens you go. This was the case between Greece and Macedonia.

But today—it's going to be almost ten years now—I question this a lot. What is exile? Especially with the policies around it in Europe. Why do I have to prove my existence every day? I try to integrate in all the ways that are expected of me. I speak the language fluently, I completed my studies, I learned the culture, I work, I pay my taxes, everything that is supposed to make me a "good refugee," a good example. I have done all of it.

But belonging is something else. It cannot take root in a society where I am constantly asked to justify myself, to tick every box, and still it is never enough.

As a political refugee, I only have a travel document. I have no Syrian papers. And it clearly states that I cannot go to Syria. If I enter the country, I lose my residency. I would have to give up the life I've built here just to visit my family, to see my father, to be present when my grandfather died. I don't have the option to go back and forth, to keep any real connection with home.

Two documents lie on the bed: a travel document and an expired Syrian passport. "Travel Document for Refugees, allowing entry to all countries except: Syria." As a refugee, you are required to surrender your passport and replace it with a "Travel Document for Refugees." Paris, 2023.
The sign marking the Syrian border at Jaber Crossing from the Jordanian side. Northern Jordan, 2024.
Syrian border at Jaber Crossing from the Jordanian side. Northern Jordan, 2024.
I had my eye on the camera’s viewfinder, trying to photograph the border fence, when this family appeared suddenly in the frame. I didn’t mean to take their picture, I just didn’t expect anyone to sit in front of the border like that, as if they were having a picnic. I’m not sure if they were Syrian or not, but in this village right at the edge of the border, many Syrians live. A family sits in front of the wall that separates them from Syria. Northern Jordan, 2024.
Families on the road back to Syria, cars loaded with suitcases, hundreds crossing every day since the fall of Assad on December 8th, 2024. For now, the border only allows passage in one direction. Going back to Syria means you cannot return. Northern Jordan, 2024.
My father waves from afar during my last visit to Lebanon. With a 15-day authorization, he was able to come from Syria. It was only the second time I had seen him in my nine years of exile. Lebanon 2024.

At first I tried to accept it—I told myself that living here means losing certain privileges. But going home is not a privilege. Seeing your family members for the last time is not a privilege—it's simply life, the bare minimum. Laws that deny this are profoundly dehumanizing.

When I think about borders, for me it's not only geopolitical—they are actual walls. I have no choice; it stands right there, impossible to cross. That's the real meaning of a border: the physical, unyielding reality of it. It's a block.

Photography is my way of giving form to things. Exile is not a physical space, it's not tangible. I live in exile. But where is that? What is that? And yet it's real. I don't feel connected to any physical place. But photography allows me to materialize something. I create a space through these photos. I'm trying to visualize exile.

The day I left Syria, the night before, my phone broke and deleted all of my images. I left Syria with nothing—no photos of my life with my friends, no memories. I had lost everything. During the journey from Syria to France, I chose not to document anything because I didn't want it to be part of my life. So I refused to record it.

A few years later, as I realized I was starting to forget, I began to panic. My fear wasn't only about forgetting the events—it was about losing the feelings, the personal experiences that give them meaning. I thought about the importance of documenting and archiving—not just for myself, but for collective memory. If I forget, and no trace remains, what happens to our struggles, our narratives? What happens to the shared memories, to the archives?

Standing in front of my homeland, separated by a valley and a river. My shadow stretched across the ground, so close to Syria. Northern Lebanon, 2024.
I reached out, trying to capture a photo as if touching my homeland, Syria. A frame I can create, even though I can't return. Standing so close to Syria, the borders between us taunt me. Why, after all these years, does this land pull me in ways I can't explain? Northern Lebanon, 2024.
The sea I waited to cross—taken in 2016 in Didim, Turkey. At 19, I stood by the water each day with my brother, watching the waves, wondering if today would be the day we could try to cross to Greece. We spent almost two months waiting.

I don't know if art or photography can really make political change, but they help me connect with people who share similar experiences. Understanding these stories helps me process my own, it supports me mentally. Sometimes people here say, "You're lucky—you have a story to express." And I think, please, take my story and give me a normal life instead.

If I had a normal life, I wouldn't hold onto these themes so tightly. I cling to them because they're my reality—I don't have another choice.

Of course, I think it's important to work on these subjects, to talk about exile and displacement. But it's equally important to remember that the real hope is that one day no one will have to live these stories in the first place.

I'm 29. I came here when I was 19. In February it will be 10 years. I was talking with a friend who visited from Syria recently. She lives in Damascus, she's a filmmaker. I feel guilty when I talk to Syrians who are still inside. I feel like I left them or abandoned them. Because of that guilt, I'm always careful when I talk about my suffering in exile, since many people see living in Europe as a kind of privilege. But she was telling me that after traveling for just a week, she felt exhausted and thought, "I need to go home." And I told her, if you want to understand my feelings, it's exactly what you're feeling now, but for 10 years. I never stopped feeling like I'm traveling. It never stops.

The Age of Exile

This story is part of our Age of Exile series, which explores how displacement has evolved from historical punishment into a defining condition of our time—one that reveals profound transformations in how we construct identity, maintain community, and exercise power across borders. In an era where digital connection enables presence without physical proximity, exile has become more complex, more global, and more central to understanding our world. Explore The Age of Exile series

The post On the edge of home: A Syrian photographer’s story of exile appeared first on Coda Story.

  • ✇Coda Story
  • Putin’s panopticon
    In recent weeks, several small-scale protests have taken place across Russia, a rare sight since the full-scale invasion of Ukraine three years ago. Oddly, the demonstrators waved Soviet flags while holding banners demanding unrestricted access to digital platforms. It also remains unclear how the left-wing organizers secured permits to protest against the Kremlin’s latest move to further lock down and control the country’s online space. Russia is in the process of constructing the most com
     

Putin’s panopticon

15 septembre 2025 à 08:57

In recent weeks, several small-scale protests have taken place across Russia, a rare sight since the full-scale invasion of Ukraine three years ago. Oddly, the demonstrators waved Soviet flags while holding banners demanding unrestricted access to digital platforms. It also remains unclear how the left-wing organizers secured permits to protest against the Kremlin’s latest move to further lock down and control the country’s online space.

Russia is in the process of constructing the most comprehensive digital surveillance state outside of China, deploying a three-layered approach that enforces the use of state-approved communication platforms, implements AI-powered censorship tools, and creates targeted tracking systems for vulnerable populations. The system is no longer about just restricting information, it's about creating a digital ecosystem where every click, conversation, and movement can be monitored, analyzed, and controlled by the state. 

From September 1, 2025, Russia crossed a critical threshold in digital authoritarianism by mandating that its state-backed messenger app Max be pre-installed on all smartphones, tablets, computers, and smart TVs sold in the country. 

Max functions as Russia's answer to China's WeChat, offering government services, electronic signatures, and payment options on a single platform. But unlike Western messaging apps with end-to-end encryption, Max lacks such protections and has been accused of gaining unauthorized camera access, with users reporting that the app turns on their device cameras "every 5-10 minutes" without permission. The integration with Gosuslugi, Russia's public services portal, means Max is effectively the only gateway for basic civil services: paying utility bills, signing documents, and accessing government services.

As Max was rolled out, WhatsApp and Telegram users found themselves unable to make voice calls, with connections failing or dropping within seconds. Officials justified blocking these features by citing their use by "scammers and terrorists," while a State Duma deputy warned that WhatsApp should "prepare to leave the Russian market".

The Amina Experiment

The most chilling aspect of Russia's digital control system may be its targeted surveillance of migrants through another app called the Amina app. Starting September 1, foreign workers from nine countries, including Ukraine, Georgia, India, Pakistan and Egypt, must install an app that transmits their location to the Ministry of Internal Affairs.

This creates a two-tiered digital citizenship system. While Russian citizens navigate Max's surveillance, migrants face constant geolocation tracking. If the Amina app doesn't receive location data for more than three days, individuals are removed from official registries and added to a "controlled persons registry". This designation bars them from banking, marriage, property ownership, and enrolling children in schools, effectively creating digital exile within Russia's borders.

Russia's censorship apparatus has evolved beyond human moderators to embrace artificial intelligence for content control. Roskomnadzor, the executive body which supervises communications, has developed automated systems that scan "large volumes of text files" to detect references to illegal drugs in books and publications. Publishers can now submit manuscripts to AI censors before publication, receiving either flagged content or an all-clear message.

This represents a fundamental shift in how authoritarian states approach information control. As one publishing industry source told Meduza: "We've always assumed that the censors and the people who report books don't actually read them. But neural networks do. So now it's a war against the A.I.s: how to craft a book so the algorithm can't flag it, but readers still get the message".

The scope of Russia's digital surveillance ambitions became clear when the FSB, the country’s intelligence service, demanded round-the-clock access to Yandex's Alisa smart home system. While Yandex was only fined 10,000 rubles (about $120) for refusing – a symbolic amount that suggests the real pressure comes through other channels – the precedent is significant. The demand for access to Alisa represented what digital rights lawyer Evgeny Smirnov called an unprecedented expansion of the Yarovaya Law, which previously targeted mainly messaging services. Now, virtually any IT infrastructure that processes user data could fall under FSB surveillance demands.

The Broader Pattern 

Russia's digital control system follows the Chinese model but adapts it for different circumstances. While China built its internet infrastructure "with total state control in mind," Russia is retrofitting an existing system that was initially developed by private actors. This creates both opportunities and vulnerabilities.

The government's $660 million investment in upgrading its TSPU censorship system over the next five years signals long-term commitment to digital control. The goal is to achieve "96% efficiency" in restricting access to VPN circumvention tools. Meanwhile, new laws make VPN usage an aggravating factor in criminal cases and criminalizes "knowingly searching for extremist materials" online.

The infrastructure Russia is building today, from mandatory state messengers to AI censors to migrant tracking apps represents the cutting edge of digital authoritarianism. At least 18 countries have already imported Chinese surveillance technology, but Russia's approach offers a lower-cost alternative that's more easily transferable.. The combination of mandatory state apps, AI-powered censorship, and precision targeting of vulnerable populations creates a blueprint that other authoritarian regimes are likely to study and adapt.

To understand the impetus behind Russia’s digital Panopticon, look at Nepal: Russian analysts could barely contain their glee as they watched Nepal's deadly social media protests unfold. "Classic Western handiwork!" they declared, dismissing the uprising as just another "internet revolution" orchestrated by foreign powers. But their commentary revealed Moscow's deeper anxiety: what happens when you lose control of the narrative?

Russia isn't building its surveillance state to prevent what happened in Nepal, they're building it because they already lived through their own version. The 2021 Navalny protests proved that Russia's digitally native generation could organize faster than the state could respond. The difference is that Moscow's solution wasn't to back down like Nepal's now fallen government did. It was to eliminate the human networks first, then build the digital cage.

A version of this story was published in last week’s Coda Currents newsletter. Sign up here.

The post Putin’s panopticon appeared first on Coda Story.

❌