Le 29 Avril 2025 jâai Ă©tĂ© (avec dâautres) auditionnĂ© Ă lâassemblĂ©e nationale dans le cadre de la commission sur « Les effets de Tiktok sur les mineurs ». Lâensemble des auditions (qui se poursuivent) est disponible en ligne sur le site de lâassemblĂ©e.
Initialement invitĂ© en compagnie dâAurĂ©lie Jean et de David Chavalarias qui ont finalement dĂ» dĂ©cliner (jâespĂšre quâils pourront tout de mĂȘme ĂȘtre entendus), le pĂ©rimĂštre de cette audition a finalement rĂ©uni :
- Mme Sihem Amer-Yahia, directrice de recherche au CNRS, directrice adjointe du Laboratoire dâinformatique de Grenoble
- Mme Lucile Coquelin, maĂźtre de confĂ©rences en sciences de lâinformation et de la communication, Laboratoire DyLIS, InspĂ© Normandie Rouen Le Havre, Sciences Po Paris
- M. Marc Faddoul, directeur et cofondateur dâAI Forensics.
- et moi


Pour prĂ©parer cette audition, on nous avait envoyĂ© une liste de 18 questions. Je vous livre ci-dessous les rĂ©ponses que jây ai apportĂ©es et que jâai Ă©galement transmises Ă ladite commission. Comme jâaime bien partager ma vie avec mes Ă©tudiant.e.s du meilleur BUT Infocom de la galaxie connue, je leur avais racontĂ© et annoncĂ© cette audition et leur avais aussi demandĂ© de rĂ©pondre Ă quelques-unes des questions qui mâavaient Ă©tĂ© adressĂ©es, en le faisant depuis leur point de vue dâutilisateur et dâutilisatrice de la plateforme. Jâen ai extrait (avec leur accord et en les anonymisant) quelques verbatims que vous trouverez en toute fin dâarticle.
A titre personnel cette expĂ©rience fut Ă la fois intĂ©ressante mais essentiellement frustrante. Il sâagit dâun dispositif « court » : nous Ă©tions ici 4 universitaires Ă ĂȘtre auditionnĂ©s sur un temps dâun peu plus dâune heure. Ajoutez-y les questions et les propos « liminaires » et cela reste court. Mais chaque commission auditionne Ă©normĂ©ment de personnes et il est donc normal et nĂ©cessaire de limiter la temporalitĂ© de ces temps dâĂ©change. Il y a aussi une forme de solennitĂ© biaisĂ©e : nous sommes conviĂ©s en tant que praticiens et praticiennes spĂ©cialistes dâun sujet auquel nous avons consacrĂ© plusieurs dizaines dâannĂ©es de recherche, de travaux, dâouvrages et dâarticles, mais nous nous adressons Ă la puissance publique dans un cadre dont il est difficile de dĂ©terminer quelle est la part attendue de lâanalyse rĂ©flexive, et celle de lâopĂ©rationnalitĂ© immĂ©diate exigĂ©e ; car Ă la fin, tout cela devra se traduire par des mesures concrĂštes susceptibles de produire ou dâorienter des cadres lĂ©gislatifs Ă lâorigine de dĂ©cisions politiques. Le dernier point de difficultĂ© est que nous dĂ©barquons dans cette commission sans savoir quel est le niveau rĂ©el dâacculturation des dĂ©putĂ©s aux Ă©lĂ©ments que nous allons prĂ©senter. Jâavais de mon cĂŽtĂ© Ă©coutĂ© lâensemble des auditions prĂ©cĂ©dentes pour tenter dâĂ©viter les redites et produire un minimum de continuitĂ© dans les travaux de la commission, mais mĂȘme en ayant pris le temps de le faire, lâexercice reste dĂ©licat.
Tout ça pour dire que je suis bien content de pouvoir, au calme, transmettre par Ă©crit mes rĂ©flexions Ă cette commission, car si elle devait se fonder uniquement sur ce que je lui ai dĂ©clarĂ© Ă lâoral (ainsi que mes camarades dâaudition), je ne pense pas quâelle serait trĂšs avancĂ©e ou informĂ©e
JâespĂšre donc surtout quâelle pourra prendre le temps de lire tout cela (ainsi que la synthĂšse que jâen dresse Ă la fin en mode TLDR).
Cela a commencé ainsi.
[On nous demande dâabord de nous prĂ©senter briĂšvement et on nous laisse un « propos liminaire » de 5 minutes] Je suis enseignant chercheur en sciences de lâinformation. Si les universitaires qui Ă©tudient la sociologie se dĂ©finissent comme sociologues, je peux me dĂ©finir comme « mĂ©diologue ». JâĂ©tudie les mĂ©dias numĂ©riques (moteurs de recherche, rĂ©seaux sociaux, plateformes) et ce quâils modifient dans notre rapport Ă lâinformation, Ă la connaissance, aux autres et Ă nous-mĂȘmes. Depuis 25 ans je documente lâĂ©volution de ces outils avec â essentiellement â des mĂ©thodes dâobservation participante. Et si je devais rĂ©sumer 25 ans de recherche en une seule phrase je dirai que tout est de la faute du modĂšle Ă©conomique de ces plateformes. Ou pour reprendre le titre dâune confĂ©rence dâune collĂšgue, Zeinep Tufekci : « nous avons construit une dystopie, juste pour obliger les gens Ă cliquer sur des publicitĂ©s« .
[Propos liminaire 1] En guise de propos liminaires je veux rappeler et insister sur le fait que ces « rĂ©seaux sociaux » qui sont en fait des « mĂ©dias sociaux » doivent ĂȘtre pensĂ©s et analysĂ©s comme des biotopes particuliers dans un Ă©cosystĂšme gĂ©nĂ©ral qui est celui de lâĂ©conomie des mĂ©dias (radio, tĂ©lĂ©, presse, etc.). Et que ces mĂ©dias sociaux procĂšdent (en partie) comme des parasites qui vont littĂ©ralement venir phagogyter les autres Ă©cosystĂšmes mĂ©diatiques. Les exemples sont nombreux. Il y avait eu Ă lâĂ©poque (circa 2010) le fait que plein de sites de presse ou de mĂ©dias avaient acceptĂ© dâinstaller sur leur site le bouton « Like » de Facebook qui avait fait dâeux de simples vassaux numĂ©riques et mĂ©diatiques de cette plateforme devenue hĂŽte. JâĂ©crivais alors et alertais : « Le Like tuera le lien« .
Aujourdâhui il y a toujours des liens dâĂ©cho, de rĂ©sonance trĂšs forts entre diffĂ©rents Ă©cosystĂšmes mĂ©diatiques mais dans certains cas dâusages, auprĂšs de certaines populations, pour certains segments dâĂąge ou dâĂ©ducation, les mĂ©dias sociaux sont le premier biotope informationnel. Câest cette question quâil faut adresser (pour TikTok comme pour les autres) et pour laquelle la part « Ă©ditoriale » de ce que lâon appelle « les algorithmes » doit ĂȘtre clarifiĂ©e, dĂ©battue, encadrĂ©e. EncadrĂ©e de maniĂšre contraignante.
[Propos liminaire 2] Les algorithmes sont comme des ritournelles auxquelles on sâaccoutume Ă force de les frĂ©quenter, que lâon retient â et que lâon maĂźtrise parfois â dans une forme dâintelligence situationnelle altĂ©rĂ©e par lâexpĂ©rience sans cesse renouvelĂ©e de cette frĂ©quentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses Ă la fois :
- Dâabord ce qui nous rassure par une forme de rĂ©gularitĂ© attendue, que lâon devine et anticipe.
- Ensuite ce qui installe lâorganisation nous semblant familiĂšre dâun espace que lâon sait public mais que lâon perçoit et que lâon investit en partie comme intime : ils « enchantent » lâĂ©ventail de nos affects et sont lâĂ©tat de nature de nos artifices sociaux.
- Enfin ils sont ce qui, parfois, nous accompagne et nous Ă©quipe aussi dans la dĂ©couverte dâun ailleurs, parce quây compris au sein de reprĂ©sentations cloisonnĂ©es, ils sont des « chants traversants. »
[Propos liminaire 3] La question nous est posĂ©e de savoir si lâon peut « exiger des rĂ©seaux sociaux dâĂȘtre entiĂšrement transparents sur leur algorithme« . Oui. En tout cas sur la partie Ă©ditoriale, cela me semble nĂ©cessaire de lâexiger. En dĂ©finissant le pĂ©rimĂštre de cette Ă©ditorialisation pour Ă©viter quâelle ne puisse ĂȘtre totalement instrumentalisĂ©e (par exemple si tout le monde sait quâun bouton like vaut 1 point et quâun bouton colĂšre vaut 5 points, nos comportements sont susceptibles de changer).
Mais plus fondamentalement nous parlons dâoutils qui ont totalement explosĂ© le cadre anthropologique de la communications entre les ĂȘtres humains. On peut se parler Ă distance, en absence, Ă la fois Ă plusieurs et en dialogue, en multimodalitĂ©, via des avatars, dans des mondes « rĂ©els » ou dans dâautres « virtuels », etc.
Nous parlons dâoutils qui touchent chaque jour et de maniĂšre rĂ©currente davantage de monde que jamais aucun mĂ©dia nâa jamais Ă©tĂ© en capacitĂ© dâen toucher et ce dans toute lâhistoire de lâhumanitĂ©. Ce ne sont pas seulement des mĂ©dias de masse mais des mĂ©dias dâhyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la sĂ©quentialitĂ© hypercourte : notre cerveau nâest pas fait, nâest pas calibrĂ© pour sâinformer par tranches de 6 Ă 15 secondes en passant dâun sujet Ă un autre.
Cette triple rĂ©volution anthropologique de la communication ne peut sâaccommoder de demi-mesures ou de clairs-obscurs lĂ©gislatifs et rĂ©glementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a Ă©tĂ© dĂ©montrĂ©e et documentĂ©e Ă de trĂšs nombreuses reprises, grĂące notamment aux lanceurs et lanceuses dâalertes.
Et a fortiori encore dans un monde oĂč ces applications et plateformes sont devenues totalement indissociables de pouvoirs politiques quâelles servent toujours par intĂ©rĂȘt (soit pour Ă©chapper Ă des rĂ©gulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
[Propos liminaire 4] Je veux citer ce que jâĂ©crivais dans lâarticle « Ouvrir le code des algorithmes ne suffit plus »
AprĂšs les mensonges de lâindustrie du tabac sur sa responsabilitĂ© dans la conduite vers la mort de centaines de millions de personnes, aprĂšs les mensonges de lâindustrie du pĂ©trole sur sa responsabilitĂ© dans le dĂ©rĂšglement climatique, nous faisons face aujourdâhui au troisiĂšme grand mensonge de notre modernitĂ©. Et ce mensonge est celui des industries extractivistes de lâinformation, sous toutes leurs formes. (âŠ) Et mĂȘme sâils sâinscrivent, comme je le rappelais plus haut, dans un Ă©cosystĂšme mĂ©diatique, Ă©conomique et politique bien plus vaste quâeux, leur part Ă©mergĂ©e, câest Ă dire les mĂ©dias sociaux, sont aujourdâhui pour lâessentiel de mĂȘme nature que la publicitĂ© et le lobbying le furent pour lâindustrie du tabac et du pĂ©trole : des outils au service dâune diversion elle-mĂȘme au service dâune perversion qui nâest alimentĂ©e que par la recherche permanente du profit.
Les questions de la commission (et mes réponses).
Ces questions étaient organisées en cinq grandes parties :
- Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux.
- Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
- Sur la transparence des réseaux sociaux
- Sur lâĂ©ducation aux rĂ©seaux sociaux
- Questions générales
Sur le fonctionnement des algorithmes utilisés par les réseaux sociaux
1. Quels sont les multiples facteurs pris en compte par les algorithmes utilisés par les réseaux sociaux, notamment pour déterminer les contenus présentés aux utilisateurs ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
De maniÚre générale les algorithmes de recommandation fonctionnent sur 4 critÚres.
- Le premier est celui de la personnalisation dĂ©clarative (on dit ce que lâon aime ou ce que lâon nâaime pas).
- Le second est celui de lâhistorique de navigation rĂ©el : indĂ©pendamment de ce que lâon dit aimer, les plateformes « voient » ce que lâon consomme rĂ©ellement et ce sur quoi on est appĂ©tent.
- Le troisiĂšme critĂšre est celui de la moyenne statistique (comparativement Ă dâautres ayant dĂ©clarĂ© les mĂȘmes centres dâintĂ©rĂȘt, et/ou dans le mĂȘme groupe dâĂąge, de genre, etc.)
- le quatriĂšme critĂšre est celui de la stochastique, de lâalĂ©atoire. Depuis le dĂ©but des systĂšmes de recommandation, les ingĂ©nieurs qui fabriquent ces algorithmes savent que si on ne sort pas de temps en temps de nos centres dâintĂ©rĂȘt dĂ©claratifs on va avoir des phĂ©nomĂšnes de dĂ©sintĂ©rĂȘt ou de lassitude. Ils injectent donc un peu (ou beaucoup) dâalĂ©atoire pour « affiner » et « ajuster » mais aussi pour (souvent) nous « ramener » des des contenus plus directement monĂ©tisables. La question câest de savoir jusquâoĂč peut aller cet alĂ©atoire (plus ou moins loin de nos habitudes de. navigation et de consultation) et de quelle maniĂšre et en quelles proportions il peut-ĂȘtre corrĂ©lĂ© Ă dâautres moyennes statistiques.
Reste la particularitĂ© de lâalgorithme de Tiktok qui est la question du rythme. Alors que la durĂ©e moyenne dâune vidĂ©o TikTok est de 15 ou 16 secondes, toutes les 3, 4, 5 ou 6 secondes, donc sur des temps et des rythmes extrĂȘmement courts, il y a une interaction, donc une documentation de notre pratique, donc une information pour lâalgorithme. La vitesse de consommation est en elle-mĂȘme une information. Elle fonctionne comme un arc rĂ©flexe. Chaque vidĂ©o, chaque contenu affichĂ© est lâĂ©quivalent du petit coup de marteau sur votre genou pour dĂ©clencher lâarc rĂ©flexe. Sauf que cette fois lâarc rĂ©flexe recherchĂ© est un arc rĂ©flexe cognitif. Cette rythmique a Ă©tĂ© copiĂ©e par les autres plateformes : Reels sur Insta, Spotlights sur Snapchat, Shorts sur Youtube.
A cette rythmique sâajoute aussi la multiplication des points dâentrĂ©e dans les logiques de recommandation : « Pour toi » mais aussi « abonnements » (« suivis »), « amis », « lives », « explorer ».
Et une stratĂ©gie du fou, de lâirrationalitĂ© : certains contenus mis en avant disposent de chiffres de visibilitĂ© et dâengagement hallucinants (plusieurs centaines de millions de vues) alors que dâautres beaucoup plus travaillĂ©s et pertinents ne dĂ©colleront jamais. La question des mĂ©triques est par ailleurs lĂ aussi une spĂ©cificitĂ© de TikTok qui fonctionne comme un vertige, une ivresse de notoriĂ©tĂ© : la moindre vidĂ©o peut atteindre des nombres de vues immensĂ©ment plus important que sur dâautres plateformes. Comme sur les autres plateformes, absolument rien ne permet en revanche dâauthentifier la sincĂ©ritĂ© de ces mĂ©triques.
2. Les algorithmes des réseaux sociaux peuvent-ils favoriser certains types de contenus ? Le font-ils effectivement ? Si oui, selon quels facteurs et quelles modalités ? Identifiez-vous des spécificités propres au fonctionnement de TikTok ?
Dans lâabsolu la rĂ©ponse est oui car la nature mĂȘme dâun algorithme est de trier et dâorganiser lâinformation et les contenus. Donc de hiĂ©rarchiser. Donc dâĂ©ditorialiser (cf « Un algorithme est un Ă©ditorialiste comme les autres« ). Ce qui est plus complexe câest de documenter finement la maniĂšre dont ils procĂšdent. Mais on a eu un exemple indĂ©passable avec le rachat de Twitter par Elon Musk et la maniĂšre dont du jour au lendemain la ligne Ă©ditoriale a totalement changĂ© (cf mon article « ouvrir le code des algorithmes ne suffit plus« ).
[Nota-Bene] Jâentends le terme « dâĂ©ditorialisation » comme le dĂ©finit Marcello Vitali-Rosati : « LâĂ©ditorialisation est lâensemble des dispositifs qui permettent la structuration et la circulation du savoir. En ce sens lâĂ©ditorialisation est une production de visions du monde, ou mieux, un acte de production du rĂ©el. »
Lâautre enjeu câest de comprendre Ă quels intĂ©rĂȘts ces changements correspondent ; un algorithme Ă©tant nĂ©cessairement la dĂ©cision de quelquâun dâautre, quâest-ce qui motive ces dĂ©cisions ?
- LâidĂ©ologie ? Exemples rĂ©cents et rĂ©currents de rĂ©tablissement de comptes masculinistes ou pro-avortement, prime donnĂ©e Ă ces contenus, etc.
- La gĂ©opolitique ? Exemples rĂ©cents de contenus plutĂŽt pro-israĂ«liens sur Facebook aprĂšs le 7 Octobre (en tout cas invisibilisation de contenus pro-palestiniens) Ă lâinverse de contenus plutĂŽt pro-palestiniens sur TikTok.
- Lâargent (recettes et monĂ©tisation publicitaire) ?
Un concept clĂ© pour comprendre la favorisation de certains contenus câest celui de la publicitarisation. La « publicitarisation » câest une notion dĂ©finie ainsi par ValĂ©rie Patrin-LeclĂšre, enseignante au CELSA :
« une adaptation de la forme, des contenus, ainsi que dâun ensemble de pratiques professionnelles mĂ©diatiques Ă la nĂ©cessitĂ© dâaccueillir la publicitĂ©. Cette adaptation consiste en un amĂ©nagement destinĂ© Ă rĂ©duire la rupture sĂ©miotique entre contenu Ă©ditorial et contenu publicitaire â elle se traduit, par exemple, par lâaugmentation des contenus Ă©ditoriaux relevant des catĂ©gories « sociĂ©tĂ© » et « consommation » ou par le dĂ©ploiement de formats facilitant lâintĂ©gration publicitaire, comme la « tĂ©lĂ©rĂ©alitĂ© » â mais aussi en un mĂ©nagement Ă©ditorial des acteurs Ă©conomiques susceptibles dâapporter des revenus publicitaires au mĂ©dia (âŠ) »
Cette publicitarisation est lĂ encore trĂšs ancienne. Un des responsables partenariats de Google (David Eun) dĂ©clarait il y a plus de 20 ans : « Ads Are Content ». Traduction : « les publicitĂ©s sont du contenu« , et par extension, « les publicitĂ©s câest le contenu« . Le rĂ©sultat aujourdâhui câest ce verbatim dâutilisateurs et dâutilisatrices pour qui « le fait que le contenu est sponsorisĂ© nâest pas toujours explicite et mĂȘme parfois volontairement dissimulĂ©. Les publicitaires reprennent Ă©galement les codes des influenceurs et les trends, ce qui floute la frontiĂšre entre une recommandation personnelle et un contenu sponsorisĂ©. »
Concernant la dimension gĂ©opolitique ou idĂ©ologique, lĂ oĂč TikTok est un objet encore plus complexe câest parce que lui-mĂȘme est en quelque sorte le premier rĂ©seau social directement, presquâontologiquement gĂ©opolitique. Créé par la Chine, comme un facteur, vecteur, agent dâinfluence. Mais avec des dĂ©clinaisons diffĂ©rentes dans chaque pays ou zone : le TikTok Chinois nâest pas le TikTok amĂ©ricain qui lui-mĂȘme nâest pas exactement le TikTok europĂ©en, etc.
Une autre particularitĂ© forte de lâalgorithmie de TikTok (en plus de son rythme propre) câest ce quâon appelle le « beauty / pretty privilege » et qui fait que des phĂ©nomĂšnes comme le SkinnyTok ont un impact majeur presquâindĂ©pendamment du nombre dâutilisateurs actifs de la plateforme (saisine par Clara Chappaz de lâARCOM et de la commission europĂ©enne Ă ce sujet). Et qui fait que certains corps (noirs, gros, trans, etc.) sont invisibilisĂ©s ou dĂ©nigrĂ©s.
Les réseaux et médias sociaux, via leurs décisions et tamis algorithmiques, sont essentiellement deux choses :
- des machines Ă cash
- des machines Ă fabriquer de la norme
Et plus il y aura de normes édictées par les médias sociaux, plus elles seront facilement suivies (public captif), plus elles seront publicitarisables, plus il y aura de cash, plus il y aura de nouveaux espaces de publicitarisation. Ad Libitum.
Et pour ĂȘtre ces machines Ă cash et Ă fabriquer de la norme, les algorithmes de ces plateformes ont un rapport particulier Ă la mĂ©moire : ils sont structurellement dans une forme dâhypermnĂ©sie permanente (du fait de la conservation de nos historiques) mais sont conjoncturellement tout Ă fait capables dâamnĂ©sie lorsque cela les arrange ou le nĂ©cessite (par exemple pour nous re-proposer des contenus dont nous avons dit quâils ne nous intĂ©ressaient pas mais qui sont rentables pour la plateforme).
3. Quels sont les consĂ©quences du modĂšle Ă©conomique des rĂ©seaux sociaux et particuliĂšrement de TikTok quant Ă la construction et la mise en Ćuvre des algorithmes utilisĂ©s ?
Ils cadrent tout. Au sens oĂč le sociologue Erving Goffman parle des « cadres de lâexpĂ©rience ».
Toute expĂ©rience humaine renvoie, selon Goffman, Ă un cadre donnĂ©, gĂ©nĂ©ralement partagĂ© par toutes les personnes en prĂ©sence ; ce cadre oriente leurs perceptions de la situation ainsi que les comportements quâelles adoptent par rapport Ă elle. Ceci Ă©tant posĂ©, lâauteur sâattache, selon son habitude, Ă classer les diffĂ©rents types de cadres, en distinguant dâabord les cadres primaires des cadres transformĂ©s. (Source)
Ces cadres vont ensuite ĂȘtre « modalisĂ©s », câest Ă dire subir diffĂ©rentes transformations. Et donc la consĂ©quence du modĂšle Ă©conomique des rĂ©seaux sociaux câest que la publicitĂ©, ou plus exactement la publicitarisation est la premiĂšre modalisation de ce cadre dâexpĂ©rience commun quâest la navigation dans les contenus de chaque plateforme.
La publicitarisation fabrique littĂ©ralement de la consommation (au sens Ă©conomique mais aussi informationnel et navigationnel), consommation qui elle-mĂȘme fabrique des formes de compulsion (FOMO, etc.) qui elles-mĂȘmes viennent nourrir et optimiser la rentabilitĂ© du cadre de la publicitarisation.
Sur ce sujet, je cite souvent lâexemple de la position des deux fondateurs du moteur de recherche Google, Serguei Brin et Larry Page; En 1998, ils publient un article scientifique pour expliquer le fonctionnement de lâalgorithme Pagerank qui va rĂ©volutionner le monde de la recherche en ligne. Et dans une annexe de leur article scientifique ils Ă©crivent :
« nous dĂ©clarons que les moteurs de recherche reposant sur un modĂšle Ă©conomique de rĂ©gie publicitaire sont biaisĂ©s de maniĂšre inhĂ©rente et trĂšs loin des besoins des utilisateurs. Sâil est vrai quâil est particuliĂšrement difficile, mĂȘme pour les experts du domaine, dâĂ©valuer les moteurs de recherche, les biais quâils comportent sont particuliĂšrement insidieux. Une nouvelle fois, le Google de ces derniĂšres annĂ©es en est un bon exemple puisque nous avons vendu Ă des entreprises le droit dâĂȘtre listĂ© en lien sponsorisĂ© tout en haut de la page de rĂ©sultats pour certaines requĂȘtes. Ce type de biais est encore plus insidieux que la « simple » publicitĂ© parce quâil masque lâintention Ă lâorigine de lâaffichage du rĂ©sultat. Si nous persistons dans ce modĂšle Ă©conomique, Google cessera dâĂȘtre un moteur de recherche viable. »
Et ils concluent par :
« Mais nous croyons que le modĂšle publicitaire cause un nombre tellement important dâincitations biaisĂ©es quâil est crucial de disposer dâun moteur de recherche compĂ©titif qui soit transparent et transcrive la rĂ©alitĂ© du monde. »
On a donc des plateformes qui « ontologiquement » ont pleine conscience et connaissance de la dĂ©naturation opĂ©rĂ©e par leur modĂšle de rĂ©gie publicitaire mais qui passent outre Ă la seule fin dâune rentabilitĂ© maximale. Cela pourrait ĂȘtre simplement considĂ©rĂ© comme du cynisme. Mais Ă lâĂ©chelle des dĂ©gĂąts produits Ă la fois dans le dĂ©bat public mais aussi dans la psychĂ© de certains des plus jeunes ou des plus fragiles, câest de lâirresponsabilitĂ©. Et câest pĂ©nalement condamnable. Cela devrait lâĂȘtre en tout cas.
4. Quelles sont les consĂ©quences des opinions des concepteurs des algorithmes utilisĂ©s par les rĂ©seaux sociaux, et notamment de leurs Ă©ventuels biais, dans la construction et la mise en Ćuvre de ces algorithmes ?
Jâai dĂ©jĂ rĂ©pondu plus haut avec lâexemple du rachat de Twitter par Musk et dans mon article « Ouvrir le code des algorithmes ne suffit plus« . Mais on peut aussi complĂ©ter par le rĂ©cent changement de Zuckerberg qui impacte directement les contenus diffusĂ©s sur Facebook. Encore une fois : il nây a pas dâalgorithmes, juste la dĂ©cision de quelquâun dâautre. TrĂšs longtemps on a refusĂ© de le voir. Aujourdâhui, plus le monde se clive, plus les conflits sont mondialisĂ©s dans leur mĂ©diatisation, plus les plateformes sont par nature ou par intĂ©rĂȘt des outils de Soft Power, et plus lâopinion ou lâagenda de leurs concepteurs est dĂ©terminant et cadrant.
Ce qui est trĂšs frappant aujourdâhui câest ce quâĂ©crivait Kate Crawford dans son Atlas de lâIA (2021) et qui sâapplique tout particuliĂšrement aux algorithmes en tant que systĂšmes de pouvoir et que facteurs de puissance.
(âŠ) il nây a pas de boĂźte noire unique Ă ouvrir, pas de secret Ă rĂ©vĂ©ler, mais une multitude de systĂšmes de pouvoir entrelacĂ©s. La transparence totale est donc un objectif impossible Ă atteindre. Nous parviendrons Ă mieux comprendre le rĂŽle de lâIA dans le monde en nous intĂ©ressant Ă ses architectures matĂ©rielles, Ă ses environnements contextuels et aux politiques qui la façonnent, et en retraçant la maniĂšre dont ils sont reliĂ©s.
Pour les algorithmes, câest exactement la mĂȘme chose : il faut nous intĂ©resser simultanĂ©ment Ă leurs architectures matĂ©rielles, Ă leurs environnements contextuels et aux politiques qui les façonnent, et retracer la maniĂšre dont ils sont reliĂ©s. Un algorithme, aujourdâhui, nâest plus uniquement une suite dâinstructions logico-mathĂ©matiques, câest une suite de systĂšmes de pouvoirs entrelacĂ©s.
5. Faut-il considĂ©rer les algorithmes comme des objets statiques ? Comment un algorithme Ă©volue-t-il ? Peut-il Ă©voluer sans intervention humaine, en apprenant de son propre fonctionnement ? Ă votre connaissance, comment cela sâapplique-t-il aux rĂ©seaux sociaux, et particuliĂšrement Ă TikTok ?
Je reprends ici ce que jâindiquais dans mes propos liminaires. Les algorithmes sont comme des ritournelles auxquelles on sâaccoutume Ă force de les frĂ©quenter, que lâon retient â et que lâon maĂźtrise parfois â dans une forme dâintelligence situationnelle altĂ©rĂ©e par lâexpĂ©rience sans cesse renouvelĂ©e de cette frĂ©quentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage « Mille Plateaux », les algorithmes sont trois choses Ă la fois :
- Dâabord ce qui nous rassure par une forme de rĂ©gularitĂ© attendue, que lâon devine et anticipe.
- Ensuite ce qui installe lâorganisation nous semblant familiĂšre dâun espace que lâon sait public mais que lâon perçoit et que lâon investit en partie comme intime : ils « enchantent » lâĂ©ventail de nos affects et sont lâĂ©tat de nature de nos artifices sociaux.
- Enfin ils sont ce qui, parfois, nous accompagne et nous Ă©quipe aussi dans la dĂ©couverte dâun ailleurs, parce quây compris au sein de reprĂ©sentations cloisonnĂ©es, ils sont des « chants traversants. »
Lâalgorithme de TikTok nâest pas plus intelligent, plus efficace ou plus machiavĂ©lique que dâautres ; simplement, nous passons beaucoup plus de temps Ă nous en occuper, et nous le faisons, du fait de sa rythmique propre, avec une frĂ©quence beaucoup plus Ă©levĂ©e et avec un soin sans commune mesure avec les autres. Notre rapport Ă lâalgorithme de Tiktok relĂšve littĂ©ralement dâune forme de clinique au sens Ă©tymologique du terme, câest Ă dire empruntĂ© au grec klinikos, « propre au mĂ©decin qui exerce son art prĂšs du lit de ses malades » (lui-mĂȘme de klinĂȘ, « le lit »). Selon que nous adoptons le point de vue de la plateforme ou le notre, nous sommes le mĂ©decin ou le malade.
6. Comment les algorithmes utilisĂ©s par les rĂ©seaux sociaux, et particuliĂšrement TikTok, sâadaptent-ils Ă des comportements humains parfois changeants dâun jour Ă lâautre ?
Par effet dâentrainement. Nous Ă©duquons et entraĂźnons les algorithmes au moins autant quâils ne nous formatent en retour. Et tout parciculiĂšrement celui de TikTok comme je lâexpliquais juste ci-dessus.
Et puis par leur rythme (cf supra). Lâalgorithme se moque de savoir si vous ĂȘtes de gauche aujourdâhui alors que vous Ă©tiez de droite hier, vĂ©gĂ©tarien aujourdâhui alors que vous Ă©tiez vĂ©gan hier. Ce qui intĂ©resse les concepteurs de lâalgorithme câest la captation en temps rĂ©el de lâensemble de ce qui dĂ©finit votre surface informationnelle numĂ©rique. Lâalgorithme a pour objet de scanner en permanence et si possible en temps rĂ©el des Ă©lĂ©ments qui constituent Ă la fois votre surface informationnelle (ce qui vous intĂ©resse), votre surface sociale (avec qui partagez-vous ces intĂ©rĂȘts) et votre surface comportementale (« sur quoi » ou « avec qui » passez-vous plus ou moins de temps).
Le grand problĂšme est dâailleurs aussi celui de la personnalisation : câest Ă dire que, sur certains types de requĂȘtes en tout cas, plus personne ne voit la mĂȘme chose en rĂ©ponse Ă la mĂȘme question (ceci vaut pour les plateformes dans lesquels on dĂ©marre la navigation par une recherche). Et pour les plateformes, comme TikTok, dans lesquelles il nâest besoin dâaucun amorçage mais uniquement de scroller, tout le monde Ă lâimpression de voir des choses diffĂ©rentes (personnalisĂ©es) alors quâen fait tout le monde voit pour lâessentiel la mĂȘme chose ; mais cette « mĂȘme chose » se rĂ©duit exclusivement Ă ce qui est bon Ă©conomiquement pour la plateforme, câest Ă dire soit ce qui fait le buzz et va vous obliger Ă rĂ©agir (polarisation Ă©motionnelle), soit ce qui vous maintient attentionnellement captif et peut donc possiblement renforcer des troubles conatifs (« SymptĂŽmes liĂ©s Ă une rĂ©duction des capacitĂ©s dâeffort, dâinitiative, et Ă une dĂ©gradation de la volontĂ© et des tendances Ă lâaction. Les formes majeures peuvent aboutir Ă une inactivitĂ© avec repli, parfois incurie et rĂ©sistance aux sollicitations de lâentourage, voire indiffĂ©rence affective.« )
Je ne sais pas si lâimage vous parlera mais plutĂŽt que lâidĂ©e des « bulles de filtres » dâEli pariser (idĂ©e que les algorithmes enferment chacun dâentre nous dans une bulle informationnelle plus ou moins Ă©tanche) je parlais de mon cĂŽtĂ© dâun comportement dâautarcithĂ©caires ; cette idĂ©e que, du point de vue des plateformes et de leurs algorithmes, il sâagit de nous faire croire que nous sommes en situation dâautarcie informationnelle, câest Ă dire de nous donner lâimpression que ce quâelles nous donnent Ă voir est Ă la fois suffisant, complet et reprĂ©sentatif, prĂ©cisĂ©ment pour que nous perdions progressivement le besoin dâaller regarder ailleurs ou mĂȘme simplement de considĂ©rer quâil existe un ailleurs informationnel. Ou pour le dire dâune autre maniĂšre, comment nous faire passer de la peur de rater quelques chose (FOMO) Ă la certitude dâune non-nĂ©cessitĂ© dâaller voir ailleurs.
7. Peut-on envisager des algorithmes « Ă©thiques », notamment eu Ă©gard aux enjeux de santĂ© mentale ? Pouvez-vous expliquer le concept dâ« informatique sociale » ?
Pour moi lâĂ©thique algorithmique passe par le rendu public de lâensemble des critĂšres et mĂ©triques relevant de formes dâĂ©ditorialisation. Et pour rĂ©pondre par une comparaison, bien sĂ»r que oui, on peut tout Ă fait imaginer des algorithmes Ă©thiques comme on peut imaginer des vĂȘtements fabriquĂ©es de maniĂšre Ă©thique, des aliments fabriquĂ©s de maniĂšre Ă©thique et qui ne soient pas immensĂ©ment transformĂ©s. La seule question est : pourquoi ne le faisons-nous pas ? Pourquoi lorsquâil en existe parfois personne ne sây intĂ©resse ?
La rĂ©ponse Ă ces questions est Ă©videmment la mĂȘme que pour lâagro-alimentaire ou les vĂȘtements : câest une question de coĂ»t (ce qui nâest pas Ă©thique est moins cher) et de cadres sociĂ©taux de consommation (oĂč lâon minore et oĂč lâon invisibilise les problĂšmes posĂ©s par cette absence dâĂ©thique).
A chaque fois il faut des drames pour que la sociĂ©tĂ© parvienne Ă se rĂ©veiller temporairement. Comme lors de lâeffondrement du Rana Plaza au Bangladesh en 2013 qui fait exploser le scandale de la fast fashion. Mais malheureusement Ă chaque fois au lendemain de ces rĂ©veils sociĂ©taux il se produit deux choses : le pouvoir politique ne saisit pas lâopportunitĂ© impĂ©rieuse de lĂ©gifĂ©rer, et lorsquâil le fait, la puissance du lobbying et du pantouflage vient tout Ă©dulcorer ou tout remettre Ă plus tard.
En complĂ©ment, il y a un point particulier dâune Ă©thique algorithmique qui consiste Ă se mettre en situation (pour les plateformes), oĂč Ă donner lâinjonction (pour la puissance publique) de casser les chaĂźnes de contamination virales. De ralentir. Dâajouter de la friction dans les possibilitĂ©s de partage, etc. On a vu et on a documentĂ© que cela marchait, et que les plateformes le savaient. Je cite ici, avec les exemples en lien, ce que jâĂ©crivais en Mars 2022 dans mon article « Par-delĂ le Like et la colĂšre » :
« Ensuite il faut casser les chaĂźnes de contamination virales qui sont Ă lâorigine de lâessentiel des problĂšmes de harcĂšlement, de dĂ©sinformation, et des discours de haine dans leur globalitĂ©. Et lĂ encore le cynisme des plateformes est aussi Ă©vident que documentĂ© puisquâelles ont elles-mĂȘmes fait la dĂ©monstration, et Ă plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que lâon peut inviter par dĂ©faut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transfĂ©rer des messages, elles diminuaient aussi considĂ©rablement la vitesse de circulation des fake news, notamment en pĂ©riode Ă©lectorale ; que si elles supprimaient la visibilitĂ© de nombre de likes ou de rĂ©actions diverses sur un post (et que seul le crĂ©ateur du post Ă©tait en mesure de les voir), elles jouaient alors sur les effets souvent dĂ©lĂ©tĂšres de conformitĂ© (et de pression) sociale et quâelles permettaient dâaller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens sâils avaient bien lu lâarticle quâils sâapprĂȘtaient Ă partager avant que de le faire sous le coup de lâĂ©motion, elles diminuaient lĂ encore la circulation de fausses informations de maniĂšre tout Ă fait significative. Il y a encore quelques jours, câĂ©tait Youtube qui annonçait supprimer lâaffichage public du compteur des « dislikes » pour « protĂ©ger » les crĂ©ateurs notamment de formes de harcĂšlement, un effet quâil connaĂźt et documente pourtant depuis dĂ©jĂ de longues annĂ©es. »
Sur les données personnelles utilisées par les algorithmes des réseaux sociaux
8. Pouvez-vous expliquer le concept dâ« identitĂ© numĂ©rique » ? Quelles donnĂ©es personnelles partageons-nous lorsque nous utilisons les rĂ©seaux ? Comment ces donnĂ©es sont-elles utilisĂ©es par les algorithmes des rĂ©seaux sociaux et particuliĂšrement de TikTok ?
Pour reprendre, en lâactualisant, la dĂ©finition que jâen donnais dans mon ouvrage Ă©ponyme paru en 2013, je dirai que :
LâidentitĂ© numĂ©rique peut ĂȘtre dĂ©finie comme la collection des traces (Ă©crits, contenus audios ou vidĂ©os, messages sur des forums, identifiants de connexion, navigations, Ă©lĂ©ments dâinteractions, etc.) que nous laissons derriĂšre nous, consciemment ou inconsciemment, au fil de nos activitĂ©s connectĂ©es, et le reflet de cet ensemble de traces tel quâil apparaĂźt « remixĂ© » par les moteurs de recherche ainsi que par les mĂ©dias et les plateformes sociales, et qui sont autant dâĂ©lĂ©ments en capacitĂ© de nourrir des choix algorithmiques visant Ă mieux cibler les contenus qui nous seront proposĂ©s dans le cadre du modĂšle Ă©conomique de la plateforme concernĂ©e.
(version actualisĂ©e de Ertzscheid, Olivier. Quâest-ce que lâidentitĂ© numĂ©rique ?. OpenEdition Press, 2013, https://doi.org/10.4000/books.oep.332.)
9. Est-il possible de limiter ce partage de donnĂ©es personnelles ? Est-il possible et souhaitable dâen limiter la collecte, par exemple par le paramĂ©trage des rĂ©seaux sociaux ?
Concernant la premiĂšre partie de la question (est-il possible dâen limiter le partage), et pour autant quâelle sâadresse aux utilisateurs et utilisatrices de ces plateformes, je rĂ©ponds oui pour les donnĂ©es personnelles « dĂ©claratives » (nous pouvons disposer dâun tamis plus ou moins large). Mais je rĂ©ponds « non » pour les donnĂ©es personnelles qui relĂšvent de la sphĂšre comportementale (ce que lâon voit, ce avec quoi lâon interagit, etc.).
Si la question sâadresse aux plateformes, alors lĂ câest un oui pour les donnĂ©es personnelles dĂ©claratives comme pour les donnĂ©es comportementales. Elles sont tout Ă fait en capacitĂ© dâen limiter la collecte (mais cela vient heurter leur modĂšle publicitaire) et sont tout autant en capacitĂ© dâen limiter les usages dans le temps.
Le problĂšme principal tient au statut discursif ou Ă©nonciatif de lâensemble de ce qui circule, se dit et se voit dans ces plateformes ou applications : nous ne savons jamais rĂ©ellement si nous sommes dans un espace discursif ou mĂ©diatique intime (oĂč il serait OK et parfois nĂ©cessaire de partager ces donnĂ©es personnelles), privĂ©, ou public. DĂšs 2007, trois ans aprĂšs le lancement de Facebook, danah boyd indiquait que le problĂšme des rĂ©seaux sociaux est quâils Ă©taient des espaces semi-publics et semi-privĂ©s (« la privautĂ© de ces espaces publics ou semi-publics pose problĂšme« ). Ce problĂšme nâa jamais Ă©tĂ© rĂ©solu.
Lâautre problĂšme (et la grande responsabilitĂ© des plateformes) câest quâelles changent en permanence et sous plein de prĂ©textes diffĂ©rents, le rĂ©glage de nos paramĂštres de confidentialitĂ© ou de navigation. Et quâelles complexifient, par dĂ©faut, la possibilitĂ© de limiter ce partage de donnĂ©es personnelles (dark patterns, etc.)
Sur la deuxiĂšme partie de la question (est-ce possible et souhaitable de limiter cette collecte), je rĂ©ponds que câest possible, que câest souhaitable, et que câest, surtout, absolument nĂ©cessaire.
Il y a un grand rĂ©cit marketing et technologique qui nous fait croire que plus on collecte de donnĂ©es personnelles, et plus on peut nous proposer de lâinformation et des contenus personnalisĂ©s, et plus ce serait donc intĂ©ressant pour nous. Câest une vaste et totale fumisterie. Le seul rĂ©cit qui vaille est le suivant : plus on collecte de donnĂ©es personnelles, plus on propose des contenus personnalisĂ©s, plus on ne fait que « publicitariser » les expĂ©riences navigationnelles et informationnelles, et plus on efface la notion de rĂ©fĂ©rent commun sur tout un ensemble de sujets, plus on saborde Ă lâĂ©chelle dâune sociĂ©tĂ© la question des « rĂ©gimes de vĂ©ritĂ© » (cf Foucault ci-dessous), et plus on crĂ©e donc Ă la fois de lâisolement, du conflit, et de la dĂ©fiance.
« Chaque sociĂ©tĂ© a son rĂ©gime de vĂ©ritĂ©, sa politique gĂ©nĂ©rale de la vĂ©ritĂ© : câest-Ă -dire les types de discours quâelle accueille et fait fonctionner comme vrais ; les mĂ©canismes et les instances qui permettent de distinguer les Ă©noncĂ©s vrais ou faux, la maniĂšre dont on sanctionne les uns et les autres ; les techniques et les procĂ©dures qui sont valorisĂ©es pour lâobtention de la vĂ©ritĂ© ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai. » Michel Foucault
Longtemps la « personnalisation » nâa Ă©tĂ© que thĂ©matique et dĂ©clarative. Du genre : je prĂ©fĂšre lâactualitĂ© sportive Ă lâactualitĂ© politique, et dans lâactualitĂ© sportive, je prĂ©fĂšre le rugby au foot. DĂšs que la personnalisation a gommĂ© cette dimension dĂ©clarative explicite, dĂšs quâelle a surtout Ă©tĂ© indexĂ©e sur nos propres croyances, comportements et opinions plutĂŽt que sur des mĂ©dias aux formes et aux pratiques dâĂ©ditorialisation transparentes, elle est devenue un instrument purement marketing avec un impact politique massivement dĂ©lĂ©tĂšre.
Sur la transparence des réseaux sociaux
10. Pensez-vous quâil soit possible dâexiger des rĂ©seaux sociaux dâĂȘtre entiĂšrement transparents sur leur fonctionnement et les algorithmes quâils utilisent ?
Je reprends ici une partie de mes propos liminaires. Oui il est possible de lâexiger. En tout cas sur la partie Ă©ditoriale, cela me semble nĂ©cessaire de lâexiger. En dĂ©finissant le pĂ©rimĂštre de cette Ă©ditorialisation pour Ă©viter quâelle ne puisse ĂȘtre totalement instrumentalisĂ©e (par exemple si tout le monde sait quâun like vaut 1 point et quâune colĂšre vaut 5 points, nos comportements sont susceptibles de changer mais pour autant il est impĂ©ratif que chacun sache combien « vaut » chaque type dâinteraction mobilisĂ©e).
Mais plus fondamentalement nous parlons dâoutils qui ont totalement explosĂ© le cadre anthropologique de la communications entre les ĂȘtres humains. On peut se parler Ă distance, en absence, Ă la fois Ă plusieurs et en dialogue, en multimodalitĂ©, via des avatars, etc.
Et dâoutils qui touchent chaque jour et de maniĂšre rĂ©currente davantage de monde que jamais aucun mĂ©dia nâa jamais Ă©tĂ© en capacitĂ© dâen toucher et ce dans toute lâhistoire de lâhumanitĂ©. Ce ne sont pas seulement des mĂ©dias de masse mais des mĂ©dias dâhyper-masse.
Et enfin il y a la question du rythme, de la fragmentation et de la sĂ©quentialitĂ© hypercourte : notre cerveau nâest pas fait, nâest pas calibrĂ© pour sâinformer par tranches de 6 Ă 15 secondes en passant dâun sujet Ă un autre.
Cette triple rĂ©volution anthropologique de la communication ne peut sâaccommoder de demi-mesures ou de clairs-obscurs lĂ©gislatifs et rĂ©glementaires. A fortiori lorsque la mauvaise foi, la duperie et la tromperie de ces plateformes a Ă©tĂ© dĂ©montrĂ©e et documentĂ©e Ă de trĂšs nombreuses reprises, grĂące notamment aux lanceurs et lanceuses dâalertes.
Et a fortiori encore dans un monde oĂč elles sont devenus totalement indissociables de pouvoirs politiques quâelles servent toujours par intĂ©rĂȘt (soit pour Ă©chapper Ă des rĂ©gulations, soit pour jouir de financements publics, soit pour tuer la concurrence comme le documentent encore les actuelles actions en justice contre Google et Meta notamment).
11. Est-on en mesure de contrĂŽler cette transparence ? Comment, tant au niveau europĂ©en quâau niveau français ?
Nous nâavons aujourdâhui plus besoin de produire des textes, lois et rĂšglements. Nous avons besoin de faire appliquer ceux qui existent dĂ©jĂ (DSA, DMA, RGPD). Et dâorganiser un cadre politique dans lequel la main de lâexĂ©cutif ne tremblera pas. Par exemple au titre de lâapplication du DSA, Twitter devenu X aurait pu et probablement dĂ» ĂȘtre au moins temporairement fermĂ© et interdit Ă lâĂ©chelle europĂ©enne (il lâa Ă©tĂ© au BrĂ©sil pendant plusieurs mois).
Nous sommes aujourdâhui pour la rĂ©gulation de ces mass mĂ©dia en plein paradoxe de la tolĂ©rance tel quâexprimĂ© par Popper. A force dâĂȘtre tolĂ©rants y compris avec les intolĂ©rants, nous courrons droit dans le mur. [« Popper affirme que si une sociĂ©tĂ© est tolĂ©rante sans limite, sa capacitĂ© Ă ĂȘtre tolĂ©rante est finalement dĂ©truite par lâintolĂ©rant. Il la dĂ©crit comme lâidĂ©e apparemment paradoxale que « pour maintenir une sociĂ©tĂ© tolĂ©rante, la sociĂ©tĂ© doit ĂȘtre intolĂ©rante Ă lâintolĂ©rance. » Wikipedia]
Il faut Ă ce titre aussi exiger des plateformes quâelles appliquent leurs propres rĂšgles, et par exemple ne traitent pas diffĂ©remment leurs « power users » car Ă ce jour ces plateformes, toutes ces plateformes, ont dâabord un immense problĂšme de dĂ©mocratie interne.
12. Les apports du DSA sont-ils suffisants ?
Oui pour autant quâil y ait la volontĂ© politique de lâappliquer en chacun de ses termes.
13. Est-ce techniquement possible, a minima, dâexiger des rĂ©seaux sociaux des garanties que leurs algorithmes ne comprennent pas de biais susceptibles dâavoir des consĂ©quences nĂ©fastes (sur-reprĂ©sentation de contenus dangereux pour la santĂ© mentale, propagation de fake news, discriminations, etc) ?
Je crois quâon se trompe en plaçant cette question sous lâangle « technique ». Ce nâest pas Ă la « technique » dâarbitrer des questions qui relĂšvent de la santĂ© publique ou de lâĂ©thique. Je me permets une comparaison. Se poserait-on la question de savoir sâil est possible « techniquement » dâexiger dâune bibliothĂšque que son plan de classement de comprenne pas de biais ? Non. Parce que le problĂšme ce nâest pas le plan de classement, ce sont les unitĂ©s documentaires que lâon choisit de classer, donc de donner Ă voir, ou de ne pas classer. Les plateformes et leurs algorithmes sont « techniquement » en pleine capacitĂ© de faire respecter des rĂšgles a minima de reprĂ©sentativitĂ© sur un ensemble de sujets, y compris politiques, religieux ou sociĂ©taux. Jamais en rĂ©alitĂ© nous nâavons disposĂ© dâoutils aussi puissants et aussi prĂ©cis pour y parvenir. Si les plateformes (et leurs algorithmes) ne le font pas ce nâest en rien un problĂšme technique. En rien. Câest un problĂšme de choix Ă©conomiques (business first). Et dâidĂ©ologies et dâinterĂȘts partisans (ou cyniquement opportunistes) de leurs propriĂ©taires et de leurs actionnariats.
14. Quelle méthodologie utilisez-vous pour étudier les algorithmes utilisés par les réseaux sociaux, et particuliÚrement TikTok ? Quelles difficultés rencontrez-vous ? Que signifierait, pour le monde de la recherche, la publicité des algorithmes utilisés par les réseaux sociaux ?
A titre personnel, dans mon domaine de recherche, soit on procĂšde par enquĂȘte sociologique, soit par observation participante. Comme les sociologues allaient Ă lâusine pour documenter au plus prĂšs le travail concret des ouvriers, on va « aux algorithmes » pour documenter au plus prĂšs leurs effets.
Un des grands sujets de notre temps, câest que nous avons perdu la maĂźtrise des corpus. Quand je dis « nous » je parle du monde universitaire et donc ensuite du monde de la dĂ©cision politique. Tous les programmes partenariaux publics permettant Ă des universitaires dâavoir accĂšs Ă lâimmensitĂ© des corpus dĂ©tenus par les plateformes, tous ces programmes partenariaux ont Ă©tĂ© fermĂ©s. La plupart des API supprimĂ©es. LâopacitĂ©, hier sur les algorithmes, aujourdâhui sur les donnĂ©es, est absolument totale. Et nous en sommes rĂ©duits Ă faire confiance aux chercheurs employĂ©s par ces plateformes (mauvaise idĂ©e), ou Ă attendre la prochaine fuite dâun repenti ou dâune lanceuse dâalerte (encore plus mauvaise idĂ©e). La puissance publique, les chercheurs et universitaires de la puissance publique, nâont plus aucune entrĂ©e ou maĂźtrise des corpus (linguistiques, sociologiques, etc) qui circulent dans ces plateformes et qui les constituent. Et câest non seulement trĂšs inquiĂ©tant, mais câest surtout trĂšs inacceptable.
Sur lâĂ©ducation aux rĂ©seaux sociaux
15. Le grand public est-il familiarisé avec le fonctionnement des algorithmes, et particuliÚrement de ceux utilisés par les réseaux sociaux ? Adapte-t-il son comportement en conséquence ?
Les travaux existants montrent quâen effet, lorsquâun fonctionnement algorithmique est suffisamment connu on a tendance Ă lâintĂ©grer Ă notre pratique. Et en gĂ©nĂ©ral les plateformes mettent donc en place des dispositifs pour contrer ces usages « non naturels » (exemple du Google Bombing). Aujourdâhui, mĂȘme en connaissant certains « tips » agorithmiques, on ne sâen affranchit pas automatiquement. Et il est beaucoup plus difficile de connaĂźtre ou de tricher avec la « totalitĂ© » dâun algorithme aujourdâhui que cela ne lâĂ©tait hier.
Par ailleurs, y compris les ingĂ©nieurs qui dĂ©veloppent ces algorithmes sont de moins en moins nombreux Ă en connaĂźtre la totalitĂ© des fonctionnements. Et la capacitĂ© de tourner Ă plein sans supervision humaine des ces algorithmes nâa jamais cessĂ© dâaugmenter. Et cela ne vas pas sâarranger. RĂ©cemment le CEO de Google, Sundar Pinchai, confiait quâenviron 30% de lâensemble du « code » informatique utilisĂ© par lâensemble des produits de la sociĂ©tĂ© Alphabet (maison mĂšre de Google, Youtube, etc) Ă©tait directement produite par des IA.
Quand Ă notre comportement adaptatif, il demeure trĂšs relatif. Nous ne lâadaptons que dans la mesure oĂč nous avons lâimpression que cette adaptation va servir directement (et rapidement) nos intĂ©rĂȘts immĂ©diats. Sur le reste, nous sommes plutĂŽt dâune passivitĂ© totale, nous nous laissons algorithmiser parce que tout est fait pour fausser notre perception de la balance bĂ©nĂ©fices / risques.
16. Pensez-vous que les enfants et adolescents soient suffisamment outillés, notamment par leurs établissements scolaires, pour se protéger des risques que ces algorithmes présentent ? Pensez-vous que les parents soient suffisamment outillés pour en protéger leurs enfants ?
La question de lâaccompagnement aux Ă©crans est une question ⊠complexe. Ce que les jeunes et adolescents cherchent dans ces espaces (cf notamment les travaux de danah boyd aux USA ou dâAnne Cordier en France) ce sont des espaces qui soient transgressifs, la premiĂšre transgression Ă©tant cette dâĂȘtre Ă lâabri du regard des parents et des adultes. Les espaces numĂ©riques sont aussi ces alcĂŽves algorithmiques qui permettent Ă la fois de se mettre Ă lâabri (du regard de lâadulte), dâĂȘtre ensemble (y compris parfois « seuls ensemble » comme lâexplique Shirley Turckle), et dâĂȘtre dans la transgression autant que dans la construction dâun intime. Et cela est tout Ă fait normal et ne doit sous aucun prĂ©texte ĂȘtre condamnĂ© ou, pire, criminalisĂ©. Le problĂšme, le seul et le grand problĂšme, câest que la construction de cet intime est toujours scrutĂ© par des autoritĂ©s qui ne sont plus « parentales » mais industrielles.
Bonne nouvelle : on observe dĂ©jĂ et trĂšs largement des pratiques de « sevrage » temporaire mises en place par les adolescents et jeunes adultes. Cela peut-ĂȘtre Ă lâapproche dâun examen Ă la fac, du bac français, etc. Pratiques oĂč ils et elles dĂ©sinstallent temporairement lâapplication de leur smartphone. Cela veut dire (pour ces publics) quâune bonne partie du travail de pĂ©dagogie est dĂ©jĂ fait. Il faut ensuite trouver un effet cliquet, qui permette dâĂ©viter de dĂ©lĂ©tĂšres retours en arriĂšre. Et câest bien lĂ le rĂŽle de la puissance publique.
Rappeler aussi que lâenjeu nâest et ne doit pas ĂȘtre dâinterdire les Ă©crans, mais de disposer, dans le cadre de lâorganisation de notre vie sociale, Ă©ducative, publique et citoyenne, dâespaces qui demeurent des espaces non nĂ©cessairement dĂ©connectĂ©s ou sans Ă©crans, mais Ă tout le moins sans Ă©crans et connexions qui ne soient autres que collectives ou a minima duales.
A ce titre oui, je suis convaincu par exemple quâĂ lâĂ©cole et au collĂšge, les smartphones devraient ĂȘtre totalement interdits, dans les cours (de rĂ©crĂ©ation) comme en cours. Et vous savez quoi ? Accrochez-vous bien. BINGO. Câest dĂ©jĂ le cas 
Et quâau lycĂ©e et mĂȘme Ă lâuniversitĂ©, ils devraient continuer de lâĂȘtre pendant les cours. Mais quâil nâest pour cela ni utile ni nĂ©cessaire de passer par la loi. Câest Ă chaque enseignante ou enseignant et Ă©ventuellement Ă chaque universitĂ© ou composante de le dĂ©cider et surtout, surtout, surtout, de lâexpliquer. Parce quâil ne sâagit pas de faire oeuvre de censure ou de police. Mais parce que si lâon considĂšre que la transmission de savoirs tout comme lâacquisition des sociabilitĂ©s primaires et fondamentales, passe par un pacte attentionnel minimal aux autres et Ă celui ou celle en charge de vous les transmettre et de vous les faire acquĂ©rir, alors il faut aussi accepter que celui ou celle qui est en charge de cela, quelque soit son talent et sa dĂ©termination, ne sera jamais, absolument jamais, en situation de rivaliser attentionnellement avec un objet technologique qui contient Ă lui seul tous les savoirs et toutes les sociabilitĂ©s du monde.
Rappeler aussi que la question de la santĂ© mentale, notamment chez les jeunes, est toujours, toujours multi-factorielle : elle tient Ă la fois Ă des paramĂštres Ă©ducatifs, culturels, familiaux, Ă©conomiques. Donc il peut y avoir aussi bien des corrĂ©lations que, dans certains contextes, des causalitĂ©s entre lâusage de TikTok et les questions de santĂ© mentale. Mais si lâon veut sâattaquer (et il le faut) aux questions de santĂ© mentale qui affectent dĂ©sormais de maniĂšre alarmante des gĂ©nĂ©rations entiĂšres, alors il faut aussi et surtout traiter la question des politiques de santĂ© publiques.
Rappeler enfin quâil existe des mĂ©tiers (professeurs documentalistes) et des organismes (CLEMI) qui font ce travail formidable au long cours. Il faut en crĂ©er davantage et leur donner des moyens sans aucune commune mesure avec ceux actuels.
Questions générales
17. De quels mĂ©canismes de contrĂŽle Ă©trangers la France ou lâEurope devraient-elles, dâaprĂšs-vous, sâinspirer ?
Je crois avoir dĂ©jĂ rĂ©pondu plus haut que nous disposions de suffisamment de textes et rĂšglements Ă lâĂ©chelle EuropĂ©enne. Et quâil reste Ă les appliquer entiĂšrement.
18. Avez-vous des recommandations Ă transmettre Ă la commission dâenquĂȘte ?
Ma premiĂšre recommandation est un avertissement que je reprends de mes propos liminaires et dâun article que jâavais publiĂ©.
« AprĂšs les mensonges de lâindustrie du tabac sur sa responsabilitĂ© dans la conduite vers la mort de centaines de millions de personnes, aprĂšs les mensonges de lâindustrie du pĂ©trole sur sa responsabilitĂ© dans le dĂ©rĂšglement climatique, nous faisons face aujourdâhui au troisiĂšme grand mensonge de notre modernitĂ©. Et ce mensonge est celui des industries extractivistes de lâinformation, sous toutes leurs formes.
Nous avons aimĂ© croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nĂ©cessiterait pas de mineurs de fond, que lâinformatique en nuage (Cloud Computing) ne dissimulait pas la rĂ©alitĂ© dâune industrie lourde. Nous ne pouvons plus aujourdâhui nous rĂ©fugier dans ces mensonges. Sur les industries extractivistes de lâinformation, nous avons lâavantage dâen connaĂźtre dĂ©jĂ les mĂ©canismes et les routines ; la chance dâen observer les infrastructures de marchĂ© (du Cloud Computing au High Frequency Trading en passant par la prĂ©carisation des diffĂ©rentes formes de Digital Labor) ; la chance dâĂȘtre capables de documenter la toxicitĂ© de ces prismes dans le cadre de certains sujets de sociĂ©tĂ© ; la chance dâavoir pu documenter et prouver Ă de trop nombreuses reprises lâinsincĂ©ritĂ© fondamentale et aujourdâhui fondatrice de toutes ces plateformes et de leurs crĂ©ateurs et administrateurs. Et mĂȘme sâils sâinscrivent, comme je le rappelais plus haut, dans un Ă©cosystĂšme mĂ©diatique, Ă©conomique et politique bien plus vaste quâeux, leur part Ă©mergĂ©e, câest Ă dire les mĂ©dias sociaux, sont aujourdâhui pour lâessentiel de mĂȘme nature que la publicitĂ© et le lobbying le furent pour lâindustrie du tabac et du pĂ©trole : des outils au service dâune diversion elle-mĂȘme au service dâune perversion qui nâest alimentĂ©e que par la recherche permanente du profit. »
Pour le dire en dâautres termes, connaĂźtre la recette exacte du Coca-Cola ne change rien au phĂ©nomĂšne de lâobĂ©sitĂ© : la seule chose qui compte câest de se doter de politiques de santĂ© publique qui Ă©duquent, rĂ©gulent, contraignent et qui dĂ©publicitarisent, qui dĂ©monĂ©tisent symboliquement ce quâest et ce que reprĂ©sente le Coca-Cola.
De la mĂȘme maniĂšre, connaĂźtre lâimpact du pĂ©trole sur le rĂ©chauffement climatique et la part quây jouent nos modes de transport et les industriels extractivistes ne changera rien Ă lâavenir de la planĂšte si lâon nâa pas de politique publiques sur lâĂ©cologie capable de proposer des alternatives aux premiers mais aussi de contraindre les seconds, et lĂ encore de dĂ©publicitariser, de dĂ©monĂ©tiser tout cela.
Pour les algorithmes, y compris et a fortiori pour celui de TikTok, câest exactement la mĂȘme chose : connaĂźtre son mode exact de fonctionnement ne changera rien aux errances et aux effondrements affectifs, psychologiques, conatifs, informationnels quâil alimente. Il nous faut des politiques publiques du numĂ©rique. Dont des politiques de santĂ© publique numĂ©rique.
Et il faut davantage de postes de professeurs documentalistes dans les lycĂ©es et collĂšges, avec davantage dâheures de cours dĂ©diĂ©es Ă la culture numĂ©rique. Et aussi il faut financer et multiplier les structures et opĂ©rateurs comme le CLEMI. Oui je lâai dĂ©jĂ dit. Mais oui je le redis. Et le redirai sans cesse.
[Verbatim étudiantes et étudiants]
LâĂ©chantillon est dâune petite soixantaine dâĂ©tudiantes et dâĂ©tudiants, en 1Ăšre annĂ©e de BUT Information et Communication (donc en gros ĂągĂ©s de 18 ou 19 ans) et avec qui jâai dĂ©jĂ effectuĂ© quelques heures de cours autour des questions de culture numĂ©rique, de lâhistoire dâinternet et du web, et aussi un peu des enjeux sociĂ©taux des algorithmes. La seule consigne donnĂ©e Ă©tait de partir de leur expĂ©rience personnelle de la plateforme pour rĂ©pondre aux questions de la commmission.
De maniĂšre gĂ©nĂ©rale ils et elles soulignent lâimportance (et le manque) de politiques de santĂ© publique et de communication, dans lâespace public, sur ce sujet.
- « On voir rarement de campagne de prĂ©vention dans lâespace public sur le lien entre utilisation RS et questions de santĂ© mentale, alors mĂȘme que jamais les jeunes nâont autant parlĂ© de lâimportance et de la fragilitĂ© de la santĂ© mentale«
- « il faut renforcer la communication publique, notamment dans le cadre scolaire«
Ils et elles soulignent Ă©galement lâimportance de faire Ă ces sujets davantage de place au collĂšge et au lycĂ©e et surtout, dâen parler autrement que sous le seul angle de la culpabilisation ou des dĂ©rives comme le cyberharcĂšlement.
- « tout le monde accuse tiktok dâĂȘtre dangereux mais personne ne parle rĂ©ellement des risques qui y sont associĂ©s et comment on sâen protĂšge«
- « intégrer ces questions dans les machins genre Pix«
- « la plupart du temps, au lycĂ©e ou au collĂšgue, ces plateformes ne sont abordĂ©es que sous lâangle du cyberharcĂšlement, mais jamais sous lâangle des algorithmes, de leur cĂŽtĂ© addictif, chronophage, dĂ©motivant« .
Ils et elles ont aussi une grande maturitĂ© sur la nĂ©cessitĂ© dâun contrĂŽle dâaccĂšs rĂ©el avec une vĂ©rification de lâĂąge qui soit autre chose quâun bouton « oui promis jâai 18 ans » :
- « faire un vrai contrĂŽle dâaccĂšs selon lâĂąge, comme sur blablacar avec prĂ©sentation dâun document dâidentité«
Ils et elles ont des idĂ©es trĂšs concrĂštes de ce quâil faudrait obliger Tiktok (et dâautres plateformes) Ă mettre en place :
- « obliger TikTok Ă implĂ©menter des fonctionnalitĂ©s permettant de mieux gĂ©rer le temps dâĂ©cran et Ă sensibiliser ses utilisateurs aux risques dâune utilisation excessive«
- « ĂȘtre plus Ă lâĂ©coute des signalements. Et plus vigilants sur les contenus de type suicide : personne nâaime regarder des vidĂ©os de suicide (ou de comment se suicider) et personne ne devrait se voir recommander des vidĂ©os comme ça«
Jâai enfin Ă©tĂ© particuliĂšrement frappĂ©, dans leurs verbatims, dâune large majoritĂ© qui indique explicitement que les impacts et effets nĂ©gatifs sur leur humeur sont plus importants que les aspects positifs. Et de la maniĂšre dont ils documentent et analysent cela. Le verbatim ci-dessous rĂ©sume trĂšs bien ce que jâai lu dans beaucoup de leurs rĂ©ponses individuelles :
- « Ă titre personnel, tik tok a plus dâimpact nĂ©gatif que positif. En effet, une fois que je suis sur lâapplication, il mâest presque impossible de rĂ©guler mon temps passĂ© sur cette
derniĂšre. Une heure est ressentie comme 15 minutes et arrĂȘter de scroller est trĂšs compliquĂ©. De plus, lorsque mon application est active, lâheure ne sâaffiche plus sur mon Ă©cran, ce qui biaise encore plus mon rapport au temps. Ce temps passĂ© sur tik tok est perdu pour faire dâautre activitĂ©, et souvent, je repousse les tĂąches que jâai Ă faire. AprĂšs avoir passĂ© plusieurs heures sur tik tok je culpabilise Ă©normĂ©ment et me sens mal. Jâai remarquĂ© que mon moral Ă©tait affectĂ© par mon utilisation de tik tok, plus je passe de temps Ă scroller moins je suis de bonne humeur.«
[Et puis soudain Gabriel Attal]
VoilĂ je mâapprĂȘtais Ă demander Ă ChatGPT une version synthĂ©tique de ce long texte en extrayant les Ă©lĂ©ments mobilisables immĂ©diatement dans le cadre dâune proposition de loi et puis soudain, je tombe sur plusieurs Ă©lĂ©ments complĂ©mentaires.
Premier Ă©lĂ©ment : Gabriel Attal. Qui sâallie au pĂ©dopsychiatre Marcel Ruffo pour proposer des mesures qui sont, pour lâessentiel, des caricatures au carrĂ©. Caricature dâune pensĂ©e magique oĂč tout est, sans indistinction, la faute aux Ă©crans et oĂč leur suppression guĂ©rirait donc tous les maux, et oĂč toute cette faute mĂ©riterait donc des rĂ©gimes disciplinaires qui sont autant imbĂ©ciles quâinapplicables et dangereux en dĂ©mocratie. Voici donc ce quâils proposent :
- une Ă©valuation de lâaddiction aux Ă©crans de chaque jeune Ă lâentrĂ©e en sixiĂšme et en seconde.
- interdire lâaccĂšs des moins de 15 ans aux rĂ©seaux sociaux (et imposer une vĂ©rification dâĂąge sur ces plateformes).
- imposer un couvre-feu pour les 15-18 ans qui bloque lâaccĂšs aux rĂ©seaux sociaux entre 22h et 8h.
- faire passer lâĂ©cran en noir et blanc, pendant au moins une heure, aprĂšs 30 minutes dâutilisation.
- crĂ©ation dâun âaddict-scoreâ (sur le modĂšle du nutri-score) pour mesurer le potentiel addictif des plateformes.
- créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale.
Jâai donc immĂ©diatement rĂ©flĂ©chi Ă une critĂ©riologie assez fine permettant de caractĂ©riser chaque mesure proposĂ©e. CritĂ©riologie que voici :
- « Câest complĂštement con » : 3C
- « Inapplicable et Imbécile » : 2I.
- « Pourquoi pas mais surtout ⊠pourquoi ? » : 3P.
Revoici maintenant ces mesures Ă lâaune de mon analyse subtile.
- une Ă©valuation de lâaddiction aux Ă©crans de chaque jeune Ă lâentrĂ©e en sixiĂšme et en seconde : 3P
- interdire lâaccĂšs des moins de 15 ans aux rĂ©seaux sociaux : 3C2I
- imposer un couvre-feu pour les 15-18 ans qui bloque lâaccĂšs aux rĂ©seaux sociaux entre 22h et 8h : 3C2I
- faire passer lâĂ©cran en noir et blanc, pendant au moins une heure, aprĂšs 30 minutes dâutilisation. 3C3P
- crĂ©ation dâun âaddict-scoreâ (sur le modĂšle du nutri-score) pour mesurer le potentiel addictif des plateformes. 3P
Je ne retiens donc que deux mesures :
- « imposer une vĂ©rification dâĂąge sur ces plateformes. » Mais certainement pas pour « interdire » lâaccĂšs mais pour responsabiliser les plateformes qui organisent cet accĂšs et font absolument nâimporte quoi quelque soit lâĂąge rĂ©el de leurs utilisateurs et utilisatrices, Ăąge rĂ©el que de leur cĂŽtĂ© elles sont la plupart du temps en pleine capacitĂ© de connaĂźtre (et donc dâen dĂ©duire la part dâutilisateurs et dâutilisatrices qui nâont absolument rien Ă faire lĂ puisquâelles sont normalement interdites aux moins de 13 ans).
- « créer une taxe de 2 % qui financerait la recherche et la prise en charge de la santé mentale. » Là je dis oui, mais je dis surtout « seulement 2% ?! »
Pour le reste, je vous invite Ă lire la chronique et lâanalyse impeccable de François Saltiel dont je partage chaque ligne et chaque mot.
Et je vous invite aussi, Ă chaque fois que vous entendrez diverses gesticulations politico-mĂ©diatiques sur une interdiction totale ou partielle des Ă©crans chez les enfants et adolescents, Ă relire (notamment) cet article grand public et surtout de grande utilitĂ© publique dâAnne Cordier, publiĂ© en Mai 2024, et dans lequel elle rappelle la rĂ©alitĂ© de deux points fondamentaux, celui de la panique morale sur ce sujet, et celui de la rĂ©alitĂ© des Ă©tudes scientifiques sur ce mĂȘme sujet :
Ce phénomÚne des paniques morales exprime une crainte quant à la déstabilisation des valeurs sociétales, et se cristallise autour des usages juvéniles desdits écrans et des conséquences de ces usages sur la santé mentale et sociale des enfants et adolescents, ainsi que sur leur développement cognitif et leur culture générale.
Pourtant une importante et robuste Ă©tude amĂ©ricaine, menĂ©e sur le long terme auprĂšs de 12000 enfants entre 9 et 12 ans, conclut sans hĂ©sitation Ă lâabsence de lien entre temps passĂ© « devant les Ă©crans » et incidence sur les fonctions cĂ©rĂ©brales et le bien-ĂȘtre des enfants. Pourtant encore, en France, une enquĂȘte longitudinale dâenvergure, dĂ©ployĂ©e cette fois auprĂšs de 18000 enfants depuis leur naissance, montre que ce sont des facteurs sociaux qui jouent un rĂŽle prĂ©pondĂ©rant dans le dĂ©veloppement de lâenfant.
Malgré ces faits scientifiques, le débat autour de la place desdits écrans dans notre société se polarise, et se caractérise récemment par une ultraradicalisation des postures, ce qui a pour premier effet de porter préjudice à la compréhension de tout un chacun.
Je rĂ©pĂšte : « ce sont des facteurs sociaux qui jouent un rĂŽle prĂ©pondĂ©rant dans le dĂ©veloppement de lâenfant. » La place et lâusage des Ă©crans nâest que lâun de ces facteurs sociaux parmi dâautres bien plus essentiels.
[Et puis soudain le Pew Internet Research Center]
Le 22 Avril 2025 est sortie une Ă©tude du Pew Internet Research Center, pile poil sur le sujet qui nous occupe : « Teens, Social Media and Mental Health. » Elle est, comme souvent, fondamentale pour bien cerner les enjeux de ce sujet. Et jâen retire les Ă©lĂ©ments suivants.
Dâabord si environ 40% Ă©mettent un avis plutĂŽt « neutre » sur lâinfluence des mĂ©dias sociaux sur leur santĂ© mentale, les 60% dâadolescents restants (entre 13 et 17 ans) indiquent clairement que les effets nĂ©gatifs sur leur santĂ© mentale lâemportent sur les effets positifs.
Ensuite lĂ oĂč les parents considĂšrent que les mĂ©dias sociaux sont la premiĂšre cause des problĂšmes de santĂ© mentale, du cĂŽtĂ© des adolescents, câest tout autre chose : 22% des adolescents dĂ©signent les mĂ©dias sociaux, 17% dâentre elles et eux les phĂ©nomĂšnes de harcĂšlement (jâai bien dit de harcĂšlement et pas seulement de cyber-harcĂšlement), et 16% les « pressures and expectations« , câest Ă dire les attentes sociales et parentales vĂ©cues comme autant de pressions. LĂ est lâun des noeuds centraux du problĂšme de la santĂ© mentale des adolescentes et adolescents.
Autre point essentiel qui rend encore plus dĂ©bile toute tentative dâinterdiction, plus dâun tiers (34%) des adolescentes et adolescents interrogĂ©s indiquent sâinformer sur les rĂ©seaux sociaux sur les questions de santĂ© mentale. Et parmi ceux-lĂ , plus de la moitiĂ© indiquent que câest une source dâinformation importante.
Enfin, et câest lĂ aussi absolument dĂ©terminant pour comprendre ce qui se joue et comment le rĂ©guler, les adolescentes et adolescents identifient clairement lâimpact dĂ©lĂ©tĂšre et toxiques des mĂ©dias sociaux sur leur travail et leurs Ă©tudes, sur leur santĂ© mentale, sur leur productivitĂ© et sur leur sommeil mais dans le mĂȘme temps ils indiquent tout aussi clairement lâimpact trĂšs positif sur leurs amitiĂ©s et leurs socialisations. Constat qui rejoint en effet tous les travaux universitaires sur ce point : ces espaces numĂ©riques de socialisation sont nĂ©cessaires et prĂ©cieux dans la construction des identitĂ©s (et des intimitĂ©s) adolescentes Ă lâabri du regard des adultes. En revanche rien nâoblige Ă ce quâils soient traversĂ©s de contenus ne rĂ©pondant quâĂ des logiques commerciales et qui nâont de considĂ©ration que pour des dynamiques de viralitĂ© garantissant Ă tout prix des effets de rente attentionnelle. La responsabilitĂ© dây faire le tri et le mĂ©nage et dây injecter la dose minimale de responsabilitĂ© dĂ©ontologique au regard des publics ciblĂ©s et des enjeux sociĂ©taux concernĂ©s incombe donc entiĂšrement aux plateformes elles-mĂȘmes, et câest Ă la puissance publique de le leur rappeler et de les y contraindre. Quoi quâil en coĂ»te.
One More Thing.
Jâai ensuite demandĂ© Ă ChatGPT, sur la base de ce (long) texte (celui de mes rĂ©ponses Ă la commission), de faire une liste de 10 propositions (ou plus) concrĂštes dont le lĂ©gislateur pourrait se saisir et de reformuler ces propositions dans un format destinĂ© Ă une note parlementaire ou Ă une prĂ©sentation en commission. Je vous en livre ici le rĂ©sultat.
Liste de 10 propositions pour une prochaine loi ou cadrage législatif.
[câest ChatGPT qui parle, enfin qui Ă©crit]
Voici une liste de dix propositions et recommandations concrĂštes issues du document de contribution Ă la commission parlementaire, que le lĂ©gislateur pourrait saisir pour Ă©laborer une nouvelle loi sur le numĂ©rique et lâaccĂšs aux rĂ©seaux sociaux :
Transparence et régulation algorithmique
-
Exiger la transparence des algorithmes sur leur dimension Ă©ditoriale : rendre publics les critĂšres et pondĂ©rations qui dĂ©terminent lâaffichage des contenus, notamment en lien avec les rĂ©actions Ă©motionnelles (likes, colĂšre, etc.).
-
Obliger les plateformes à ralentir les chaßnes virales : limiter les fonctionnalités favorisant la viralité (nombre de partages simultanés, forwarding de messages, etc.) pour réduire les effets de masse sur la désinformation et le harcÚlement.
-
Supprimer lâaffichage public de certaines mĂ©triques (likes, vues, dislikes) pour attĂ©nuer les effets de conformitĂ© sociale et limiter les impacts dĂ©lĂ©tĂšres sur la santĂ© mentale.
Santé publique et usage responsable
-
Instaurer des mĂ©canismes de contrĂŽle dâaccĂšs efficaces pour les mineurs (vĂ©rification dâidentitĂ©, seuils dâĂąge vĂ©rifiĂ©s comme sur Blablacar), en Ă©vitant les simples dĂ©clarations « jâai plus de 13/18 ans ».
-
Imposer des limites dâusage paramĂ©trables par dĂ©faut (temps dâĂ©cran, alertes de dĂ©passement, pause obligatoire aprĂšs un temps de scroll continu) intĂ©grĂ©es directement dans les applications.
-
Créer une politique de santé publique numérique : reconnaßtre les effets psychiques négatifs des réseaux sur les plus jeunes et y répondre par des campagnes nationales et des dispositifs de prévention dans les écoles et les médias.
Ăducation et formation
-
Renforcer lâĂ©ducation au numĂ©rique dĂšs le collĂšge : intĂ©grer des modules spĂ©cifiques sur les algorithmes, la captation attentionnelle, les risques informationnels et les logiques Ă©conomiques des plateformes.
-
Doter chaque collĂšge et lycĂ©e dâun(e) professeur(e) documentaliste formĂ©(e) aux enjeux numĂ©riques et augmenter leurs heures dĂ©diĂ©es Ă lâĂ©ducation aux mĂ©dias.
Pouvoirs publics et contrĂŽle
-
Faire appliquer strictement les lois existantes (RGPD, DSA, DMA) : prévoir des sanctions réellement dissuasives en cas de non-conformité et ne pas hésiter à suspendre ou interdire temporairement des services comme cela a été fait ailleurs.
-
CrĂ©er un droit dâaccĂšs des chercheurs publics aux corpus algorithmiques : obliger les plateformes Ă ouvrir des API sĂ©curisĂ©es permettant Ă la recherche indĂ©pendante dâanalyser les effets sociaux, psychologiques et politiques de leurs systĂšmes.
La note parlementaire (faite par ChatGPT).
[câest toujours ChatGPT qui parle, enfin qui Ă©crit]
Voici une note parlementaire structurĂ©e prĂ©sentant les propositions issues du document dâOlivier Ertzscheid, Ă destination dâun(e) dĂ©putĂ©(e) souhaitant nourrir une rĂ©flexion lĂ©gislative sur le numĂ©rique et les rĂ©seaux sociaux.
Objet : Propositions pour une loi sur les usages numĂ©riques et lâaccĂšs aux rĂ©seaux sociaux
Auteur : SynthĂšse des travaux dâOlivier Ertzscheid, MaĂźtre de confĂ©rences en Sciences de lâinformation
Date : [à compléter]
Contexte général
Dans un environnement oĂč les rĂ©seaux sociaux sont devenus des mĂ©dias dââhyper-masseâ, leur impact sur les comportements, la santĂ© mentale, la circulation de lâinformation et la dĂ©mocratie est dĂ©sormais massif, continu et documentĂ©. Lâurgence nâest plus de comprendre ces effets, mais de rĂ©guler concrĂštement les modĂšles qui les produisent. Cette note propose dix axes dâaction lĂ©gislatifs concrets.
1. Transparence algorithmique et lutte contre la manipulation attentionnelle
1.1. Transparence des logiques éditoriales des algorithmes
Obligation pour les plateformes de rendre publics les critÚres et pondérations influençant la hiérarchisation des contenus (types de réactions, temps de visionnage, etc.), en particulier ceux relevant de la manipulation émotionnelle.
1.2. Ralentissement des chaĂźnes virales
Limitation par la loi des mécanismes de partage automatisés ou massifs (groupes WhatsApp, forwardings, etc.) afin de freiner les phénomÚnes de désinformation, de harcÚlement et de polarisation.
1.3. Encadrement des métriques visibles
Obligation pour les plateformes de masquer certains compteurs (likes, vues, partages) aux utilisateurs non-crĂ©ateurs pour attĂ©nuer les effets de conformitĂ© sociale et dâaddiction Ă la reconnaissance.
2. SantĂ© publique et encadrement de lâusage
2.1. VĂ©rification dâĂąge robuste Ă lâinscription
Mise en Ćuvre dâun dispositif rĂ©el de contrĂŽle dâĂąge (type piĂšce dâidentitĂ©) pour limiter lâaccĂšs des mineurs aux plateformes sans mĂ©diation.
2.2. Limites dâusage intĂ©grĂ©es par dĂ©faut
Imposition Ă toutes les applications sociales dâune fonction de rĂ©gulation du temps passĂ© : alertes, pauses obligatoires, et tableaux de bord accessibles.
2.3. Lancement dâun plan national de santĂ© publique numĂ©rique
Campagnes publiques et programmes éducatifs pour sensibiliser aux impacts psychologiques des réseaux sociaux, en particulier chez les jeunes.
3. Ăducation aux mĂ©dias et renforcement scolaire
3.1. Intégration obligatoire de modules sur les logiques des plateformes
Enseignement dÚs le collÚge sur le fonctionnement des algorithmes, la captation attentionnelle et les logiques économiques des contenus.
3.2. Déploiement renforcé de professeurs documentalistes et du CLEMI
Augmentation du nombre de professeurs documentalistes et du budget alloué au CLEMI, pour assurer un accompagnement continu et de qualité dans les établissements.
4. Régulation effective et contrÎle public
4.1. Application sans compromis des rÚglements européens (RGPD, DSA, DMA)
Sanctions systĂ©matiques et dissuasives en cas de non-respect des rĂšgles ; possibilitĂ© dâinterdiction temporaire dâun service comme dans dâautres pays (ex. X/Twitter au BrĂ©sil).
4.2. AccĂšs aux corpus pour la recherche publique
Obligation lĂ©gale pour les plateformes dâouvrir aux chercheurs indĂ©pendants lâaccĂšs Ă des jeux de donnĂ©es anonymisĂ©s, via API, afin de permettre une Ă©valuation scientifique indĂ©pendante des effets des algorithmes.
Conclusion
Ces propositions, rĂ©alistes, urgentes et largement documentĂ©es, peuvent constituer la base dâun cadre lĂ©gislatif de souverainetĂ© numĂ©rique, de protection des jeunes publics et de rĂ©gulation dĂ©mocratique des puissances algorithmiques.
Argumentaire synthétique pour une intervention en commission.
Tant que jây suis je vous livre aussi lâintroduction et la conclusion du mĂȘme ChatGPT lorsque je lui demande un argumentaire synthĂ©tique de sa note parlementaire pour une intervention en commission.
Introduction.
Mesdames et Messieurs les membres de la commission,
Nous sommes aujourdâhui face Ă des outils devenus centraux dans la vie sociale, affective, cognitive de millions de citoyens, notamment les plus jeunes. Ces outils sont Ă la fois des mĂ©dias dâhyper-masse, des machines Ă fabriquer la norme et des systĂšmes de captation attentionnelle, dont les effets sur la santĂ© mentale, la dĂ©sinformation et les inĂ©galitĂ©s sont dĂ©sormais documentĂ©s.
Il ne sâagit plus de produire des rapports ou des constats, mais dâagir, de lĂ©gifĂ©rer, de protĂ©ger.
Conclusion : lâexigence du courage politique.
Ce que nous proposons nâest ni technophobe, ni moraliste. Câest une politique de santĂ© publique, dâĂ©ducation, et de souverainetĂ©.
Il faut dĂ©monĂ©tiser lâattention, dĂ©publicitariser lâespace social, et remettre du sens dans nos usages.
Lâhistoire nous jugera comme elle a jugĂ© ceux qui nâont rien fait face au tabac ou au rĂ©chauffement climatique. Il est encore temps dâagir.
VoilĂ . Le boulot est fait de mon cĂŽtĂ©. Jâai transmis Ă la commission mon texte avec lâintĂ©gralitĂ© de mes rĂ©ponses aux questions, et leur ai Ă©galement adressĂ© les 10 propositions pour une Ă©volution du cadrage lĂ©gislatif (en prĂ©cisant bien sĂ»r quâelles Ă©taient formulĂ©es par ChatGPT sur la base de lâanalyse de mon texte). Le reste appartient maintenant Ă ce truc formidable quâon appelle la dĂ©mocratie.