Il faut regarder ce chiffre en face. Sept cent quatre-vingt-dix. Pas sept cent quatre-vingt-dix erreurs humaines. Pas sept cent quatre-vingt-dix dérapages isolés. Sept cent quatre-vingt-dix contenus que l’algorithme de TikTok a choisi de pousser, de recommander, d’amplifier — parfois en violation directe des règles que la plateforme elle-même prétend appliquer.
Quand les règles de la maison sont écrites à l’encre invisible
TikTok publie des chartes. TikTok embauche des modérateurs. TikTok communique sur ses « engagements ». Et TikTok laisse passer 790 vidéos problématiques sur 10 000 visionnées par un robot lambda. Faites le calcul : un contenu toxique toutes les treize vidéos.
Treize vidéos. Soit environ trois minutes de défilement. Soit le temps qu’il faut à un adolescent de quatorze ans pour finir son bol de céréales.
Anne Le Hénanff parle. Bruxelles écoute. Pékin sourit
La ministre chargée de l’Intelligence artificielle et du Numérique n’a pas tergiversé. Dès la publication de l’enquête, Anne Le Hénanff a qualifié les contenus d’« extrêmement choquants ». Mieux : elle a annoncé publiquement, sur LinkedIn, transmettre le dossier à la Commission européenne, en copiant le Premier ministre Sébastien Lecornu et le ministre de l’Économie Roland Lescure.
Une enquête européenne déjà en cours — et qui n’avance pas assez vite
Bruxelles enquête déjà sur TikTok, au titre du Règlement sur les Services Numériques (DSA), pour le caractère addictif de l’interface, particulièrement vis-à-vis des mineurs. Mais entre le moment où une enquête européenne démarre et celui où elle produit une sanction lourde, il se passe des mois. Parfois des années.
Pendant ce temps, Camille continue de scroller. Et des millions de Camille en chair et en os aussi.
L'Arcom confirme ce que tout parent lucide soupçonne
Le régulateur français de l’audiovisuel a publié lundi une déclaration dont il faut peser chaque mot : les constats de Ouest-France « rejoignent les constats que nous avons déjà documentés et transmis à l’automne à la Commission européenne ».
Traduction en langage non diplomatique
L’Arcom dit, en substance : nous savions. Nous l’avions vu. Nous l’avions écrit. Nous l’avions transmis. Et rien n’a bougé.
Voilà où nous en sommes. Un régulateur national qui constate. Une Commission européenne qui enquête. Une ministre qui s’indigne. Et entre les trois, un vide où l’algorithme prospère, impuni, en continuant de servir à des gamins de douze ans des recettes pour maigrir jusqu’à disparaître.
« Safe by design » : la phrase qui devrait tout changer
Sarah El Haïry, haute-commissaire à l’Enfance, a prononcé trois mots qui méritent d’être gravés dans la loi : « safe by design ». Sûr dès la conception. C’est-à-dire : des plateformes pensées, dès la première ligne de code, pour protéger le bien-être des enfants, plutôt que pour maximiser l’engagement à tout prix.
La nuance qui change tout
La haute-commissaire l’a formulé avec une clarté rare : « Il ne s’agit plus seulement d’une question de temps d’écran mais de la nature des contenus imposés et de leur répétition systématique ». Imposés. Répétition systématique. Deux mots qui disent l’essentiel : l’enfant ne choisit pas. L’algorithme choisit pour lui. Encore et encore.
L'algorithme n'est pas neutre. Il est affamé
Arrêtons de parler de l’algorithme comme d’une force naturelle, comme la pluie ou la gravité. L’algorithme de TikTok est une décision humaine, prise par des ingénieurs, validée par des directeurs, rentabilisée par des actionnaires.
Sa mission : vous garder
Pas vous informer. Pas vous divertir sainement. Pas vous relier à vos proches. Vous garder. Vous retenir. Transformer chaque seconde d’attention en donnée monétisable. Et pour cela, l’algorithme a compris une chose terrible : les émotions extrêmes retiennent mieux que les émotions mesurées.
La peur retient. Le dégoût retient. La transgression retient. La détresse retient. Et l’enfance, fragile comme un souffle, est le terrain de jeu idéal.
Treize ans. C'est l'âge légal. Ce n'est pas l'âge réel
TikTok fixe l’âge minimum à treize ans. Mais quiconque a vu une cour de récréation sait que des enfants de neuf, dix, onze ans sont déjà sur la plateforme. Il suffit de mentir sur sa date de naissance. Aucune vérification. Aucun contrôle sérieux.
Le mensonge structurel
La plateforme sait. Les parents savent. Les enseignants savent. Tout le monde sait. Et pourtant, le système tient debout sur cette fiction collective : « nos utilisateurs ont au moins treize ans ». Un mensonge industriel, à l’échelle de deux milliards d’utilisateurs.
Le scroll infini n'est pas un hasard. C'est un brevet
L’interface de TikTok — ce flux vertical, sans fin, qui se renouvelle à chaque glissement du pouce — a été conçue en s’inspirant directement des mécanismes des machines à sous de Las Vegas. C’est documenté. C’est revendiqué par d’anciens ingénieurs de la Silicon Valley.
Dopamine sur ordonnance
Chaque vidéo est une petite récompense aléatoire. Parfois elle vous plaît, parfois non. Cette imprévisibilité même active dans le cerveau les circuits de la récompense de la même manière qu’une tirette de casino. Chez un adulte, c’est déjà problématique. Chez un cerveau adolescent encore en construction, c’est dévastateur.
La France a des lois. La France doit s'en servir
Nous ne sommes pas démunis. La France dispose d’un arsenal juridique solide : protection des mineurs, lutte contre la pédocriminalité, régulation des contenus illégaux, DSA européen.
Ce qui manque, ce n’est pas la loi. C’est le courage de l’appliquer
Quand une plateforme héberge et amplifie des contenus pédocriminels, ce n’est plus de la « modération insuffisante ». C’est de la complicité algorithmique. Et la complicité algorithmique devrait, dans un État de droit qui se respecte, entraîner des conséquences à la hauteur.
Des amendes qui font mal. Des interdictions temporaires. Des blocages. Et, au bout du chemin si rien ne bouge, la question que personne n’ose poser : et si on bannissait TikTok pour les moins de quinze ans, comme l’Australie vient de le décider ?
Pékin, la donnée, et le silence qui dérange
Il y a une dimension dont on parle trop peu. TikTok appartient à ByteDance, une entreprise chinoise, soumise aux lois chinoises sur la sécurité nationale. Ces lois obligent, en théorie, toute entreprise chinoise à coopérer avec les services de renseignement du régime de Xi Jinping sur simple demande.
Qui possède la carte mentale de nos enfants ?
Chaque vidéo regardée, chaque pause, chaque like, chaque commentaire construit un profil psychologique d’une précision inouïe. Les peurs d’un adolescent. Ses attirances. Ses fragilités. Ses opinions politiques en formation. Et toutes ces données transitent, à un moment ou un autre, par des serveurs soumis à une juridiction qui n’a rien de démocratique.
Les parents ne peuvent pas tout. Et ils le savent
On entend souvent : « les parents n’ont qu’à mieux surveiller ». Cette phrase est une lâcheté collective. Elle décharge l’État, les plateformes, les législateurs, les régulateurs — et fait porter à des familles épuisées le poids d’un système conçu pour les déborder.
Un parent seul contre un algorithme de guerre
Face à une armée d’ingénieurs payés des millions pour maximiser l’addiction de leur enfant, un parent — même le plus attentif, le plus présent, le plus informé — part avec un lance-pierre contre un char d’assaut. La responsabilité individuelle ne remplace pas la régulation collective. Elle la complète.
Ce que l'enquête de Ouest-France change vraiment
Cette enquête fait date pour une raison précise : elle a produit des chiffres, pas des opinions. 10 000 vidéos. 790 contenus problématiques. 100 heures de scroll robotisé. C’est reproductible. C’est vérifiable. C’est opposable.
Les ministères ne peuvent plus dire « on ne savait pas »
Anne Le Hénanff a réagi. L’Arcom a réagi. Sarah El Haïry a réagi. Bruxelles a été saisie. Le Premier ministre a été mis en copie. Le dossier est maintenant sur toutes les tables qui comptent. Ce qui se passera dans les mois qui viennent dira quelle est vraiment la volonté politique de ce pays face aux plateformes.
Les enfants ne votent pas. C'est pour ça qu'il faut parler pour eux
Un enfant de treize ans qui s’affame parce qu’un algorithme lui répète vingt fois par jour que son corps est un problème, ne votera pas avant 2030. Une ado de quinze ans qui glisse vers la dépression parce qu’on lui sert en boucle des contenus qui esthétisent la mort, ne pèsera dans aucun sondage électoral d’ici là.
Le silence des faibles exige la parole des adultes
C’est précisément pour cette raison qu’il revient à ceux qui ont une voix — journalistes, rédacteurs, ministres, régulateurs, parents, enseignants, médecins — de parler fort, parler ensemble, parler maintenant. Pas demain. Maintenant.
Le moment est venu. Il ne reviendra pas deux fois
Il arrive dans la vie d’une démocratie des moments où une enquête, un rapport, un chiffre cristallisent une vérité diffuse et la rendent enfin insupportable. L’enquête de Ouest-France est ce moment-là, pour TikTok, en France, en 2026.
Ce que chacun peut exiger, dès aujourd’hui
Écrire à son député. Alerter son conseil municipal sur l’usage en milieu scolaire. Soutenir les familles qui portent plainte. Refuser le fatalisme. Dire à voix haute que l’enfance n’est pas un marché, et que la santé mentale d’une génération vaut plus que les marges d’une entreprise cotée à Shanghai.
Camille, le robot, a fini sa mission. À nous de faire la nôtre.
Signé Jacques PJ Provost
Encadré de transparence
Sur les faits
Les chiffres, déclarations et constats relatifs à l’enquête de Ouest-France sur l’algorithme de TikTok, ainsi que les réactions officielles de la ministre Anne Le Hénanff, de l’Arcom et de la haute-commissaire Sarah El Haïry, proviennent de l’article publié par Ouest-France et de sources ouvertes officielles (communications ministérielles, LinkedIn, déclarations de l’Arcom).
Sur l’analyse
Mon rôle de chroniqueur est d’interpréter ces faits, de les remettre en perspective dans le cadre plus large des enjeux de régulation des plateformes numériques, de protection de l’enfance et de souveraineté numérique européenne. Les analyses sur les mécanismes algorithmiques, la dimension géopolitique liée à ByteDance et les comparaisons internationales (Australie) reflètent une interprétation éditoriale, nourrie par un suivi continu du dossier.
Sur l’évolution
Toute avancée officielle — décision de la Commission européenne, sanction, réponse détaillée de TikTok, nouvelle législation française — pourrait modifier les perspectives présentées ici. Cet article sera mis à jour si des éléments officiels majeurs sont publiés.
Sources
Sources primaires
Ouest-France — TikTok : notre enquête sur l’algorithme de la plateforme fait réagir — 2026
Ouest-France — Enquête vidéo : nous avons laissé un robot parcourir TikTok pendant 100 heures — 2026
Sources secondaires
Arcom — Régulateur français de la communication audiovisuelle et numérique
Commission européenne — Règlement sur les services numériques (DSA)
Ce contenu a été créé avec l'aide de l'IA.