Sept familles, rassemblées au sein du collectif Algos Victima, accusent TikTok et son algorithme d’avoir diffusé à leurs enfants des contenus dangereux. L’avocate, Maître Laure Boutron-Marmion, critique fermement le comportement de la plateforme originaire de Chine.
« Je vous informe qu’à ce jour, j’ai présenté au tribunal de Créteil un recours émanant de sept familles qui dénoncent un problème commun : la détérioration de l’état de santé physique et mentale de leurs enfants », explique maître Laure Boutron-Marmion, avocate spécialisée dans la défense des mineurs, lors d’un entretien sur 42mag.fr ce lundi 4 novembre. « Malheureusement, certains enfants ne sont plus là pour témoigner », déplore-t-elle. Parmi ces jeunes, deux adolescentes ont choisi de mettre fin à leurs jours.
Ces sept familles, membres du collectif Algos Victima, accusent le réseau social TikTok et son algorithme de mettre en péril leurs enfants en les exposant à des vidéos nocives prônant le suicide, l’automutilation et des troubles alimentaires. « Notre démarche est soutenue par de nombreux éléments concrets pour chaque témoignage de ces familles », précise l’avocate. Ce recours judiciaire s’ajoute à une plainte pénale déposée en 2023 par les parents de Marie, l’une des victimes qui s’est suicidée.
Une version chinoise « beaucoup plus contrôlée »
Maître Laure Boutron-Marmion critique sévèrement les pratiques du réseau social chinois. « Les plateformes de réseaux sociaux, et plus particulièrement TikTok, ne peuvent plus prétendre que les contenus publiés ne sont pas de leur ressort », assure l’avocate. Elle ajoute que TikTok est « au cœur du problème ». Pour elle, la preuve réside dans le fait que « la version chinoise de l’application est considérablement filtrée, et les contenus dangereux n’y existent pas », souligne-t-elle.
Grâce au flux « Pour toi » et à des algorithmes très performants, le réseau social présente des contenus personnalisés aux utilisateurs. « C’est là que se situe le principal problème de TikTok, car c’est un flux imposé aux utilisateurs, sans qu’ils aient besoin de chercher le contenu », souligne l’avocate. Maître Laure Boutron-Marmion insiste sur le fait que « toutes les études montrent qu’en seulement deux minutes, ces types de contenus, notamment ceux portant sur le suicide et l’automutilation, font leur apparition. Cela pose un sérieux problème ! Ces entreprises sont responsables de leur algorithme et ne peuvent aujourd’hui éviter leurs responsabilités », affirme-t-elle.