Sept familles ont déposé une plainte commune contre TikTok en France, accusant la plateforme vidéo d’exposer leurs adolescents à des contenus sur le suicide, l’automutilation, les troubles de l’alimentation et d’autres problèmes de santé mentale qui, selon elles, les ont encouragés à se faire du mal.
Les parents accusent TikTok de contribuer à « la dégradation de la santé physique et mentale de leurs enfants », a déclaré leur avocate Laure Boutron-Marmion à la radio Franceinfo.
Elle a déposé lundi une plainte civile en leur nom devant un tribunal de la région parisienne, a-t-elle annoncé, la décrivant comme l’une des premières en Europe à viser à forcer le réseau social chinois à assumer la responsabilité juridique des contenus potentiellement préjudiciables proposés par son réseau. algorithme.
L’une des plaignantes, mère d’une fille qui s’est tournée vers TikTok lorsqu’elle a été victime de harcèlement, a déclaré à Franceinfo : « L’algorithme a capté son style de recherche et lui a suggéré d’autres contenus qui allaient de mal en pis, sur la dépression et l’excision.
« TikTok a amplifié son mécontentement, l’inondant de contenu que les adolescents de son âge ne devraient jamais voir. »
Campagne juridique
Deux des familles ont perdu leurs adolescents par suicide, tandis que les autres affirment que leurs adolescents ont tenté de mettre fin à leurs jours ou ont souffert de troubles de l’alimentation.
Les sept familles font partie d’un collectif, Algos Victima, fondé par Boutron-Marmion plus tôt cette année pour intenter une action en justice en France contre les sociétés de médias sociaux pour avoir prétendument échoué à protéger les jeunes utilisateurs.
L’avocat a déjà porté plainte contre TikTok pour « incitation au suicide » suite à la mort d’une jeune fille de 15 ans qui s’est suicidée en 2021 après avoir publié sur la plateforme son combat en tant que victime de harcèlement.
Ses parents, qui ont également rejoint la poursuite collective, affirment que ses vidéos ont incité l’algorithme à lui montrer du contenu sur l’automutilation qui, selon eux, a contribué à son suicide.
La France admet des « échecs » dans la prévention du harcèlement et des suicides chez les adolescents
La France a jusqu’à présent peu fait pour étudier ou réglementer les effets potentiellement nocifs des médias sociaux, a déclaré Boutron-Marmion au site d’information juridique Actu Juridique en avril.
Elle appelle les entreprises à modérer les contenus susceptibles d’influencer les utilisateurs vulnérables, par exemple en masquant systématiquement les contenus sur le suicide.
Mais avant tout, elle espère que les poursuites engagées contre les géants des médias sociaux permettront de surveiller davantage leurs pratiques. Avoir l’opportunité de débattre publiquement avec leurs avocats sera une victoire en soi, a-t-elle déclaré, « puisqu’il est presque impossible de nos jours d’être entendu sur une plateforme de réseau social ».
Effet terrier de lapin
L’Union européenne a ouvert une enquête en février pour déterminer si TikTok en faisait suffisamment pour protéger les mineurs.
L’UE s’est déclarée préoccupée par le fait que la conception de l’application pourrait conduire les utilisateurs à en devenir dépendants ou à être entraînés dans une spirale de contenus potentiellement dangereux.
Amnesty International a documenté ce qu’elle appelle l’effet de lapin de l’algorithme de TikTok, avec des recherches révélant que les utilisateurs qui manifestent un intérêt pour les vidéos liées à la santé mentale se voient rapidement recommander du contenu sur les pensées dépressives, l’automutilation et le suicide dans le but de maintenir leur attention.
La France peine à décider quelle place devraient avoir les écrans dans les écoles
Les directives de TikTok interdisent de montrer ou de promouvoir le suicide, l’automutilation ou les troubles de l’alimentation, tandis que l’application indique que le contenu lié à la perte de poids, à la consommation de drogues et d’alcool, au sexe, au jeu et à d’autres comportements potentiellement à risque est réservé aux utilisateurs de plus de 18 ans.
Dans sa dernière mise à jour sur les mesures prises pour modérer le contenu au sein de l’UE, la société affirme avoir supprimé plus de 22 millions de contenus et banni plus de 5 millions de comptes pour avoir enfreint ses règles entre janvier et juin de cette année.
La plupart des vidéos incriminées sont supprimées par des systèmes de modération automatisés, précise-t-il, tandis que quelque 6 000 personnes sont impliquées dans la modération du contenu dans les différentes langues de l’UE.