Un nouveau procès déposé la semaine dernière devant le tribunal de district des États-Unis pour le district oriental du Kentucky, division Covington, allègue que les plateformes Roblox et Discord ont fait preuve de négligence en ne protégeant pas une jeune fille de 13 ans, identifiée comme Audree Heine, décédée par suicide.

Le procès a été intenté par sa mère, Jaimee Seitz, et accuse les deux sociétés d’autoriser le fonctionnement de communautés en ligne exposant les mineurs à des contenus violents et prédateurs.

Selon la plainte, Audree a été influencée par une « communauté en ligne vouée à glorifier la violence et à imiter des tireurs de masse notoires », un groupe qui a prospéré « grâce au comportement extrêmement illicite des accusés ». Le document identifie cette communauté comme la True Crime Community (TCC), décrite comme un espace qui « idolâtre les tireurs de masse et recoupe les idéologies violentes et extrémistes ».

Le groupe, selon le procès, vénère les auteurs du massacre du lycée de Columbine en 1999 dans l’État du Colorado, les décrivant comme des « parias incompris » et encourageant les comportements autodestructeurs et violents.

Le processus souligne le Roblox comme un « lieu central » pour la diffusion de ce type de contenu, y compris des jeux qui recréent des fusillades de masse passées, et cite le Discorde en tant que plate-forme utilisée pour partager des instructions sur la création de simulateurs d’attaque scolaire et d’avatars qui reproduisent l’apparence de tireurs connus.

« Grâce à leurs fausses déclarations généralisées sur la sécurité, les défendeurs présentent leurs applications comme des endroits appropriés pour que les enfants puissent jouer », indique la plainte. « En réalité, et comme les accusés le savent bien, conception de ses applications font des enfants des cibles faciles pour les comportements prédateurs.

Le texte allègue que des utilisateurs adultes et malveillants utilisent les plateformes pour attirer des enfants vulnérables à l’exploitation ou à la violence sexuelle. Le procès accuse également les entreprises de ne pas avoir adopté de systèmes adéquats de vérification de l’âge ou mis en œuvre des mécanismes de sécurité efficaces pour les mineurs.

La mère de la victime est représentée par le cabinet Anapol Weiss, basé à Philadelphie (Pennsylvanie), qui a déjà déposé 11 poursuites contre Roblox pour négligence présumée en matière de protection de l’enfance.

« Il ne s’agit pas d’une petite faille de sécurité, mais d’une entreprise qui fournit aux pédophiles des outils puissants pour attaquer des enfants innocents et sans méfiance », a déclaré Alexandra Walsh, associée du cabinet. « Le traumatisme qui en résulte est horrible, du toilettage à l’exploitation et aux abus sexuels. Dans ce cas, une enfant a perdu la vie. Cela doit cesser », a-t-il ajouté, selon les informations du portail. La poste chrétienne.

L’action en cours est la 12e affaire intentée par le bureau contre des plateformes de jeux en ligne pour manquement présumé à la protection des mineurs. Selon Anapol Weiss, ces actions témoignent d’une « tendance au mépris des entreprises à l’égard de la sécurité des enfants ».

Critique de la plateforme

Discord a été la cible de critiques pour sa prétendue inefficacité à protéger les enfants. Le Centre national contre l’exploitation sexuelle (NCOSE) a inscrit l’application sur la liste « Dirty Dozen » pour quatre années consécutives, qui regroupe les entreprises considérées comme négligentes dans la prévention de l’exploitation sexuelle.

Dans une note publiée en mars 2024, le NCOSE a déclaré que les mesures de sécurité annoncées par la plateforme « sont simplement formelles » et que « les adultes et les mineurs partagent toujours les mêmes paramètres par défaut pour les contenus explicites », ce qui permettrait aux mineurs d’accéder à la pornographie et au matériel sexuellement explicite sur les serveurs publics et les messages privés.

En novembre 2023, Roblox Corporation a annoncé de nouvelles politiques de sécurité des enfants, notamment le contrôle parental à distance des comptes, les limites d’utilisation quotidienne, les restrictions de communication pour les enfants de moins de 13 ans et le blocage du contenu graphique. « Depuis le lancement, nous avons une population croissante de jeunes utilisateurs et nous voulons les aider à rester en sécurité sur Roblox. Nous prenons la sécurité extrêmement au sérieux », a déclaré la société dans un communiqué.

Roblox a ajouté que son objectif est de « créer la plateforme en ligne la plus sûre et la plus civile possible, car c’est la bonne chose à faire pour les enfants, leurs parents et tuteurs, nos investisseurs et notre entreprise ».

A lire également