Trois adolescentes du Tennessee, aux Etats-Unis, ont déposé lundi une plainte collective contre xAI, la société d'intelligence artificielle d'Elon Musk, accusant son IA Grok d'avoir généré des images pornographiques d'elles à partir de véritables photographies.
Cette action en justice, susceptible de s'étendre à plus d'un millier de victimes mineures, est directement liée à la prolifération, autour du Nouvel An, de montages très réalistes (deepfake en anglais) de femmes et d'enfants dénudés, qui a suscité un tollé mondial et l'ouverture d'enquêtes dans plusieurs pays et en Californie.
La plainte, déposée devant un tribunal fédéral de San José (Californie), cite le cas d'un auteur, depuis lors arrêté, qui a utilisé Grok pour transformer des images ordinaires des jeunes filles, prises sur les réseaux sociaux ou dans des annuaires scolaires, en images sexualisées hyperréalistes.
Ces montages ont ensuite circulé sur les réseaux sociaux X (ex-Twitter), Discord et Telegram, puis migré vers le dark web, servant de monnaie d'échange pour d'autres contenus pédopornographiques, rapporte la plainte.
Trois millions d'images en 11 jours
"Voir ma fille faire une crise de panique en réalisant que ces images avaient été créées et diffusées sans espoir de les effacer a été déchirant", a déclaré la mère d'une d'elles, citée dans le communiqué diffusé par leurs avocates. L'une des plaignantes dit souffrir de cauchemars récurrents. Une autre a besoin d'un accompagnement médical pour dormir et redoute d'assister à sa cérémonie de diplôme.
XAI a "délibérément conçu Grok pour produire des contenus sexuellement explicites à des fins lucratives", sans mettre en place les protections utilisées par les autres grands acteurs de l'IA contre la pédopornographie, dénoncent les avocates.
La plainte est notamment fondée sur deux textes fédéraux américains, la loi Masha qui permet aux victimes de pédopornographie d'obtenir des dommages et intérêts, et la loi sur la protection des victimes de traite des êtres humains.
Les plaignantes réclament des dommages et intérêts et demandent que xAI soit empêchée de permettre ce type de montage.
Selon une étude du Center for Countering Digital Hate (CCDH), Grok aurait généré près de trois millions d'images sexualisées en seulement 11 jours à la fin 2025, dont 23'000 représentaient des mineurs.
Face au tollé, xAI avait restreint à la mi-janvier la génération d'images avec Grok à ses abonnés payant et a assuré bloquer la génération d'images sexualisées "au sein des juridictions où cela est illégal".
Cet article a été publié automatiquement. Sources : ats / afp