(PouSiOuPaTKonnen) – Les parents d’un garçon de 16 ans, en Californie, aux États-Unis, ont intenté une action en justice contre OpenAI le lundi 25 août 2025. Ils ont fait savoir que le chatbot de l’intelligence artificielle (IA) ChatGPT a donné des instructions à leur fils et l’a encouragé à se suicider.
Les parents sont Matthew et Marie Raine. Selon ce qu’ils ont fait savoir dans la plainte devant un tribunal, ChatGPT a établi une relation sentimentale avec leur fils Adam pendant plusieurs mois, entre 2024 et 2025 avant sa mort.
Selon la plainte, dans leur dernière conversation du 11 avril 2025, ChatGPT aurait aidé Adam à voler de la vodka à ses parents. Ensuite, l’IA lui aurait fourni une analyse technique d’un nœud coulant, confirmant qu’il « pouvait potentiellement suspendre un être humain ».
« ChatGPT fonctionnait exactement comme prévu : pour encourager et valider continuellement les expressions d’Adam, y compris ses pensées les plus dommageables et autodestructrices, d’une manière qui semblait profondément personnelle », a indiqué le texte juridique.
Selon les parents, Adam utilisait l’IA pour faire ses devoirs. Ensuite, il a développé ce qu’ils décrivent comme une « dépendance malsaine ». Les documents juridiques comprennent également un extrait de conversation : « Tu ne dois ta survie à personne ». Aussi, elle lui aurait proposé d’écrire sa lettre de suicide.
Interrogée sur cette affaire, l’organisation à but non lucratif américaine Common Sense Media a tiré la sonnette d’alarme. Elle a déclaré que ce processus confirme que « l’utilisation de l’IA comme compagnon, y compris les chatbots à usage général comme ChatGPT dans le conseil en santé mentale, est inacceptablement risquée pour les adolescents ».




