Après la plainte déposée par les parents d’un adolescent, qui se serait suicidé avec l’aide de ChatGPT, OpenAI a annoncé des mesures pour améliorer le contrôle parental sur son IA.
Adam Raine, un adolescent américain de 16 ans s’est suicidé en avril dernier, après des échanges avec ChatGPT, qui lui aurait donné des conseils sur la manière de procéder. Une semaine après le dépôt d’une plainte par ses parents contre OpenAI, la société de Sam Altman a annoncé, ce mardi 2 septembre, des mesures pour mettre en place un contrôle parental.
« Dépendance malsaine » à ChatGPT : la plainte des parents d’Adam Raine
Matthew et Maria Raine avaient déposé plainte lundi 25 août, à San Francisco, contre OpenAI, déclarant que ChatGPT avait poussé leur fils de 16 ans, Adam, au suicide, en avril 2025. Ils y affirmaient alors que l’adolescent avait entrenu des discussions intimes avec l’intelligence artificielle, en 2024 et 2025, dans les mois précédant sa mort.
Selon un document officiel, les derniers messages dateraient de quelques heures avant qu’Adam Raine n’ait été retrouvé pendu. L’agent conversationnel d’OpenAI aurait aidé l’adolescent à voler de la vodka chez ses parents et à réaliser un noeud coulant, en confirmant qu’il était en capacité de « suspendre un être humain ».
Les parents d’Adam ont également parlé d’une « dépendance malsaine » à ChatGPT. L’IA lui aurait servi, dans un premier temps, d’aide pour ses devoirs, avant de devenir son confident. ChatGPT lui aurait mis en tête, entre autres, qu’il ne devait « la survie à personne », et proposé d’écrire sa lettre d’adieu.
La plainte affirme qu’il ne s’agissait pas d’un bug, mais qu’au contraire, ChatGPT avait fonctionné comme prévu, en « encourageant et en validant en permanence tout ce qu’Adam exprimait », même ses idées les plus sombres.
OpenAI annonce des mesures de contrôle parental
Avec cette plainte, déposée la semaine dernière, Matthew et Maria Raine réclamaient des dommages et intérêts, et attendaient de la justice la mise en place d’une nouvelle réglementation. Ils demandaient, entre autres, l’arrêt automatique de toute discussion abordant l’automutilation et des contrôles parentaux pour les mineurs.
Forcé de réagir, OpenAI a, de ce fait, annoncé ce mardi 2 septembre, de nouvelles mesures pour la mise en place d’un contrôle parental sur ChatGPT. Dans un article de blog cité par Le Monde, l’entreprise de Sam Altman déclare que, dans le mois qui vient, « les parents pourront lier leur compte avec celui de leur adolescent », en lui envoyant une invitation par mail.
Ceci devrait permettre aux parents :
- de contrôler la manière dont ChatGPT répond à leur enfant avec des « règles de comportement du modèle » ;
- de contrôler les paramètres de son compte, comme la mémoire et l’historique des messages ;
- d’être avertis en cas de détection de « signes de détresse aiguë ».
Les défaillances de l’IA dans les situations à risque
Pour sa défense, OpenAI affirme que ChatGPT avait initialement incité Adam, et ce, à plusieurs reprises, à consulter des professionnels de santé. L’intelligence artificielle est en effet programmée pour renvoyer les personnes suicidaires vers des numéros d’urgence.
L’entreprise explique que « OpenAI oriente certaines discussions sensibles, par exemple lorsqu’un signe de détresse aiguë est détecté, vers des modèles de raisonnement comme “GPT-5-thinking”. » Il s’agit, en fait, de modèles plus rigoureux sur l’application des consignes de sécurité .
La société ajoute que son assistant conversationnel a ensuite échoué à décourager Adam à passer à l’acte, notamment car celui-ci lui aurait fait croire qu’il parlait d’un exemple fictif.
Certains signaux graves, comme la photo d’un noeud coulant envoyée par l’adolescent, auraient dû toutefois être détectés par l’IA. OpenAI assure tout mettre en oeuvre pour y remédier.
La facilité avec laquelle Adam Raine a déjoué les protocoles de sécurité de ChatGPT pose, en tout cas, question. Même si les IA peuvent être utiles dans le domaine médical, le suicide de l’adolescent relance plusieurs débats, comme leur impact sur la santé mentale. Mais aussi, autour de la modération des plateformes numériques et la nécessité d’un cadre réglementaire, par exemple pour protéger les mineurs. Après les réseaux sociaux comme Facebook, TikTok, Instagram ou Snapchat, il y a fort à parier que les IA feront, elles aussi, de plus en plus l’objet de nouvelles normes. Et vous, que proposeriez-vous pour mieux protéger les enfants ?
Certains liens de cet article peuvent être affiliés.