Les adultes bénéficieront de sécurités allégées concernant les réponses de l’IA, notamment s’ils initient des discussions à caractère érotique.
Les récentes restrictions sur ChatGPT vont être assouplies en décembre pour les adultes, notamment concernant les discussions à caractère érotique. C’est ce que Sam Altman, le dirigeant d’OpenAI a annoncé ce mardi 14 octobre, sur le réseau social X. Une position qu’il a dû clarifier dès le lendemain pour rassurer les internautes craignant un retour en arrière sur les règles de sécurité.
ChatGPT : des échanges plus libres pour les adultes dès décembre
Sam Altman rappelle dans son tweet que les garde-fous décriés visaient à prendre un maximum de précautions face aux questions de santé mentale. Il dit, toutefois, avoir conscience que ces mesures avaient rendu ChatGPT « moins utile ou agréable pour de nombreux utilisateurs sans problèmes de ce type ».
Le chef d’entreprise justifie désormais l’allégement des restrictions par la volonté d’OpenAI de « traiter les utilisateurs adultes comme des adultes ». Selon lui, les failles de l’IA ont depuis été suffisamment atténuées pour permettre l’assouplissement de ces mesures. D’où la possibilité pour les personnes majeures, à partir de décembre, d’entretenir des conversations érotiques avec ChatGPT.
Avant cela, des premières modifications seront apportées à l’assistant conversationnel. « D’ici quelques semaines, nous prévoyons de publier une nouvelle version de ChatGPT qui permettra aux utilisateurs de choisir une personnalité se comportant davantage comme ce que les gens appréciaient dans 4o (nous espérons qu’elle sera encore meilleure !) », a indiqué Sam Altman.
Concrètement, les utilisateurs pourront avoir des discussions plus « humaines » avec l’IA, qui sera capable, sur demande, de répondre avec beaucoup d’émojis ou comme s’il s’agissait d’un ami.
Liberté VS sécurité : OpenAI tiraillé entre deux camps
Ces annonces sont une réponse directe aux internautes qui s’étaient plaints des réponses plus froides de GPT-5, sorti début août, par rapport au précent modèle « 4o ». Ou encore à ceux qui avaient qualifié de « censure » les récents dispositifs de sécurité.
Des protections qu’OpenAI avait été « forcé » de mettre en place suite au dépôt de plainte des parents d’Adam Raine, un adolescent américain qui s’était suicidé avec l’appui, d’après l’accusation, de ChatGPT.
Une affaire parmi d’autres, qui ont relancé les débats autour des risques des chatbots sur la santé mentale, en particulier chez les jeunes. Certains utilisateurs se serviraient en effet de l’intelligence artificielle comme d’un confident, d’un ami, voire dans certains cas, d’un « amoureux ». Sans parvenir parfois à distinguer le réel du virtuel.
La « Federal Trade Commission » (FTC), l’agence indépendante chargée de la protection des consommateurs américains, a ouvert une enquête à ce sujet. OpenAI fait partie des sociétés dans son collimateur.
Comment continuer à protéger les personnes vulnérables sur ChatGPT ?
Les échanges érotiques avec ChatGPT ne seront pas pour autant autorisés sans garde-fous. La mise en place d’un filtrage par l’âge doit permettre de réserver ce type de contenus aux adultes.
Dans un second tweet, publié le lendemain, Sam Altman a d’ailleurs tenu à rassurer les utilisateurs craignant un retour en arrière sur les protections mises en place pour les mineurs et les personnes vulnérables.
Il y précise qu’OpenAI ne relâchera aucune politique liée à la santé mentale ou aux contenus à risque :
« Nous n’autoriserons toujours pas les contenus ou comportements susceptibles de nuire à autrui, et nous traiterons très différemment les utilisateurs avec problèmes de santé mentale de ceux qui n’en ont pas. »
D’après lui, la protection des adolescents reste également une priorité. « Nous faisons le choix de privilégier la sécurité à la vie privée et à la liberté pour les adolescents », écrit-il, en référence notamment aux nouvelles possibilités de contrôle parental, depuis l’affaire Adam Raine.
Pour autant, Altman souligne qu’OpenAI « n’est pas la police morale élue du monde ». L’entreprise souhaite s’inspirer du modèle de société qui établit déjà des limites d’âge pour certains types de contenus, comme les films classés R aux Etats-Unis (« Rated R », pour « Restricted »). Cette approche, explique-t-il, doit permettre d’équilibrer liberté et responsabilité : offrir aux adultes la possibilité d’utiliser l’IA comme ils le souhaitent, tout en protégeant les publics à risque.
Avec cette évolution, OpenAI cherche à donner plus d’autonomie aux utilisateurs adultes, tout en consolidant les protections destinées aux mineurs. Ces changements, s’ils suscitent déjà débats et inquiétudes, marquent aussi une nouvelle étape dans la vision qu’a l’entreprise de ChatGPT. Elle semble vouloir faire de son assistant non plus seulement un outil, mais un compagnon numérique personnalisable, capable de s’adapter aux besoins, aux envies, et désormais à la sensibilité de chacun.
Que pensez-vous de cette évolution ? Souhaitez-vous pouvoir explorer toutes les possibilités de l’IA ou mieux vaut-il trop de sécurité que pas assez ?
Certains liens de cet article peuvent être affiliés.